spark phoenix 读取 hbase 数据量非常大的情况下怎么处理?

问答 陌上花开 ⋅ 于 2018-05-11 14:53:11 ⋅ 最后回复由 青牛 2018-05-17 22:52:15 ⋅ 4741 阅读

val user = sqlContext.load(
"org.apache.phoenix.spark",
Map("table" -> "user", "zkUrl" -> "192.168.159.129:2181")
).rdd.map(x => {
val userName = x.getAs("userName").toString
val gender = x.getAs("gender").toString
(userName,gender)
})

类似于这样读取hbase中的表, hbase表中数据量非常大,该怎么处理?

成为第一个点赞的人吧 :bowtie:
回复数量: 3
  • 青牛 海汼部落创始人,80后程序员一枚,曾就职于金山,喜欢倒腾技术做产品
    2018-05-12 12:44:54

    你这个是全表扫描吧,你指定范围去读呗,指定好family和一次从服务端拿取的数据条数,还有不使用服务端缓存

  • 陌上花开
    2018-05-14 15:19:05

    @青牛 怎么去限制读取数据条数?

  • 青牛 海汼部落创始人,80后程序员一枚,曾就职于金山,喜欢倒腾技术做产品
    2018-05-17 22:52:15

    @陌上花开 scan对象的cache方法

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter