用 sparkstreaming 消费kafka的数据,怎么将数据写入到hdfs的输入流,采用追加的方式写入?

问答 歌唱祖国 ⋅ 于 2018-02-07 00:42:48 ⋅ 最后回复由 歌唱祖国 2018-02-19 23:45:31 ⋅ 6954 阅读

用sparkstreaming消费kafka的数据,怎么将数据写入到hdfs的输入流,采用追加的方式写入?具体能用哪个方法?能否上个code demo?请教大神

成为第一个点赞的人吧 :bowtie:
回复数量: 3
  • 青牛 海汼部落创始人,80后程序员一枚,曾就职于金山,喜欢倒腾技术做产品
    2018-02-07 21:27:00

    追加写入那就每个partation写不同的文件

  • 歌唱祖国 不要跟过去的自己比,要期待未来的自己,珍爱现在的自己。
    2018-02-08 10:18:25

    具体用的是哪个方法呢?

  • 歌唱祖国 不要跟过去的自己比,要期待未来的自己,珍爱现在的自己。
    2018-02-19 23:45:31

    @青牛 实际的需求是一直实时地消费kafka的数据,放入到每天的目录下,但是会做一个数据判断,追加到该天的数据目录下。现在发现写入hdfs的效率很低,每秒大概插入了7-8条数据,太慢了。把每条数据转成字节流,hdfs的输入流写入hdfs。有没什么好的建议,提升一下效率。大神指点一下。

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter