hadoop 环境搭建完成后接下来该做什么?

问答 BigTester ⋅ 于 2018-01-19 09:43:59 ⋅ 最后回复由 青牛 2018-01-19 10:53:46 ⋅ 3618 阅读

在实际生产过程中,部署完hadoop环境如何进行下一步开发工作?假如开发一个大数据分析平台功能接下来需要准备做哪些工作?

成为第一个点赞的人吧 :bowtie:
回复数量: 1
  • 青牛 海汼部落创始人,80后程序员一枚,曾就职于金山,喜欢倒腾技术做产品
    2018-01-19 10:53:46

    数据上报,相关产品对接数据埋点,可以理弄个埋点管理系统。接下用mr,hive或spark做数据的ETL,弄好结构化数据,然后再建数据仓储,之后就能用hive或spark-sql做数据的分析。再弄个报表系统出报表用hue或者esayreport都可以。涉及到流式计算的话可以用kafka和spark-streaming。

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter