海汼部落
  • 首页
  • 课程
  • 实战
  • 云平台
  • 部落
  • 公告
  • 分享
  • 问答
    登 录 注册
牛仕

AIZero

第 4206 位会员

7 关注者
10 评论
10 话题

  • Ta 发布的话题
  • Ta 发表的回复
  • Ta 关注的用户
  • Ta 赞过的话题
  1. 个人中心
  2. Ta 发表的回复(10)
  • flink 项目中遇到两个没法处理的 bug?

    @青牛 我看了基本是运行了20分钟左右就会报出第二种错误,是kafka配置了最长只能连接那么长时间吗?

  • flink 项目中遇到两个没法处理的 bug?

    @青牛 查了下好像是kafka09的一个问题,不是很懂

  • flink 项目中遇到两个没法处理的 bug?

    @青牛 我也不知道,程序运行几分钟后自己出现Cancel了

  • ETL 中优化的一些问题?

    @青牛 好的,我去试试

  • 公司日志采集用 flume 还是用脚本?

    @潘牛 配置hdfs目录中有一个疑问比如这样配置,a1.sinks.k1.hdfs.path = hdfs://ns1/user/hadoop/access/%Y/%m%d/%H,
    目录0902/03的数据是上午2:00-3:00区间的数据,就是3点的数据是前面区段的数据,有点不符合平常认知。我希望目录为0902/02指向2:00-3:00的数据。在shell脚本中可以用date=date -d "1 day ago" +%Y%m%d%H,用来获取前一小时的日期,但是在flume的配置文件中加上这条语句后,hdfs://ns1/user/hadoop/access/%Y/%m%d/%H时间并不会受到影响。有什么办法能修改吗,还是flume采取的日志大家都默认指向前一个时间段。

  • 数据仓库阶段:UDF 函数与字典表该如何抉择?

    @青牛 假如源数据到ODS层跑MapReduce的代码中直接封装了UDF函数转换的逻辑,成为一个比较大的jar包,进行数据清洗,这是第一种方案。第二种方案,先一个专门跑MapReduce的jar包,到ODS层,然后从ODS层到DWD层中用UDF的jar包进行数据转换。这两种方案哪个更好,老师能详细说说最初数据清洗跑jar包和hive中用UDF的jar包底层实现有什么区别吗?

  • MR 中 Job 提交过程源码分析总结

    @青牛 嗯嗯,谢谢老师,昨天总的流程过了几遍,最近会把MR的源码部分总结完

  • 二分查找法的一些思考

    @青牛 在文档里写的能显示,我下次会贴图,这次的计算过程可以忽略的

  • 二分查找法的一些思考

    @青牛 数学表达式没有输出来有点可惜,数学忘了的我算了好久

为技术学习者提供一个动手实战、分享创造、结识伙伴、协同互助的平台。    

  京公网安备 11011402010672号        京ICP备17041118号-2