海汼部落
  • 首页
  • 课程
  • 实战
  • 云平台
  • 部落
  • 公告
  • 分享
  • 问答
    登 录 注册
牛仕

123456789987654321

第 3886 位会员

7 关注者
36 评论
86 话题

  • GitHub
  • WeChat
  • 公司
  • 城市
  • Ta 发布的话题
  • Ta 发表的回复
  • Ta 关注的用户
  • Ta 赞过的话题
  1. 个人中心
  2. Ta 发表的回复(36)
  • Hbase 数据迁移

    奶牛老师这头像真帅喔

  • 通过 Spark ThriftServer 查询 Hive 效率太慢,有没有优化办法?

    使用kyuubi替换hiveserver2

  • HDFS 写数据时,DataNode 为什么是串行写?

    1提高性能:通过流水线式的写入方式,可以减少网络延迟和带宽的使用,从而提高整体的写入性能。
    2.简化系统设计:采用串行写的方式,可以简化系统的复杂度,避免在多个DataNode之间进行复杂的协调和同步操作。
    3.数据可靠性:HDFS采用了冗余存储的方式,每个数据块都会复制多份存储在不同的DataNode上。如果采用并行写的方式,可能会导致不同副本之间的数据不一致,影响数据的可靠性。因此,通过串行写的方式,可以在写入过程中确保各个副本的一致性。

  • [下载] Flink 教程

    奶牛是野牛

  • [下载] Hadoop3 教程

    奶牛奶很大的牛

  • [下载] Hive 教程

    奶牛奶很大的牛

  • [下载] StructuredStreaming 教程

    奶牛,奶大得牛,野牛牛

  • flink 连 kafka 的方式是什么?直连还是?

    用flinksql cdc 直连就行了
    https://nightlies.apache.org/flink/flink-docs-release-1.12/dev/table/connectors/kafka.html

  • 我照着海牛的视频部署集群,结果配置到 myql 的时候报错

    看着像是mysql密码初始化了两边,网上有教程,弄一下就好了,我原来遇到过

  • jar 包打包失败,试了一晚上了,也没大成功?

    @青牛 编译过了,看到的内容是一样的,我再试试,谢谢大哥

  • jar 包打包失败,试了一晚上了,也没大成功?

    @青牛
    还是不行大哥
    file

  • 最简单高效的 JSON 转 CSV

    mapreduce支持monogdb的

  • 企业级 NGINX 配置 1

    第五步测试访问的图片

    file

  • 企业级 NGINX 配置 2

    file防盗链原理图

  • HIVE 基础-->安装,建表 (前两天)

    @青牛 像我何大哥学习

  • «
  • 1
  • 2
  • 3
  • »

为技术学习者提供一个动手实战、分享创造、结识伙伴、协同互助的平台。    

  京公网安备 11011402010672号        京ICP备17041118号-2