flink 消费 kafka 数据 如何保证同一分区的顺序一致性?

问答 张浩 ⋅ 于 2021-11-30 23:03:13 ⋅ 最后回复由 张浩 2021-12-01 21:20:33 ⋅ 2799 阅读

前提:producer 按照key 分区,如下图
file
按照以上代码,相同的key的数据应该进入同一分区。
出现问题:
flink 未按照正确的顺序,消费kafka的相同key数据。
案例:
file
问题1 : 前提数据中间有写入oracle的情况
过了大概一个小时才处理之前发送的消息
问题2:
先消费了后发送的消息

老师,您说分区间保持one to one
是什么意思,该如何设置呢

点赞
成为第一个点赞的人吧 :bowtie:
回复数量: 2
  • 青牛 海汼部落创始人,80后程序员一枚,曾就职于金山,喜欢倒腾技术做产品
    2021-12-01 03:06:39

    flink以后的问题吧,分区之间保证one to one的传输

  • 张浩
    2021-12-01 21:20:33

    file
    问题1 : 前提数据中间有写入oracle的情况
    过了大概一个小时才处理之前发送的消息
    问题2:
    先消费了后发送的消息

    老师,您说分区间保持one to one
    是什么意思,该如何设置呢

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter