HDFS 动态增加节点每次都要重启实验才行是为什么?

问答 qiqiqiqiq ⋅ 于 2024-11-09 10:47:13 ⋅ 最后回复由 qiqiqiqiq 2024-11-09 22:38:29 ⋅ 160 阅读

老师你好,我在进行HDFS动态节点增加时,配置了新的数据节点之后,在名称节点hdfs dfsadmin -refreshNodes也不能让新的数据节点被识别,必须要保存镜像重启实验才行。同样负载均衡也不能让在同一次实验内让新的数据节点参与进来,也要重启实验才生效。
我使用的组件是Hadoop+Linux,是否是这个原因吗,需要所有机器都从Linux开始配置吗

成为第一个点赞的人吧 :bowtie:
回复数量: 3
  • 青牛 海汼部落创始人,80后程序员一枚,曾就职于金山,喜欢倒腾技术做产品
    2024-11-09 11:03:21

    跟我们平台的 重启实验 没关系,是你自己安装的问题,是不是新的linux机器没配置好。你想想为什么重启实验好使?因为重启实验同样会重启你的hadoop程序,也就是说你现在的情况是不能动态添加只能重启整个hadoop集群来解决

  • qiqiqiqiq
    2024-11-09 15:07:48

    @青牛 那我应该怎样排查是哪里的问题呀老师,我java和hadoop的环境变量都没问题,/usr/local/hadoop-2.7.3/etc/下面放的是/public/config/hdfs_conf.tar.gz解压过来的,/etc/hosts/etc/hostname所有机器都改了,/usr/local/hadoop-2.7.3/etc/hadoop/slaves里也添加了新的节点,然后就是我新节点下面的/opt是在其他数据节点拷过来的,因为安装完hadoop这个目录也是空的。那个hadoop组件里所有节点都是root用户登录的我也就没配新节点的免密登录。
    还有就是我发现在重启实验之后新节点的进程里才有NodeManager,在重启之前只有Jps和DataNode,不知道这个现象能不能看出为什么只有重启实验之后新的节点才能被识别。

  • qiqiqiqiq
    2024-11-09 22:38:29

    @qiqiqiqiq 问题已解决,slaves文件应该修改/opt下的hadoop而不是/usr/local下的hadoop。

暂无评论~~
  • 请注意单词拼写,以及中英文排版,参考此页
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`, 更多语法请见这里 Markdown 语法
  • 支持表情,可用Emoji的自动补全, 在输入的时候只需要 ":" 就可以自动提示了 :metal: :point_right: 表情列表 :star: :sparkles:
  • 上传图片, 支持拖拽和剪切板黏贴上传, 格式限制 - jpg, png, gif,教程
  • 发布框支持本地存储功能,会在内容变更时保存,「提交」按钮点击时清空
Ctrl+Enter