• 现在问不了问题? at 2024-11-10 22:21:00

    file

  • 现在问不了问题? at 2024-11-10 21:06:14

    @青牛 同步了的,改完之后分发了

  • 现在问不了问题? at 2024-11-10 20:31:37

    file

  • HDFS 动态增加节点每次都要重启实验才行是为什么? at 2024-11-09 22:38:29

    @qiqiqiqiq 问题已解决,slaves文件应该修改/opt下的hadoop而不是/usr/local下的hadoop。

  • HDFS 动态增加节点每次都要重启实验才行是为什么? at 2024-11-09 15:07:48

    @青牛 那我应该怎样排查是哪里的问题呀老师,我java和hadoop的环境变量都没问题,/usr/local/hadoop-2.7.3/etc/下面放的是/public/config/hdfs_conf.tar.gz解压过来的,/etc/hosts/etc/hostname所有机器都改了,/usr/local/hadoop-2.7.3/etc/hadoop/slaves里也添加了新的节点,然后就是我新节点下面的/opt是在其他数据节点拷过来的,因为安装完hadoop这个目录也是空的。那个hadoop组件里所有节点都是root用户登录的我也就没配新节点的免密登录。
    还有就是我发现在重启实验之后新节点的进程里才有NodeManager,在重启之前只有Jps和DataNode,不知道这个现象能不能看出为什么只有重启实验之后新的节点才能被识别。