按照海牛的部署教程,在使用 ./ssh_root.sh tar -xzf /tmp/hadoop-2.7.3.tar.gz -C /usr/local/ 时,提示 sudo: 没有终端存在,且未指定 askpass 程序,求解决
按照海牛的部署教程,在使用 ./ssh_root.sh tar -xzf /tmp/hadoop-2.7.3.tar.gz -C /usr/local/ 时,提示 sudo: 没有终端存在,且未指定 askpass 程序,求解决
你把exe.sh脚本放到每个虚拟机上了吗?
@青牛 嗯,每台机器都放了
@青牛 如果用 ssh -t 就能够执行,但会提示输入hadoop用户密码
@hainiu4mark 主机到每台机器的ssh免密配置好了吗?还有每台机器的wheel组设置成功了吗?
@青牛 都设置了,而且有些命令是能够执行成功的,有些不行
@青牛 再请教个问题,我在执行 hadoop-daemons.sh start datanode 启动节点服务时,报错提示 s1.hadoop: /usr/local/hadoop/sbin/hadoop-daemon.sh:行165: /usr/local/hadoop/pids/hadoop-hadoop-datanode.pid: 权限不够,这个是什么原因啊
@hainiu4mark 你是用什么用户启动的hadoop,看一下/usr/local/hadoop这个目录的权限所属用户
@青牛 用 hadoop 用户启动的,/usr/local/hadoop 这个目录所属用户是hadoop,读写执行权限都有,现在执行 /usr/local/hadoop/sbin/stop-dfs.sh 关闭也报错 nn2.hadoop: rm: 无法删除"/usr/local/hadoop/pids/hadoop-hadoop-namenode.pid": 权限不够
在每台机器上执行一下 chown -R hadoop:hadoop /usr/local/hadoop
@hainiu4mark
@青牛 解决了,是这个目录的所有者和组不对,改成hadoop就行了,感谢大神
@hainiu4mark 以后启集群或安装大数据软件都要使用hadoop用户,避免再引起其它问题
@青牛 嗯,多谢大神指点