1、集群启动的时候,从节点的datanode没有启动
问题原因:从节点的tmp/data下的配置文件中的clusterID与主节点的tmp/data下的配置文件中的clusterID不一致,导致集群启动时,hadoop会杀死从节点的datanode进程。
解决方案:
a) 将集群关闭;
b) 删除你在hadoop配置中设置的tmp下的data和name中的内容(每一个节点都要做这个操作)
c) 重新格式化一次hdfs
d) 重启集群,问题解决
2、集群启动时,jps显示所有的hadoop进程都已经存在,但是宿主机的浏览器打不开监控页面
问题原因:集群中的所有节点的防火墙没有被禁用,导致宿主机无法访问监控界面。
解决方案:
a) 将防火墙禁用(每一个节点都要做这个操作)
centos 7:
systemctl stop firewalld.service #停止
systemctl disable firewalld.service #禁用
之前的版本:
service iptables stop #停止
chkconfig iptables off #禁用
b) 问题解决。