在启动Hadoop成功后,并没有报错信息,jps查看进程,发现DFSZKFailoverController没有启动成功,后来发现是因为防火墙的原因,关掉重试就OK了 systemctl stop firewalld 1.
一直启动start-dfs.sh 后(DFSZKFailoverController进程没有启动) 在stop-dfs.sh后提示(no zkfc to stop) 解决方法: 然后回去查看那个hadoop四个重要配置文件core-site.xml,hdfs-site.xml,yarn-site.xml,map-site.xml 由于我是在start-dfs.sh才能调起DFSZKFailoverController 所以不关yarn-site.xml,map-site.x...
参考:hadoop HA (no zkfc to stop) DFSZKFailoverController进程没有启动 - 走看看 (zoukankan.com) 检查配置文件hdfs-site.xml的dfs.ha.fencing.methods的配置是否未换行 需要修改为换行才对
在启动Hadoop成功后,并没有报错信息,jps查看进程,发现DFSZKFailoverController没有启动成功,后来发现是因为防火墙的原因,关掉重试就OK了 systemctl stop firewalld
启动Hadoop时DFSZKFailoverController没有启动 在启动Hadoop成功后,并没有报错信息,jps查看进程,发现DFSZKFailoverController没有启动成功,后来发现是因为防火墙的原因,关掉重试就OK了 systemctl stop firewalld
但是一直再start-dfs.sh 后(DFSZKFailoverController进程没有启动) 在stop-dfs.sh后提示(no zkfc to stop) 我一开始当然顺势去看日志(程序员不看日志处理,还能干什么?) 因为在start-dfs.sh看到 看到zkfc的日志在$HADOOP_HOME/log下的hadoop-root-zkfc-package.out,那log就估计也在这里了。
一直启动start-dfs.sh 后(DFSZKFailoverController进程没有启动) 在stop-dfs.sh后提示(no zkfc to stop) 解决方法: 然后回去查看那个hadoop四个重要配置文件core-site.xml,hdfs-site.xml,yarn-site.xml,map-site.xml 由于我是在start-dfs.sh才能调起DFSZKFailoverController ...