没有启动的问题,可以按照以下步骤进行排查和解决: 1. 检查dfszkfailovercontroller服务状态 首先,使用jps命令查看当前Java进程,确认dfszkfailovercontroller是否在运行。如果没有看到该进程,说明服务未启动。 shell jps 2. 确认服务未启动的原因 服务未启动可能有多种原因,包括但不限于配置错误、
zookeeper 启动显示started,jps查看进程却没有,DFSZKFailoverController启动显示,jps查看进程却没有的解决方法,程序员大本营,技术文章内容聚合第一站。
一直启动start-dfs.sh 后(DFSZKFailoverController进程没有启动) 在stop-dfs.sh后提示(no zkfc to stop) 解决方法: 然后回去查看那个hadoop四个重要配置文件core-site.xml,hdfs-site.xml,yarn-site.xml,map-site.xml 由于我是在start-dfs.sh才能调起DFSZKFailoverController 所以不关yarn-site.xml,map-site.x...
在启动Hadoop成功后,并没有报错信息,jps查看进程,发现DFSZKFailoverController没有启动成功,后来发现是因为防火墙的原因,关掉重试就OK了 systemctl stop firewalld
启动Hadoop时DFSZKFailoverController没有启动,在启动Hadoop成功后,并没有报错信息,jps查看进程,发现DFSZKFailoverController没有启动成功,后来发现是因为防火墙的原因,关掉重试就OK了
参考:hadoop HA (no zkfc to stop) DFSZKFailoverController进程没有启动 - 走看看 (zoukankan.com) 检查配置文件hdfs-site.xml的dfs.ha.fencing.methods的配置是否未换行 需要修改为换行才对 __EOF__
但是一直再start-dfs.sh 后(DFSZKFailoverController进程没有启动) 在stop-dfs.sh后提示(no zkfc to stop) 我一开始当然顺势去看日志(程序员不看日志处理,还能干什么?) 因为在start-dfs.sh看到 看到zkfc的日志在$HADOOP_HOME/log下的hadoop-root-zkfc-package.out,那log就估计也在这里了。
一直启动start-dfs.sh 后(DFSZKFailoverController进程没有启动) 在stop-dfs.sh后提示(no zkfc to stop) 解决方法: 然后回去查看那个hadoop四个重要配置文件core-site.xml,hdfs-site.xml,yarn-site.xml,map-site.xml 由于我是在start-dfs.sh才能调起DFSZKFailoverController ...