当你遇到 org.apache.kafka.common.errors.TimeoutException: Timeout expired while fetching topic metadata 这个错误时,通常意味着Kafka客户端在尝试获取主题元数据时超时了。这个问题可能由多种原因引起,下面是一些排查和解决这个问题的步骤: 确认Kafka服务状态: 首先,确保Kafka服务正在运行。你可以通过查看Kafka服务...
org.apache.kafka.common.errors.TimeoutException:Timeout expired while fetching topic metadata 经排查,是因为需要配置hosts: 10.241.192.1 br-apm-001 10.241.192.1 ibr.cc 原因是kafka客户端连接到broker是成功的,但连接到集群后更新回来的集群meta信息是错误的即是会返回的是节点的hostname,解决办法就是手动配置...
但还是报timeout expired while fetching topic metadata 由于我用的是utools的工具插件,打开 cmd ping node1 ping不通 重新改变一下顺序,终于成功了 结论是windows hosts的文件没改,连接不上.文章标签: 云消息队列 Kafka 版 消息中间件 Kafka Windows Linux 大数据 关键词: 云消息队列 Kafka 版报错 云消息队列...
然后成功了,雀跃了一把 但还是报timeout expired while fetching topic metadata 由于我用的是utools的工具插件,打开 cmd ping node1 ping不通 重新改变一下顺序,终于成功了 结论是windows hosts的文件没改,连接不上.
timeout expired while fetching topic metadata 这个错误 ,然后四处百度,发现了问题, 解决办法是修改kafka的kafka_2.11-2.1.0/config/路径下的server.properties文件 advertised.listeners=PLAINTEXT://zjj101:9092 1. zjj101是当前服务器的ip,然后保存配置,重启kafka, 即可解决这个问题....
不报错了 节点只有一个,盲猜是id号没改 然后成功了,雀跃了一把 但还是报timeout expired while fetching topic metadata 由于我用的是utools的工具插件,打开 cmd ping node1 ping不通 重新改变一下顺序,终于成功了 结论是windows hosts的文件没改,连接不上....
ailed to start bean 'org.springframework.kafka.config.internalKafkaListenerEndpointRegistry'; nested exception is org.apache.kafka.common.errors.TimeoutException: Timeout expired while fetching topic metadata 看到日志中还包含有: [Consumer clientId=consumer-1, groupId=testGroup] Connection to node -1...
三、Timeout expired while fetching topic metadata 第二天开发发现上面错误,解决方法竟然是打开对应端口的防火墙! firewall-cmd --zone=public --add-port=9092/tcp --permanent firewall-cmd --reload 四、kafka启动OpenJDK 64-Bit Server VM warning: INFO: os::commit_memory(0x00000000c0000000, 1073741824...
可参考QA:为什么Flink和Kafka之间的网络是连通的,但是依然会有timeout expired while fetching topic ...
Timeout expired while fetching topic metadata GSQL > I know there is nothing wrong with the broker because that is getting used everywhere at our company. The broker has SSL, so I have those props as well in the kafka config: {