KafkaTimeoutError: Failed to update metadata after 60.0 secs 错误表明 Kafka 客户端在尝试更新元数据(metadata)时,在指定的超时时间(60秒)内未能成功完成。元数据是 Kafka 中关于主题、分区、副本等信息的描述,对于客户端来说,正确的元数据是执行生产或消费操作的前提。
ERROR Error when sending message to topic test with key: null, value: 2 bytes with error: Failed to update metadata after 60000 ms. 解决方案: 这样的问题需要修改broker的配置文件config/server.properties来解决: 1 advertised.host.name=你的IP地址(不能为hostname,一定要是IP地址。如果需要从外网访问,...
最近部门使用的Kafka从v0.8.2升级到v1.1.1,遇到了几个错误,记录一下。 1、Failed to update metadata after 在灰度producer的时候,遇到了这个问题。 [org.apache.kafka.common.errors.TimeoutException](http://org.apache.kafka.common.errors.timeoutexception/): Failed to update metadata after 60000 ms. 以...
ERROR Error when sending message to topic test with key: null, value: 2 bytes with error: Failed to update metadata after 60000 ms. 解决方案: 这样的问题需要修改broker的配置文件config/server.properties来解决: advertised.host.name=你的IP地址(不能为hostname,一定要是IP地址。如果需要从外网访问,则...
kafka.errors.KafkaTimeoutError: KafkaTimeoutError: Failed to update metadata after 60.0 secs. telnet >>> telnet 127.0.0.1 9092 Trying 127.0.0.1... Connected to 127.0.0.1. Escape character is '^]'. Ubuntu==20.04 Python==3.8.5 kafka-python==2.0.2...
java:55) Caused by: org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms. 生产者的 Java 代码是: package com.soft; import java.util.Properties; import java.util.concurrent.Future; import org.apache.kafka.clients.producer.Producer; import org.apache.kafka....
(KafkaProducerExample.java:55)Caused by: org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms.对于 bootstrap.server,我什至尝试过以下操作:props.put("bootstrap.servers", "PLAINTEXT://192.168.xxx.xxx:9092");请注意,我正在笔记本电脑上从 Eclipse 执行 java 代码...
org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after60000ms. 起初还是照抄网上给的接入的方法,按部就班的开始写客户端,。。。结果完成时测试执行到了send方法时出现了这种问题,找度娘说时因为你的topic不可用,我去,这个时调别人的集群,我哪里能管到,所以这个问题果断pass,熬了好几...
org.apache.kafka.common.errors.TimeoutException: Failed to update metadata after 60000 ms. 把KafkaClient更改为如下的配置,就可以 了: KafkaClient { com.sun.security.auth.module.Krb5LoginModule required useTicketCache=true; }; 19、kafka-消费报错 ...
docker启动kafka failed to update metadata after %s sec one_8274关注IP属地: 北京 2020.02.20 21:53:56字数72阅读679 原因分析 设置kafka连接 max_block_ms 是否太小,连接超时 遇到的问题解决 kafka连接问题,需要在kafka yml文件或启动命令中添加inside和outside配置,如下图示例: environment: #HOSTNAME_...