为了实现这个目标,我们可以修改Flink的Kafka Connector源码,使其支持批处理模式。以下是一个简化的步骤说明,帮助您了解如何做到这一点: 1. 克隆Flink源码仓库 首先,您需要从Flink的官方仓库克隆源码。这可以通过在命令行中执行以下命令来完成: git clone https://github.com/apache/flink.git 2. 定位Kafka
大致就是这些改动。 https://github.com/nyingping/flink/commit/a644774ffd19c1b32f9affeb0eec207418d0ffde https://github.com/nyingping/flink/commit/8258e5ab83c117d7b33016993810acd5c11085f3 完成代码: https://github.com/nyingping/flink/releases/tag/v14.0-kafkaconnector-batchmode https://github.co...
2 支持 confluent schema registry 下 avro格式的kafka connector吗?支持的,参考 code https://github...
3. 尝试使用Kafka Connector的Schema Registry功能,它可以检测Kafka topic中的记录,并自动调整Flink SQL...