mvn clean install -DskipTests -Dcheckstyle.skip=true -Dspotless.check.skip -Drat.skip=true#打包完成后可以在flink-sql-connector-postgres-cdc的target目录中获取到jar包 按照以上流程基于JDK8打包出PolarDBO Flink CDC连接器的JAR包:flink-sql-connector-postgres-cdc-3.1-SNAPSHOT.jar。
flink-connector-kafka_2.12-1.13.0.jar flink-sql-connector-postgres-cdc-2.0.1.jar flink-format-changelog-json-2.1.0.jar 如果都不放入lib,直接集群运行,报错顺序如下: 1.Caused by: org.apache.flink.table.api.ValidationException: Cannot discover a connector using option: 'connector'='kafka' Caused ...
请注意,这个例子没有使用特定的“flink-connector-postgres-cdc”来写入,因为Flink的官方JDBC连接器通常足以写入PostgreSQL。如果确实需要CDC功能来写入(即,侦听目标数据库中的更改并将这些更改流式传输到其他地方),则可能需要其他工具或自定义实现。 首先,请确保您的项目已经包含了必要的依赖项,例如flink-streaming-java...
首先需要下载flink-sql-connector-postgres-cdc的jar包,并将其放置在FLINK_HOME/lib/目录下。
flink-sql-connector-postgres-cdc-2.4.2.jar -- flink sql连接到pgsql的cdc flink-connector-kafka-1.17.0.jar -- flink 连接到kafkaflink-connector-jdbc-3.1.1-1.17.jar -- flink 连接到jdbc (pgsql、mysql) kafka-clients-3.0.2.jar -- kafka的依赖包 2.安装Flink (1)单节点安装 ① 解压安装包 tar...
'connector' = 'mysql-cdc', 'hostname' = 'localhost', 'port' = '3306', 'username' = 'flinkuser', 'password' = 'flinkpw', 'database-name' = 'inventory', 'table-name' = 'products' ) 如果订阅的是postgres数据库,我们需要把connector替换成postgres-cdc,DDL中表的schema和数据库一一对应。
Flink1.11引入了CDC的connector,通过这种方式可以很方便地捕获变化的数据,大大简化了数据处理的流程。Flink1.11的CDC connector主要包括:MySQL CDC和Postgres CDC,同时对Kafka的Connector支持canal-json和debezium-json以及changelog-json的format。本文主要分享以下内容: ...
此外,还需要引用一些jar包,如flink-sql-connector-postgres-cdc-1.2.0.jar、flink-format-changelog-...
下载Flink 1.13.2 [1] 并将其解压至目录 flink-1.13.2 下载下面列出的依赖包,并将它们放到目录 flink-1.13.2/lib/ 下 flink-sql-connector-elasticsearch7_2.11-1.13.2.jar flink-sql-connector-mysql-cdc-2.1.0.jar flink-sql-connector-postgres-cdc-2.1.0.jar ...
如果订阅的是postgres数据库,我们需要把connector替换成postgres-cdc,DDL中表的schema和数据库一一对应。 更加详细的配置参见: https://github.com/ververica/flink-cdc-connectors/wiki/MySQL-CDC-Connector mysql-cdc connector源码解析 接下来我们以mysql-cdc为例,看看源码层级是怎么实现的。既然作为一个sql的connector...