请注意,这个例子没有使用特定的“flink-connector-postgres-cdc”来写入,因为Flink的官方JDBC连接器通常足以写入PostgreSQL。如果确实需要CDC功能来写入(即,侦听目标数据库中的更改并将这些更改流式传输到其他地方),则可能需要其他工具或自定义实现。 首先,请确保您的项目已经包含了必要的依赖项,例如flink-streaming-java...
如果订阅的是postgres数据库,我们需要把connector替换成postgres-cdc,DDL中表的schema和数据库一一对应。 更加详细的配置参见: https://github.com/ververica/flink-cdc-connectors/wiki/MySQL-CDC-Connector mysql-cdc connector源码解析 接下来我们以mysql-cdc为例,看看源码层级是怎么实现的。既然作为一个sql的connector...
既然作为一个sql的connector,那么就首先会有一个对应的TableFactory,然后在工厂类里面构造相应的source,最后将消费下来的数据转成flink认识的RowData格式,发送到下游。 我们按照这个思路来看看flink cdc源码的实现。 在flink-connector-mysql-cdc module中,找到其对应的工厂类:MySQLTableSourceFactory。然后来看一下它的 U...
1. 修改 postgresql 配置文件 /data/pgsql/13/data/postgresql.conf 相关配置: # 更改wal日志方式为logical-- logical会增加支持逻辑解码所需的信息。 wal_level=logical # minimal, replica, or logical # 更改solts最大数量(默认值为10),flink-cdc默认一张表占用一个slots max_replication_slots=20# max numb...
"CREATE TABLE pgsql_source (\n" + " id int,\n" + " name STRING,\n" + " py_code STRING,\n" + " seq_no int,\n" + " description STRING\n" + ") WITH (\n" + " 'connector' = 'postgres-cdc',\n" + " 'hostname' = '***',\n" + ...
CDC Connector 支持 TIMESTAMP 数据类型,可以进行数据同步和处理。在使用 PostgreSQL CDC Connector 时,...
flink postgresql cdc实时同步(含pg安装配置等) 文章目录 1. 环境信息 2. 安装 3. 配置 4. 新建用户并赋权 5. 发布表 6. flink sql 7. 命令汇总 1. 环境信息 2. 安装 step1: 拉取 PostgreSQL 10.6 版本的镜像: docker pull postgres:10.6 1....
注意:如果依赖中有flink-connector-kafka,可能会有冲突,需要手动排除冲突 2、使用Flink CDC创建pg的source import com.ververica.cdc.connectors.postgres.PostgreSQLSource; import com.ververica.cdc.debezium.JsonDebeziumDeserializationSchema; import org.apache.flink.api.common.serialization.SimpleStringSchema; ...
要使用PostgreSQL的CDC功能,首先需要下载flink-sql-connector-postgres-cdc的jar包,并将其放置在FLINK_...