Flink Doris Connector 可以支持通过 Flink 操作(读取、插入、修改、删除) Doris 中存储的数据。 代码库地址:https://github.com/apache/doris-flink-connector 可以将 Doris 表映射为 DataStream 或者 Table。注意: 修改和删除只支持在 Unique Key 模型上目前的删除是支持 Flink CDC 的方式接入数据实现自动删除,如果...
insert into doris_sink select id,name from cdc_mysql_source; 1. 2. 3. 4. 5.
在使用 Flink CDC 将 MySQL 数据同步到 Doris(以前的Palo)时,如果源表中的数据被删除,Doris 中的数据是否会被删除取决于您在 Flink CDC 配置中的处理逻辑。 默认情况下,Flink CDC 将源表的数据变更(包括插入、更新和删除)同步到目标表中,这意味着如果源表中的数据被删除,Doris 中对应的数据也会被删除。 然而...
CDC是(Change Data Capture 变更数据获取)的简称。 核心思想是,监测并捕获数据库的变动(包括数据 或 数据表的插入INSERT、更新UPDATE、删除DELETE等),将这些变更按发生的顺序完整记录下来,写入到消息中间件中以供其他服务进行订阅及消费。 CDC 技术应用场景也非常广泛,包括: ...
FlinkCDC 3.0.1 版本兼容 1.2 环境准备 准备依赖文件到FLINK lib/文件下 flink-doris-connector-1.17-1.5.2.jar mysql-connector-java-8.0.27.jar flink-sql-connector-mysql-cdc-3.0.1.jar jar 包依赖 2 编辑脚本 2.1 脚本模版及说明 脚本模版
1. 数据实时同步,通过FlinkCDC可以捕获数据库中的数据变化,包括插入、更新、删除操作,然后将这些变化实时同步到Doris中。这样可以保证Doris中的数据与数据库中的数据保持同步,实现实时数据分析和报表生成。 2. 实时数据处理,FlinkCDC可以将捕获到的数据变化发送到Flink流处理任务中,然后基于业务需求进行实时的数据处理和...
第1步首先搭建平台包扩flink、flinkCDC、mysql、doris; 1.1 准备环境 实验平台:VMware虚拟机CentOS8; 虚拟机需要最小6G内存+30G存储;关于linux系统存储扩容,可以参考LVM(logic volumn manager)系统 Docker: Docker version 24.0.1, build 6802122 jkd:orale的Java11; ...
创建Doris表,使用Doris Flink Connector创建映射表并验证插入、查询操作。通过Flink CDC结合Doris Flink Connector,可以将MySQL数据实时同步至Doris数仓,实现高效的数据处理和分析。注意在使用过程中,确保Mysql表的模型支持数据更新操作,以实现数据的一致性。未来Doris Flink Connector计划支持删除操作。
访问Doris Web UIhttp://localhost:8030/,查看Doris是否正常运行。 默认的用户名为 root,默认密码为空。 至此,我们就部署完成了Mysql和Doris环境。 三、Flink CDC环境的部署 (一)Flink CDC下载并解压 访问Flink CDC下载页面https://www.apache.org/dyn/closer.lua/flink/flink-cdc-3.1.0/flink-cdc-3.1.0-bin...
都作为ODS层数据存储;然后使用Flink计算引擎对ODS层数据进行ETL处理,并将处理好的数据进行分流,将业务产生的数据写回Kafka作为DWD层,维度数据则分流到HBASE中作为DIM层;通过Flink对明细数据与维度数据进行关联聚合,将聚合后的数据写入实时OLAP分析引擎(如:ClickHouse、Doris),最后通过实时分析引擎对数据进行聚合查询提供...