'properties.group.id'='jason_flink_test',--消费kafka的group_id 'scan.startup.mode'='latest-offset',--读取数据的位置 'format'='json',--数据源格式为json 'json.fail-on-missing-field'='true',--字段丢失任务不失败 'json.ignore-parse-errors'='false'--解析失败跳过 ) 1. 2. 3. 4. 5....
当你输入一条 SQL 的时候在 Flink 里面会经过解析,验证,优化,转换等几个重要的步骤,因为前面的几个过程比较繁琐,这里暂时不展开说明,我们直接来到比较关键的源码处,在把 sqlNode 转换成 relNode 的过程中,会来到 CatalogSourceTable#createDynamicTableSource 该类的作用是把 Calcite 的 RelOptTable 翻译成 Flink ...