Kafka

概述

Kafka Extract 节点 支持从 Kafka topics 中读取数据。它支持以普通的方式读取数据和 Upsert 的方式读取数据。upsert-kafka 连接器生产 changelog 流, 其中每条数据记录代表一个更新或删除事件。kafka-inlong 连接器可以以普通方式读取数据和元数据信息。

支持的版本

Extract 节点Kafka 版本
Kafka0.10+

依赖

为了设置 Kafka Extract 节点, 下面提供了使用构建自动化工具(例如 Maven 或 SBT)和带有 Sort Connector JAR 包的 SQL 客户端的两个项目的依赖关系信息。

Maven 依赖

  1. <dependency>
  2. <groupId>org.apache.inlong</groupId>
  3. <artifactId>sort-connector-kafka</artifactId>
  4. <version>1.11.0-SNAPSHOT</version>
  5. </dependency>

如何创建 Kafka Extract 节点

SQL API 用法

下面这个例子展示了如何用 Flink SQL 创建一个 Kafka Extract 节点:

  • 连接器是 kafka-inlong
  1. -- 设置 Checkpoint 3000 毫秒
  2. Flink SQL> SET 'execution.checkpointing.interval' = '3s';
  3. -- 使用 Flink SQL 创建 Kafka 'kafka_extract_node'
  4. Flink SQL> CREATE TABLE kafka_extract_node (
  5. `id` INT,
  6. `name` STRINTG
  7. ) WITH (
  8. 'connector' = 'kafka-inlong',
  9. 'topic' = 'user',
  10. 'properties.bootstrap.servers' = 'localhost:9092',
  11. 'properties.group.id' = 'testGroup',
  12. 'scan.startup.mode' = 'earliest-offset',
  13. 'format' = 'csv'
  14. )
  15. -- 读取数据
  16. Flink SQL> SELECT * FROM kafka_extract_node;
  • 连接器是 upsert-kafka
  1. -- 设置 Checkpoint 3000 毫秒
  2. Flink SQL> SET 'execution.checkpointing.interval' = '3s';
  3. -- 使用 Flink SQL 创建 Kafka 'kafka_extract_node'
  4. Flink SQL> CREATE TABLE kafka_extract_node (
  5. `id` INT,
  6. `name` STRINTG,
  7. PRIMARY KEY (`id`) NOT ENFORCED
  8. ) WITH (
  9. 'connector' = 'upsert-kafka-inlong',
  10. 'topic' = 'user',
  11. 'properties.bootstrap.servers' = 'localhost:9092',
  12. 'properties.group.id' = 'testGroup',
  13. 'scan.startup.mode' = 'earliest-offset',
  14. 'key.format' = 'csv',
  15. 'value.format' = 'csv'
  16. )
  17. -- 读取数据
  18. Flink SQL> SELECT * FROM kafka_extract_node;

InLong Dashboard 用法

TODO: 将在未来支持此功能。

InLong Manager Client 用法

TODO: 将在未来支持此功能。

Kafka Extract 节点参数

参数是否必选默认值数据类型描述
connector必选(none)String指定要使用的连接器 1. Upsert Kafka 连接器使用: upsert-kafka-inlong 2. Kafka连接器使用: kafka-inlong
topic可选(none)String当表用作 source 时读取数据的 topic 名。亦支持用分号间隔的 topic 列表,如 topic-1;topic-2。注意,对 source 表而言,topictopic-pattern 两个选项只能使用其中一个。
topic-pattern可选(none)String匹配读取 topic 名称的正则表达式。在作业开始运行时,所有匹配该正则表达式的 topic 都将被 Kafka consumer 订阅。注意,对 source 表而言,topictopic-pattern 两个选项只能使用其中一个。
properties.bootstrap.servers必选(none)String逗号分隔的 Kafka broker 列表。
properties.group.id必选(none)StringKafka source 的消费组 id。
properties.*可选(none)String可以设置和传递任意 Kafka 的配置项。后缀名必须匹配在 Kafka 配置文档 中定义的配置键。Flink 将移除 “properties.” 配置键前缀并将变换后的配置键和值传入底层的 Kafka 客户端。例如,你可以通过 ‘properties.allow.auto.create.topics’ = ‘false’ 来禁用 topic 的自动创建。但是某些配置项不支持进行配置,因为 Flink 会覆盖这些配置,例如 ‘key.deserializer’ 和 ‘value.deserializer’。
format对于 Kafka 必选(none)String用来序列化或反序列化 Kafka 消息的格式。 请参阅 格式 页面以获取更多关于格式的细节和相关配置项。 注意:该配置项和 ‘value.format’ 二者必需其一。
key.format可选(none)String用来序列化和反序列化 Kafka 消息键(Key)的格式。 请参阅 格式 页面以获取更多关于格式的细节和相关配置项。 注意:如果定义了键格式,则配置项 ‘key.fields’ 也是必需的。 否则 Kafka 记录将使用空值作为键。
key.fields可选[]List<String>表结构中用来配置消息键(Key)格式数据类型的字段列表。默认情况下该列表为空,因此消息键没有定义。 列表格式为 ‘field1;field2’。
key.fields-prefix可选(none)String为所有消息键(Key)格式字段指定自定义前缀,以避免与消息体(Value)格式字段重名。默认情况下前缀为空。 如果定义了前缀,表结构和配置项 ‘key.fields’ 都需要使用带前缀的名称。 当构建消息键格式字段时,前缀会被移除,消息键格式将会使用无前缀的名称。 请注意该配置项要求必须将 ‘value.fields-include’ 配置为 ‘EXCEPT_KEY’。
value.format对于 Upsert Kafka 必选(none)String用于对 Kafka 消息中 value 部分序列化和反序列化的格式。支持的格式包括 ‘csv’、’json’、’avro’。请参考格式页面以获取更多详细信息和格式参数。
value.fields-include可选ALLString控制哪些字段应该出现在 value 中。可取值:
ALL:消息的 value 部分将包含 schema 中所有的字段,包括定义为主键的字段。
EXCEPT_KEY:记录的 value 部分包含 schema 的所有字段,定义为主键的字段除外。
scan.startup.mode可选group-offsetsStringKafka consumer 的启动模式。有效值为:’earliest-offset’,’latest-offset’,’group-offsets’,’timestamp’ 和 ‘specific-offsets’。 请参阅下方 起始消费位点 以获取更多细节。
scan.startup.specific-offsets可选(none)String在使用 ‘specific-offsets’ 启动模式时为每个 partition 指定 offset,例如 ‘partition:0,offset:42;partition:1,offset:300’。
scan.startup.timestamp-millis可选(none)Long在使用 ‘timestamp’ 启动模式时指定启动的时间戳(单位毫秒)。
scan.topic-partition-discovery.interval可选(none)DurationConsumer 定期探测动态创建的 Kafka topic 和 partition 的时间间隔。
inlong.metric.labels可选(none)Stringinlong metric 的标签值,该值的构成为groupId={groupId}&streamId={streamId}&nodeId={nodeId}
sink.ignore.changelog可选false布尔型支持所有类型的 changelog 流 ingest 到 Kafka。

可用的元数据字段

以下格式元数据可以作为表定义中的只读 (VIRTUAL) 列公开。 它支持读取格式 canal-json-inlong 的元数据。

字段名称数据类型描述
value.table_nameSTRING包含该行的表的名称
value.database_nameSTRING包含该行的数据库的名称
value.op_tsTIMESTAMP(3)它指示在数据库中进行更改的时间。 如果记录是从表的快照而不是binlog中读取的,则该值始终为0
value.op_typeSTRING操作类型, INSERT/UPDATE/DELETE
value.batch_idBIGINT不重要的, 一个简单的自增器
value.is_ddlBOOLEAN不下发 DDL, 值是 false
value.update_beforeARRAY<MAP<STRING, STRING>>UPDATE 记录的 update-before 数据
value.mysql_typeMAP<STRING, STRING>MySQL 字段类型
value.pk_namesARRAY<STRING>主键
value.sql_typeMAP<STRING, INT>SQL 字段类型
value.tsTIMESTAMP_LTZ(3)ts_ms 字段用于存储有关连接器处理/生成事件的本地时间的信息

扩展的 CREATE TABLE 示例演示了使用这些元数据字段的语法:

  1. CREATE TABLE `kafka_extract_node` (
  2. `id` INT,
  3. `name` STRING,
  4. `database_name` string METADATA FROM 'value.database_name',
  5. `table_name` string METADATA FROM 'value.table_name',
  6. `op_ts` timestamp(3) METADATA FROM 'value.op_ts',
  7. `op_type` string METADATA FROM 'value.op_type',
  8. `batch_id` bigint METADATA FROM 'value.batch_id',
  9. `is_ddl` boolean METADATA FROM 'value.is_ddl',
  10. `update_before` ARRAY<MAP<STRING, STRING>> METADATA FROM 'value.update_before',
  11. `mysql_type` MAP<STRING, STRING> METADATA FROM 'value.mysql_type',
  12. `pk_names` ARRAY<STRING> METADATA FROM 'value.pk_names',
  13. `data` STRING METADATA FROM 'value.data',
  14. `sql_type` MAP<STRING, INT> METADATA FROM 'value.sql_type',
  15. `ingestion_ts` TIMESTAMP(3) METADATA FROM 'value.ts',
  16. ) WITH (
  17. 'connector' = 'kafka-inlong',
  18. 'topic' = 'user',
  19. 'properties.bootstrap.servers' = 'localhost:9092',
  20. 'properties.group.id' = 'testGroup',
  21. 'scan.startup.mode' = 'earliest-offset',
  22. 'format' = 'canal-json-inlong'
  23. )

数据类型映射

Kafka 将消息键值以二进制进行存储,因此 Kafka 并不存在 schema 或数据类型。Kafka 消息使用格式配置进行序列化和反序列化,例如 csv,json,avro。 因此,数据类型映射取决于使用的格式。请参阅 格式 页面以获取更多细节。