Hudi

使用限制

  1. Hudi 表支持的查询类型如下,后续将支持 Incremental Query。
表类型支持的查询类型
Copy On WriteSnapshot Query + Time Travel
Merge On ReadSnapshot Queries + Read Optimized Queries + Time Travel
  1. 目前支持 Hive Metastore 和兼容 Hive Metastore 类型(例如AWS Glue/Alibaba DLF)的 Catalog。

创建 Catalog

和 Hive Catalog 基本一致,这里仅给出简单示例。其他示例可参阅 Hive Catalog

  1. CREATE CATALOG hudi PROPERTIES (
  2. 'type'='hms',
  3. 'hive.metastore.uris' = 'thrift://172.21.0.1:7004',
  4. 'hadoop.username' = 'hive',
  5. 'dfs.nameservices'='your-nameservice',
  6. 'dfs.ha.namenodes.your-nameservice'='nn1,nn2',
  7. 'dfs.namenode.rpc-address.your-nameservice.nn1'='172.21.0.2:4007',
  8. 'dfs.namenode.rpc-address.your-nameservice.nn2'='172.21.0.3:4007',
  9. 'dfs.client.failover.proxy.provider.your-nameservice'='org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider'
  10. );

可选配置参数:

参数名说明默认值
use_hive_sync_partition使用hms已同步的分区数据false

列类型映射

和 Hive Catalog 一致,可参阅 Hive Catalog列类型映射 一节。

Skip Merge

Spark 在创建 hudi mor 表的时候,会创建 _ro 后缀的 read optimize 表,doris 读取 read optimize 表会跳过 log 文件的合并。doris 判定一个表是否为 read optimize 表并不是通过 _ro 后缀,而是通过 hive inputformat,用户可以通过 SHOW CREATE TABLE 命令观察 cow/mor/read optimize 表的 inputformat 是否相同。 此外 doris 支持在 catalog properties 添加 hoodie 相关的配置,配置项兼容 Spark Datasource Configs。所以用户可以在 catalog properties 中添加 hoodie.datasource.merge.type=skip_merge 跳过合并 log 文件。

查询优化

Doris 使用 parquet native reader 读取 COW 表的数据文件,使用 Java SDK(通过JNI调用hudi-bundle) 读取 MOR 表的数据文件。在 upsert 场景下,MOR 依然会有数据文件没有被更新,这部分文件可以通过 parquet native reader读取,用户可以通过 explain 命令查看 hudi scan 的执行计划,hudiNativeReadSplits 表示有多少 split 文件通过 parquet native reader 读取。

  1. |0:VHUDI_SCAN_NODE |
  2. | table: minbatch_mor_rt |
  3. | predicates: `o_orderkey` = 100030752 |
  4. | inputSplitNum=810, totalFileSize=5645053056, scanRanges=810 |
  5. | partition=80/80 |
  6. | numNodes=6 |
  7. | hudiNativeReadSplits=717/810 |

用户可以通过 profile 查看 Java SDK 的性能,例如:

  1. - HudiJniScanner: 0ns
  2. - FillBlockTime: 31.29ms
  3. - GetRecordReaderTime: 1m5s
  4. - JavaScanTime: 35s991ms
  5. - OpenScannerTime: 1m6s
  1. OpenScannerTime: 创建并初始化 JNI Reader 的时间
  2. JavaScanTime: Java SDK 读取数据的时间
  3. FillBlockTime: Java 数据拷贝为 C++ 数据的时间
  4. GetRecordReaderTime: 调用 Java SDK 并创建 Hudi Record Reader 的时间

Time Travel

支持读取 Hudi 表指定的 Snapshot。

每一次对 Hudi 表的写操作都会产生一个新的快照。

默认情况下,查询请求只会读取最新版本的快照。

可以使用 FOR TIME AS OF 语句,根据快照的时间(时间格式和Hudi官网保持一致)读取历史版本的数据。示例如下:

SELECT * FROM hudi_tbl FOR TIME AS OF "2022-10-07 17:20:37";

SELECT * FROM hudi_tbl FOR TIME AS OF "20221007172037";

Hudi 表不支持 FOR VERSION AS OF 语句,使用该语法查询 Hudi 表将抛错。