配置 GreptimeDB

GreptimeDB 提供了层次化的配置能力,按照下列优先顺序来生效配置(每个项目都会覆盖下面的项目):

  • Greptime 命令行选项
  • 配置文件选项
  • 环境变量
  • 默认值

你只需要设置所需的配置项。 GreptimeDB 将为未配置的任何设置分配默认值。

如何设置配置项

Greptime 命令行选项

你可以使用命令行参数指定多个配置项。 例如,以配置的 HTTP 地址启动 GreptimeDB 的独立模式:

  1. greptime standalone start --http-addr 127.0.0.1:4000

有关 Greptime 命令行支持的所有选项,请参阅 GreptimeDB 命令行界面

配置文件选项

你可以在 TOML 文件中指定配置项。 例如,创建一个名为 standalone.example.toml 的配置文件,如下所示:

  1. [storage]
  2. type = "File"
  3. data_home = "/tmp/greptimedb/"

然后使用命令行参数 -c [file_path] 指定配置文件。

  1. greptime [standalone | frontend | datanode | metasrv] start -c config/standalone.example.toml

例如以 standalone 模式启动 GreptimeDB:

  1. greptime standalone start -c standalone.example.toml

示例文件

以下是每个 GreptimeDB 组件的示例配置文件,包括所有可用配置项。 在实际场景中,你只需要配置所需的选项,不需要像示例文件中那样配置所有选项。

环境变量

配置文件中的每个项目都可以映射到环境变量。 例如,使用环境变量设置数据节点的 data_home 配置项:

  1. # ...
  2. [storage]
  3. data_home = "/data/greptimedb"
  4. # ...

使用以下 shell 命令以以下格式设置环境变量:

  1. export GREPTIMEDB_DATANODE__STORAGE__DATA_HOME=/data/greptimedb

环境变量规则

  • 每个环境变量应具有组件前缀,例如:

    • GREPTIMEDB_FRONTEND
    • GREPTIMEDB_METASRV
    • GREPTIMEDB_DATANODE
    • GREPTIMEDB_STANDALONE
  • 使用**双下划线 __**作为分隔符。例如,数据结构 storage.data_home 转换为 STORAGE__DATA_HOME

环境变量还接受以逗号 , 分隔的列表,例如:

  1. GREPTIMEDB_METASRV__META_CLIENT__METASRV_ADDRS=127.0.0.1:3001,127.0.0.1:3002,127.0.0.1:3003

协议选项

协议选项适用于 frontendstandalone 子命令,它指定了协议服务器地址和其他协议相关的选项。

下面的示例配置包含了所有协议选项的默认值。 你可以在配置文件中更改这些值或禁用某些协议。 例如禁用 OpenTSDB 协议支持,可以将 enable 参数设置为 false。 请注意,为了保障数据库的正常工作,无法禁用 HTTP 和 gRPC 协议。

  1. [http]
  2. addr = "127.0.0.1:4000"
  3. timeout = "30s"
  4. body_limit = "64MB"
  5. [grpc]
  6. addr = "127.0.0.1:4001"
  7. runtime_size = 8
  8. [mysql]
  9. enable = true
  10. addr = "127.0.0.1:4002"
  11. runtime_size = 2
  12. [mysql.tls]
  13. mode = "disable"
  14. cert_path = ""
  15. key_path = ""
  16. [postgres]
  17. enable = true
  18. addr = "127.0.0.1:4003"
  19. runtime_size = 2
  20. [postgres.tls]
  21. mode = "disable"
  22. cert_path = ""
  23. key_path = ""
  24. [opentsdb]
  25. enable = true
  26. [influxdb]
  27. enable = true
  28. [prom_store]
  29. enable = true

下表描述了每个选项的详细信息:

选项类型描述
httpHTTP 服务器选项
addr字符串服务器地址,默认为 “127.0.0.1:4000”
timeout字符串HTTP 请求超时时间,默认为 “30s”
body_limit字符串HTTP 最大体积大小,默认为 “64MB”
is_strict_mode布尔值是否启用协议的严格校验模式,启用会轻微影响性能,默认为 false
grpcgRPC 服务器选项
addr字符串服务器地址,默认为 “127.0.0.1:4001”
runtime_size整数服务器工作线程数量,默认为 8
mysqlMySQL 服务器选项
enable布尔值是否启用 MySQL 协议,默认为 true
addr字符串服务器地址,默认为 “127.0.0.1:4002”
runtime_size整数服务器工作线程数量,默认为 2
influxdbInfluxDB 协议选项
enable布尔值是否在 HTTP API 中启用 InfluxDB 协议,默认为 true
opentsdbOpenTSDB 协议选项
enable布尔值是否启用 OpenTSDB 协议,默认为 true
prom_storePrometheus 远程存储选项
enable布尔值是否在 HTTP API 中启用 Prometheus 远程读写,默认为 true
with_metric_engine布尔值是否在 Prometheus 远程写入中使用 Metric Engine,默认为 true
postgresPostgresSQL 服务器选项
enable布尔值是否启用 PostgresSQL 协议,默认为 true
addr字符串服务器地址,默认为 “127.0.0.1:4003”
runtime_size整数服务器工作线程数量,默认为 2

存储选项

存储选项在 datanodestandalone 模式下有效,它指定了数据库数据目录和其他存储相关的选项。

GreptimeDB 支持将数据保存在本地文件系统, AWS S3 以及其兼容服务(比如 MinIO、digitalocean space、腾讯 COS、百度对象存储(BOS)等),Azure Blob Storage 和阿里云 OSS。

选项类型描述
storage存储选项
type字符串存储类型,支持 “File”,”S3” 和 “Oss” 等.
File本地文件存储选项,当 type=”File” 时有效
data_home字符串数据库存储根目录,默认为 “/tmp/greptimedb”
S3AWS S3 存储选项,当 type=”S3” 时有效
bucket字符串S3 桶名称
root字符串S3 桶中的根路径
endpoint字符串S3 的 API 端点
region字符串S3 区域
access_key_id字符串S3 访问密钥 id
secret_access_key字符串S3 秘密访问密钥
Oss阿里云 OSS 存储选项,当 type=”Oss” 时有效
bucket字符串OSS 桶名称
root字符串OSS 桶中的根路径
endpoint字符串OSS 的 API 端点
access_key_id字符串OSS 访问密钥 id
secret_access_key字符串OSS 秘密访问密钥
AzblobAzure Blob 存储选项,当 type=”Azblob” 时有效
container字符串容器名称
root字符串容器中的根路径
endpoint字符串Azure Blob 存储的 API 端点
account_name字符串Azure Blob 存储的账户名
account_key字符串访问密钥
sas_token字符串共享访问签名
GscGoogle Cloud Storage 存储选项,当 type=”Gsc” 时有效
root字符串Gsc 桶中的根路径
bucket字符串Gsc 桶名称
scope字符串Gsc 权限
credential_path字符串Gsc 访问证书
endpoint字符串GSC 的 API 端点

文件存储配置范例:

  1. [storage]
  2. type = "File"
  3. data_home = "/tmp/greptimedb/"

s3 配置范例:

  1. [storage]
  2. type = "S3"
  3. bucket = "test_greptimedb"
  4. root = "/greptimedb"
  5. access_key_id = "<access key id>"
  6. secret_access_key = "<secret access key>"

存储引擎提供商

[[storage.providers]] 用来设置存储引擎的提供商列表。基于这个配置,你可以为每张表指定不同的存储引擎,具体请参考 create table:

  1. # Allows using multiple storages
  2. [[storage.providers]]
  3. type = "S3"
  4. bucket = "test_greptimedb"
  5. root = "/greptimedb"
  6. access_key_id = "<access key id>"
  7. secret_access_key = "<secret access key>"
  8. [[storage.providers]]
  9. type = "Gcs"
  10. bucket = "test_greptimedb"
  11. root = "/greptimedb"
  12. credential_path = "<gcs credential path>"

所有配置的这些存储引擎提供商都可以在创建表时用作 storage 选项。

对象存储缓存

当使用 S3、阿里云 OSS 等对象存储的时候,最好开启缓存来加速查询:

  1. [storage]
  2. type = "S3"
  3. bucket = "test_greptimedb"
  4. root = "/greptimedb"
  5. access_key_id = "<access key id>"
  6. secret_access_key = "<secret access key>"
  7. ## 开启对象存储缓存
  8. cache_path = "/var/data/s3_local_cache"
  9. cache_capacity = "256MiB"

cache_path 指定本地的缓存目录, cache_capacity 指定缓存的最大大小(字节)。

WAL 选项

datanode 和 standalone 在 [wal] 部分可以配置 Write-Ahead-Log 的对应参数:

Local WAL

  1. [wal]
  2. file_size = "256MB"
  3. purge_threshold = "4GB"
  4. purge_interval = "10m"
  5. read_batch_size = 128
  6. sync_write = false
  • dir: WAL 的日志目录, 当使用文件 File 存储的时候, 默认值为{data_home}/wal 。当使用对象存储的时候,必须明确指定。
  • file_size: 单个日志文件的最大大小,默认为 256MB
  • purge_thresholdpurge_interval: 控制清除任务的触发阈值和间隔
  • sync_write: 是否在写入每条日志的时候调用 l fsync 刷盘。

Remote WAL

  1. [wal]
  2. provider = "kafka"
  3. broker_endpoints = ["127.0.0.1:9092"]
  4. max_batch_bytes = "1MB"
  5. consumer_wait_timeout = "100ms"
  6. backoff_init = "500ms"
  7. backoff_max = "10s"
  8. backoff_base = 2
  9. backoff_deadline = "5mins"
  • broker_endpoints:Kafka 端点
  • max_batch_bytes:单个 producer batch 的最大值
  • consumer_wait_timeout:consumer 的等待超时时间
  • backoff_init:backoff 初始延迟
  • backoff_max::backoff 最大延迟
  • backoff_base::backoff 指数
  • backoff_deadline:重试的截止时间
Remote WAL 鉴权 (Optional)
  1. [wal.sasl]
  2. type = "SCRAM-SHA-512"
  3. username = "user"
  4. password = "secret"

Kafka 客户端 SASL 鉴权配置,支持的 SASL 机制 : PLAIN, SCRAM-SHA-256, SCRAM-SHA-512.

Remote WAL TLS (Optional)
  1. [wal.tls]
  2. server_ca_cert_path = "/path/to/server_cert"
  3. client_cert_path = "/path/to/client_cert"
  4. client_key_path = "/path/to/key"

Kafka 客户端 TLS 配置,支持 TLS(使用系统 CA 证书),TLS(使用特定 CA 证书),mTLS。

配置示例:

TLS (使用系统 CA 证书)

  1. [wal.tls]

TLS (使用特定 CA 证书)

  1. [wal.tls]
  2. server_ca_cert_path = "/path/to/server_cert"

mTLS

  1. [wal.tls]
  2. server_ca_cert_path = "/path/to/server_cert"
  3. client_cert_path = "/path/to/client_cert"
  4. client_key_path = "/path/to/key"

Logging 选项

frontendmetasrvdatanodestandalone 都可以在 [logging] 部分配置 log、tracing 相关参数:

  1. [logging]
  2. dir = "/tmp/greptimedb/logs"
  3. level = "info"
  4. enable_otlp_tracing = false
  5. otlp_endpoint = "localhost:4317"
  6. append_stdout = true
  7. [logging.tracing_sample_ratio]
  8. default_ratio = 1.0
  • dir: log 输出目录。
  • level: log 输出的日志等级,日志等级有 info, debug, error, warn,默认等级为 info
  • enable_otlp_tracing:是否打开分布式追踪,默认不开启。
  • otlp_endpoint:使用基于 gRPC 的 OTLP 协议导出 tracing 的目标端点,默认值为 localhost:4317
  • append_stdout:是否将日志打印到 stdout。默认是true
  • tracing_sample_ratio:该字段可以配置 tracing 的采样率,如何使用 tracing_sample_ratio,请参考 如何配置 tracing 采样率

如何使用分布式追踪,请参考 Tracing

Region 引擎选项

datanode 和 standalone 在 [region_engine] 部分可以配置不同存储引擎的对应参数。目前只可以配置存储引擎 mito 的选项。

部分常用的选项如下

  1. [[region_engine]]
  2. [region_engine.mito]
  3. num_workers = 8
  4. manifest_checkpoint_distance = 10
  5. max_background_jobs = 4
  6. auto_flush_interval = "1h"
  7. global_write_buffer_size = "1GB"
  8. global_write_buffer_reject_size = "2GB"
  9. sst_meta_cache_size = "128MB"
  10. vector_cache_size = "512MB"
  11. page_cache_size = "512MB"
  12. sst_write_buffer_size = "8MB"
  13. scan_parallelism = 0
  14. [region_engine.mito.inverted_index]
  15. create_on_flush = "auto"
  16. create_on_compaction = "auto"
  17. apply_on_query = "auto"
  18. mem_threshold_on_create = "64M"
  19. intermediate_path = ""
  20. [region_engine.mito.memtable]
  21. type = "time_series"

此外,mito 也提供了一个实验性质的 memtable。该 memtable 主要优化大量时间序列下的写入性能和内存占用。其查询性能可能会不如默认的 time_series memtable。

  1. [region_engine.mito.memtable]
  2. type = "partition_tree"
  3. index_max_keys_per_shard = 8192
  4. data_freeze_threshold = 32768
  5. fork_dictionary_bytes = "1GiB"

以下是可供使用的选项

类型默认值描述
num_workers整数8写入线程数量
manifest_checkpoint_distance整数10每写入 manifest_checkpoint_distance 个 manifest 文件创建一次 checkpoint
max_background_jobs整数4后台线程数量
auto_flush_interval字符串1h自动 flush 超过 auto_flush_interval 没 flush 的 region
global_write_buffer_size字符串1GB写入缓冲区大小,默认值为内存总量的 1/8,但不会超过 1GB
global_write_buffer_reject_size字符串2GB写入缓冲区内数据的大小超过 global_write_buffer_reject_size 后拒绝写入请求,默认为 global_write_buffer_size 的 2 倍
sst_meta_cache_size字符串128MBSST 元数据缓存大小。设为 0 可关闭该缓存
默认为内存的 1/32,不超过 128MB
vector_cache_size字符串512MB内存向量和 arrow array 的缓存大小。设为 0 可关闭该缓存
默认为内存的 1/16,不超过 512MB
page_cache_size字符串512MBSST 数据页的缓存。设为 0 可关闭该缓存
默认为内存的 1/8
selector_result_cache_size字符串512MBlast_value() 等时间线检索结果的缓存。设为 0 可关闭该缓存
默认为内存的 1/16,不超过 512MB
sst_write_buffer_size字符串8MBSST 的写缓存大小
scan_parallelism整数0扫描并发度 (默认 1/4 CPU 核数)
- 0: 使用默认值 (1/4 CPU 核数)
- 1: 单线程扫描
- n: 按并行度 n 扫描
inverted_index.create_on_flush字符串auto是否在 flush 时构建索引
- auto: 自动
- disable: 从不
inverted_index.create_on_compaction字符串auto是否在 compaction 时构建索引
- auto: 自动
- disable: 从不
inverted_index.apply_on_query字符串auto是否在查询时使用索引
- auto: 自动
- disable: 从不
inverted_index.mem_threshold_on_create字符串64M创建索引时如果超过该内存阈值则改为使用外部排序
设置为空会关闭外排,在内存中完成所有排序
inverted_index.intermediate_path字符串“”存放外排临时文件的路径 (默认 {data_home}/index_intermediate).
memtable.type字符串time_seriesMemtable type.
- time_series: time-series memtable
- partition_tree: partition tree memtable (实验性功能)
memtable.index_max_keys_per_shard整数8192一个 shard 内的主键数
只对 partition_tree memtable 生效
memtable.data_freeze_threshold整数32768一个 shard 内写缓存可容纳的最大行数
只对 partition_tree memtable 生效
memtable.fork_dictionary_bytes字符串1GiB主键字典的大小
只对 partition_tree memtable 生效

设定 meta client

meta_client 选项适用于 datanodefrontend 模块,用于指定 Metasrv 的相关信息。

  1. [meta_client]
  2. metasrv_addrs = ["127.0.0.1:3002"]
  3. timeout = "3s"
  4. connect_timeout = "1s"
  5. ddl_timeout = "10s"
  6. tcp_nodelay = true

通过 meta_client 配置 metasrv 客户端,包括:

  • metasrv_addrs, Metasrv 地址列表,对应 Metasrv 启动配置的 server address。
  • timeout, 操作超时时长,默认为 3 秒。
  • connect_timeout,连接服务器超时时长,默认为 1 秒。
  • ddl_timeout, DDL 执行的超时时间,默认 10 秒。
  • tcp_nodelay,接受连接时的 TCP_NODELAY 选项,默认为 true。

指标监控选项

这些选项用于将系统监控指标保存到 GreptimeDB 本身。 有关如何使用此功能的说明,请参见 监控 指南。

  1. [export_metrics]
  2. # Whether to enable export_metrics
  3. enable=true
  4. # Export time interval
  5. write_interval = "30s"
  • enable: 是否启用导出指标功能,默认为 false
  • write_interval: 指标导出时间间隔。

self_import 方法

frontendstandalone 支持使用 self_import 方法导出指标。

  1. [export_metrics]
  2. # Whether to enable export_metrics
  3. enable=true
  4. # Export time interval
  5. write_interval = "30s"
  6. [export_metrics.self_import]
  7. db = "information_schema"
  • db: 默认的数据库为 information_schema,你也可以创建另一个数据库来保存系统指标。

remote_write 方法

datanodefrontendmetasrvstandalone 支持使用 remote_write 方法导出指标。 它将指标发送到与 Prometheus Remote-Write protocol 兼容的接受端。

  1. [export_metrics]
  2. # Whether to enable export_metrics
  3. enable=true
  4. # Export time interval
  5. write_interval = "30s"
  6. [export_metrics.remote_write]
  7. # URL specified by Prometheus Remote-Write protocol
  8. url = "http://127.0.0.1:4000/v1/prometheus/write?db=information_schema"
  9. # Some optional HTTP parameters, such as authentication information
  10. headers = { Authorization = "Basic Z3JlcHRpbWVfdXNlcjpncmVwdGltZV9wd2Q=" }
  • url: Prometheus Remote-Write 协议指定的 URL。
  • headers: 一些可选的 HTTP 参数,比如认证信息。

Mode 选项

mode 选项在 datanodefrontendstandalone 中可用,它指定了组件的运行模式。

在分布式 GreptimeDB 的 datanodefrontend 的配置文件中,需要将值设置为 distributed

  1. mode = "distributed"

在 standalone GreptimeDB 的配置文件中,需要将值设置为 standalone

  1. mode = "standalone"

仅限于 Metasrv 的配置

  1. # 工作主目录。
  2. data_home = "/tmp/metasrv/"
  3. # metasrv 的绑定地址,默认为 "127.0.0.1:3002"。
  4. bind_addr = "127.0.0.1:3002"
  5. # frontend 和 datanode 连接到 metasrv 的通信服务器地址,本地默认为 "127.0.0.1:3002"。
  6. server_addr = "127.0.0.1:3002"
  7. # metasrv 存储端服务器地址,默认为 "127.0.0.1:2379"。
  8. store_addr = "127.0.0.1:2379"
  9. # Datanode 选择器类型。
  10. # - "lease_based" (默认值)
  11. # - "load_based"
  12. # 详情请参阅 "https://docs.greptime.com/contributor-guide/meta/selector"
  13. selector = "lease_based"
  14. # 将数据存储在内存中,默认值为 false。
  15. use_memory_store = false
  16. ## 是否启用 region failover。
  17. ## 该功能仅适用于运行在集群模式下的 GreptimeDB,并且
  18. ## - 使用 Remote WAL
  19. ## - 使用共享存储(例如 s3)。
  20. enable_region_failover = false
  21. # metasrv 的数据库类型.
  22. backend = "EtcdStore"
  23. ## Procedure 选项
  24. [procedure]
  25. ## 最大重试次数
  26. max_retry_times = 12
  27. ## 程序的初始重试延迟
  28. retry_delay = "500ms"
  29. # Failure detector 选项
  30. [failure_detector]
  31. ## Failure detector 检测阈值
  32. threshold = 8.0
  33. ## 心跳间隔的最小标准差,用于计算可接受的变化。
  34. min_std_deviation = "100ms"
  35. ## 心跳之间可接受的暂停时间长度。
  36. acceptable_heartbeat_pause = "10000ms"
  37. ## 首次心跳间隔的估计值。
  38. first_heartbeat_estimate = "1000ms"
  39. ## Datanode 选项。
  40. [datanode]
  41. ## Datanode 客户端配置。
  42. [datanode.client]
  43. ## 操作超时时间
  44. timeout = "10s"
  45. ## 连接服务器超时时间。
  46. connect_timeout = "10s"
  47. ## 接受连接时的 `TCP_NODELAY` 选项,默认为 true。
  48. tcp_nodelay = true
  49. [wal]
  50. # 可用的 WAL 提供者:
  51. # - `raft_engine`(默认):由于 metasrv 目前仅涉及远程 WAL,因此没有 raft-engine WAL 配置。
  52. # - `kafka`:在 datanode 中使用 kafka WAL 提供者时,metasrv **必须** 配置 kafka WAL 配置。
  53. provider = "raft_engine"
  54. # Kafka WAL 配置。
  55. ## Kafka 集群的代理端点。
  56. broker_endpoints = ["127.0.0.1:9092"]
  57. ## 自动为 WAL 创建 topics
  58. ## 设置为 `true` 则自动为 WAL 创建 topics
  59. ## 否则,使用名为 `topic_name_prefix_[0..num_topics)` 的 topics
  60. auto_create_topics = true
  61. ## Topic 数量。
  62. num_topics = 64
  63. ## Topic selector 类型。
  64. ## 可用的 selector 类型:
  65. ## - `round_robin`(默认)
  66. selector_type = "round_robin"
  67. ## Kafka topic 通过连接 `topic_name_prefix` 和 `topic_id` 构建。
  68. topic_name_prefix = "greptimedb_wal_topic"
  69. ## 每个分区的预期副本数。
  70. replication_factor = 1
  71. ## 超过此时间创建 topic 的操作将被取消。
  72. create_topic_timeout = "30s"
  73. ## Kafka 客户端的 backoff 初始时间。
  74. backoff_init = "500ms"
  75. ## Kafka 客户端的 backoff 最大时间。
  76. backoff_max = "10s"
  77. ## backoff 指数,即下一个 backoff 时间 = 该指数 * 当前 backoff 时间。
  78. backoff_base = 2
  79. ## 如果总等待时间达到截止时间,则停止重新连接。如果此配置缺失,则重新连接不会终止。
  80. backoff_deadline = "5mins"
类型默认值描述
datahomeString/tmp/metasrv/工作目录。
bind_addrString127.0.0.1:3002Metasrv 的绑定地址。
server_addrString127.0.0.1:3002前端和 datanode 连接到 Metasrv 的通信服务器地址,默认为本地主机的 127.0.0.1:3002
store_addrString127.0.0.1:2379etcd 服务器地址,默认值为 127.0.0.1:2379,多个服务器地址用逗号分隔,格式为 “ip1:port1,ip2:port2,…”
selectorStringlease_based创建新表时选择 datanode 的负载均衡策略,详见 选择器
use_memory_storeBooleanfalse仅用于在没有 etcd 集群时的测试,将数据存储在内存中,默认值为 false
enable_region_failoverBoolfalse是否启用 region failover。
该功能仅在以集群模式运行的 GreptimeDB 上可用,并且
- 使用远程 WAL
- 使用共享存储(如 s3)。
procedure
procedure.max_retry_times整数12Procedure 的最大重试次数。
procedure.retry_delay字符串500msProcedure 初始重试延迟,延迟会指数增长。
failure_detector故障检测选项。
failure_detector.threshold浮点数8.0Failure detector 用来判断故障条件的阈值。
failure_detector.min_std_deviation字符串100ms心跳间隔的最小标准差,用于计算可接受的变动范围。
failure_detector.acceptable_heartbeat_pause字符串10000ms允许的最大心跳暂停时间,用于确定心跳间隔是否可接受。
failure_detector.first_heartbeat_estimate字符串1000ms初始心跳间隔估算值。
datanode
datanode.clientDatanode 客户端选项。
datanode.client.timeout字符串10s操作超时。
datanode.client.connect_timeout字符串10s连接服务器超时。
datanode.client.tcp_nodelay布尔值true接受连接的 TCP_NODELAY 选项。
wal
wal.providerStringraft_engine
wal.broker_endpointsArrayKafka 集群的端点
wal.auto_create_topicsBooltrue自动为 WAL 创建 topics
设置为 true 则自动为 WAL 创建 topics
否则,使用名为 topic_name_prefix[0..num_topics) 的 topics
wal.num_topicsInteger64Topic 数量
wal.selector_typeStringround_robintopic selector 类型
可用 selector 类型:
- round_robin(默认)
wal.topic_name_prefixStringgreptimedb_wal_topic一个 Kafka topic 是通过连接 topic_name_prefix 和 topic_id 构建的
wal.replication_factorInteger1每个分区的副本数
wal.create_topic_timeoutString30s超过该时间后,topic 创建操作将被取消
wal.backoff_initString500msKafka 客户端的 backoff 初始时间
wal.backoff_maxString10sKafka 客户端的 backoff 最大时间
wal.backoff_baseInteger2backoff 指数,即下一个 backoff 时间 = 该指数 * 当前 backoff 时间
wal.backoff_deadlineString5mins如果总等待时间达到截止时间,则停止重新连接。如果此配置缺失,则重新连接不会终止
wal.saslStringKafka 客户端 SASL 配置
wal.sasl.typeStringSASL 机制, 可选值: PLAIN, SCRAM-SHA-256, SCRAM-SHA-512
wal.sasl.usernameStringSASL 鉴权用户名
wal.sasl.passwordStringSASL 鉴权密码
wal.tlsStringKafka 客户端 TLS 配置
wal.tls.server_ca_cert_pathString服务器 CA 证书地址
wal.tls.client_cert_pathString客户端证书地址(用于启用 mTLS)
wal.tls.client_key_pathString客户端密钥地址(用于启用 mTLS)

仅限于 Datanode 的配置

  1. node_id = 42
  2. rpc_hostname = "127.0.0.1"
  3. rpc_addr = "127.0.0.1:3001"
  4. rpc_runtime_size = 8
KeyTypeDescription
node_id整数datanode 的唯一标识符。
rpc_hostname字符串datanode 的 Hostname。
rpc_addr字符串gRPC 服务端地址,默认为“127.0.0.1:3001”
rpc_runtime_size整数gRPC 服务器工作线程数,默认为 8。