TiKV 配置文件描述

TiKV 配置文件比命令行参数支持更多的选项。你可以在 etc/config-template.toml 找到默认值的配置文件,重命名为 config.toml 即可。

本文档只阐述未包含在命令行参数中的参数,命令行参数参见 TiKV 配置参数

tikv-server - 图1

小贴士

如果你需要调整配置项的值,请参考修改配置参数进行操作。

全局配置

abort-on-panic

  • 设置 TiKV panic 时是否调用 abort() 退出进程。此选项影响 TiKV 是否允许系统生成 core dump 文件。

    • 如果此配置项值为 false,当 TiKV panic 时,TiKV 调用 exit() 退出进程。
    • 如果此配置项值为 true,当 TiKV panic 时,TiKV 调用 abort() 退出进程。此时 TiKV 允许系统在退出时生成 core dump 文件。要生成 core dump 文件,你还需要进行 core dump 相关的系统配置(比如打开 ulimit -c 和配置 core dump 路径,不同操作系统配置方式不同)。建议将 core dump 生成路径设置在 TiKV 数据的不同磁盘分区,避免 core dump 文件占用磁盘空间过大,造成 TiKV 磁盘空间不足。
  • 默认值:false

slow-log-file

  • 存储慢日志的文件。
  • 如果未设置本项但设置了 log.file.filename,慢日志将输出至 log.file.filename 指定的日志文件中。
  • 如果本项和 log.file.filename 均未设置,所有日志默认输出到 "stderr"
  • 如果同时设置了两项,普通日志会输出至 log.file.filename 指定的日志文件中,而慢日志则会输出至本配置项指定的日志文件中。
  • 默认值:””

slow-log-threshold

  • 输出慢日志的阈值。处理时间超过该阈值后会输出慢日志。
  • 默认值:”1s”

memory-usage-limit

  • TiKV 实例的内存使用限制。当 TiKV 的内存使用量接近此阈值时,内部缓存会被清除以释放内存。

  • 在大多数情况下,TiKV 实例被设置为占系统可用总内存的 75%,因此你不需要显式指定此配置项。剩余 25% 的内存用于操作系统的页缓存,详情参见 storage.block-cache.capacity

  • 在单个物理机上部署多个 TiKV 节点时,你也不需要设置此配置项。在这种情况下,TiKV 实例使用 5/3 * block-cache.capacity 的内存。

  • 不同系统内存容量的默认值如下:

    • system=8G block-cache=3.6G memory-usage-limit=6G page-cache=2G
    • system=16G block-cache=7.2G memory-usage-limit=12G page-cache=4G
    • system=32G block-cache=14.4G memory-usage-limit=24G page-cache=8G

log 从 v5.4.0 版本开始引入

日志相关的配置项。

自 v5.4.0 版本起,废弃原 log 参数 log-rotation-timespan,并将 log-levellog-formatlog-filelog-rotation-size 变更为下列参数,与 TiDB 的 log 参数保持一致。如果只设置了原参数、且把其值设为非默认值,原参数与新参数会保持兼容;如果同时设置了原参数和新参数,则会使用新参数。

level 从 v5.4.0 版本开始引入

  • 日志等级。
  • 可选值:”debug”,”info”,”warn”,”error”,”fatal”
  • 默认值:”info”

format 从 v5.4.0 版本开始引入

  • 日志的格式。
  • 可选值:”json”,”text”
  • 默认值:”text”

enable-timestamp 从 v5.4.0 版本开始引入

  • 是否开启日志中的时间戳。
  • 可选值:”true”,”false”
  • 默认值:”true”

log.file 从 v5.4.0 版本开始引入

日志文件相关的配置项。

filename 从 v5.4.0 版本开始引入

  • log 文件。如果未设置该参数,日志会默认输出到 "stderr";如果设置了该参数,log 会输出到对应的文件中。
  • 默认值:””

max-size 从 v5.4.0 版本开始引入

  • 单个 log 文件最大大小,超过设定的参数值后,系统自动切分成多个文件。
  • 默认值:300
  • 最大值:4096
  • 单位:MiB

max-days 从 v5.4.0 版本开始引入

  • 保留 log 文件的最长天数。
    • 如果未设置本参数或把此参数设置为默认值 0,TiKV 不清理 log 文件。
    • 如果把此参数设置为非 0 的值,在 max-days 之后,TiKV 会清理过期的日志文件。
  • 默认值:0

max-backups 从 v5.4.0 版本开始引入

  • 可保留的 log 文件的最大数量。
    • 如果未设置本参数或把此参数设置为默认值 0,TiKV 会保存所有的 log 文件;
    • 如果把此参数设置为非 0 的值,TiKV 最多会保留 max-backups 中指定的数量的旧日志文件。比如,如果该值设置为 7,TiKV 最多会保留 7 个旧的日志文件。
  • 默认值:0

pd.enable-forwarding 从 v5.0.0 版本开始引入

  • 控制 TiKV 中的 PD client 在疑似网络隔离的情况下是否通过 follower 将请求转发给 leader。
  • 默认值:false
  • 如果确认环境存在网络隔离的可能,开启这个参数可以减少服务不可用的窗口期。
  • 如果无法准确判断隔离、网络中断、宕机等情况,这个机制存在误判情况从而导致可用性、性能降低。如果网络中从未发生过网络故障,不推荐开启此选项。

server

服务器相关的配置项。

addr

  • 服务器监听的 IP 地址和端口号。
  • 默认值:"127.0.0.1:20160"

advertise-addr

  • 用于客户端通信的对外访问地址。
  • 如果没有设置该配置项,则使用 addr 的值。
  • 默认值:""

status-addr

  • 通过 HTTP 直接报告 TiKV 状态的地址。

    tikv-server - 图2

    警告

    如果该值暴露在公网,TiKV 服务器的状态可能会泄露。

  • 要禁用 status-addr,请将该值设置为 ""

  • 默认值:"127.0.0.1:20180"

status-thread-pool-size

  • HTTP API 服务的工作线程数量。
  • 默认值:1
  • 最小值:1

grpc-compression-type

  • gRPC 消息的压缩算法。
  • 可选值:"none""deflate""gzip"
  • 默认值:"none"

grpc-concurrency

  • gRPC 工作线程的数量。调整 gRPC 线程池的大小时,请参考 TiKV 线程池调优
  • 默认值:5
  • 最小值:1

grpc-concurrent-stream

  • 一个 gRPC 链接中最多允许的并发请求数量。
  • 默认值:1024
  • 最小值:1

grpc-memory-pool-quota

  • gRPC 可使用的内存大小限制。
  • 默认值:无限制
  • 建议仅在出现内存不足 (OOM) 的情况下限制内存使用。需要注意,限制内存使用可能会导致卡顿。

grpc-raft-conn-num

  • TiKV 节点之间用于 Raft 通讯的链接最大数量。
  • 默认值:1
  • 最小值:1

max-grpc-send-msg-len

  • 设置可发送的最大 gRPC 消息长度。
  • 默认值:10485760
  • 单位:Bytes
  • 最大值:2147483647

grpc-stream-initial-window-size

  • gRPC stream 的 window 大小。
  • 默认值:2MB
  • 单位:KB|MB|GB
  • 最小值:1KB

grpc-keepalive-time

  • gRPC 发送 keep alive ping 消息的间隔时长。
  • 默认值:10s
  • 最小值:1s

grpc-keepalive-timeout

  • 关闭 gRPC 链接的超时时长。
  • 默认值:3s
  • 最小值:1s

concurrent-send-snap-limit

  • 同时发送 snapshot 的最大个数。
  • 默认值:32
  • 最小值:1

concurrent-recv-snap-limit

  • 同时接受 snapshot 的最大个数。
  • 默认值:32
  • 最小值:1

end-point-recursion-limit

  • endpoint 下推查询请求解码消息时,最多允许的递归层数。
  • 默认值:1000
  • 最小值:1

end-point-request-max-handle-duration

  • endpoint 下推查询请求处理任务最长允许的时长。
  • 默认值:60s
  • 最小值:1s

snap-io-max-bytes-per-sec

  • 处理 snapshot 时最大允许使用的磁盘带宽。
  • 默认值:100MB
  • 单位:KB|MB|GB
  • 最小值:1KB

enable-request-batch

  • 控制是否开启批处理请求。
  • 默认值:true

labels

  • 指定服务器属性,例如 { zone = "us-west-1", disk = "ssd" }
  • 默认值:{}

background-thread-count

  • 后台线程池的工作线程数量,包括 endpoint 线程、BR 线程、split check 线程、Region 线程以及其他延迟不敏感的任务线程。
  • 默认值:当 CPU 核数小于 16 时,默认值为 2。否则,默认值为 3

end-point-slow-log-threshold

  • endpoint 下推查询请求输出慢日志的阈值,处理时间超过阈值后会输出慢日志。
  • 默认值:1s
  • 最小值:0

raft-client-queue-size

  • 该配置项指定 TiKV 中发送 Raft 消息的缓冲区大小。如果存在消息发送不及时导致缓冲区满、消息被丢弃的情况,可以适当调大该配置项值以提升系统运行的稳定性。
  • 默认值:8192

simplify-metrics 从 v6.2.0 版本开始引入

  • 是否精简返回的监控指标 Metrics 数据。设置为 true 后,TiKV 可以通过过滤部分 Metrics 采样数据以减少每次请求返回的 Metrics 数据量。
  • 默认值:false

forward-max-connections-per-address 从 v5.0.0 版本开始引入

  • 设置服务与转发请求的连接池大小。设置过小会影响请求的延迟和负载均衡。
  • 默认值:4

readpool.unified

统一处理读请求的线程池相关的配置项。该线程池自 4.0 版本起取代原有的 storage 和 coprocessor 线程池。

min-thread-count

  • 统一处理读请求的线程池最少的线程数量。
  • 默认值:1

max-thread-count

  • 统一处理读请求的线程池最多的线程数量,即 UnifyReadPool 线程池的大小。调整该线程池的大小时,请参考 TiKV 线程池调优
  • 可调整范围:[min-thread-count, MAX(4, CPU quota * 10)]。其中,MAX(4, CPU quota * 10) 表示:如果 CPU 配额乘 10 小于 4,取 4;如果 CPU 配额乘 10 大于 4,即 CPU 配额大于 0.4,则取 CPU 配额乘 10。
  • 默认值:MAX(4, CPU quota * 0.8)

tikv-server - 图3

注意

增加线程数量会导致上下文切换增多,可能会导致性能下降,因此不推荐修改此配置。

stack-size

  • 统一处理读请求的线程池中线程的栈大小。
  • 类型:整数 + 单位
  • 默认值:10MB
  • 单位:KB|MB|GB
  • 最小值:2MB
  • 最大值:在系统中执行 ulimit -sH 命令后,输出的千字节数。

max-tasks-per-worker

  • 统一处理读请求的线程池中单个线程允许积压的最大任务数量,超出后会返回 Server Is Busy。
  • 默认值:2000
  • 最小值:2

auto-adjust-pool-size 从 v6.3.0 版本开始引入

  • 是否开启自动调整线程池的大小。开启此配置可以基于当前的 CPU 使用情况,自动调整统一处理读请求的线程池 (UnifyReadPool) 的大小,优化 TiKV 的读性能。目前线程池自动调整的范围为:[max-thread-count, MAX(4, CPU)](上限与 max-thread-count 可设置的最大值相同)。
  • 默认值:false

readpool.storage

存储线程池相关的配置项。

use-unified-pool

  • 是否使用统一的读取线程池(在 readpool.unified 中配置)处理存储请求。该选项值为 false 时,使用单独的存储线程池。通过本节 (readpool.storage) 中的其余配置项配置单独的线程池。
  • 默认值:如果本节 (readpool.storage) 中没有其他配置,默认为 true。否则,为了升级兼容性,默认为 false,请根据需要更改 readpool.unified 中的配置后再启用该选项。

high-concurrency

  • 处理高优先级读请求的线程池线程数量。
  • 8cpu num16 时,默认值为 cpu_num * 0.5;当 cpu num 小于 8 时,默认值为 4;当 cpu num 大于 16 时,默认值为 8
  • 最小值:1

normal-concurrency

  • 处理普通优先级读请求的线程池线程数量。
  • 8cpu num16 时,默认值为 cpu_num * 0.5;当 cpu num 小于 8 时,默认值为 4;当 cpu num 大于 16 时,默认值为 8
  • 最小值:1

low-concurrency

  • 处理低优先级读请求的线程池线程数量。
  • 8cpu num16 时,默认值为 cpu_num * 0.5;当 cpu num 小于 8 时,默认值为 4;当 cpu num 大于 16 时,默认值为 8
  • 最小值:1

max-tasks-per-worker-high

  • 高优先级线程池中单个线程允许积压的最大任务数量,超出后会返回 Server Is Busy。
  • 默认值:2000
  • 最小值:2

max-tasks-per-worker-normal

  • 普通优先级线程池中单个线程允许积压的最大任务数量,超出后会返回 Server Is Busy。
  • 默认值:2000
  • 最小值:2

max-tasks-per-worker-low

  • 低优先级线程池中单个线程允许积压的最大任务数量,超出后会返回 Server Is Busy。
  • 默认值:2000
  • 最小值:2

stack-size

  • Storage 读线程池中线程的栈大小。
  • 类型:整数 + 单位
  • 默认值:10MB
  • 单位:KB|MB|GB
  • 最小值:2MB
  • 最大值:在系统中执行 ulimit -sH 命令后,输出的千字节数。

readpool.coprocessor

协处理器线程池相关的配置项。

use-unified-pool

  • 是否使用统一的读取线程池(在 readpool.unified 中配置)处理协处理器请求。该选项值为 false 时,使用单独的协处理器线程池。通过本节 (readpool.coprocessor) 中的其余配置项配置单独的线程池。
  • 默认值:如果本节 (readpool.coprocessor) 中没有其他配置,默认为 true。否则,为了升级兼容性,默认为 false,请根据需要更改 readpool.unified 中的配置后再启用该选项。

high-concurrency

  • 处理高优先级 Coprocessor 请求(如点查)的线程池线程数量。
  • 默认值:CPU * 0.8
  • 最小值:1

normal-concurrency

  • 处理普通优先级 Coprocessor 请求的线程池线程数量。
  • 默认值:CPU * 0.8
  • 最小值:1

low-concurrency

  • 处理低优先级 Coprocessor 请求(如扫表)的线程池线程数量。
  • 默认值:CPU * 0.8
  • 最小值:1

max-tasks-per-worker-high

  • 高优先级线程池中单个线程允许积压的任务数量,超出后会返回 Server Is Busy。
  • 默认值:2000
  • 最小值:2

max-tasks-per-worker-normal

  • 普通优先级线程池中单个线程允许积压的任务数量,超出后会返回 Server Is Busy。
  • 默认值:2000
  • 最小值:2

max-tasks-per-worker-low

  • 低优先级线程池中单个线程允许积压的任务数量,超出后会返回 Server Is Busy。
  • 默认值:2000
  • 最小值:2

stack-size

  • Coprocessor 线程池中线程的栈大小。
  • 默认值:10MB
  • 单位:KB|MB|GB
  • 最小值:2MB
  • 最大值:在系统中执行 ulimit -sH 命令后,输出的千字节数。

storage

存储相关的配置项。

data-dir

  • RocksDB 存储路径。
  • 默认值:"./"

engine 从 v6.6.0 版本开始引入

tikv-server - 图4

警告

该功能目前为实验特性,不建议在生产环境中使用。该功能可能会在未事先通知的情况下发生变化或删除。如果发现 bug,请在 GitHub 上提 issue 反馈。

  • 设置存储引擎类型。该配置只能在创建新集群时指定,且后续无法更改。

  • 默认值:"raft-kv"

  • 可选值:

    • "raft-kv":TiDB v6.6.0 之前版本的默认存储引擎。
    • "partitioned-raft-kv":TiDB v6.6.0 新引入的存储引擎。

scheduler-concurrency

  • scheduler 内置一个内存锁机制,防止同时对一个 key 进行操作。每个 key hash 到不同的槽。
  • 默认值:524288
  • 最小值:1

scheduler-worker-pool-size

  • Scheduler 线程池中线程的数量。Scheduler 线程主要负责写入之前的事务一致性检查工作。如果 CPU 核心数量大于等于 16,默认为 8;否则默认为 4。调整 scheduler 线程池的大小时,请参考 TiKV 线程池调优
  • 默认值:4
  • 可调整范围:[1, MAX(4, CPU)]。其中,MAX(4, CPU) 表示:如果 CPU 核心数量小于 4,取 4;如果 CPU 核心数量大于 4,则取 CPU 核心数量。

scheduler-pending-write-threshold

  • 写入数据队列的最大值,超过该值之后对于新的写入 TiKV 会返回 Server Is Busy 错误。
  • 默认值:100MB
  • 单位:MB|GB

enable-async-apply-prewrite

  • 控制异步提交 (Async Commit) 事务在应用 prewrite 请求之前是否响应 TiKV 客户端。开启该配置项可以降低 apply 耗时较高时的延迟,或者减少 apply 耗时不稳定时的延迟抖动。
  • 默认值:false

reserve-space

  • TiKV 启动时会预留一块空间用于保护磁盘空间。当磁盘剩余空间小于该预留空间时,TiKV 会限制部分写操作。预留空间形式上分为两个部分:预留空间的 80% 用作磁盘空间不足时的运维操作所需要的额外磁盘空间,剩余的 20% 为磁盘临时文件。在回收空间的过程中,如果额外使用的磁盘空间过多,导致存储耗尽时,该临时文件会成为恢复服务的最后一道防御。
  • 临时文件名为 space_placeholder_file,位于 storage.data-dir 目录下。当 TiKV 因磁盘空间耗尽而下线时,重启 TiKV 会自动删除该临时文件,并自动尝试回收空间。
  • 当剩余空间不足时,TiKV 不会创建该临时文件。防御的有效性与预留空间的大小有关。预留空间大小的计算方式为磁盘容量的 5% 与该配置项之间的最大值。当该配置项的值为 0MB 时,TiKV 会关闭磁盘防护功能。
  • 默认值:5GB
  • 单位:MB|GB

enable-ttl

tikv-server - 图5

警告

  • 只能在部署新的 TiKV 集群时将 enable-ttl 的值设置为 truefalse不能在已有的 TiKV 集群中修改该配置项的值。由于该配置项为 truefalse 的 TiKV 集群所存储的数据格式不相同,如果你在已有的 TiKV 集群中修改该配置项的值,会造成不同格式的数据存储在同一个集群,导致重启对应的 TiKV 集群时 TiKV 报 “can’t enable ttl on a non-ttl instance” 错误。
  • 只能在 TiKV 集群中使用 enable-ttl不能在有 TiDB 节点的集群中使用该配置项(即在此类集群中把 enable-ttl 设置为 true),否则会导致数据损坏、TiDB 集群升级失败等严重后果。

  • TTL 即 Time to live。数据超过 TTL 时间后会被自动删除。用户需在客户端写入请求中指定 TTL。不指定 TTL 即表明相应数据不会被自动删除。

  • 默认值:false

ttl-check-poll-interval

  • 回收数据物理空间的检查周期。如果数据超过了 TTL 时间,数据的物理空间会在检查时被强制回收。
  • 默认值:12h
  • 最小值:0s

background-error-recovery-window 从 v6.1.0 版本开始引入

  • RocksDB 检测到可恢复的后台错误后,所允许的最长恢复时间。如果后台 SST 文件出现损坏,RocksDB 在检测到故障 SST 文件所属的 Peer 后,会通过心跳上报到 PD。PD 随后会进行调度操作移除该 Peer。最后故障 SST 文件将会被直接删除,随后 TiKV 后台恢复正常。
  • 在恢复操作完成之前,损坏的 SST 文件将一直存在。此时 RocksDB 可以继续写入新的内容,但读到损坏的数据范围时会返回错误。
  • 如果恢复操作未能在该时间窗口内完成,TiKV 会崩溃。
  • 默认值:1h

api-version 从 v6.1.0 版本开始引入

  • TiKV 作为 RawKV 存储数据时使用的存储格式与接口版本。
  • 可选值:
    • 1:使用 API V1。不对客户端传入的数据进行编码,而是原样存储。在 v6.1.0 之前的版本,TiKV 都使用 API V1。
    • 2:使用 API V2:
      • 数据采用多版本并发控制 (MVCC) 方式存储,其中时间戳由 tikv-server 从 PD 获取(即 TSO)。
      • 数据根据使用方式划分范围,支持单一集群 TiDB、事务 KV、RawKV 应用共存。
      • 需要同时设置 storage.enable-ttl = true。由于 API V2 支持 TTL 特性,因此强制要求打开 enable-ttl 以避免这个参数出现歧义。
      • 启用 API V2 后需要在集群中额外部署至少一个 tidb-server 以回收过期数据。该 tidb-server 可同时提供数据库读写服务。可以部署多个 tidb-server 以保证高可用。
      • 需要客户端的支持。请参考对应客户端的 API V2 使用说明。
      • 从 v6.2.0 版本开始,你可以通过 RawKV CDC 组件实现 RawKV 的 Change Data Capture (CDC)。
  • 默认值:1

tikv-server - 图6

警告

  • 由于 API V1 和 API V2 底层存储格式不同,因此仅当 TiKV 中只有 TiDB 数据时,可以平滑启用或关闭 API V2。其他情况下,需要新建集群,并使用 TiKV Backup & Restore 工具进行数据迁移。
  • 启用 API V2 后,不能将 TiKV 集群回退到 v6.1.0 之前的版本,否则可能导致数据损坏。

storage.block-cache

RocksDB 多个 CF 之间共享 block cache 的配置选项。

capacity

  • 共享 block cache 的大小。
  • 默认值:系统总内存大小的 45%
  • 单位:KB|MB|GB

storage.flow-control

在 scheduler 层进行流量控制代替 RocksDB 的 write stall 机制,可以避免 write stall 机制卡住 Raftstore 或 Apply 线程导致的次生问题。本节介绍 TiKV 流量控制机制相关的配置项。

enable

  • 是否开启流量控制机制。开启后,TiKV 会自动关闭 KvDB 的 write stall 机制,还会关闭 RaftDB 中除 memtable 以外的 write stall 机制。
  • 默认值:true

memtables-threshold

  • 当 KvDB 的 memtable 的个数达到该阈值时,流控机制开始工作。当 enable 的值为 true 时,会覆盖 rocksdb.(defaultcf|writecf|lockcf).max-write-buffer-number 的配置。
  • 默认值:5

l0-files-threshold

  • 当 KvDB 的 L0 文件个数达到该阈值时,流控机制开始工作。当 enable 的值为 true 时,会覆盖 rocksdb.(defaultcf|writecf|lockcf).level0-slowdown-writes-trigger的配置。
  • 默认值:20

soft-pending-compaction-bytes-limit

  • 当 KvDB 的 pending compaction bytes 达到该阈值时,流控机制开始拒绝部分写入请求,报错 ServerIsBusy。当 enable 的值为 true 时,会覆盖 rocksdb.(defaultcf|writecf|lockcf).soft-pending-compaction-bytes-limit 的配置。
  • 默认值:”192GB”

hard-pending-compaction-bytes-limit

  • 当 KvDB 的 pending compaction bytes 达到该阈值时,流控机制拒绝所有写入请求,报错 ServerIsBusy。当 enable 的值为 true 时,会覆盖 rocksdb.(defaultcf|writecf|lockcf).hard-pending-compaction-bytes-limit 的配置。
  • 默认值:”1024GB”

storage.io-rate-limit

I/O rate limiter 相关的配置项。

max-bytes-per-sec

  • 限制服务器每秒从磁盘读取数据或写入数据的最大 I/O 字节数,I/O 类型由下面的 mode 配置项决定。达到该限制后,TiKV 倾向于放缓后台操作为前台操作节流。该配置项值应设为磁盘的最佳 I/O 带宽,例如云盘厂商指定的最大 I/O 带宽。
  • 默认值:”0MB”

mode

  • 确定哪些类型的 I/O 操作被计数并受 max-bytes-per-sec 阈值的限流。当前 TiKV 只支持 write-only 只写模式。
  • 可选值:"read-only""write-only""all-io"
  • 默认值:"write-only"

pd

endpoints

  • PD 的地址。当指定多个地址时,需要用逗号 , 分隔。
  • 默认值:["127.0.0.1:2379"]

retry-interval

  • 初始化 PD 连接时的重试间隔。
  • 默认值:"300ms"

retry-log-every

  • 指定 PD 客户端在观察到错误时跳过报错的频率。例如,当配置项值为 5 时,每次 PD 观察到错误时,将跳过 4 次报错,直到第 5 次错误时才报告。
  • 要禁用此功能,请将值设置为 1
  • 默认值:10

retry-max-count

  • 初始化 PD 连接的最大重试次数。
  • 要禁用重试,请将该值设置为 0。要解除重试次数的限制,请将该值设置为 -1
  • 默认值:-1

raftstore

raftstore 相关的配置项。

prevote

  • 开启 Prevote 的开关,开启有助于减少隔离恢复后对系统造成的抖动。
  • 默认值:true

capacity

  • 存储容量,即允许的最大数据存储大小。如果没有设置,则使用当前磁盘容量。如果要将多个 TiKV 实例部署在同一块物理磁盘上,需要在 TiKV 配置中添加该参数,参见混合部署的关键参数介绍
  • 默认值:0
  • 单位:KB|MB|GB

raftdb-path

  • raft 库的路径,默认存储在 storage.data-dir/raft 下。
  • 默认值:””

raft-base-tick-interval

tikv-server - 图7

注意

该配置项不支持通过 SQL 语句查询,但支持在配置文件中进行配置。

  • 状态机 tick 一次的间隔时间。
  • 默认值:1s
  • 最小值:大于 0

raft-heartbeat-ticks

tikv-server - 图8

注意

该配置项不支持通过 SQL 语句查询,但支持在配置文件中进行配置。

  • 发送心跳时经过的 tick 个数,即每隔 raft-base-tick-interval * raft-heartbeat-ticks 时间发送一次心跳。
  • 默认值:2
  • 最小值:大于 0

raft-election-timeout-ticks

tikv-server - 图9

注意

该配置项不支持通过 SQL 语句查询,但支持在配置文件中进行配置。

  • 发起选举时经过的 tick 个数,即如果处于无主状态,大约经过 raft-base-tick-interval * raft-election-timeout-ticks 时间以后发起选举。
  • 默认值:10
  • 最小值:raft-heartbeat-ticks

raft-min-election-timeout-ticks

tikv-server - 图10

注意

该配置项不支持通过 SQL 语句查询,但支持在配置文件中进行配置。

  • 发起选举时至少经过的 tick 个数,如果为 0,则表示使用 raft-election-timeout-ticks,不能比 raft-election-timeout-ticks 小。
  • 默认值:0
  • 最小值:0

raft-max-election-timeout-ticks

tikv-server - 图11

注意

该配置项不支持通过 SQL 语句查询,但支持在配置文件中进行配置。

  • 发起选举时最多经过的 tick 个数,如果为 0,则表示使用 raft-election-timeout-ticks * 2。
  • 默认值:0
  • 最小值:0

raft-max-size-per-msg

tikv-server - 图12

注意

该配置项不支持通过 SQL 语句查询,但支持在配置文件中进行配置。

  • 产生的单个消息包的大小限制,软限制。
  • 默认值:1MB
  • 最小值:大于 0
  • 最大值: 3GB
  • 单位:KB|MB|GB

raft-max-inflight-msgs

tikv-server - 图13

注意

该配置项不支持通过 SQL 语句查询,但支持在配置文件中进行配置。

  • 待确认的日志个数,如果超过这个数量,Raft 状态机会减缓发送日志的速度。
  • 默认值:256
  • 最小值:大于 0
  • 最大值: 16384

raft-entry-max-size

  • 单个日志最大大小,硬限制。
  • 默认值:8MB
  • 最小值:0
  • 单位:MB|GB

raft-log-compact-sync-interval 从 v5.3 版本开始引入

  • 压缩非必要 Raft 日志的时间间隔。
  • 默认值:”2s”
  • 最小值:”0s”

raft-log-gc-tick-interval

  • 删除 Raft 日志的轮询任务调度间隔时间,0 表示不启用。
  • 默认值:”3s”
  • 最小值:”0s”

raft-log-gc-threshold

  • 允许残余的 Raft 日志个数,这是一个软限制。
  • 默认值:50
  • 最小值:1

raft-log-gc-count-limit

  • 允许残余的 Raft 日志个数,这是一个硬限制。
  • 默认值:3/4 Region 大小所能容纳的日志个数,按照每个日志 1 MiB 计算
  • 最小值:0

raft-log-gc-size-limit

  • 允许残余的 Raft 日志大小,这是一个硬限制。
  • 默认值:Region 大小的 3/4
  • 最小值:大于 0

raft-log-reserve-max-ticks 从 v5.3 版本开始引入

  • 超过本配置项设置的的 tick 数后,即使剩余 Raft 日志的数量没有达到 raft-log-gc-threshold 设置的值,TiKV 也会进行 GC 操作。
  • 默认值:6
  • 最小值:大于 0

raft-engine-purge-interval

  • 清除旧的 TiKV 日志文件的间隔时间,以尽快回收磁盘空间。Raft 引擎是可替换的组件,因此某些功能或优化的实现需要清除 TiKV 日志文件。
  • 默认值:"10s"

raft-entry-cache-life-time

  • 内存中日志 cache 允许的最长残留时间。
  • 默认值:30s
  • 最小值:0

hibernate-regions

  • 打开或关闭静默 Region。打开后,如果 Region 长时间处于非活跃状态,即被自动设置为静默状态。静默状态的 Region 可以降低 Leader 和 Follower 之间心跳信息的系统开销。可以通过 peer-stale-state-check-interval 调整 Leader 和 Follower 之间的心跳间隔。
  • 默认值:v5.0.2 及以后版本默认值为 true,v5.0.2 以前的版本默认值为 false

split-region-check-tick-interval

  • 检查 Region 是否需要分裂的时间间隔,0 表示不启用。
  • 默认值:10s
  • 最小值:0

region-split-check-diff

  • 允许 Region 数据超过指定大小的最大值。
  • 默认值:Region 大小的 1/16
  • 最小值:0

region-compact-check-interval

  • 检查是否需要人工触发 RocksDB compaction 的时间间隔,0 表示不启用。
  • 默认值:5m
  • 最小值:0

region-compact-check-step

  • 每轮校验人工 compaction 时,一次性检查的 Region 个数。
  • 默认值:100
  • 最小值:0

region-compact-min-tombstones

  • 触发 RocksDB compaction 需要的 tombstone 个数。
  • 默认值:10000
  • 最小值:0

region-compact-tombstones-percent

  • 触发 RocksDB compaction 需要的 tombstone 所占比例。
  • 默认值:30
  • 最小值:1
  • 最大值:100

pd-heartbeat-tick-interval

  • 触发 Region 对 PD 心跳的时间间隔,0 表示不启用。
  • 默认值:1m
  • 最小值:0

pd-store-heartbeat-tick-interval

  • 触发 store 对 PD 心跳的时间间隔,0 表示不启用。
  • 默认值:10s
  • 最小值:0

snap-mgr-gc-tick-interval

  • 触发回收过期 snapshot 文件的时间间隔,0 表示不启用。
  • 默认值:1m
  • 最小值:0

snap-gc-timeout

  • snapshot 文件的最长保存时间。
  • 默认值:4h
  • 最小值:0

snap-generator-pool-size 从 v5.4.0 版本开始引入

  • 用于配置 snap-generator 线程池的大小。
  • 为了让 TiKV 在恢复场景下加快 Region 生成 Snapshot 的速度,需要调大对应 Worker 的 snap-generator 线程数量。可通过本配置项调大对应线程的数量。
  • 默认值:2
  • 最小值:1

lock-cf-compact-interval

  • 触发对 lock CF compact 检查的时间间隔。
  • 默认值:10m
  • 最小值:0

lock-cf-compact-bytes-threshold

  • 触发对 lock CF 进行 compact 的大小。
  • 默认值:256MB
  • 最小值:0
  • 单位:MB

notify-capacity

  • Region 消息队列的最长长度。
  • 默认值:40960
  • 最小值:0

messages-per-tick

  • 每轮处理的消息最大个数。
  • 默认值:4096
  • 最小值:0

max-peer-down-duration

  • 副本允许的最长未响应时间,超过将被标记为 down,后续 PD 会尝试将其删掉。
  • 默认值:10m
  • 最小值:当 Hibernate Region 功能启用时,为 peer-stale-state-check-interval * 2;Hibernate Region 功能关闭时,为 0。

max-leader-missing-duration

  • 允许副本处于无主状态的最长时间,超过将会向 PD 校验自己是否已经被删除。
  • 默认值:2h
  • 最小值:> abnormal-leader-missing-duration

abnormal-leader-missing-duration

  • 允许副本处于无主状态的时间,超过将视为异常,标记在 metrics 和日志中。
  • 默认值:10m
  • 最小值:> peer-stale-state-check-interval

peer-stale-state-check-interval

  • 触发检验副本是否处于无主状态的时间间隔。
  • 默认值:5m
  • 最小值:> 2 * election-timeout

leader-transfer-max-log-lag

  • 尝试转移领导权时被转移者允许的最大日志缺失个数。
  • 默认值:128
  • 最小值:10

max-snapshot-file-raw-size 从 v6.1.0 版本开始引入

  • 当 snapshot 文件大于该配置项指定的大小时,snapshot 文件会被切割为多个文件。
  • 默认值:100MiB
  • 最小值:100MiB

snap-apply-batch-size

  • 当导入 snapshot 文件需要写数据时,内存写缓存的大小。
  • 默认值:10MB
  • 最小值:0
  • 单位:MB

consistency-check-interval

tikv-server - 图14

警告

开启一致性检查对集群性能有影响,并且和 TiDB GC 操作不兼容,不建议在生产环境中使用。

  • 触发一致性检查的时间间隔,0 表示不启用。
  • 默认值:0s
  • 最小值:0

raft-store-max-leader-lease

  • Region 主可信任期的最长时间。
  • 默认值:9s
  • 最小值:0

right-derive-when-split

  • 为 true 时,以最大分裂 key 为起点的 Region 复用原 Region 的 key;否则以原 Region 起点 key 作为起点的 Region 复用原 Region 的 key。
  • 默认值:true

merge-max-log-gap

  • 进行 merge 时,允许的最大日志缺失个数。
  • 默认值:10
  • 最小值:> raft-log-gc-count-limit

merge-check-tick-interval

  • 触发 merge 完成检查的时间间隔。
  • 默认值:2s
  • 最小值:大于 0

use-delete-range

  • 开启 rocksdb delete_range 接口删除数据的开关。
  • 默认值:false

cleanup-import-sst-interval

  • 触发检查过期 SST 文件的时间间隔,0 表示不启用。
  • 默认值:10m
  • 最小值:0

local-read-batch-size

  • 一轮处理读请求的最大个数。
  • 默认值:1024
  • 最小值:大于 0

apply-yield-write-size 从 v6.4.0 版本开始引入

  • Apply 线程每一轮处理单个状态机写入的最大数据量,这是个软限制。
  • 默认值:32KiB
  • 最小值:大于 0
  • 单位:KiB|MiB|GiB

apply-max-batch-size

  • Raft 状态机由 BatchSystem 批量执行数据写入请求,该配置项指定每批可执行请求的最多 Raft 状态机个数。
  • 默认值:256
  • 最小值:大于 0
  • 最大值: 10240

apply-pool-size

  • Apply 线程池负责把数据落盘至磁盘。该配置项为 Apply 线程池中线程的数量,即 Apply 线程池的大小。调整 Apply 线程池的大小时,请参考 TiKV 线程池调优
  • 默认值:2
  • 可调整范围:[1, CPU * 10]

store-max-batch-size

  • Raft 状态机由 BatchSystem 批量执行把日志落盘至磁盘的请求,该配置项指定每批可执行请求的最多 Raft 状态机个数。
  • 如果开启 hibernate-regions,默认值为 256;如果关闭 hibernate-regions,默认值为 1024
  • 最小值:大于 0
  • 最大值: 10240

store-pool-size

  • 表示处理 Raft 的线程池中线程的数量,即 Raftstore 线程池的大小。调整该线程池的大小时,请参考 TiKV 线程池调优
  • 默认值:2
  • 可调整范围:[1, CPU * 10]

store-io-pool-size 从 v5.3.0 版本开始引入

  • 表示处理 Raft I/O 任务的线程池中线程的数量,即 StoreWriter 线程池的大小。调整该线程池的大小时,请参考 TiKV 线程池调优
  • 默认值:0
  • 最小值:0

future-poll-size

  • 驱动 future 的线程池中线程的数量。
  • 默认值:1
  • 最小值:大于 0

cmd-batch

  • 对请求进行攒批的控制开关,开启后可显著提升写入性能。
  • 默认值:true

inspect-interval

  • TiKV 每隔一段时间会检测 Raftstore 组件的延迟情况,该配置项设置检测的时间间隔。当检测的延迟超过该时间,该检测会被记为超时。
  • 根据超时的检测延迟的比例计算判断 TiKV 是否为慢节点。
  • 默认值:500ms
  • 最小值:1ms

raft-write-size-limit 从 v5.3.0 版本开始引入

  • 触发 Raft 数据写入的阈值。当数据大小超过该配置项值,数据会被写入磁盘。当 store-io-pool-size 的值为 0 时,该配置项不生效。
  • 默认值:1MB
  • 最小值:0

report-min-resolved-ts-interval

  • 设置 PD leader 收到 Resolved TS 的最小间隔时间。如果该值设置为 0,表示禁用该功能。
  • 默认值:"1s",即最小正值
  • 最小值:0
  • 单位:秒

coprocessor

Coprocessor 相关的配置项。

split-region-on-table

  • 开启按 table 分裂 Region 的开关,建议仅在 TiDB 模式下使用。
  • 默认值:false

batch-split-limit

  • 批量分裂 Region 的阈值,调大该值可加速分裂 Region。
  • 默认值:10
  • 最小值:1

region-max-size

  • Region 容量空间最大值,超过时系统分裂成多个 Region。
  • 默认值:region-split-size / 2 * 3
  • 单位:KiB|MiB|GiB

region-split-size

  • 分裂后新 Region 的大小,此值属于估算值。
  • 默认值:96MiB
  • 单位:KiB|MiB|GiB

region-max-keys

  • Region 最多允许的 key 的个数,超过时系统分裂成多个 Region。
  • 默认值:region-split-keys / 2 * 3

region-split-keys

  • 分裂后新 Region 的 key 的个数,此值属于估算值。
  • 默认值:960000

consistency-check-method

  • 指定数据一致性检查的方法。
  • 要对 MVCC 数据进行一致性检查,设置该值为 "mvcc"。要对原始数据进行一致性检查,设置该值为 "raw"
  • 默认值:"mvcc"

coprocessor-v2

coprocessor-plugin-directory

  • 已编译 coprocessor 插件所在目录的路径。TiKV 会自动加载该目录下的插件。
  • 如果未设置该配置项,则 coprocessor 插件会被禁用。
  • 默认值:"./coprocessors"

enable-region-bucket 从 v6.1.0 版本开始引入

  • 是否将 Region 划分为更小的区间 bucket,并且以 bucket 作为并发查询单位,以提高扫描数据的并发度。bucket 的详细设计可见 Dynamic size Region
  • 默认值:false

tikv-server - 图15

警告

  • enable-region-bucket 是 TiDB 在 v6.1.0 中引入的实验特性,不建议在生产环境中使用。
  • 这个参数仅在 region-split-size 调到两倍 region-bucket-size 及以上时才有意义,否则不会真正生成 bucket。
  • region-split-size 调大可能会有潜在的性能回退、数据调度缓慢的风险。

region-bucket-size 从 v6.1.0 版本开始引入

  • 设置 enable-region-bucket 启用时 bucket 的预期大小。
  • 默认值:96MiB

tikv-server - 图16

警告

region-bucket-size 是 TiDB 在 v6.1.0 中引入的实验特性,不建议在生产环境中使用。

report-region-buckets-tick-interval 从 v6.1.0 版本开始引入

tikv-server - 图17

警告

report-region-buckets-tick-interval 是 TiDB 在 v6.1.0 中引入的实验特性,不建议在生产环境中使用。

  • 启用 enable-region-bucket 后,该配置项设置 TiKV 向 PD 上报 bucket 信息的间隔时间。
  • 默认值:10s

rocksdb

RocksDB 相关的配置项。

max-background-jobs

  • RocksDB 后台线程个数。调整 RocksDB 线程池的大小时,请参考 TiKV 线程池调优
  • 默认值:
    • CPU 核数为 10 时,默认值为 9
    • CPU 核数为 8 时,默认值为 7
    • CPU 核数为 N 时,默认值为 max(2, min(N - 1, 9))
  • 最小值:2

max-background-flushes

  • RocksDB 用于刷写 memtable 的最大后台线程数量。
  • 默认值:
    • CPU 核数为 10 时,默认值为 3
    • CPU 核数为 8 时,默认值为 2
    • CPU 核数为 N 时,默认值为 [(max-background-jobs + 3) / 4]
  • 最小值:1

max-sub-compactions

  • RocksDB 进行 subcompaction 的并发个数。
  • 默认值:3
  • 最小值:1

max-open-files

  • RocksDB 可以打开的文件总数。
  • 默认值:40960
  • 最小值:-1

max-manifest-file-size

  • RocksDB Manifest 文件最大大小。
  • 默认值:128MB
  • 最小值:0
  • 单位:B|KB|MB|GB

create-if-missing

  • 自动创建 DB 开关。
  • 默认值:true

wal-recovery-mode

  • 预写式日志 (WAL, Write Ahead Log) 的恢复模式。
  • 可选值:
    • "tolerate-corrupted-tail-records":容忍并丢弃位于日志尾部的不完整的数据 (trailing data)。
    • "absolute-consistency":当发现待恢复的日志中有被损坏的日志时,放弃恢复所有日志。
    • "point-in-time":按顺序恢复日志。遇到第一个损坏的日志时,停止恢复剩余的日志。
    • "skip-any-corrupted-records":灾难后恢复。跳过日志中的损坏记录,尽可能多地恢复数据。
  • 默认值:"point-in-time"

wal-dir

  • WAL 存储目录,默认:“tmp/tikv/store”。
  • 默认值:/tmp/tikv/store

wal-ttl-seconds

  • 归档 WAL 生存周期,超过该值时,系统会删除相关 WAL。
  • 默认值:0
  • 最小值:0
  • 单位:秒

wal-size-limit

  • 归档 WAL 大小限制,超过该值时,系统会删除相关 WAL。
  • 默认值:0
  • 最小值:0
  • 单位:B|KB|MB|GB

max-total-wal-size

  • RocksDB WAL 总大小限制,即 data-dir 目录下 *.log 文件的大小总和。
  • 默认值:"4GB"

stats-dump-period

  • 将统计信息输出到日志中的间隔时间。
  • 默认值:10m

compaction-readahead-size

  • 开启 RocksDB compaction 过程中的预读功能,该项指定预读数据的大小。如果使用的是机械磁盘,建议该值至少为 2MB。
  • 默认值:0
  • 最小值:0
  • 单位:B|KB|MB|GB

writable-file-max-buffer-size

  • WritableFileWrite 所使用的最大的 buffer 大小。
  • 默认值:1MB
  • 最小值:0
  • 单位:B|KB|MB|GB

use-direct-io-for-flush-and-compaction

  • 决定后台 flush 或者 compaction 的读写是否设置 O_DIRECT 的标志。该选项对性能的影响:开启 O_DIRECT 可以绕过并防止污染操作系统 buffer cache,但后续文件读取需要把内容重新读到 buffer cache。
  • 默认值:false

rate-bytes-per-sec

  • RocksDB compaction rate limiter 的限制速率。
  • 默认值:10GB
  • 最小值:0
  • 单位:B|KB|MB|GB

rate-limiter-refill-period

  • 控制 I/O 令牌的刷新频率。较小的值可以减少 I/O 尖刺,但会增加 CPU 开销。
  • 默认值:"100ms"

rate-limiter-mode

  • RocksDB 的 compaction rate limiter 模式。
  • 可选值:”read-only”,”write-only”,”all-io”
  • 默认值:”write-only”

rate-limiter-auto-tuned 从 v5.0 版本开始引入

  • 控制是否依据最近的负载量自动优化 RocksDB 的 compaction rate limiter 配置。此配置项开启后,compaction pending bytes 监控指标值会比一般情况下稍微高些。
  • 默认值:true

enable-pipelined-write

  • 控制是否开启 Pipelined Write。开启时会使用旧的 Pipelined Write,关闭时会使用新的 Pipelined Commit 机制。
  • 默认值:false

bytes-per-sync

  • 异步 Sync 限速速率。
  • 默认值:1MB
  • 最小值:0
  • 单位:B|KB|MB|GB

wal-bytes-per-sync

  • WAL Sync 限速速率,默认:512KB。
  • 默认值:512KB
  • 最小值:0
  • 单位:B|KB|MB|GB

info-log-max-size

  • Info 日志的最大大小。
  • 默认值:1GB
  • 最小值:0
  • 单位:B|KB|MB|GB

info-log-roll-time

  • 日志截断间隔时间,如果为 0s 则不截断。
  • 默认值:0s

info-log-keep-log-file-num

  • 保留日志文件最大个数。
  • 默认值:10
  • 最小值:0

info-log-dir

  • 日志存储目录。
  • 默认值:””

info-log-level

  • RocksDB 的日志级别。
  • 默认值:"info"

write-buffer-flush-oldest-first 从 v6.6.0 版本开始引入

tikv-server - 图18

警告

该功能目前为实验特性,不建议在生产环境中使用。该功能可能会在未事先通知的情况下发生变化或删除。如果发现 bug,请在 GitHub 上提 issue 反馈。

  • 设置当 RocksDB 当前 memtable 内存占用达到阈值之后的 Flush 策略。
  • 默认值:false
  • 可选值:
    • false:Flush 策略是优先选择数据量大的 memtable 落盘到 SST。
    • true:Flush 策略是优先选择最早的 memtable 落盘到 SST。该策略可以清除冷数据的 memtable,用于有明显冷热数据的场景。

write-buffer-limit 从 v6.6.0 版本开始引入

tikv-server - 图19

警告

该功能目前为实验特性,不建议在生产环境中使用。该功能可能会在未事先通知的情况下发生变化或删除。如果发现 bug,请在 GitHub 上提 issue 反馈。

  • 设置单个 TiKV 中所有 RocksDB 实例使用的 memtable 的总内存上限,默认值为本机内存的 25%,推荐配置不低于 5 GiB 的内存。该配置只对分区 Raft KV (storage.engine=”partitioned-raft-kv”) 生效。
  • 默认值:25%
  • 单位:KiB|MiB|GiB

rocksdb.titan

Titan 相关的配置项。

enabled

  • 开启 Titan 开关。
  • 默认值:false

dirname

  • Titan Blob 文件存储目录。
  • 默认值:titandb

disable-gc

  • 关闭 Titan 对 Blob 文件的 GC 的开关。
  • 默认值:false

max-background-gc

  • Titan 后台 GC 的线程个数。
  • 默认值:4
  • 最小值:1

rocksdb.defaultcf | rocksdb.writecf | rocksdb.lockcf

rocksdb defaultcf、rocksdb writecf 和 rocksdb lockcf 相关的配置项。

block-size

  • 一个 RocksDB block 的默认大小。
  • defaultcf 默认值:32KB
  • writecf 默认值:32KB
  • lockcf 默认值:16KB
  • 最小值:1KB
  • 单位:KB|MB|GB

block-cache-size

tikv-server - 图20

警告

从 v6.6.0 起,该配置项被废弃。

  • 一个 RocksDB block 的默认缓存大小。
  • defaultcf 默认值:机器总内存 * 25%
  • writecf 默认值:机器总内存 * 15%
  • lockcf 默认值:机器总内存 * 2%
  • 最小值:0
  • 单位:KB|MB|GB

disable-block-cache

  • 开启 block cache 开关。
  • 默认值:false

cache-index-and-filter-blocks

  • 开启缓存 index 和 filter 的开关。
  • 默认值:true

pin-l0-filter-and-index-blocks

  • 控制第 0 层 SST 文件的 index block 和 filter block 是否常驻在内存中的开关。
  • 默认值:true

use-bloom-filter

  • 开启 bloom filter 的开关。
  • 默认值:true

optimize-filters-for-hits

  • 开启优化 filter 的命中率的开关。
  • defaultcf 默认值:true
  • writecf 默认值:false
  • lockcf 默认值:false

optimize-filters-for-memory 从 v7.1.0 版本开始引入

  • 控制是否生成能够最小化内存碎片的 Bloom/Ribbon filter。
  • 只有当 format-version >= 5 时,该配置项才生效。
  • 默认值:false

whole-key-filtering

  • 开启将整个 key 放到 bloom filter 中的开关。
  • defaultcf 默认值:true
  • writecf 默认值:false
  • lockcf 默认值:true

bloom-filter-bits-per-key

  • bloom filter 为每个 key 预留的长度。
  • 默认值:10
  • 单位:字节

block-based-bloom-filter

  • 开启每个 block 建立 bloom filter 的开关。
  • 默认值:false

ribbon-filter-above-level 从 v7.1.0 版本开始引入

  • 控制是否对于大于等于该值的 level 使用 Ribbon filter,对于小于该值的 level,使用非 block-based bloom filter。当该配置开启时,block-based-bloom-filter 将被忽略。
  • 只有当 format-version >= 5 时,该配置项才生效。
  • 默认值:false

read-amp-bytes-per-bit

  • 开启读放大统计的开关,0:不开启,> 0 开启。
  • 默认值:0
  • 最小值:0

compression-per-level

  • 每一层默认压缩算法。
  • defaultcf 的默认值:[“no”, “no”, “lz4”, “lz4”, “lz4”, “zstd”, “zstd”]
  • writecf 的默认值:[“no”, “no”, “lz4”, “lz4”, “lz4”, “zstd”, “zstd”]
  • lockcf 的默认值:[“no”, “no”, “no”, “no”, “no”, “no”, “no”]

bottommost-level-compression

  • 设置最底层的压缩算法。该设置将覆盖 compression-per-level 的设置。
  • 因为最底层并非从数据开始写入 LSM-tree 起就直接采用 compression-per-level 数组中的最后一个压缩算法,使用 bottommost-level-compression 可以让最底层从一开始就使用压缩效果最好的压缩算法。
  • 如果不想设置最底层的压缩算法,可以将该配置项的值设为 disable
  • 默认值:”zstd”

write-buffer-size

  • memtable 大小。
  • defaultcf 默认值:"128MB"
  • writecf 默认值:"128MB"
  • lockcf 默认值:"32MB"
  • 最小值:0
  • 单位:KB|MB|GB

max-write-buffer-number

  • 最大 memtable 个数。当 storage.flow-control.enable 的值为 true 时,storage.flow-control.memtables-threshold 会覆盖此配置。
  • 默认值:5
  • 最小值:0

min-write-buffer-number-to-merge

  • 触发 flush 的最小 memtable 个数。
  • 默认值:1
  • 最小值:0

max-bytes-for-level-base

  • base level (L1) 最大字节数,一般设置为 memtable 大小 4 倍。当 L1 的数据量大小达到 max-bytes-for-level-base 限定的值的时候,会触发 L1 的 SST 文件和 L2 中有 overlap 的 SST 文件进行 compaction。
  • defaultcf 默认值:"512MB"
  • writecf 默认值:"512MB"
  • lockcf 默认值:"128MB"
  • 最小值:0
  • 单位:KB|MB|GB
  • 建议 max-bytes-for-level-base 的取值和 L0 的数据量大致相等,以减少不必要的 compaction。假如压缩方式为 “no:no:lz4:lz4:lz4:lz4:lz4”,那么 max-bytes-for-level-base 的值应该是 write-buffer-size * 4,因为 L0 和 L1 均没有压缩,且 L0 触发 compaction 的条件是 SST 文件的个数到达 4(默认值)。当 L0 和 L1 都发生了 compaction 时,需要分析 RocksDB 的日志了解由一个 memtable 压缩成的 SST 文件的大小。如果文件大小为 32MB,那么 max-bytes-for-level-base 的值建议设为 32MB * 4 = 128MB。

target-file-size-base

  • base level 的目标文件大小。当 enable-compaction-guard 的值为 true 时,compaction-guard-max-output-file-size 会覆盖此配置。
  • 默认值:8MB
  • 最小值:0
  • 单位:KB|MB|GB

level0-file-num-compaction-trigger

  • 触发 compaction 的 L0 文件最大个数。
  • defaultcf 默认值:4
  • writecf 默认值:4
  • lockcf 默认值:1
  • 最小值:0

level0-slowdown-writes-trigger

  • 触发 write stall 的 L0 文件最大个数。当 storage.flow-control.enable 的值为 true 时,storage.flow-control.l0-files-threshold 会覆盖此配置。
  • 默认值:20
  • 最小值:0

level0-stop-writes-trigger

  • 完全阻停写入的 L0 文件最大个数。
  • 默认值:36
  • 最小值:0

max-compaction-bytes

  • 一次 compaction 最大写入字节数,默认 2GB。
  • 默认值:2GB
  • 最小值:0
  • 单位:KB|MB|GB

compaction-pri

  • 优先处理 compaction 的类型。
  • 可选值:
    • "by-compensated-size":根据大小顺序,优先对大文件进行 compaction。
    • "oldest-largest-seq-first":根据时间顺序,优先对数据更新时间晚的文件进行 compaction。当你只在小范围内更新部分热点键 (hot keys) 时,可以使用此配置。
    • "oldest-smallest-seq-first":根据时间顺序,优先对长时间没有被 compact 到下一级的文件进行 compaction。如果你在大范围内随机更新了部分热点键,使用该配置可以轻微缓解写放大。
    • "min-overlapping-ratio":根据重叠比例,优先对在不同层之间文件重叠比例高的文件进行 compaction,即一个文件在 下一层的大小/本层的大小 的值越小,compaction 的优先级越高。在诸多场景下,该配置可以有效缓解写放大。
  • 默认值:
    • defaultcfwritecf 的默认值:"min-overlapping-ratio"
    • lockcf 的默认值:"by-compensated-size"

dynamic-level-bytes

  • 开启 dynamic level bytes 优化的开关。
  • 默认值:true

num-levels

  • RocksDB 文件最大层数。
  • 默认值:7

max-bytes-for-level-multiplier

  • 每一层的默认放大倍数。
  • 默认值:10

compaction-style

  • compaction 方法。
  • 可选值:”level”,”universal”,”fifo”
  • 默认值:”level”

disable-auto-compactions

  • 是否关闭自动 compaction。
  • 默认值:false

soft-pending-compaction-bytes-limit

  • pending compaction bytes 的软限制。当 storage.flow-control.enable 的值为 true 时,storage.flow-control.soft-pending-compaction-bytes-limit 会覆盖此配置。
  • 默认值:192GB
  • 单位:KB|MB|GB

hard-pending-compaction-bytes-limit

  • pending compaction bytes 的硬限制。当 storage.flow-control.enable 的值为 true 时,storage.flow-control.hard-pending-compaction-bytes-limit 会覆盖此配置。
  • 默认值:256GB
  • 单位:KB|MB|GB

enable-compaction-guard

  • 设置 compaction guard 的启用状态。compaction guard 优化通过使用 TiKV Region 边界分割 SST 文件,帮助降低 compaction I/O,让 TiKV 能够输出较大的 SST 文件,并且在迁移 Region 时及时清理过期数据。
  • defaultcf 默认值:true
  • writecf 默认值:true
  • lockcf 默认值:false

compaction-guard-min-output-file-size

  • 设置 compaction guard 启用时 SST 文件大小的最小值,防止 SST 文件过小。
  • 默认值:8MB
  • 单位:KB|MB|GB

compaction-guard-max-output-file-size

  • 设置 compaction guard 启用时 SST 文件大小的最大值,防止 SST 文件过大。对于同一列族,此配置项的值会覆盖 target-file-size-base
  • 默认值:128MB
  • 单位:KB|MB|GB

format-version 从 v6.2.0 版本开始引入

  • 设置 SST 文件的格式版本。该配置项只影响新写入的表,对于已经存在的表,版本信息会从 footer 中读取。
  • 可选值:
    • 0:适用于所有 TiKV 版本。默认 checksum 类型为 CRC32。该版本不支持修改 checksum 类型。
    • 1:适用于所有 TiKV 版本。支持使用非默认的 checksum 类型,例如 xxHash。只有在 checksum 类型不是 CRC32 时,RocksDB 才会写入数据。(0 版本会自动升级)
    • 2:适用于所有 TiKV 版本。更改了压缩块的编码方式,使用 LZ4、BZip2 和 Zlib 压缩。
    • 3:适用于 TiKV v2.1 及以上版本。更改了索引块中 key 的编码方式。
    • 4:适用于 TiKV v3.0 及以上版本。更改了索引块中 value 的编码方式。
    • 5:适用于 TiKV v6.1 及以上版本。全量和分区 filter 采用一种具有不同模式的、更快、更准确的 Bloom filter 实现。
  • 默认值:2

rocksdb.defaultcf.titan

rocksdb defaultcf titan 相关的配置项。

min-blob-size

  • 最小存储在 Blob 文件中 value 大小,低于该值的 value 还是存在 LSM-Tree 中。
  • 默认值:1KB
  • 最小值:0
  • 单位:KB|MB|GB

blob-file-compression

  • Blob 文件所使用的压缩算法,可选值:no、snappy、zlib、bz2、lz4、lz4hc、zstd。
  • 默认值:lz4

blob-cache-size

  • Blob 文件的 cache 大小。
  • 默认值:0GB
  • 最小值:0
  • 单位:KB|MB|GB

min-gc-batch-size

  • 做一次 GC 所要求的最低 Blob 文件大小总和。
  • 默认值:16MB
  • 最小值:0
  • 单位:KB|MB|GB

max-gc-batch-size

  • 做一次 GC 所要求的最高 Blob 文件大小总和。
  • 默认值:64MB
  • 最小值:0
  • 单位:KB|MB|GB

discardable-ratio

  • Blob 文件 GC 的触发比例,如果某 Blob 文件中的失效 value 的比例高于该值才可能被 GC 选中。
  • 默认值:0.5
  • 最小值:0
  • 最大值:1

sample-ratio

  • 进行 GC 时,对 Blob 文件进行采样时读取数据占整个文件的比例。
  • 默认值:0.1
  • 最小值:0
  • 最大值:1

merge-small-file-threshold

  • Blob 文件的大小小于该值时,无视 discardable-ratio 仍可能被 GC 选中。
  • 默认值:8MB
  • 最小值:0
  • 单位:KB|MB|GB

blob-run-mode

  • Titan 的运行模式选择。
  • 可选值:
    • “normal”:value size 超过 min-blob-size 的数据会写入到 blob 文件。
    • “read_only”:不再写入新数据到 blob,原有 blob 内的数据仍然可以读取。
    • “fallback”:将 blob 内的数据写回 LSM。
  • 默认值:”normal”

level-merge

  • 是否通过开启 level-merge 来提升读性能,副作用是写放大会比不开启更大。
  • 默认值:false

raftdb

raftdb 相关配置项。

max-background-jobs

  • RocksDB 后台线程个数。调整 RocksDB 线程池的大小时,请参考 TiKV 线程池调优
  • 默认值:4
  • 最小值:2

max-sub-compactions

  • RocksDB 进行 subcompaction 的并发数。
  • 默认值:2
  • 最小值:1

max-open-files

  • RocksDB 可以打开的文件总数。
  • 默认值:40960
  • 最小值:-1

max-manifest-file-size

  • 单个 RocksDB Manifest 文件的最大大小。
  • 默认值:"20MB"
  • 最小值:0
  • 单位:B|KB|MB|GB

create-if-missing

  • 如果值为 true,当数据库不存在时将自动创建。
  • 默认值:true

stats-dump-period

  • 输出统计信息到日志的时间间隔。
  • 默认值:10m

wal-dir

  • 存储 Raft RocksDB WAL 文件的目录,即 WAL 的绝对路径。请勿将该配置项设置为与 rocksdb.wal-dir 相同的值。
  • 如果未设置该配置项,日志文件将存储在与数据相同的目录中。
  • 如果机器上有两个磁盘,将 RocksDB 数据和 WAL 日志存储在不同磁盘上可以提高性能。
  • 默认值:""

wal-ttl-seconds

  • 归档的 WAL 文件的保留时间。当超过该值时,系统将删除这些文件。
  • 默认值:0
  • 最小值:0
  • 单位:秒

wal-size-limit

  • 归档 WAL 文件的大小限制。当超过该值时,系统将删除这些文件。
  • 默认值:0
  • 最小值:0
  • 单位:B|KB|MB|GB

max-total-wal-size

  • RocksDB WAL 文件的最大总大小。
  • 默认值:"4GB"

compaction-readahead-size

  • 控制在 RocksDB compaction 时是否开启预读取功能,并指定预读取数据的大小。
  • 如果使用机械硬盘,建议将该值至少设置为 2MB
  • 默认值:0
  • 最小值:0
  • 单位:B|KB|MB|GB

writable-file-max-buffer-size

  • WriteableFileWrite 中使用的最大缓冲区大小。
  • 默认值:"1MB"
  • 最小值:0
  • 单位:B|KB|MB|GB

use-direct-io-for-flush-and-compaction

  • 控制是否在后台刷新和 compaction 时使用 O_DIRECT 进行读写。启用 O_DIRECT 的性能影响:它可以绕过和防止操作系统缓存污染,但是后续文件读取需要重新读取内容到缓存中。
  • 默认值:false

enable-pipelined-write

  • 控制是否开启 Pipelined Write。开启时会使用旧的 Pipelined Write,关闭时会使用新的 Pipelined Commit 机制。
  • 默认值:true

allow-concurrent-memtable-write

  • 控制是否开启并发 memtable 写入。
  • 默认值:true

bytes-per-sync

  • 异步 Sync 限速速率。
  • 默认值:"1MB"
  • 最小值:0
  • 单位:B|KB|MB|GB

wal-bytes-per-sync

  • WAL Sync 限速速率。
  • 默认值:"512KB"
  • 最小值:0
  • 单位:B|KB|MB|GB

info-log-max-size

  • Info 日志的最大大小。
  • 默认值:"1GB"
  • 最小值:0
  • 单位:B|KB|MB|GB

info-log-roll-time

  • Info 日志截断间隔时间,如果为 "0s" 则不截断。
  • 默认值:"0s"

info-log-keep-log-file-num

  • RaftDB 中保存的 Info 日志文件的最大数量。
  • 默认值:10
  • 最小值:0

info-log-dir

  • Info 日志存储的目录。
  • 默认值:""

info-log-level

  • RaftDB 的日志级别。
  • 默认值:"info"

raft-engine

Raft Engine 相关的配置项。

tikv-server - 图21

注意

  • 第一次开启 Raft Engine 时,TiKV 会将原有的 RocksDB 数据转移至 Raft Engine 中。因此,TiKV 的启动时间会比较长,你需要额外等待几十秒。
  • 如果你要将 TiDB 集群降级至 v5.4.0 以前的版本(不含 v5.4.0),你需要在降级之前先关闭 Raft Engine(即把 enable 配置项设置为 false,并重启 TiKV 使配置生效),否则会导致集群降级后无法正常开启。

enable

  • 决定是否使用 Raft Engine 来存储 Raft 日志。开启该配置项后,raftdb 的配置不再生效。
  • 默认值:true

dir

  • 存储 Raft 日志文件的目录。如果该目录不存在,则在启动 TiKV 时创建该目录。
  • 如果未设置此配置,则使用 {data-dir}/raft-engine
  • 如果你的机器上有多个磁盘,建议将 Raft Engine 的数据存储在单独的磁盘上,以提高 TiKV 性能。
  • 默认值:""

batch-compression-threshold

  • 指定日志批处理的阈值大小。大于此配置的日志批次将被压缩。如果将此配置项设置为 0,则禁用压缩。
  • 默认值:"8KB"

bytes-per-sync

  • 指定缓存写入的最大累积大小。当超过此配置值时,缓存的写入将被刷写到磁盘。
  • 如果将此配置项设置为 0,则禁用增量同步。
  • 默认值:"4MB"

target-file-size

  • 指定日志文件的最大大小。当日志文件大于此值时,将对其进行轮转。
  • 默认值:"128MB"

purge-threshold

  • 指定主日志队列的阈值大小。当超过此配置值时,将对主日志队列执行垃圾回收。
  • 此参数可用于调整 Raft Engine 的空间占用大小。
  • 默认值:"10GB"

recovery-mode

  • 确定在日志恢复过程中如何处理文件损坏。
  • 可选值:"absolute-consistency", "tolerate-tail-corruption", "tolerate-any-corruption"
  • 默认值:"tolerate-tail-corruption"

recovery-read-block-size

  • 恢复期间读取日志文件的最小 I/O 大小。
  • 默认值:"16KB"
  • 最小值:"512B"

recovery-threads

  • 用于扫描和恢复日志文件的线程数。
  • 默认值:4
  • 最小值:1

memory-limit

  • 指定 Raft Engine 使用内存的上限。
  • 当该配置项未设置时,Raft Engine 默认使用系统总内存的 15%。
  • 默认值:系统总内存 * 15%

format-version 从 v6.3.0 版本开始引入

tikv-server - 图22

注意

format-version 的值设置为 2 后,如果你需要将 TiKV 集群降级至 v6.3.0 以前的版本,你需要在降级之前执行如下操作:

  1. 关闭 Raft Engine。将 enable 配置项设置为 false,并重启 TiKV 使配置生效。
  2. format-version 的值重新设置为 1
  3. 重新打开 Raft Engine,即把 enable 配置项重设为 true,并重启 TiKV 使配置生效。
  • 指定 Raft Engine 的日志文件格式版本。
  • 可选值:
    • 1:v6.3.0 以前的默认日志文件格式。v6.1.0 及以后版本的 TiKV 可以读取该格式。
    • 2:支持日志回收。v6.3.0 及以后版本的 TiKV 可以读取该格式。
  • 默认值:2

enable-log-recycle 从 v6.3.0 版本开始引入

tikv-server - 图23

注意

仅在 format-version 的值大于等于 2 时,该配置项才生效。

  • 控制 Raft Engine 是否回收过期的日志文件。该配置项启用时,Raft Engine 将保留逻辑上被清除的日志文件,用于日志回收,减少写负载的长尾延迟。
  • 默认值:true

prefill-for-recycle 从 v7.0.0 版本开始引入

tikv-server - 图24

注意

仅在 enable-log-recycle 的值为 true 时,该配置项才生效。

  • 控制 Raft Engine 是否自动生成空的日志文件用于日志回收。该配置项启用时,Raft Engine 将在初始化时自动填充一批空日志文件用于日志回收,保证日志回收在初始化后立即生效。
  • 默认值:false

security

安全相关配置项。

ca-path

  • CA 文件路径。
  • 默认值:””

cert-path

  • 包含 X.509 证书的 PEM 文件路径。
  • 默认值:””

key-path

  • 包含 X.509 key 的 PEM 文件路径。
  • 默认值:””

cert-allowed-cn

  • 客户端提供的证书中,可接受的 X.509 通用名称列表。仅当提供的通用名称与列表中的条目之一完全匹配时,才会允许其请求。
  • 默认值:[]。这意味着默认情况下禁用客户端证书 CN 检查。

redact-info-log 从 v4.0.8 版本开始引入

  • 若开启该选项,日志中的用户数据会以 ? 代替。
  • 默认值:false

security.encryption

静态加密 (TDE) 有关的配置项。

data-encryption-method

  • 数据文件的加密方法。
  • 可选值:"plaintext""aes128-ctr""aes192-ctr""aes256-ctr""sm4-ctr"(从 v6.3.0 开始支持)
  • 选择 "plaintext" 以外的值则表示启用加密功能。此时必须指定主密钥。
  • 默认值:"plaintext"

data-key-rotation-period

  • 指定 TiKV 轮换数据密钥的频率。
  • 默认值:7d

enable-file-dictionary-log

  • 启用优化,以减少 TiKV 管理加密元数据时的 I/O 操作和互斥锁竞争。
  • 此配置参数默认启用,为避免可能出现的兼容性问题,请参考静态加密 - TiKV 版本间兼容性
  • 默认值:true

master-key

previous-master-key

  • 指定轮换新主密钥时的旧主密钥。旧主密钥的配置格式与主密钥相同。若要了解如何配置主密钥,可以参考静态加密 - 配置加密

import

用于 TiDB Lightning 导入及 BR 恢复相关的配置项。

num-threads

  • 处理 RPC 请求的线程数量。
  • 默认值:8
  • 最小值:1

stream-channel-window

  • Stream channel 的窗口大小。当 channel 满时,Stream 会被阻塞。
  • 默认值:128

memory-use-ratio 从 v6.5.0 版本开始引入

  • 从 v6.5.0 开始,PITR 支持直接将备份日志文件读取到缓存中,然后进行恢复。此配置项用来配置 PITR 恢复中可用内存与系统总内存的占比。
  • 可调整范围:[0.0, 0.5]
  • 默认值:0.3,表示系统 30% 的内存可用于 PITR 恢复;当为 0.0 时,表示通过下载日志文件到本地进行 PITR 恢复。

tikv-server - 图25

注意

在小于 v6.5.0 的版本中,PITR 仅支持将备份文件下载到本地进行恢复。

gc

batch-keys

  • 一次 GC 操作中的 key 的数量。
  • 默认值:512

max-write-bytes-per-sec

  • GC 工作线程每秒可以写入 RocksDB 的最大字节数。
  • 如果设置为 0,则没有限制。
  • 默认值:"0"

enable-compaction-filter 从 v5.0 版本开始引入

  • 是否开启 GC in Compaction Filter 特性。
  • 默认值:true

ratio-threshold

  • 触发 GC 的垃圾比例阈值。
  • 默认值:1.1

backup

用于 BR 备份相关的配置项。

num-threads

  • 处理备份的工作线程数量。
  • 默认值:CPU * 0.5,但最大为 8
  • 可调整范围:[1, CPU]
  • 最小值:1

batch-size

  • 一次备份的数据范围数量。
  • 默认值:8

sst-max-size

  • 备份 SST 文件大小的阈值。如果 TiKV Region 中备份文件的大小超过该阈值,则将该文件备份到 Region 分割的多个 Region 文件中,每个分割 Region 中的文件大小均为 sst-max-size(或略大)。
  • 例如,当 Region [a,e) 中备份文件大小超过 sst-max-size 时,该文件会被备份到多个 Region 范围中,分别为 Region [a,b)[b,c)[c,d)[d,e),并且 [a,b)[b,c)[c,d) 的大小均为 sst-max-size(或略大)。
  • 默认值:"144MB"

enable-auto-tune 从 v5.4 版本开始引入

  • 在集群资源占用率较高的情况下,是否允许 BR 自动限制备份使用的资源,减少对集群的影响。详情见自动调节
  • 默认值:true

s3-multi-part-size 从 v5.3.2 版本开始引入

tikv-server - 图26

注意

引入该配置项是为了解决备份期间遇到的 S3 限流导致备份失败的问题。该问题已通过优化 BR 备份数据存储的目录结构得到解决。因此,该配置项自 v6.1.1 起开始废弃,不再推荐使用。

  • 备份阶段 S3 分块上传的块大小。可通过调整该参数来控制备份时发往 S3 的请求数量。
  • TiKV 备份数据到 S3 时,如果备份文件大于该配置项的值,会自动进行分块上传。根据压缩率的不同,96 MiB Region 产生的备份文件大约在 10 MiB~30 MiB 之间。
  • 默认值:5MiB

backup.hadoop

home

  • 指定 HDFS shell 命令的位置,并且允许 TiKV 找到该 shell 命令。该配置项与环境变量 $HADOOP_HOME 有相同的效果。
  • 默认值:""

linux-user

  • 指定 TiKV 运行 HDFS shell 命令的 Linux 用户。
  • 如果未设置该配置项,TiKV 会使用当前 Linux 用户。
  • 默认值:""

log-backup

用于日志备份相关的配置项。

enable 从 v6.2.0 版本开始引入

  • 用于开启日志备份功能。
  • 默认值:true

file-size-limit 从 v6.2.0 版本开始引入

  • 日志备份任务中,保存到存储的备份文件大小。
  • 默认值:256MiB
  • 注意:一般情况下,file-size-limit 的值会大于外部存储上显示的备份文件大小,这是因为备份文件在上传时会被压缩。

initial-scan-pending-memory-quota 从 v6.2.0 版本开始引入

  • 日志备份任务在扫描增量数据时,用于存放扫描数据的缓存大小。
  • 默认值:min(机器总内存 * 10%, 512 MB)

initial-scan-rate-limit 从 v6.2.0 版本开始引入

  • 日志备份任务在扫描增量数据时的吞吐限流参数。
  • 默认值:60,即默认限流 60 MB/s

max-flush-interval 从 v6.2.0 版本开始引入

  • 日志备份任务将备份数据写入到外部存储的最大间隔时间。
  • 默认值:3min

num-threads 从 v6.2.0 版本开始引入

  • 日志备份功能占用的线程数目。
  • 默认值:CPU * 0.5
  • 可调整范围:[2, 12]

temp-path 从 v6.2.0 版本开始引入

  • 日志文件存放的临时目录,日志文件预先写入临时目录,然后 flush 到外部存储中。
  • 默认值:${deploy-dir}/data/log-backup-temp

cdc

用于 TiCDC 捕捉变更数据相关的配置项。

min-ts-interval

  • 定期推进 Resolved TS 的时间间隔。
  • 默认值:200ms

old-value-cache-memory-quota

  • 缓存在内存中的 TiCDC Old Value 的条目占用内存的上限。
  • 默认值:512MB

sink-memory-quota

  • 缓存在内存中的 TiCDC 数据变更事件占用内存的上限。
  • 默认值:512MB

incremental-scan-speed-limit

  • 增量扫描历史数据的速度上限。
  • 默认值:128MB,即 128MB 每秒。

incremental-scan-threads

  • 增量扫描历史数据任务的线程个数。
  • 默认值:4,即 4 个线程

incremental-scan-concurrency

  • 增量扫描历史数据任务的最大并发执行个数。
  • 默认值:6,即最多并发执行 6 个任务
  • 注意:incremental-scan-concurrency 需要大于等于 incremental-scan-threads,否则 TiKV 启动会报错。

resolved-ts

用于维护 Resolved TS 以服务 Stale Read 请求的相关配置项。

enable

  • 是否为所有 Region 维护 Resolved TS。
  • 默认值:true

advance-ts-interval

  • 定期推进 Resolved TS 的时间间隔。
  • 默认值:20s

scan-lock-pool-size

  • 初始化 Resolved TS 时 TiKV 扫描 MVCC(多版本并发控制)锁数据的线程个数。
  • 默认值:2,即 2 个线程

pessimistic-txn

悲观事务使用方法请参考 TiDB 悲观事务模式

wait-for-lock-timeout

  • 悲观事务在 TiKV 中等待其他事务释放锁的最长时间。若超时则会返回错误给 TiDB 并由 TiDB 重试加锁,语句最长等锁时间由 innodb_lock_wait_timeout 控制。
  • 默认值:1s
  • 最小值:1ms

wake-up-delay-duration

  • 悲观事务释放锁时,只会唤醒等锁事务中 start_ts 最小的事务,其他事务将会延迟 wake-up-delay-duration 之后被唤醒。
  • 默认值:20ms

pipelined

  • 开启流水线式加悲观锁流程。开启该功能后,TiKV 在检测数据满足加锁要求后,立刻通知 TiDB 执行后面的请求,并异步写入悲观锁,从而降低大部分延迟,显著提升悲观事务的性能。但有较低概率出现悲观锁异步写入失败的情况,可能会导致悲观事务提交失败。
  • 默认值:true

in-memory 从 v6.0.0 版本开始引入

  • 开启内存悲观锁功能。开启该功能后,悲观事务会尽可能在 TiKV 内存中存储悲观锁,而不将悲观锁写入磁盘,也不将悲观锁同步给其他副本,从而提升悲观事务的性能。但有较低概率出现悲观锁丢失的情况,可能会导致悲观事务提交失败。
  • 默认值:true
  • 注意:in-memory 仅在 pipelined 为 true 时生效。

quota

用于请求限流 (Quota Limiter) 相关的配置项。

max-delay-duration 从 v6.0.0 版本开始引入

  • 单次读写请求被强制等待的最大时间。
  • 默认值:500ms
  • 推荐设置:一般使用默认值即可。如果实例出现了内存溢出或者是剧烈的性能抖动,可以设置为 1S,使得请求被延迟调节的时间不超过 1 秒。

前台限流

用于前台限流相关的配置项。

当 TiKV 部署的机型资源有限(如 4v CPU,16 G 内存)时,如果 TiKV 前台处理的读写请求量过大,以至于占用 TiKV 后台处理请求所需的 CPU 资源,最终影响 TiKV 性能的稳定性。此时,你可以使用前台限流相关的 quota 配置项以限制前台各类请求占用的 CPU 资源。触发该限制的请求会被强制等待一段时间以让出 CPU 资源。具体等待时间与新增请求量相关,最多不超过 max-delay-duration 的值。

foreground-cpu-time 从 v6.0.0 版本开始引入

  • 限制处理 TiKV 前台读写请求所使用的 CPU 资源使用量,这是一个软限制。
  • 默认值:0(即无限制)
  • 单位:millicpu (当该参数值为 1500 时,前端请求会消耗 1.5v CPU)。
  • 推荐设置:对于 4 核以上的实例,使用默认值 0 即可;对 4 核实例,设置为 10001500 之间的值能取得比较均衡的效果;对 2 核实例,则不要超过 1200

foreground-write-bandwidth 从 v6.0.0 版本开始引入

  • 限制前台事务写入的带宽,这是一个软限制。
  • 默认值:0KB(即无限制)
  • 推荐设置:除非因为 foreground-cpu-time 设置不足以对写带宽做限制,一般情况下本配置项使用默认值 0 即可;否则,在 4 核及 4 核以下规格实例上,建议设置在 50MB 以下。

foreground-read-bandwidth 从 v6.0.0 版本开始引入

  • 限制前台事务读取数据和 Coprocessor 读取数据的带宽,这是一个软限制。
  • 默认值:0KB(即无限制)
  • 推荐设置:除非因为 foreground-cpu-time 设置不足以对读带宽做限制,一般情况本配置项使用默认值 0 即可;否则,在 4 核及 4 核以下规格实例上,建议设置在 20MB 以内。

后台限流

用于后台限流相关的配置项。

当 TiKV 部署的机型资源有限(如 4v CPU,16 G 内存)时,如果 TiKV 后台处理的计算或者读写请求量过大,以至于占用 TiKV 前台处理请求所需的 CPU 资源,最终影响 TiKV 性能的稳定性。此时,你可以使用后台限流相关的 quota 配置项以限制后台各类请求占用的 CPU 资源。触发该限制的请求会被强制等待一段时间以让出 CPU 资源。具体等待时间与新增请求量相关,最多不超过 max-delay-duration 的值。

tikv-server - 图27

警告

  • 后台限流是 TiDB 在 v6.2.0 中引入的实验特性,不建议在生产环境中使用。
  • 该功能仅适合在资源有限的环境中使用,以保证 TiKV 在该环境下可以长期稳定地运行。如果在资源丰富的机型环境中开启该功能,可能会导致读写请求量达到峰值时 TiKV 的性能下降的问题。

background-cpu-time 从 v6.2.0 版本开始引入

  • 限制处理 TiKV 后台读写请求所使用的 CPU 资源使用量,这是一个软限制。
  • 默认值:0(即无限制)
  • 单位:millicpu(当该参数值为 1500 时,后端请求会消耗 1.5v CPU)。

background-write-bandwidth 从 v6.2.0 版本开始引入

tikv-server - 图28

注意

该配置项可以通过 SHOW CONFIG 查询到,但暂未生效。设置该配置项的值不生效。

  • 限制后台事务写入的带宽,这是一个软限制。
  • 默认值:0KB(即无限制)

background-read-bandwidth 从 v6.2.0 版本开始引入

tikv-server - 图29

注意

该配置项可以通过 SHOW CONFIG 查询到,但暂未生效。设置该配置项的值不生效。

  • 限制后台事务读取数据和 Coprocessor 读取数据的带宽,这是一个软限制。
  • 默认值:0KB(即无限制)

enable-auto-tune 从 v6.2.0 版本开始引入

  • 是否支持 quota 动态调整。如果打开该配置项,TiKV 会根据 TiKV 实例的负载情况动态调整对后台请求的限制 quota。
  • 默认值:false(即关闭动态调整)

causal-ts 从 v6.1.0 版本开始引入

用于 TiKV API V2(storage.api-version = 2)中时间戳获取相关的配置项。

为了降低写请求延迟,TiKV 会定期获取一批时间戳缓存在本地,避免频繁访问 PD,并容忍短时间的 TSO 服务故障。

alloc-ahead-buffer 从 v6.4.0 版本开始引入

  • 预分配 TSO 缓存大小(以时长计算)。
  • 表示 TiKV 将按照这个参数指定的时长,预分配 TSO 缓存。TiKV 会根据前一周期的使用情况,预估并请求满足 alloc-ahead-buffer 时长所需要的 TSO 数量,缓存在本地。
  • 这个参数通常用于提高 TiKV API V2 (storage.api-version = 2) 对 PD 故障的容忍度。
  • 调大这个参数会增加 TSO 消耗,并增加 TiKV 的内存开销。为了获得足够的 TSO,建议同时调小 PD 的 tso-update-physical-interval 参数。
  • 根据测试,默认配置下,当 PD 主节点由于故障切换到其节点时,写请求会短暂出现延迟增大和 QPS 下降(幅度约 15%)。
  • 如果希望业务不受影响,可以尝试采用以下配置:
    • causal-ts.alloc-ahead-buffer = "6s"
    • causal-ts.renew-batch-max-size = 65536
    • causal-ts.renew-batch-min-size = 2048
    • 在 PD 中配置 tso-update-physical-interval = "1ms"
  • 默认值:3s

renew-interval

  • 更新本地缓存时间戳的周期。
  • TiKV 会每隔 renew-interval 发起一次时间戳更新,并根据前一周期的使用情况以及 alloc-ahead-buffer 参数,来调整时间戳的缓存数量。这个参数配置过大会导致不能及时反映最新的 TiKV 负载变化。而配置过小则会增加 PD 的负载。如果写流量剧烈变化、频繁出现时间戳耗尽、写延迟增加,可以适当调小这个参数,但需要同时关注 PD 的负载情况。
  • 默认值:100ms

renew-batch-min-size

  • 单次时间戳请求的最小数量。
  • TiKV 会根据前一周期的使用情况以及 alloc-ahead-buffer 参数设置,来调整时间戳的缓存数量。如果 TSO 需求量较低,TiKV 会降低单次 TSO 请求量,直至等于 renew-batch-min-size。如果业务中经常出现突发的大流量写入,可以适当调大这个参数。注意这个参数是单个 tikv-server 的缓存大小,如果配置过大、而同时集群中 tikv-server 较多,会导致 TSO 消耗过快。
  • Grafana TiKV-Raw 面板下 Causal timestamp 中的 TSO batch size 是根据业务负载动态调整后的本地缓存数量。可以参考该监控指标值调整这个参数的大小。
  • 默认值:100

renew-batch-max-size 从 v6.4.0 版本开始引入

  • 单次时间戳请求的最大数量。
  • 在默认的一个 TSO 物理时钟更新周期内 (50ms),PD 最多提供 262144 个 TSO,超过这个数量后 PD 会暂缓 TSO 请求的处理。这个配置用于避免 PD 的 TSO 消耗殆尽、影响其他业务的使用。如果增大这个参数,建议同时减小 PD 的 tso-update-physical-interval 参数,以获得足够的 TSO。
  • 默认值:8192

resource-control

资源控制 (Resource Control) 在 TiKV 存储层相关的配置项。

enabled 从 v6.6.0 版本开始引入

  • 是否支持对用户前台的读写请求按照对应的资源组配额做优先级调度。有关 TiDB 资源组和资源管控的信息,请参考 TiDB 资源管控
  • 在 TiDB 侧开启 tidb_enable_resource_control 全局变量的情况下,开启这个配置项才有意义。此配置参数开启后,TiKV 会使用优先级队列对排队的用户前台读写请求做调度,调度的优先级和请求所在资源组已经消费的资源量反相关,和对应资源组的配额正相关。
  • 默认值:true(即开启按照资源组配额调度)

split

Load Base Split 相关的配置项。

byte-threshold 从 v5.0 版本开始引入

  • 控制某个 Region 被识别为热点 Region 的流量阈值。

  • 默认值:

qps-threshold

  • 控制某个 Region 被识别为热点 Region 的 QPS 阈值。

  • 默认值:

region-cpu-overload-threshold-ratio 从 v6.2.0 版本开始引入

  • 控制某个 Region 被识别为热点 Region 的 CPU 使用率阈值。

  • 默认值: