使用 Dumpling 导出或备份 TiDB 数据
本文档介绍如何使用数据导出工具 Dumpling。该工具可以把存储在 TiDB 中的数据导出为 SQL 或者 CSV 格式,可以用于完成逻辑上的全量备份或者导出。
如果需要直接备份 SST 文件(KV 对)或者对延迟不敏感的增量备份,请参阅 BR。如果需要实时的增量备份,请参阅 TiCDC。
使用 Dumpling 时,需要在已经启动的集群上执行导出命令。本文假设在 127.0.0.1:4000
有一个 TiDB 实例,并且这个 TiDB 实例中有无密码的 root 用户。
从 TiDB 导出数据
使用如下命令导出数据:
dumpling \
-u root \
-P 4000 \
-H 127.0.0.1 \
--filetype sql \
--threads 32 \
-o /tmp/test \
-F $(( 1024 * 1024 * 256 ))
上述命令中,-H
、-P
、-u
分别是地址,端口,用户。如果需要密码验证,可以用 -p $YOUR_SECRET_PASSWORD
传给 Dumpling。
默认情况下,除了系统数据库中的表之外,Dumpling 会导出整个数据库的表。你可以使用 --where <SQL where expression>
来选定要导出的记录。假如导出数据的格式是 CSV(使用 --filetype csv
即可导出 CSV 文件),还可以使用 --sql <SQL>
导出指定 SQL 选择出来的记录,例如,导出 test.sbtest1
中所有 id < 100
的记录:
./dumpling \
-u root \
-P 4000 \
-H 127.0.0.1 \
-o /tmp/test \
--filetype csv \
--sql "select * from `test`.`sbtest1` where id < 100"
注意,--sql
选项暂时仅仅可用于导出 csv 的场景。但是仍旧可以用 --where
来过滤要导出的行,使用以下指令,可以导出所有 id < 100
的记录:
注意:
这里需要在要导出的所有表上执行
select * from <table-name> where id < 100
语句。如果部分表没有指定的字段,那么导出会失败。
./dumpling \
-u root \
-P 4000 \
-H 127.0.0.1 \
-o /tmp/test \
--where "id < 100"
注意:
目前 Dumpling 不支持仅导出用户指定的某几张表(即
-T
标志,见这个 issue)。如果你确实需要这些功能,可以先使用 MyDumper。
默认情况下,导出的文件会存储到 ./export-<current local time>
目录下。常用参数如下:
-o
用于选择存储导出文件的目录。-F
选项用于指定单个文件的最大大小(和 MyDumper 不同,这里的单位是字节)。-r
选项用于指定单个文件的最大记录数(或者说,数据库中的行数)。
利用以上参数可以让 Dumpling 的并行度更高。
还有一个尚未在上面展示出来的标志是 --consistency <consistency level>
,这个标志控制导出数据“一致性保证”的方式。对于 TiDB 来说,默认情况下,会通过获取某个时间戳的快照来保证一致性(即 --consistency snapshot
)。在使用 snapshot 来保证一致性的时候,可以使用 --snapshot
参数指定要备份的时间戳。还可以使用以下的一致性级别:
flush
:使用FLUSH TABLES WITH READ LOCK
来保证一致性。snapshot
:获取指定时间戳的一致性快照并导出。lock
:为待导出的所有表上读锁。none
:不做任何一致性保证。auto
:对 MySQL 使用flush
,对 TiDB 使用snapshot
。
一切完成之后,你应该可以在 /tmp/test
看到导出的文件了:
$ ls -lh /tmp/test | awk '{print $5 "\t" $9}'
140B metadata
66B test-schema-create.sql
300B test.sbtest1-schema.sql
190K test.sbtest1.0.sql
300B test.sbtest2-schema.sql
190K test.sbtest2.0.sql
300B test.sbtest3-schema.sql
190K test.sbtest3.0.sql
另外,假如数据量非常大,可以提前调长 GC 时间,以避免因为导出过程中发生 GC 导致导出失败:
update mysql.tidb set VARIABLE_VALUE = '720h' where VARIABLE_NAME = 'tikv_gc_life_time';
在操作结束之后,再将 GC 时间调回原样(默认是 10m
):
update mysql.tidb set VARIABLE_VALUE = '10m' where VARIABLE_NAME = 'tikv_gc_life_time';
最后,所有的这些导出数据都可以用 Lightning 导入回 TiDB。