备份 TiDB 集群到持久卷

本文档介绍如何将 Kubernetes 上 TiDB 集群的数据备份到持久卷上。本文描述的持久卷,指任何 Kubernetes 支持的持久卷类型。本文以备份数据到网络文件系统 (NFS) 存储为例。

本文档介绍的备份方法基于 TiDB Operator 的 CustomResourceDefinition (CRD) 实现,底层使用 BR 工具获取集群数据,然后再将备份数据存储到持久卷。BR 全称为 Backup & Restore,是 TiDB 分布式备份恢复的命令行工具,用于对 TiDB 集群进行数据备份和恢复。

使用场景

如果你对数据备份有以下要求,可考虑使用 BR 将 TiDB 集群数据以 Ad-hoc 备份定时全量备份的方式备份至持久卷:

  • 需要备份的数据量较大,而且要求备份速度较快
  • 需要直接备份数据的 SST 文件(键值对)

如有其他备份需求,参考备份与恢复简介选择合适的备份方式。

使用 BR 备份 TiDB 集群数据到持久卷 - 图1注意

  • BR 只支持 TiDB v3.1 及以上版本。
  • 使用 BR 备份出的数据只能恢复到 TiDB 数据库中,无法恢复到其他数据库中。

Ad-hoc 备份

Ad-hoc 备份支持全量备份与增量备份。Ad-hoc 备份通过创建一个自定义的 Backup custom resource (CR) 对象来描述一次备份。TiDB Operator 根据这个 Backup 对象来完成具体的备份过程。如果备份过程中出现错误,程序不会自动重试,此时需要手动处理。

本文档假设对部署在 Kubernetes test1 这个命名空间中的 TiDB 集群 demo1 进行数据备份,下面是具体操作过程。

第 1 步:准备 Ad-hoc 备份环境

  1. 下载文件 backup-rbac.yaml 到执行备份的服务器。

  2. 执行以下命令,在 test1 这个命名空间中,创建备份需要的 RBAC 相关资源:

    1. kubectl apply -f backup-rbac.yaml -n test1
  3. 确认可以从 Kubernetes 集群中访问用于存储备份数据的 NFS 服务器,并且你已经配置了 TiKV 挂载跟备份任务相同的 NFS 共享目录到相同的本地目录。TiKV 挂载 NFS 的具体配置方法可以参考如下配置:

    1. spec:
    2. tikv:
    3. additionalVolumes:
    4. # Specify volume types that are supported by Kubernetes, Ref: https://kubernetes.io/docs/concepts/storage/persistent-volumes/#types-of-persistent-volumes
    5. - name: nfs
    6. nfs:
    7. server: 192.168.0.2
    8. path: /nfs
    9. additionalVolumeMounts:
    10. # This must match `name` in `additionalVolumes`
    11. - name: nfs
    12. mountPath: /nfs
  4. 如果你使用的 TiDB 版本低于 v4.0.8,你还需要进行以下操作。如果你使用的 TiDB 为 v4.0.8 及以上版本,你可以跳过此步骤。

    1. 确保你拥有备份数据库 mysql.tidb 表的 SELECTUPDATE 权限,用于备份前后调整 GC 时间。

    2. 创建 backup-demo1-tidb-secret secret 用于存放访问 TiDB 集群的用户所对应的密码。

      1. kubectl create secret generic backup-demo1-tidb-secret --from-literal=password=${password} --namespace=test1

第 2 步:备份数据到持久卷

  1. 创建 Backup CR,并将数据备份到 NFS:

    1. kubectl apply -f backup-nfs.yaml

    backup-nfs.yaml 文件内容如下,该示例将 TiDB 集群的数据全量导出备份到 NFS:

    1. ---
    2. apiVersion: pingcap.com/v1alpha1
    3. kind: Backup
    4. metadata:
    5. name: demo1-backup-nfs
    6. namespace: test1
    7. spec:
    8. # # backupType: full
    9. # # Only needed for TiDB Operator < v1.1.10 or TiDB < v4.0.8
    10. # from:
    11. # host: ${tidb-host}
    12. # port: ${tidb-port}
    13. # user: ${tidb-user}
    14. # secretName: backup-demo1-tidb-secret
    15. br:
    16. cluster: demo1
    17. clusterNamespace: test1
    18. # logLevel: info
    19. # statusAddr: ${status-addr}
    20. # concurrency: 4
    21. # rateLimit: 0
    22. # checksum: true
    23. # options:
    24. # - --lastbackupts=420134118382108673
    25. local:
    26. prefix: backup-nfs
    27. volume:
    28. name: nfs
    29. nfs:
    30. server: ${nfs_server_ip}
    31. path: /nfs
    32. volumeMount:
    33. name: nfs
    34. mountPath: /nfs

    在配置 backup-nfs.yaml 文件时,请参考以下信息:

    • 如果需要增量备份,只需要在 spec.br.options 中指定上一次的备份时间戳 --lastbackupts 即可。有关增量备份的限制,可参考使用 BR 进行备份与恢复

    • .spec.local 表示持久卷相关配置,详细解释参考 Local 存储字段介绍

    • spec.br 中的一些参数项均可省略,如 logLevelstatusAddrconcurrencyrateLimitchecksumtimeAgo。更多 .spec.br 字段的详细解释参考 BR 字段介绍

    • 如果你使用的 TiDB 为 v4.0.8 及以上版本, BR 会自动调整 tikv_gc_life_time 参数,不需要配置 spec.tikvGCLifeTimespec.from 字段。

    • 更多 Backup CR 字段的详细解释,参考 Backup CR 字段介绍

  2. 创建好 Backup CR 后,TiDB Operator 会根据 Backup CR 自动开始备份。你可以通过以下命令查看备份状态:

    1. kubectl get bk -n test1 -owide

备份示例

备份全部集群数据

  1. ---
  2. apiVersion: pingcap.com/v1alpha1
  3. kind: Backup
  4. metadata:
  5. name: demo1-backup-nfs
  6. namespace: test1
  7. spec:
  8. # # backupType: full
  9. # # Only needed for TiDB Operator < v1.1.10 or TiDB < v4.0.8
  10. # from:
  11. # host: ${tidb-host}
  12. # port: ${tidb-port}
  13. # user: ${tidb-user}
  14. # secretName: backup-demo1-tidb-secret
  15. br:
  16. cluster: demo1
  17. clusterNamespace: test1
  18. local:
  19. prefix: backup-nfs
  20. volume:
  21. name: nfs
  22. nfs:
  23. server: ${nfs_server_ip}
  24. path: /nfs
  25. volumeMount:
  26. name: nfs
  27. mountPath: /nfs

备份单个数据库的数据

以下示例中,备份 db1 数据库的数据。

  1. ---
  2. apiVersion: pingcap.com/v1alpha1
  3. kind: Backup
  4. metadata:
  5. name: demo1-backup-nfs
  6. namespace: test1
  7. spec:
  8. # # backupType: full
  9. # # Only needed for TiDB Operator < v1.1.10 or TiDB < v4.0.8
  10. # from:
  11. # host: ${tidb-host}
  12. # port: ${tidb-port}
  13. # user: ${tidb-user}
  14. # secretName: backup-demo1-tidb-secret
  15. tableFilter:
  16. - "db1.*"
  17. br:
  18. cluster: demo1
  19. clusterNamespace: test1
  20. local:
  21. prefix: backup-nfs
  22. volume:
  23. name: nfs
  24. nfs:
  25. server: ${nfs_server_ip}
  26. path: /nfs
  27. volumeMount:
  28. name: nfs
  29. mountPath: /nfs

备份单张表的数据

以下示例中,备份 db1.table1 表的数据。

  1. ---
  2. apiVersion: pingcap.com/v1alpha1
  3. kind: Backup
  4. metadata:
  5. name: demo1-backup-nfs
  6. namespace: test1
  7. spec:
  8. # # backupType: full
  9. # # Only needed for TiDB Operator < v1.1.10 or TiDB < v4.0.8
  10. # from:
  11. # host: ${tidb-host}
  12. # port: ${tidb-port}
  13. # user: ${tidb-user}
  14. # secretName: backup-demo1-tidb-secret
  15. tableFilter:
  16. - "db1.table1"
  17. br:
  18. cluster: demo1
  19. clusterNamespace: test1
  20. local:
  21. prefix: backup-nfs
  22. volume:
  23. name: nfs
  24. nfs:
  25. server: ${nfs_server_ip}
  26. path: /nfs
  27. volumeMount:
  28. name: nfs
  29. mountPath: /nfs

使用表库过滤功能备份多张表的数据

以下示例中,备份 db1.table1 表 和 db1.table2 表的数据。

  1. ---
  2. apiVersion: pingcap.com/v1alpha1
  3. kind: Backup
  4. metadata:
  5. name: demo1-backup-nfs
  6. namespace: test1
  7. spec:
  8. # # backupType: full
  9. # # Only needed for TiDB Operator < v1.1.10 or TiDB < v4.0.8
  10. # from:
  11. # host: ${tidb-host}
  12. # port: ${tidb-port}
  13. # user: ${tidb-user}
  14. # secretName: backup-demo1-tidb-secret
  15. tableFilter:
  16. - "db1.table1"
  17. - "db1.table2"
  18. br:
  19. cluster: demo1
  20. clusterNamespace: test1
  21. local:
  22. prefix: backup-nfs
  23. volume:
  24. name: nfs
  25. nfs:
  26. server: ${nfs_server_ip}
  27. path: /nfs
  28. volumeMount:
  29. name: nfs
  30. mountPath: /nfs

定时全量备份

用户通过设置备份策略来对 TiDB 集群进行定时备份,同时设置备份的保留策略以避免产生过多的备份。定时全量备份通过自定义的 BackupSchedule CR 对象来描述。每到备份时间点会触发一次全量备份,定时全量备份底层通过 Ad-hoc 全量备份来实现。下面是创建定时全量备份的具体步骤:

第 1 步:准备定时全量备份环境

Ad-hoc 备份环境准备

第 2 步:定时全量备份数据到持久卷

  1. 创建 BackupSchedule CR,开启 TiDB 集群的定时全量备份,将数据备份到 NFS:

    1. kubectl apply -f backup-schedule-nfs.yaml

    backup-schedule-nfs.yaml 文件内容如下:

    1. ---
    2. apiVersion: pingcap.com/v1alpha1
    3. kind: BackupSchedule
    4. metadata:
    5. name: demo1-backup-schedule-nfs
    6. namespace: test1
    7. spec:
    8. #maxBackups: 5
    9. #pause: true
    10. maxReservedTime: "3h"
    11. schedule: "*/2 * * * *"
    12. backupTemplate:
    13. # Only needed for TiDB Operator < v1.1.10 or TiDB < v4.0.8
    14. # from:
    15. # host: ${tidb_host}
    16. # port: ${tidb_port}
    17. # user: ${tidb_user}
    18. # secretName: backup-demo1-tidb-secret
    19. br:
    20. cluster: demo1
    21. clusterNamespace: test1
    22. # logLevel: info
    23. # statusAddr: ${status-addr}
    24. # concurrency: 4
    25. # rateLimit: 0
    26. # checksum: true
    27. local:
    28. prefix: backup-nfs
    29. volume:
    30. name: nfs
    31. nfs:
    32. server: ${nfs_server_ip}
    33. path: /nfs
    34. volumeMount:
    35. name: nfs
    36. mountPath: /nfs

    从以上 backup-schedule-nfs.yaml 文件配置示例可知,backupSchedule 的配置由两部分组成。一部分是 backupSchedule 独有的配置,另一部分是 backupTemplate

  2. 定时全量备份创建完成后,通过以下命令查看备份的状态:

    1. kubectl get bks -n test1 -owide

    查看定时全量备份下面所有的备份条目:

    1. kubectl get bk -l tidb.pingcap.com/backup-schedule=demo1-backup-schedule-nfs -n test1

删除备份的 Backup CR

备份完成后,你可能需要删除备份的 Backup CR。删除方法可参考删除备份的 Backup CR

故障诊断

在使用过程中如果遇到问题,可以参考故障诊断