使用 BR 备份 TiDB 集群到持久卷
本文档详细描述了如何将 Kubernetes 上 TiDB 集群的数据备份到持久卷上。
本文描述的持久卷指任何 Kubernetes 支持的持久卷类型。本文将以 NFS 为例,介绍如何使用 BR 备份 TiDB 集群的数据到持久卷。
注意:
本文使用的备份方式需要 TiDB Operator v1.1.8 及以上才支持。
Ad-hoc 备份
Ad-hoc 备份支持全量备份与增量备份。Ad-hoc 备份通过创建一个自定义的 Backup
custom resource (CR) 对象来描述一次备份。TiDB Operator 根据这个 Backup
对象来完成具体的备份过程。如果备份过程中出现错误,程序不会自动重试,此时需要手动处理。
为了更好地描述备份的使用方式,本文档提供如下备份示例。示例假设对部署在 Kubernetes test1
这个 namespace 中的 TiDB 集群 demo1
进行数据备份,下面是具体操作过程。
Ad-hoc 备份环境准备
注意:
如果使用 TiDB Operator >= v1.1.10 && TiDB >= v4.0.8, BR 会自动调整
tikv_gc_life_time
参数,不需要在 Backup CR 中配置spec.tikvGCLifeTime
和spec.from
字段,并且可以省略以下创建backup-demo1-tidb-secret
secret 的步骤和数据库账户权限步骤。
下载文件 backup-rbac.yaml,并执行以下命令在
test1
这个 namespace 中创建备份需要的 RBAC 相关资源:kubectl apply -f backup-rbac.yaml -n test1
创建
backup-demo1-tidb-secret
secret。该 secret 存放用于访问 TiDB 集群的账号的密码。kubectl create secret generic backup-demo1-tidb-secret --from-literal=password=<password> --namespace=test1
确认可以从 Kubernetes 集群中访问用于存储备份数据的 NFS 服务器,并且配置了 TiKV 挂载跟备份任务相同的 NFS 共享目录到相同的本地目录。TiKV 挂载 NFS 的具体配置方法可以参考如下配置:
spec:
tikv:
additionalVolumes:
# specify volume types that are supported by Kubernetes, Ref: https://kubernetes.io/docs/concepts/storage/persistent-volumes/#types-of-persistent-volumes
- name: nfs
nfs:
server: 192.168.0.2
path: /nfs
additionalVolumeMounts:
# this must match `name` in `additionalVolumes`
- name: nfs
mountPath: /nfs
数据库账户权限
mysql.tidb
表的SELECT
和UPDATE
权限:备份前后,Backup CR 需要一个拥有该权限的数据库账户,用于调整 GC 时间
Ad-hoc 备份过程
创建
Backup
CR,并将数据备份到 NFS:kubectl apply -f backup-nfs.yaml
backup-nfs.yaml
文件内容如下:---
apiVersion: pingcap.com/v1alpha1
kind: Backup
metadata:
name: demo1-backup-nfs
namespace: test1
spec:
# # backupType: full
# # Only needed for TiDB Operator < v1.1.10 or TiDB < v4.0.8
# from:
# host: ${tidb-host}
# port: ${tidb-port}
# user: ${tidb-user}
# secretName: backup-demo1-tidb-secret
br:
cluster: demo1
clusterNamespace: test1
# logLevel: info
# statusAddr: ${status-addr}
# concurrency: 4
# rateLimit: 0
# checksum: true
# options:
# - --lastbackupts=420134118382108673
local:
prefix: backup-nfs
volume:
name: nfs
nfs:
server: ${nfs_server_ip}
path: /nfs
volumeMount:
name: nfs
mountPath: /nfs
以上示例中的
.spec.local
表示持久卷相关配置,详细解释参考 Local 存储字段介绍。以上示例中,
spec.br
中的一些参数项均可省略,如logLevel
、statusAddr
、concurrency
、rateLimit
、checksum
、timeAgo
。更多.spec.br
字段的详细解释参考 BR 字段介绍。自 v1.1.6 版本起,如果需要增量备份,只需要在
spec.br.options
中指定上一次的备份时间戳--lastbackupts
即可。有关增量备份的限制,可参考使用 BR 进行备份与恢复。更多
Backup
CR 字段的详细解释参考 Backup CR 字段介绍。该示例将 TiDB 集群的数据全量导出备份到 NFS。
创建好
Backup
CR 后,可通过以下命令查看备份状态:kubectl get bk -n test1 -owide
定时全量备份
用户通过设置备份策略来对 TiDB 集群进行定时备份,同时设置备份的保留策略以避免产生过多的备份。定时全量备份通过自定义的 BackupSchedule
CR 对象来描述。每到备份时间点会触发一次全量备份,定时全量备份底层通过 Ad-hoc 全量备份来实现。下面是创建定时全量备份的具体步骤:
定时全量备份环境准备
定时全量备份过程
创建
BackupSchedule
CR,开启 TiDB 集群的定时全量备份,将数据备份到 NFS:kubectl apply -f backup-schedule-nfs.yaml
backup-schedule-nfs.yaml
文件内容如下:---
apiVersion: pingcap.com/v1alpha1
kind: BackupSchedule
metadata:
name: demo1-backup-schedule-nfs
namespace: test1
spec:
#maxBackups: 5
#pause: true
maxReservedTime: "3h"
schedule: "*/2 * * * *"
backupTemplate:
# Only needed for TiDB Operator < v1.1.10 or TiDB < v4.0.8
# from:
# host: ${tidb_host}
# port: ${tidb_port}
# user: ${tidb_user}
# secretName: backup-demo1-tidb-secret
br:
cluster: demo1
clusterNamespace: test1
# logLevel: info
# statusAddr: ${status-addr}
# concurrency: 4
# rateLimit: 0
# checksum: true
local:
prefix: backup-nfs
volume:
name: nfs
nfs:
server: ${nfs_server_ip}
path: /nfs
volumeMount:
name: nfs
mountPath: /nfs
定时全量备份创建完成后,通过以下命令查看备份的状态:
kubectl get bks -n test1 -owide
查看定时全量备份下面所有的备份条目:
kubectl get bk -l tidb.pingcap.com/backup-schedule=demo1-backup-schedule-nfs -n test1
从以上示例可知,backupSchedule
的配置由两部分组成。一部分是 backupSchedule
独有的配置,另一部分是 backupTemplate
。backupTemplate
指定集群及远程存储相关的配置,字段和 Backup CR 中的 spec
一样,详细介绍可参考 Backup CR 字段介绍。backupSchedule
独有的配置项具体介绍可参考 BackupSchedule CR 字段介绍。
删除备份的 Backup CR
删除备份的 Backup CR 可参考删除备份的 Backup CR。
故障诊断
在使用过程中如果遇到问题,可以参考故障诊断。