在 Kubernetes 上部署 TiFlash
本文介绍如何在 Kubernetes 上部署 TiFlash。
前置条件
- TiDB Operator 部署完成。
全新部署 TiDB 集群同时部署 TiFlash
参考 在标准 Kubernetes 上部署 TiDB 集群进行部署。
在现有 TiDB 集群上新增 TiFlash 组件
编辑 TidbCluster Custom Resource:
kubectl edit tc ${cluster_name} -n ${namespace}
按照如下示例增加 TiFlash 配置:
spec:
tiflash:
baseImage: pingcap/tiflash
maxFailoverCount: 3
replicas: 1
storageClaims:
- resources:
requests:
storage: 100Gi
storageClassName: local-storage
其他参数可以参考集群配置文档进行配置。
值得注意的是,如果需要部署企业版的 TiFlash,需要将 db.yaml 中 spec.tiflash.baseImage
配置为企业版镜像,格式为 pingcap/tiflash-enterprise
。
例如:
spec:
tiflash:
baseImage: pingcap/tiflash-enterprise
TiFlash 支持挂载多个 PV,如果要为 TiFlash 配置多个 PV,可以在 tiflash.storageClaims
下面配置多项,每一项可以分别配置 storage reqeust
和 storageClassName
,例如:
tiflash:
baseImage: pingcap/tiflash
maxFailoverCount: 3
replicas: 1
storageClaims:
- resources:
requests:
storage: 100Gi
storageClassName: local-storage
- resources:
requests:
storage: 100Gi
storageClassName: local-storage
警告:
由于 TiDB Operator 会按照
storageClaims
列表中的配置按顺序自动挂载 PV,如果需要为 TiFlash 增加磁盘,请确保只在列表原有配置最后添加,并且不能修改列表中原有配置的顺序。
TiDB Operator 通过创建 StatefulSet 管理 TiFlash,由于 StatefulSet
创建后不支持修改 volumeClaimTemplates
,因此直接更新 storageClaims
添加磁盘不会为 Pod 挂载上额外的 PV,解决方案有下面两种:
- 第一次部署 TiFlash 集群就规划好使用几个 PV,配置好
storageClaims
。 - 如果确实要新增 PV,配置好
storageClaims
后,需要手动删除 TiFlash StatefulSet (kubectl delete sts -n ${namespace} ${cluster_name}-tiflash
),等待 TiDB Operator 重新创建。
新增部署 TiFlash 需要 PD 配置 replication.enable-placement-rules: true
,通过上述步骤在 TidbCluster 中增加 TiFlash 配置后,TiDB Operator 会自动为 PD 配置 replication.enable-placement-rules: true
。
如果服务器没有外网,请参考部署 TiDB 集群在有外网的机器上将用到的 Docker 镜像下载下来并上传到服务器上。
移除 TiFlash
调整同步到 TiFlash 集群中的数据表的副本数。
需要将集群中所有同步到 TiFlash 的数据表的副本数都设置为 0,才能完全移除 TiFlash。
参考访问 TiDB 集群的步骤连接到 TiDB 服务。
使用以下命令,调整同步到 TiFlash 集群中的数据表的副本数:
alter table <db_name>.<table_name> set tiflash replica 0;
等待相关表的 TiFlash 副本被删除。
连接到 TiDB 服务,执行如下命令,查不到相关表的同步信息时即为副本被删除:
SELECT * FROM information_schema.tiflash_replica WHERE TABLE_SCHEMA = '<db_name>' and TABLE_NAME = '<table_name>';
执行以下命令修改
spec.tiflash.replicas
为 0 来移除 TiFlash Pod。kubectl edit tidbcluster ${cluster_name} -n ${namespace}
检查 TiFlash Pod 和 TiFlash 节点 store 状态。
首先执行以下命令检查 TiFlash Pod 是否被成功删除:
kubectl get pod -n ${namespace} -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}
如果输出为空,则表示 TiFlash 集群的 Pod 已经被成功删除。
使用以下命令检查 TiFlash 节点 store 状态是否为 Tombstone:
kubectl get tidbcluster ${cluster_name} -n ${namespace} -o yaml
输出结果中的
status.tiflash
字段值类似下方实例。tiflash:
...
tombstoneStores:
"88":
id: "88"
ip: basic-tiflash-0.basic-tiflash-peer.default.svc
lastHeartbeatTime: "2020-12-31T04:42:12Z"
lastTransitionTime: null
leaderCount: 0
podName: basic-tiflash-0
state: Tombstone
"89":
id: "89"
ip: basic-tiflash-1.basic-tiflash-peer.default.svc
lastHeartbeatTime: "2020-12-31T04:41:50Z"
lastTransitionTime: null
leaderCount: 0
podName: basic-tiflash-1
state: Tombstone
只有 TiFlash 集群的所有 Pod 已经被成功删除并且所有 TiFlash 节点 store 状态都变为 Tombstone 后,才能进行下一步操作。
删除 TiFlash StatefulSet。
使用以下命令修改 TiDB Cluster CR,删除
spec.tiflash
字段。kubectl edit tidbcluster ${cluster_name} -n ${namespace}
使用以下命令删除 TiFlash StatefulSet:
kubectl delete statefulsets -n ${namespace} -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}
执行以下命令检查是否成功删除 TiFlash 集群的 StatefulSet:
kubectl get sts -n ${namespace} -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}
如果输出为空,则表示 TiFlash 集群的 StatefulSet 已经被成功删除。
(可选项) 删除 PVC 和 PV。
如果确认 TiFlash 中的数据不会被使用,想要删除数据,需要严格按照以下操作步骤来删除 TiFlash 中的数据。
删除 PV 对应的 PVC 对象
kubectl delete pvc -n ${namespace} -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}
PV 保留策略是 Retain 时,删除 PVC 对象后对应的 PV 仍将保留。如果想要删除 PV,可以设置 PV 的保留策略为 Delete,PV 会被自动删除并回收。
kubectl patch pv ${pv_name} -p '{"spec":{"persistentVolumeReclaimPolicy":"Delete"}}'
其中
${pv_name}
表示 TiFlash 集群 PV 的名称,可以执行以下命令查看:kubectl get pv -l app.kubernetes.io/component=tiflash,app.kubernetes.io/instance=${cluster_name}
不同版本配置注意事项
从 TiDB Operator v1.1.5 版本开始,spec.tiflash.config.config.flash.service_addr
的默认配置从 ${clusterName}-tiflash-POD_NUM.${clusterName}-tiflash-peer.${namespace}.svc:3930
修改为 0.0.0.0:3930
,而 TiFlash 从 v4.0.5 开始需要配置 spec.tiflash.config.config.flash.service_addr
为 0.0.0.0:3930
,因此针对不同 TiFlash 和 TiDB Operator 版本,需要注意以下配置:
- 如果 TiDB Operator 版本 <= v1.1.4
- 如果 TiFlash 版本 <= v4.0.4,不需要手动配置
spec.tiflash.config.config.flash.service_addr
。 - 如果 TiFlash 版本 >= v4.0.5,需要在 TidbCluster CR 中设置
spec.tiflash.config.config.flash.service_addr
为0.0.0.0:3930
。
- 如果 TiFlash 版本 <= v4.0.4,不需要手动配置
- 如果 TiDB Operator 版本 >= v1.1.5
- 如果 TiFlash 版本 <= v4.0.4,需要在 TidbCluster CR 中设置
spec.tiflash.config.config.flash.service_addr
为${clusterName}-tiflash-POD_NUM.${clusterName}-tiflash-peer.${namespace}.svc:3930
。其中,${clusterName}
和${namespace}
需要根据实际情况替换。 - 如果 TiFlash 版本 >= v4.0.5,不需要手动配置
spec.tiflash.config.config.flash.service_addr
。 - 如果从小于等于 v4.0.4 的 TiFlash 版本升级到大于等于 v4.0.5 TiFlash 版本,需要删除 TidbCluster CR 中
spec.tiflash.config.config.flash.service_addr
的配置。
- 如果 TiFlash 版本 <= v4.0.4,需要在 TidbCluster CR 中设置