Kubernetes上跑Vitess
下面的示例将使用一个简单的commerce数据库来说明vitess如何将您从一个数据库扩展到一个完全分布式和分片的集群。这是一个相当常见的场景,它适用于电子商务之外的许多用例。
随着公司的发展壮大,他们经常会面临这样一个问题:交易数据库中的数据量显著增加。数据大小急剧增加可能导致查询延迟、可管理性变差等影响性能的问题。本教程演示了Vitess如何与Kubernetes一起使用,通过利用分布式系统的水平分片来缓解系统在大规模数据下的数据查询性能问题。
先决条件
在我们开始之前,让我们先了解一些事情。
示例设置已调整为在Minikube上运行。但是,您应该可以在自己的Kubernetes集群上尝试此操作。如果这样做,您可能还想删除一些Minikube特定的资源设置(如下所述)。
- 下载 Vitess
- 安装 Minikube
- 启动Minikube引擎:
minikube start --cpus = 4 --memory = 5000
。请注意其他资源要求。为了完成所有用例,将启动许多vttablet和MySQL实例。这些需要比Minikube使用的默认值更多的资源。 - 安装 etcd 管理端
- 安装 helm
- 完成安装后, 运行
helm init
可选操作
- 在Ubuntu上安装Mysql客户端:
apt-get install mysql-client
- 安装 vtctlclient
- 安装 go 1.11+
go get vitess.io/vitess/go/cmd/vtctlclient
- vtctlclient 将安装在目录
$GOPATH/bin/
启动单片keyspace集群
你google了一通keyspace,却发现了很多关于NoSQL的东西。这TM是怎么回事?虽然这会花费你几个小时的时间,但是在仔细翻看vitess的古老卷轴之后,你会发现,原来在未分片(单片)的情形下,在NewSQL的世界中,keyspaces和databases本质上就是一类东西。最后,是时候开始我们的旅程了。
切换到helm示例目录:
cd examples/helm
在此目录中,您将看到一组yaml文件。每个文件名的第一个数字表示示例的阶段。接下来的两位数字表示执行它们的顺序。例如’101_initial_cluster.yaml’是第一阶段的第一个文件。我们现在将执行:
helm install ../../helm/vitess -f 101_initial_cluster.yaml
这将创建一个带有单个keyspace空间的初始Vitess集群。
验证集群
一旦成功,您应该看到以下状态:
~/...vitess/helm/vitess/templates> kubectl get pods,jobs
NAME READY STATUS RESTARTS AGE
po/etcd-global-2cwwqfkf8d 1/1 Running 0 14m
po/etcd-operator-9db58db94-25crx 1/1 Running 0 15m
po/etcd-zone1-btv8p7pxsg 1/1 Running 0 14m
po/vtctld-55c47c8b6c-5v82t 1/1 Running 1 14m
po/vtgate-zone1-569f7b64b4-zkxgp 1/1 Running 2 14m
po/zone1-commerce-0-rdonly-0 6/6 Running 0 14m
po/zone1-commerce-0-replica-0 6/6 Running 0 14m
po/zone1-commerce-0-replica-1 6/6 Running 0 14m
NAME DESIRED SUCCESSFUL AGE
jobs/commerce-apply-schema-initial 1 1 14m
jobs/commerce-apply-vschema-initial 1 1 14m
jobs/zone1-commerce-0-init-shard-master 1 1 14m
如果已安装MySQL客户端,则现在应该可以使用以下命令连接到群集:
~/...vitess/examples/helm> ./kmysql.sh
mysql> show tables;
+--------------------+
| Tables_in_commerce |
+--------------------+
| corder |
| customer |
| product |
+--------------------+
3 rows in set (0.01 sec)
您还可以使用以下命令浏览vtctld控制台:(Ubuntu)
./kvtctld.sh
Minikube自定义
helm示例基于values.yaml
文件(Vitess的默认的helm chart)。为了在Minikube下运行,已执行以下覆盖:
resources
: 已经被淘汰了。这提示Kubernetes环境使用任何可用的东西。请注意,建议不要将其用于生产环境。在这种情况下,您应该将helm/vitess/values.yaml
作为基线开始迭代。etcd和VTGate副本设置为1。在生产环境中,应该有3-5个etcd副本。 VTGate服务器的数量需要根据群集大小进行扩展。
mysqlProtocol.authType
设置为none
。这应该改为secret
,证书以Kubernetes的秘钥方式存储。在生产中不推荐使用
NodePort
的服务类型。您可以选择不将这些endpoints暴露给Kubernetes以外的任何系统。另一种选择是创建Ingress控制器。
拓扑
helm chart指定一个非拆分的keyspace: commerce
。非拆分的keyspace有一个单独的叫做 0
的分片。
注意: keyspace/shards是一个集群的全局实体。和cell并无关系。理想情况下,你需要单独列出来keyspace/shards。对于cell来说,你只需要指定哪些keyspace/shards部署在cell之中。为了简单起见,我们可以简单的认为接下来提到的keyspace/shards在不同的cell里。
在这次部署中,我们启动两个replica
角色的tablet和一个rdonly
角色的tablet。部署后,其中一个replica
角色的tablet自动被选为master。在vtctld控制台中,你应该看到一个master
,一个replica
和一个rdonly
vttablets。
设置replicat角色的tablet的目的是为OLTP提供读流量,rdonly角色的tablet是做分析使用,或者用于执行集群的日常维护工作,如备份、重新分片。rdonly副本容忍和主之间有较大延迟,因为上述维护工作需要暂停主从复制。
在我们的用例中,我们为每个分片配置一个rdonly副本以执行重做分片操作。
表结构
create table product(
sku varbinary(128),
description varbinary(128),
price bigint,
primary key(sku)
);
create table customer(
customer_id bigint not null auto_increment,
email varbinary(128),
primary key(customer_id)
);
create table corder(
order_id bigint not null auto_increment,
customer_id bigint,
sku varbinary(128),
price bigint,
primary key(order_id)
);
为简化示例,我们只建少量几张表,每张表少量字段。能够说明流程就好:
product
表包含所有产品的产品信息。customer
table有一个具有自动增量的customer_id。典型的customer表将包含更多列,有时还有更多详细信息表。corder
表 (这么命名这张表是因为order
是SQL 保留字段) 有一个 order_id 自增列。它同样也是customer(customer_id) 和 product(sku)的外键。
VSchema
由于Vitess是一个分布式系统,因此通常需要VSchema (Vitess schema)来描述keyspaces的组织方式。
{
"tables": {
"product": {},
"customer": {},
"corder": {}
}
}
对于但分片的keyspace来说, VSchema非常简单; 它只是展示出keyspace的所有table。
注意:在单分片keyspace情况下,VSchema不是严格意义上需要定义的,因为Vitess知道没有其他的keyspaces,所以会将所有的查询流量转发到当前的keyspace上。
Vertical Split
由于改革开放的深入,自贸区生意红红火火。单品马黛茶摆上了你网站的货架,尝鲜者蜂拥而至前来购买。 随着越来越多的用户涌向你的网站和应用程序,customer
和corder
表开始以惊人的速度增长。为了跟上进度,您需要将customer
和corder
移动到它们自己的keyspace中来分隔这些表。由于产品数量与马黛茶类型数量一致(不会有太多的马黛茶类型),因此您无需对产品表进行分片。
让我们在数据表中添加一些数据来说明垂直分割的工作原理.
./kmysql.sh < ../common/insert_commerce_data.sql
我们可以看看刚插入的内容:
./kmysql.sh --table < ../common/select_commerce_data.sql
Using commerce/0
Customer
+-------------+--------------------+
| customer_id | email |
+-------------+--------------------+
| 1 | alice@domain.com |
| 2 | bob@domain.com |
| 3 | charlie@domain.com |
| 4 | dan@domain.com |
| 5 | eve@domain.com |
+-------------+--------------------+
Product
+----------+-------------+-------+
| sku | description | price |
+----------+-------------+-------+
| SKU-1001 | Monitor | 100 |
| SKU-1002 | Keyboard | 30 |
+----------+-------------+-------+
COrder
+----------+-------------+----------+-------+
| order_id | customer_id | sku | price |
+----------+-------------+----------+-------+
| 1 | 1 | SKU-1001 | 100 |
| 2 | 2 | SKU-1002 | 30 |
| 3 | 3 | SKU-1002 | 30 |
| 4 | 4 | SKU-1002 | 30 |
| 5 | 5 | SKU-1002 | 30 |
+----------+-------------+----------+-------+
注意我们在使用 keyspace commerce/0
从我们的表中查询数据。
创建 Keyspace
对于后续命令,可以方便地捕获发布的名称并保存到变量中:
export release=$(helm ls -q)
对于垂直拆分,我们首先需要创建一个特殊的served_from
keyspace。该keyspace作为commerce
keyspace的别名。发送到此keyspace的任何查询都将重定向到commerce
。创建后,我们可以将表垂直拆分到新的keyspace,而无需让应用程序感知此更改:
helm upgrade $release ../../helm/vitess/ -f 201_customer_keyspace.yaml
在查看yaml文件时,在以前的版本中唯一添加的是以下任务:
jobs:
- name: "create-customer-ks"
kind: "vtctlclient"
command: "CreateKeyspace -served_from='master:commerce,replica:commerce,rdonly:commerce' customer"
这会在拓扑中创建一个条目,指示必须将对master,replica或rdonly发送给customer
的任何请求重定向到(来自)commerce
。这些tablet的指定重定向将用于控制我们如何从commerce
转换为customer
。
此工作的成功完成应显示为:
NAME DESIRED SUCCESSFUL AGE
jobs/vtctlclient-create-customer-ks 1 1 10s
Customer Tablets
现在,您必须创建vtTablet实例来备份这个新的keyspace,您将在其中移动必要的表:
helm upgrade $release ../../helm/vitess/ -f 202_customer_tablets.yaml
yaml文件有少量修改:
- name: "commerce"
shards:
- name: "0"
tablets:
- type: "replica"
vttablet:
replicas: 2
- type: "rdonly"
vttablet:
replicas: 1
vschema:
vsplit: |-
{
"tables": {
"product": {}
}
}
- name: "customer"
shards:
- name: "0"
tablets:
- type: "replica"
vttablet:
replicas: 2
- type: "rdonly"
vttablet:
replicas: 1
copySchema:
source: "commerce/0"
tables:
- "customer"
- "corder"
vschema:
vsplit: |-
{
"tables": {
"customer": {},
"corder": {}
}
}
当然,最显著的变化是为新的keyspace实例化vtablet。此外:
- 你将customer和corder从commerce的 VSchema中挪至customer的VSchema中。注意物理表仍然在commerce中。
- 您请求使用
copySchema
指令将customer和corder的架构复制到customer。
vschema中的改变没造成任何影响,因为发送给客户的任何查询仍然被重定向到commerce库上,在commerce库中所有的数据仍然存在。
完成此步骤后,应该有六个正在运行的vtablet pods,并且必须成功完成以下新作业:
NAME DESIRED SUCCESSFUL AGE
jobs/commerce-apply-vschema-vsplit 1 1 5m
jobs/customer-apply-vschema-vsplit 1 1 5m
jobs/customer-copy-schema-0 1 1 5m
jobs/zone1-customer-0-init-shard-master 1 1 5m
垂直拆分克隆
下一步:
helm upgrade $release ../../helm/vitess/ -f 203_vertical_split.yaml
开始将数据从commerce迁移到customer的过程。此文件的新内容是:
jobs:
- name: "vertical-split"
kind: "vtworker"
cell: "zone1"
command: "VerticalSplitClone -min_healthy_rdonly_tablets=1 -tables=customer,corder customer/0"
对于大型表,此作业可能会运行很多天,如果失败,则可能会重新启动。此作业执行以下任务:
- 从commerce库中的customer表和corder表脏拷贝数据到customer库中的表。
- 停止在Commerce的RDOnly vttablet上的复制并执行最终同步。
- 从commerce-> customer启动过滤复制过程,使customer库的表与commerce库中的表保持同步。
注意:在生产环境中,你可能希望在开始切换之前多次运行SplitDiff
作业,对复制执行多次健全性检查:
jobs:
- name: "vertical-split-diff"
kind: "vtworker"
cell: "zone1"
command: "VerticalSplitDiff -min_healthy_rdonly_tablets=1 customer/0"
我们可以通过检查keyspace中的数据来查看VerticalSplitClone的结果。请注意,customer
和corder
表中的所有数据都已复制过来。
./kmysql.sh --table < ../common/select_customer0_data.sql
Using customer/0
Customer
+-------------+--------------------+
| customer_id | email |
+-------------+--------------------+
| 1 | alice@domain.com |
| 2 | bob@domain.com |
| 3 | charlie@domain.com |
| 4 | dan@domain.com |
| 5 | eve@domain.com |
+-------------+--------------------+
COrder
+----------+-------------+----------+-------+
| order_id | customer_id | sku | price |
+----------+-------------+----------+-------+
| 1 | 1 | SKU-1001 | 100 |
| 2 | 2 | SKU-1002 | 30 |
| 3 | 3 | SKU-1002 | 30 |
| 4 | 4 | SKU-1002 | 30 |
| 5 | 5 | SKU-1002 | 30 |
+----------+-------------+----------+-------+
切换
一旦您确认customer和corder表正在从commerce库中不断更新,您就可以切断流量。这通常分三步执行:rdonly
, replica
和 master
:
切 rdonly 和 replica:
helm upgrade $release ../../helm/vitess/ -f 204_vertical_migrate_replicas.yaml
切 master:
helm upgrade $release ../../helm/vitess/ -f 205_vertical_migrate_master.yaml
完成此操作后,commerce
和corder
表在commerce
库中将不能访问。您可以尝试从中进行读取来验证这一点。
./kmysql.sh --table < ../common/select_commerce_data.sql
Using commerce/0
Customer
ERROR 1105 (HY000) at line 4: vtgate: http://vtgate-zone1-5ff9c47db6-7rmld:15001/: target: commerce.0.master, used tablet: zone1-1564760600 (zone1-commerce-0-replica-0.vttablet), vttablet: rpc error: code = FailedPrecondition desc = disallowed due to rule: enforce blacklisted tables (CallerID: userData1)
replica和rdonly可以回切,但,切主是单向的,不可反转。这是垂直拆分的限制。未来不久会解决这个问题。目前,应注意在转换完成后不会发生数据丢失或可用性丢失。
清理
在庆祝您第一次成功的垂直拆分
之后,您需要清理剩余的组件:
helm upgrade $release ../../helm/vitess/ -f 206_clean_commerce.yaml
您可以看到commerce库上以下DML语句
postsplit: |-
drop table customer;
drop table corder;
这些表由customer库提供,现在,它们应该从commerce中删除。
jobs:
- name: "vclean1"
kind: "vtctlclient"
command: "SetShardTabletControl -blacklisted_tables=customer,corder -remove commerce/0 rdonly"
- name: "vclean2"
kind: "vtctlclient"
command: "SetShardTabletControl -blacklisted_tables=customer,corder -remove commerce/0 replica"
- name: "vclean3"
kind: "vtctlclient"
command: "SetShardTabletControl -blacklisted_tables=customer,corder -remove commerce/0 master"
这些‘控制’记录在切换期间MigrateServedFrom
命令添加,以防止commerce表意外接受写入。现在可以删除它们。
在此步骤之后,customer
和corder
表不再存在于commerce
库中。
./kmysql.sh --table < ../common/select_commerce_data.sql
Using commerce/0
Customer
ERROR 1105 (HY000) at line 4: vtgate: http://vtgate-zone1-5ff9c47db6-7rmld:15001/: target: commerce.0.master, used tablet: zone1-1564760600 (zone1-commerce-0-replica-0.vttablet), vttablet: rpc error: code = InvalidArgument desc = table customer not found in schema (CallerID: userData1)
水平分片
你花重金雇佣的DBA此时已经吓坏了,MYSQL性能在下降,他们想做点儿什么,又不知从何入手,只有不停的微信轰炸你:老板,Keyspace中的数据量已经越来越大了,QPS快抗不住了,咋整?!你微微一笑,小手一挥,别怕,咱有Vitess!咋整,水平拆呀! 玩笑归玩笑,虽然Vitess为非拆分的单片keyspace提供查询保护和连接池功能,不懂的看这里看这里,但Vitess真正的价值在于水平分片。
准备工作
在开始重新分片过程之前,您需要做出一些决定并准备系统以进行水平重新分片。重要提示,这是在开始垂直拆分之前应该完成的事情。但是,这是一个很好的你会来解释在这个过程的早期通常会决定什么。
Sequences
要解决的第一个问题:customer和corder表都有自增列。然而,分片的情况下并不适用。vitess通过序列提供了一个等价的特性。
序列表是一个非拆分单行表,Vitess可以使用它来生成单调递增的id。生成id的语法是: select next :n values from customer_seq
。 提供此表的vttablet能够为大量此类ID提供服务,因为值被缓存的,并且服务于内存之外。缓存值是可配置的。
vschema允许您将表的列与序列表相关联。完成后,该表上的insert将透明地从sequence表中获取一个ID,填充该值,并将该行路由到适当的shard。此设计向后兼容mysql的auto_increment
属性的工作方式。
由于序列是非拆分表,因此它们将存储在commerce数据库中。架构如下:
create table customer_seq(id int, next_id bigint, cache bigint, primary key(id)) comment 'vitess_sequence';
insert into customer_seq(id, next_id, cache) values(0, 1000, 100);
create table order_seq(id int, next_id bigint, cache bigint, primary key(id)) comment 'vitess_sequence';
insert into order_seq(id, next_id, cache) values(0, 1000, 100);
请注意create table语句中vitess_sequence
注释。 VTTablet将使用此元数据将此表视为序列。
id
总是 0next_id
设置为1000
: 该值应该比目前使用的auto_increment
最大值设置的大一些。cache
:cache
指定在vttablet在更新next_id
之前缓存的值的数量。
较高的缓存值会获取更高性能。但是,如果通过reparent切换主,那么缓存的值将丢失。新主将从旧主人写入表中的next_id
值开始计算。
VTGate服务器知道谁是序列表。这是通过更新commerce库的VSchema来完成的,如下所示:
{
"tables": {
"customer_seq": {
"type": "sequence"
},
"order_seq": {
"type": "sequence"
},
"product": {}
}
}
Vindexes
下一个决定是关于分片键,又称作主Vindex。关于Vindex你可以理解为一个方法,这个方法决定根据什么条件将一行数据放置到不同的分片中。如何选择分片键需要综合考虑才能得出结果,涉及以下考虑因素:
- 什么是QPS最高的查询,以及它们的where子句是什么?
- 列的索引基数,一定要分散
- 你是否想要对模式建模,以便知道有些行在分片中可以进行join,而不需要跨越分片?
- 你是否希望同一事务中的某些行能够在一个分片内聚合?
综上考虑,在我们的用例中,我们可以确定:
- 对于customer表,最常见的where子句使用
customer_id
。所以,它应该有一个主Vindex。 - 鉴于它拥有大量用户,其索引基数也很高。
- 对于corder表,我们可以选择
customer_id
和order_id
。鉴于我们的应用程序经常在customer_id
列上将customer
与corder
连接起来,选择customer_id
作为corder
表的主Vindex将是有益的。 - 巧合的是,事务还会更新
corder
表及其对应的customer
行。这进一步强化了将’customer_id`用作主Vindex的决定。
注意:在corder.order_id
上创建辅助查找Vindex可能是值得的。这不是示例的一部分。我们将在高级部分讨论这个问题。
注意:对于某些用例,customer_id
实际上可能映射到tenant_id
。在这种情况下,租户ID的基数可能太低。这种系统在其where子句中使用其他高基数列的查询也很常见。在决定采用哪列作为主Vindex时,应考虑这些因素。
总而言之,我们为customer
提供了以下VSchema:
{
"sharded": true,
"vindexes": {
"hash": {
"type": "hash"
}
},
"tables": {
"customer": {
"column_vindexes": [
{
"column": "customer_id",
"name": "hash"
}
],
"auto_increment": {
"column": "customer_id",
"sequence": "customer_seq"
}
},
"corder": {
"column_vindexes": [
{
"column": "customer_id",
"name": "hash"
}
],
"auto_increment": {
"column": "order_id",
"sequence": "order_seq"
}
}
}
}
请注意,我们现在已将keyspace标记为分片。这种改变同样会改变Vitess处理这个keyspace的方式。以前工作的一些复杂查询可能不再起作用。这是进行全面测试以确保所有查询都有效的好时机。如果任何查询失败,您可以暂时将keyspace恢复为未分片(单片)。
由于主vindex列是BIGINT
,我们选择hash
作为主vindex,这是一种将行分配到各种分片的伪随机方式。
注意:对于VARCHAR
列,请使用unicode_loose_md5
。对于VARBINARY
,使用binary_md5
。
注意:Vitess中的所有vindex都是插件。如果预定义的vindexs都不符合您的需求,您可以开发自己的自定义vindex。
既然我们做出了所有重要的决定,那么就应该应用这些变化:
helm upgrade $release ../../helm/vitess/ -f 301_customer_sharded.yaml
要注意的工作:
NAME DESIRED SUCCESSFUL AGE
jobs/commerce-apply-schema-seq 1 1 19s
jobs/commerce-apply-vschema-seq 1 1 19s
jobs/customer-apply-schema-sharded 1 1 19s
jobs/customer-apply-vschema-sharded 1 1 19s
创建新分片
此时,您已完成分片VSchema并且检查了您业务的所有SQL以确保它们在多分片上仍然有效。现在,是时候开始水平拆分了。
水平分片过程的工作原理是将现有分片拆分为较小的分片。这种类型的重新分片最适合Vitess。在某些用例中,您可能希望启动新分片并在最近创建的分片中添加新行。Vitess也可以做到这一点,假设按数值进行分割(office_id)。将会有一个新的办公室编号205.目前,分片定义会将其插入到碎片4中,但尚未插入205的值。所以我们改变定义,说数字>=205要去一个新的分片,然后我们开始插入。这样,office_id大于205的就会去到我们新的分片中,只要我们提前设定好vindex方法。
我们必须创建新的目标分片:
helm upgrade $release ../../helm/vitess/ -f 302_new_shards.yaml
我们正在应用的变化是:
- name: "customer"
shards:
- name: "0"
tablets:
- type: "replica"
vttablet:
replicas: 2
- type: "rdonly"
vttablet:
replicas: 1
- name: "-80"
tablets:
- type: "replica"
vttablet:
replicas: 2
- type: "rdonly"
vttablet:
replicas: 1
copySchema:
source: "customer/0"
- name: "80-"
tablets:
- type: "replica"
vttablet:
replicas: 2
- type: "rdonly"
vttablet:
replicas: 1
copySchema:
source: "customer/0"
Shard 0已经存在了。我们现在添加了分片-80
和80 -
。我们还添加了copySchema
指令,该指令请求将分片0中的模式复制到新的分片中。
分片命名
-80
和 80-
是什么玩意儿? 分片名字具有下列特征:
- 表示一个范围,包括左边界,右边界不包括在内。
- 十六进制
- 左对齐
- 左
-
前缀表示: 任何小于右值的值 - 右
-
前缀: 任何大于或等于左值的值 - 普通的
-
表示全部范围
这是什么意思: -80
== 00-80
== 0000-8000
== 000000-800000
80-
和 80-FF
是不一样的。 这是因为:
80-FF
== 8000-FF00
. 因此 FFFF
会超出 80-FF
范围.
80-
意味着: 大于或等于0x80
的任何值。
hash
vindex产生一个8字节的数。这意味着所有小于“0x8000000000000000”的数字都将落在分片-80
中。任何具有最高位集的> =0x8000000000000000
的数字,属于shard80-
。
这种左对齐的方法允许您拥有任意长度的keyspace ID。但是,最重要的位是左边的位。
例如,“md5”哈希产生16个字节。也可以用作keyspace的ID。
任意长度的varbinary
也可以按原样映射到keyspace id。这就是binary
vindex所做的。
在上面的例子中,我们创建了两个shard:任何没有其最左边位集的keyspace id都将转到-80
。其他人都会去“80-”。
应用上述更改将导致创建另外六个vttablet pod,以及以下新作业:
NAME DESIRED SUCCESSFUL AGE
jobs/customer-copy-schema-80-x 1 1 58m
jobs/customer-copy-schema-x-80 1 1 58m
jobs/zone1-customer-80-x-init-shard-master 1 1 58m
jobs/zone1-customer-x-80-init-shard-master 1 1 58m
此时,表已在新分片中创建但尚未有数据。
./kmysql.sh --table < ../common/select_customer-80_data.sql
Using customer/-80
Customer
COrder
./kmysql.sh --table < ../common/select_customer80-_data.sql
Using customer/80-
Customer
COrder
SplitClone
SplitClone的过程类似于VerticalSplitClone。它启动水平重新分割过程:
helm upgrade $release ../../helm/vitess/ -f 303_horizontal_split.yaml
这开始了以下工作:
jobs:
- name: "horizontal-split"
kind: "vtworker"
cell: "zone1"
command: "SplitClone -min_healthy_rdonly_tablets=1 customer/0"
对于大表,此作业可能会运行很多天,如果失败可以重新启动。此作业执行以下任务:
- 将customer/0的数据脏拷贝到两个新分片中。但行是根据目标分片拆分的。
- 停止在customer/0 rdonly tablet上复制并执行最终同步。
- 根据行所属的分片,向其中一个或另一个分片发送更改,从而启动从customer/0到两个碎片的过滤复制过程。开启过滤复制,Vitess会根据某行数据的路由字段数值根据路由算法计算出一个数值,如果此数值<-80,此行将落到第一个分片,如果此数值>-80,那么此行将去到另一个分片。
一旦 SplitClone
完成, 你会看到如下信息:
NAME DESIRED SUCCESSFUL AGE
jobs/vtworker-horizontal-split 1 1 5m
与VerticalSplitDiff
对应的操作是 SplitDiff
。它可用于验证重新分片过程的数据完整性。
jobs:
- name: "horizontal-split-diff"
kind: "vtworker"
cell: "zone1"
command: "SplitDiff -min_healthy_rdonly_tablets=1 customer/-80"
请注意,SplitDiff的最后一个参数是目标分片。您需要为每个目标分片运行一个作业。此外,您无法并行运行它们,因为它们需要rdonly
实例从集群中摘掉(停止主从复制)才能执行比较。
注意:此示例实际上不运行此命令。
注意:SplitDiff可用于分割分片以及合并分片。
切换
现在您已验证表中数据是从源分片持续更新的,您可以切换流量。这通常分三步执行:rdonly
,replica
和master
:
切rdonly 和 replica:
helm upgrade $release ../../helm/vitess/ -f 304_migrate_replicas.yaml
切master:
helm upgrade $release ../../helm/vitess/ -f 305_migrate_master.yaml
在master迁移期间,原始分片主先停写。接下来,程序将等待新的分片主追平过滤复制,然后再允许它们开始服务。由于源分片的replica mysql上的binlog被实时过滤复制消费到不同分片上,因此切主时的延迟应该不会太高,因此只会有几秒钟的主不可用性。
replica和rdonly切换可以自由逆转。与垂直拆分不同,水平拆分也是可逆的。您只需在切主时添加一个-reverse_replication
标志即可。你可以理解成建立反方向的过滤复制,如果带着这个标志,你发现用新片有问题的时候,你就可以随时切换回去,因为反向的过滤复制保证新旧分片上的数据是完全一致的。
现在应该可以看到复制到新分片上的数据了。
./kmysql.sh --table < ../common/select_customer-80_data.sql
Using customer/-80
Customer
+-------------+--------------------+
| customer_id | email |
+-------------+--------------------+
| 1 | alice@domain.com |
| 2 | bob@domain.com |
| 3 | charlie@domain.com |
| 5 | eve@domain.com |
+-------------+--------------------+
COrder
+----------+-------------+----------+-------+
| order_id | customer_id | sku | price |
+----------+-------------+----------+-------+
| 1 | 1 | SKU-1001 | 100 |
| 2 | 2 | SKU-1002 | 30 |
| 3 | 3 | SKU-1002 | 30 |
| 5 | 5 | SKU-1002 | 30 |
+----------+-------------+----------+-------+
./kmysql.sh --table < ../common/select_customer80-_data.sql
Using customer/80-
Customer
+-------------+----------------+
| customer_id | email |
+-------------+----------------+
| 4 | dan@domain.com |
+-------------+----------------+
COrder
+----------+-------------+----------+-------+
| order_id | customer_id | sku | price |
+----------+-------------+----------+-------+
| 4 | 4 | SKU-1002 | 30 |
+----------+-------------+----------+-------+
清理
在庆祝第二次成功水平拆分之后,您现在准备清理剩余的组件:
helm upgrade $release ../../helm/vitess/ -f 306_down_shard_0.yaml
在这个yaml中,我们只删除了分片0.这将导致所有这些vttablet pod被删除。但是分片元数据仍然存在。我们可以用这个命令清理它(在所有的vttablet进程退出之后):
helm upgrade $release ../../helm/vitess/ -f 307_delete_shard_0.yaml
此命令运行以下作业:
jobs:
- name: "delete-shard0"
kind: "vtctlclient"
command: "DeleteShard -recursive customer/0"
除此之外,您还需要手动删除与此分片相关联PVC。PVC是k8s里的存储概念,概念看这里
而且,作为最后的操作,我们删除最后执行的工作:
helm upgrade $release ../../helm/vitess/ -f 308_final.yaml
拆除 (可选)
如果您不继续进行其他练习,则可以删除整个示例。
helm delete $release
您还需要删除PVC
kubectl delete pvc $(kubectl get pvc | grep vtdataroot-zone1 | awk '{print $1}')
恭喜你完成这个练习!