TCP 流量转移

本任务展示了如何将 TCP 流量从微服务的一个版本迁移到另一个版本。

一个常见的用例是将 TCP 流量从微服务的旧版本逐步迁移到新版本。 在 Istio 中,您可以通过配置一系列路由规则来实现此目标,这些规则将一定比例的 TCP 流量从一个目的地重定向到另一个目的地。

在此任务中,您将会把 100% 的 TCP 流量分配到 tcp-echo:v1。 接着,再通过配置 Istio 路由权重把 20% 的 TCP 流量分配到 tcp-echo:v2

Istio 包括了对 Kubernetes Gateway API 的 Beta 支持, 打算未来使其成为流量管理的默认 API。 以下说明指导您在网格中配置流量管理时如何选择使用 Gateway API 或 Istio 配置 API。 请按照您的首选项遵循 Gateway APIIstio classic 页签中的指示说明。

请注意,Kubernetes Gateway API CRD 不会默认安装在大多数 Kubernetes 集群上,因此请确保在使用 Gateway API 之前已安装好这些 CRD:

  1. $ kubectl get crd gateways.gateway.networking.k8s.io &> /dev/null || \
  2. { kubectl kustomize "github.com/kubernetes-sigs/gateway-api/config/crd?ref=v0.6.2" | kubectl apply -f -; }

本文使用 Kubernetes Gateway API 的实验性功能。请确保在使用 Gateway API 之前安装实验性 CRD。

  1. $ kubectl kustomize "github.com/kubernetes-sigs/gateway-api/config/crd/experimental?ref=v0.6.2" | kubectl apply -f -

开始之前

设置测试环境

  1. 首先,创建一个命名空间用于测试 TCP 流量迁移。

    1. $ kubectl create namespace istio-io-tcp-traffic-shifting
  2. 部署 sleep 示例应用程序,作为发送请求的测试源。

    Zip

    1. $ kubectl apply -f @samples/sleep/sleep.yaml@ -n istio-io-tcp-traffic-shifting
  3. 部署 tcp-echo 微服务的 v1v2 版本。

    Zip

    1. $ kubectl apply -f @samples/tcp-echo/tcp-echo-services.yaml@ -n istio-io-tcp-traffic-shifting

应用基于权重的 TCP 路由

  1. 将所有 TCP 流量路由到微服务 tcp-echov1 版本。

Zip

  1. $ kubectl apply -f @samples/tcp-echo/tcp-echo-all-v1.yaml@ -n istio-io-tcp-traffic-shifting

Zip

  1. $ kubectl apply -f @samples/tcp-echo/gateway-api/tcp-echo-all-v1.yaml@ -n istio-io-tcp-traffic-shifting
  1. 确定 Ingress IP 和端口:

遵循确定 Ingress IP 和端口中的指示说明来设置 TCP_INGRESS_PORTINGRESS_HOST 环境变量。

使用以下命令设置 SECURE_INGRESS_PORTINGRESS_HOST 环境变量:

  1. $ kubectl wait --for=condition=programmed gtw tcp-echo-gateway -n istio-io-tcp-traffic-shifting
  2. $ export INGRESS_HOST=$(kubectl get gtw tcp-echo-gateway -n istio-io-tcp-traffic-shifting -o jsonpath='{.status.addresses[0].value}')
  3. $ export TCP_INGRESS_PORT=$(kubectl get gtw tcp-echo-gateway -n istio-io-tcp-traffic-shifting -o jsonpath='{.spec.listeners[?(@.name=="tcp-31400")].port}')
  1. 通过发送一些 TCP 流量来确认 tcp-echo 服务已启动且正在运行。

    1. $ export SLEEP=$(kubectl get pod -l app=sleep -n istio-io-tcp-traffic-shifting -o jsonpath={.items..metadata.name})
    2. $ for i in {1..20}; do \
    3. kubectl exec "$SLEEP" -c sleep -n istio-io-tcp-traffic-shifting -- sh -c "(date; sleep 1) | nc $INGRESS_HOST $TCP_INGRESS_PORT"; \
    4. done
    5. one Mon Nov 12 23:24:57 UTC 2022
    6. one Mon Nov 12 23:25:00 UTC 2022
    7. one Mon Nov 12 23:25:02 UTC 2022
    8. one Mon Nov 12 23:25:05 UTC 2022
    9. one Mon Nov 12 23:25:07 UTC 2022
    10. one Mon Nov 12 23:25:10 UTC 2022
    11. one Mon Nov 12 23:25:12 UTC 2022
    12. one Mon Nov 12 23:25:15 UTC 2022
    13. one Mon Nov 12 23:25:17 UTC 2022
    14. one Mon Nov 12 23:25:19 UTC 2022
    15. ...

    请注意,所有时间戳都有一个前缀 “one”,说明所有流量都被路由到 tcp-echo Service 的 v1 版本。

  2. 通过以下命令,将 20% 流量从 tcp-echo:v1 迁移到 tcp-echo:v2

Zip

  1. $ kubectl apply -f @samples/tcp-echo/tcp-echo-20-v2.yaml@ -n istio-io-tcp-traffic-shifting

Zip

  1. $ kubectl apply -f @samples/tcp-echo/gateway-api/tcp-echo-20-v2.yaml@ -n istio-io-tcp-traffic-shifting
  1. 等几秒让新规则传播并确认规则已被替换:
  1. $ kubectl get virtualservice tcp-echo -o yaml -n istio-io-tcp-traffic-shifting
  2. apiVersion: networking.istio.io/v1beta1
  3. kind: VirtualService
  4. ...
  5. spec:
  6. ...
  7. tcp:
  8. - match:
  9. - port: 31400
  10. route:
  11. - destination:
  12. host: tcp-echo
  13. port:
  14. number: 9000
  15. subset: v1
  16. weight: 80
  17. - destination:
  18. host: tcp-echo
  19. port:
  20. number: 9000
  21. subset: v2
  22. weight: 20
  1. $ kubectl get tcproute tcp-echo -o yaml -n istio-io-tcp-traffic-shifting
  2. apiVersion: gateway.networking.k8s.io/v1alpha2
  3. kind: TCPRoute
  4. ...
  5. spec:
  6. parentRefs:
  7. - group: gateway.networking.k8s.io
  8. kind: Gateway
  9. name: tcp-echo-gateway
  10. sectionName: tcp-31400
  11. rules:
  12. - backendRefs:
  13. - group: ""
  14. kind: Service
  15. name: tcp-echo-v1
  16. port: 9000
  17. weight: 80
  18. - group: ""
  19. kind: Service
  20. name: tcp-echo-v2
  21. port: 9000
  22. weight: 20
  23. ...
  1. 发送更多 TCP 流量到 tcp-echo 微服务。

    1. $ export SLEEP=$(kubectl get pod -l app=sleep -n istio-io-tcp-traffic-shifting -o jsonpath={.items..metadata.name})
    2. $ for i in {1..20}; do \
    3. kubectl exec "$SLEEP" -c sleep -n istio-io-tcp-traffic-shifting -- sh -c "(date; sleep 1) | nc $INGRESS_HOST $TCP_INGRESS_PORT"; \
    4. done
    5. one Mon Nov 12 23:38:45 UTC 2022
    6. two Mon Nov 12 23:38:47 UTC 2022
    7. one Mon Nov 12 23:38:50 UTC 2022
    8. one Mon Nov 12 23:38:52 UTC 2022
    9. one Mon Nov 12 23:38:55 UTC 2022
    10. two Mon Nov 12 23:38:57 UTC 2022
    11. one Mon Nov 12 23:39:00 UTC 2022
    12. one Mon Nov 12 23:39:02 UTC 2022
    13. one Mon Nov 12 23:39:05 UTC 2022
    14. one Mon Nov 12 23:39:07 UTC 2022
    15. ...

    请注意,大约 20% 的时间戳带有前缀 “two”,说明 80% 的 TCP 流量被路由到 tcp-echo Service 的 v1 版本,而 20% 的流量被路由到 v2 版本。

理解原理

这个任务中,使用 Istio 路由权重特性将 tcp-echo 服务的 TCP 流量从旧版本迁移到了新版本。请注意,这与使用容器编排平台的部署功能进行版本迁移完全不同, 后者(容器编排平台)使用了实例扩容来管理流量。

在 Istio 中,可以对 tcp-echo 服务的两个版本进行独立扩容和缩容, 这个过程不会影响两个服务版本之间的流量分配。

有关不同版本间流量管理及自动扩缩的更多信息,请查看使用 Istio 进行金丝雀部署这篇博文。

清理

  1. 移除路由规则:

Zip

  1. $ kubectl delete -f @samples/tcp-echo/tcp-echo-all-v1.yaml@ -n istio-io-tcp-traffic-shifting

Zip

  1. $ kubectl delete -f @samples/tcp-echo/gateway-api/tcp-echo-all-v1.yaml@ -n istio-io-tcp-traffic-shifting
  1. 移除 sleep 样例、tcp-echo 应用和测试命名空间:

    ZipZip

    1. $ kubectl delete -f @samples/sleep/sleep.yaml@ -n istio-io-tcp-traffic-shifting
    2. $ kubectl delete -f @samples/tcp-echo/tcp-echo-services.yaml@ -n istio-io-tcp-traffic-shifting
    3. $ kubectl delete namespace istio-io-tcp-traffic-shifting