流量管理问题
请求被 Envoy 拒绝
请求被拒绝有许多原因。弄明白为什么请求被拒绝的最好方式是检查 Envoy 的访问日志。默认情况下,访问日志被输出到容器的标准输出中。运行下列命令可以查看日志:
$ kubectl logs PODNAME -c istio-proxy -n NAMESPACE
在默认的访问日志输出格式中,Envoy 响应标志和 Mixer 策略状态位于响应状态码之后,如果你使用自定义日志输出格式,请确保包含 %RESPONSE_FLAGS%
和 %DYNAMIC_METADATA(istio.mixer:status)%
。
参考 Envoy 响应标志查看更多有关响应标志的细节。
通用响应标志如下:
NR
:没有配置路由,请检查你的DestinationRule
或者VirtualService
配置。UO
:上游溢出导致断路,请在DestinationRule
检查你的熔断器配置。UF
:未能连接到上游,如果你正在使用 Istio 认证,请检查双向 TLS 配置冲突。
如果一个请求的响应标志是 UAEX
并且 Mixer 策略状态不是 -
,表示这个请求被 Mixer 拒绝。
通用 Mixer 策略状态如下:
UNAVAILABLE
:Envoy 不能连接到 Mixer 并且策略被配置为失败自动关闭。UNAUTHENTICATED
:请求被 Mixer 认证组件拒绝。PERMISSION_DENIED
:请求被 Mixer 认证组件拒绝。RESOURCE_EXHAUSTED
:请求被 Mixer 指标组件拒绝。INTERNAL
:因为 Mixer 内部错误请求被拒绝。
路由规则似乎没有对流量生效
在当前版本的 Envoy sidecar 实现中,加权版本分发被观测到至少需要 100 个请求。
如果路由规则在 Bookinfo 这个例子中完美地运行,但在你自己的应用中相似版本的路由规则却没有生效,可能因为你的 Kubernetes service 需要被稍微地修改。为了利用 Istio 的七层路由特性 Kubernetes service 必须严格遵守某些限制。参考 Pods 和 Services 的要求查看详细信息。
另一个潜在的问题是路由规则可能只是生效比较慢。在 Kubernetes 上实现的 Istio 利用一个最终一致性算法来保证所有的 Envoy sidecar 有正确的配置包括所有的路由规则。一个配置变更需要花一些时间来传播到所有的 sidecar。在大型的集群部署中传播将会耗时更长并且可能有几秒钟的延迟时间。
设置 destination rule 之后出现 503 异常
如果在你应用了一个 DestinationRule
之后请求一个服务立即发生了 HTTP 503 异常,并且这个异常状态一直持续到您移除或回滚了这个 DestinationRule
,那么这个 DestinationRule
大概为这个服务引起了一个 TLS 冲突。
举个例子,如果在你的集群里配置了全局的 mutual TLS,这个 DestinationRule
肯定包含下列的 trafficPolicy
:
trafficPolicy:
tls:
mode: ISTIO_MUTUAL
否则,这个 TLS mode 默认被设置成 DISABLE
会使客户端 sidecar 代理发起明文 HTTP 请求而不是 TLS 加密了的请求。因此,请求和服务端代理冲突,因为服务端代理期望的是加密了的请求。
为了确认是否存在冲突,请检查 istioctl authn tls-check
命令输出中待检查服务对应条目的 STATUS
字段是否被设置为 CONFLICT
。举个例子,一个和类似如下的命令可以用来检查 httpbin
服务是否存在冲突:
$ istioctl authn tls-check istio-ingressgateway-db454d49b-lmtg8.istio-system httpbin.default.svc.cluster.local
HOST:PORT STATUS SERVER CLIENT AUTHN POLICY DESTINATION RULE
httpbin.default.svc.cluster.local:8000 CONFLICT mTLS HTTP default/ httpbin/default
任何时候你应用一个 DestinationRule
,请确保 trafficPolicy
TLS mode 和全局的配置一致。
路由规则没有对 ingress gateway 请求生效
让我们假设你正在使用一个 ingress Gateway
和相应的 VirtualService
来访问一个内部的服务。举个例子,你的 VirtualService
配置可能和如下配置类似:
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: myapp
spec:
hosts:
- "myapp.com" # 或者您正在通过 IP 而不是 DNS 测试 ingress-gateway(例如 http://1.2.3.4/hello),也可以配置成 "*"
gateways:
- myapp-gateway
http:
- match:
- uri:
prefix: /hello
route:
- destination:
host: helloworld.default.svc.cluster.local
- match:
...
你还有一个 VirtualService
将访问 helloworld 服务的流量路由至该服务的一个特定子集:
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: helloworld
spec:
hosts:
- helloworld.default.svc.cluster.local
http:
- route:
- destination:
host: helloworld.default.svc.cluster.local
subset: v1
此时你会发现,通过 ingress 网关访问 helloworld 服务的请求没有直接路由到服务实例子集 v1,而是仍然使用默认的轮询调度路由。
Ingress 请求经由网关主机(如: myapp.com
)进行路由,网关主机将激活 myapp VirtualService
中的规则,将请求路由至 helloworld 服务的任何一个实例端点。只有通过主机 helloworld.default.svc.cluster.local
访问的内部请求才会使用 helloworld VirtualService
,其中的规则直接将流量路由至服务实例子集 v1。
为了控制从 gateway 过来的流量,你需要在 myapp VirtualService
的配置中包含 subset 规则配置:
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: myapp
spec:
hosts:
- "myapp.com" # 或者您正在通过 IP 而不是 DNS 测试 ingress-gateway(例如 http://1.2.3.4/hello),也可以配置成 "*"
gateways:
- myapp-gateway
http:
- match:
- uri:
prefix: /hello
route:
- destination:
host: helloworld.default.svc.cluster.local
subset: v1
- match:
...
或者,你可以尽可能地将两个 VirtualServices
配置合并成一个:
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: myapp
spec:
hosts:
- myapp.com # 这里不能使用“*”,因为这是与网格服务关联在一起的。
- helloworld.default.svc.cluster.local
gateways:
- mesh # 内部和外部都可以应用
- myapp-gateway
http:
- match:
- uri:
prefix: /hello
gateways:
- myapp-gateway # 只对 ingress gateway 严格应用这条规则
route:
- destination:
host: helloworld.default.svc.cluster.local
subset: v1
- match:
- gateways:
- mesh # 应用到网格中的所有服务
route:
- destination:
host: helloworld.default.svc.cluster.local
subset: v1
Headless TCP 服务失去连接
如果部署了 istio-citadel
,Envoy 每 45 天会重启一次来刷新证书。这会导致 TCP 数据流失去连接或者服务之间的长连接。
你应该在应用中为这种失去连接异常构建快速恢复的能力。若想阻止这种失去连接异常发生,你需要禁用双向 TLS,并下线 istio-citadel
。
首先,编辑你的 istio
配置来禁用双向 TLS:
$ kubectl edit configmap -n istio-system istio
$ kubectl delete pods -n istio-system -l istio=pilot
然后,下线 istio-citadel
来禁止 Envoy 重启:
$ kubectl scale --replicas=0 deploy/istio-citadel -n istio-system
这将会使 Istio 停止重启 Envoy 并且不再产生失去 TCP 连接的异常。
Envoy 在负载下崩溃
检查你的 ulimit -a
。许多系统有一个默认只能有打开 1024 个文件描述符的限制,它将导致 Envoy 断言失败并崩溃:
[2017-05-17 03:00:52.735][14236][critical][assert] assert failure: fd_ != -1: external/envoy/source/common/network/connection_impl.cc:58
请确保增大你的 ulimit。例如: ulimit -n 16384
Envoy 不能连接到 HTTP/1.0 服务
Envoy 要求上游服务使用 HTTP/1.1
或者 HTTP/2
协议流量。举个例子,当在 Envoy 之后使用 NGINX 来代理你的流量,你将需要在你的 NGINX 配置里将 proxy_http_version 设置为 “1.1”,因为 NGINX 默认的设置是 1.0。
示例配置为:
upstream http_backend {
server 127.0.0.1:8080;
keepalive 16;
}
server {
...
location /http/ {
proxy_pass http://http_backend;
proxy_http_version 1.1;
proxy_set_header Connection "";
...
}
}
当为多个 gateway 配置了相同的 TLS 证书导致 404 异常
多个网关配置同一 TLS 证书会导致浏览器在与第一台主机建立连接之后访问第二台主机时利用 HTTP/2 连接复用(例如,大部分浏览器)从而导致 404 异常产生。
举个例子,假如你有 2 个主机共用相同的 TLS 证书,如下所示:
- 通配证书
*.test.com
被安装到istio-ingressgateway
Gateway
将gw1
配置为主机service1.test.com
,选择器istio: ingressgateway
,并且 TLS 使用 gateway 安装的(通配)证书Gateway
将gw2
配置为主机service2.test.com
,选择器istio: ingressgateway
,并且 TLS 使用 gateway 安装的(通配)证书VirtualService
将vs1
配置为主机service1.test.com
并且 gateway 配置为gw1
VirtualService
将vs2
配置为主机service2.test.com
并且 gateway 配置为gw2
因为两个网关都由相同的工作负载提供服务(例如,选择器 istio: ingressgateway
),到两个服务的请求(service1.test.com
和 service2.test.com
)将会解析为同一 IP。如果 service1.test.com
首先被接受了,它将会返回一个通配证书(*.test.com
)使得到 service2.test.com
的连接也能够使用相同的证书。因此,Chrome 和 Firefox 等浏览器会自动使用已建立的连接来发送到 service2.test.com
的请求。因为 gateway(gw1
)没有到 service2.test.com
的路由信息,它会返回一个 404 (Not Found) 响应。
你可以通过配置一个单独的通用 Gateway
来避免这个问题,而不是两个(gw1
和 gw2
)。然后,简单地绑定两个 VirtualServices
到这个单独的网关,比如这样:
Gateway
将gw
配置为主机*.test.com
,选择器istio: ingressgateway
,并且 TLS 使用网关挂载的(通配)证书VirtualService
将vs1
配置为主机service1.test.com
并且 gateway 配置为gw
VirtualService
将vs2
配置为主机service2.test.com
并且 gateway 配置为gw
在网关中配置多个TLS主机时端口冲突
如果您应用的 Gateway
配置与另一个现有的 Gateway
具有相同的 selector
标签,如果它们都暴露了相同的 HTTPS 端口,那您必须确保它们具有唯一的端口名。否则,该配置在应用时不会立即显示错误指示,但在运行时网关配置中将忽略该配置。例如:
apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
name: mygateway
spec:
selector:
istio: ingressgateway # use istio default ingress gateway
servers:
- port:
number: 443
name: https
protocol: HTTPS
tls:
mode: SIMPLE
serverCertificate: /etc/istio/ingressgateway-certs/tls.crt
privateKey: /etc/istio/ingressgateway-certs/tls.key
hosts:
- "myhost.com"
---
apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
name: mygateway2
spec:
selector:
istio: ingressgateway # use istio default ingress gateway
servers:
- port:
number: 443
name: https
protocol: HTTPS
tls:
mode: SIMPLE
serverCertificate: /etc/istio/ingressgateway-certs/tls.crt
privateKey: /etc/istio/ingressgateway-certs/tls.key
hosts:
- "myhost2.com"
使用此配置,对第二个主机 myhost2.com
的请求将会失败,因为这两个网关端口的名字都是 https
。例如,curl 请求将产生如下错误消息:
curl: (35) LibreSSL SSL_connect: SSL_ERROR_SYSCALL in connection to myhost2.com:443
您可以通过检查 Pilot 的日志中是否有类似以下内容的消息来确认是否已发生这种情况:
$ kubectl logs -n istio-system $(kubectl get pod -l istio=pilot -n istio-system -o jsonpath={.items..metadata.name}) -c discovery | grep "non unique port"
2018-09-14T19:02:31.916960Z info model skipping server on gateway mygateway2 port https.443.HTTPS: non unique port name for HTTPS port
为避免此问题,请确保使用 protocol: HTTPS
的端口都有不同的名字。例如,将第二个更改为 https2
:
apiVersion: networking.istio.io/v1alpha3
kind: Gateway
metadata:
name: mygateway2
spec:
selector:
istio: ingressgateway # use istio default ingress gateway
servers:
- port:
number: 443
name: https2
protocol: HTTPS
tls:
mode: SIMPLE
serverCertificate: /etc/istio/ingressgateway-certs/tls.crt
privateKey: /etc/istio/ingressgateway-certs/tls.key
hosts:
- "myhost2.com"