在 VMware vSphere 安装 KubeSphere

对于生产环境,我们需要考虑集群的高可用性。如果关键组件(例如 kube-apiserver,kube-scheduler 和 kube-controller-manager)都在同一主节点上运行,一旦主节点出现故障,Kubernetes 和 KubeSphere 将不可用。因此,我们需要通过用负载均衡器配置多个主节点来设置高可用性集群。您可以使用任何云负载平衡器或任何硬件负载平衡器(例如F5)。另外,Keepalived 和 HAproxy 或 NGINX 也是创建高可用性集群的替代方法。

本教程介绍如何使用 Keepalived + HAProxy 对 kube-apiserver 进行负载均衡,实现高可用 Kubernetes 集群。

前提条件

  • 参考多节点安装指南,确保您已经知道如何安装多节点 KubeSphere 集群。本教程重点介绍如何配置负载均衡器实现高可用。
  • 您需要一个 VMware vSphere 帐户来创建 VM 资源。
  • 考虑到数据的持久性,对于生产环境,我们建议您准备持久化存储。若搭建开发和测试环境,可以直接使用默认集成的 OpenEBS 的 LocalPV。

部署架构

部署架构

创建主机

本示例创建 8 台 CentOS Linux release 7.6.1810(Core) 的虚拟机部署默认的最小化安装,每台配置为 2 Core,4 GB,40 G 即可。

主机 IP主机名称角色
10.10.71.214master1master, etcd
10.10.71.73master2master, etcd
10.10.71.62master3master, etcd
10.10.71.75node1worker
10.10.71.76node2worker
10.10.71.79node3worker
10.10.71.67vip虚拟 IP(不是实际的主机)
10.10.71.77lb-0lb(Keepalived + HAProxy
10.10.71.66lb-1lb(Keepalived + HAProxy

备注

vip 所在的是虚拟 IP,并不需要创建主机,所以只需要创建 8 台虚拟机。

  1. 选择可创建的资源池,点击右键,选择新建虚拟机(创建虚拟机入口有好几个,请自己选择)

    0-1-新创

  2. 选择创建类型,创建新虚拟机。

    0-1-1创建类型

  3. 填写虚拟机名称和存放文件夹。

    0-1-2-name

  4. 选择计算资源。

    0-1-3-资源

  5. 选择存储。

    0-1-4-存储

  6. 选择兼容性,这里是 ESXi 7.0 及更高版本。

    0-1-5-兼容性

  7. 选择客户机操作系统,Linux CentOS 7 (64 位)。

    0-1-6-系统

  8. 自定义硬件,这里操作系统是挂载的 ISO 文件(打开电源时连接),网络是 VLAN71(勾选)。

    0-1-7-硬件

  9. 即将完成页面上可查看为虚拟机选择的配置。

    0-1-8

部署 keepalived 和 HAproxy

生产环境需要单独准备负载均衡器,例如 NGINX、F5、Keepalived + HAproxy 这样的私有化部署负载均衡器方案。如果您是准备搭建开发或测试环境,无需准备负载均衡器,可以跳过此小节。

Yum 安装

在主机为 lb-0 和 lb-1 中部署 Keepalived + HAProxy 即 IP 为10.10.71.7710.10.71.66的服务器上安装部署 HAProxy 和 psmisc。

  1. yum install keepalived haproxy psmisc -y

配置 HAProxy

在 IP 为 10.10.71.7710.10.71.66 的服务器上按如下参数配置 HAProxy (两台 lb 机器配置一致即可,注意后端服务地址)。

  1. # HAProxy Configure /etc/haproxy/haproxy.cfg
  2. global
  3. log 127.0.0.1 local2
  4. chroot /var/lib/haproxy
  5. pidfile /var/run/haproxy.pid
  6. maxconn 4000
  7. user haproxy
  8. group haproxy
  9. daemon
  10. # turn on stats unix socket
  11. stats socket /var/lib/haproxy/stats
  12. #---------------------------------------------------------------------
  13. # common defaults that all the 'listen' and 'backend' sections will
  14. # use if not designated in their block
  15. #---------------------------------------------------------------------
  16. defaults
  17. log global
  18. option httplog
  19. option dontlognull
  20. timeout connect 5000
  21. timeout client 5000
  22. timeout server 5000
  23. #---------------------------------------------------------------------
  24. # main frontend which proxys to the backends
  25. #---------------------------------------------------------------------
  26. frontend kube-apiserver
  27. bind *:6443
  28. mode tcp
  29. option tcplog
  30. default_backend kube-apiserver
  31. #---------------------------------------------------------------------
  32. # round robin balancing between the various backends
  33. #---------------------------------------------------------------------
  34. backend kube-apiserver
  35. mode tcp
  36. option tcplog
  37. balance roundrobin
  38. default-server inter 10s downinter 5s rise 2 fall 2 slowstart 60s maxconn 250 maxqueue 256 weight 100
  39. server kube-apiserver-1 10.10.71.214:6443 check
  40. server kube-apiserver-2 10.10.71.73:6443 check
  41. server kube-apiserver-3 10.10.71.62:6443 check

启动之前检查语法是否有问题

  1. haproxy -f /etc/haproxy/haproxy.cfg -c

启动 Haproxy,并设置开机自启动

  1. systemctl restart haproxy && systemctl enable haproxy

停止 Haproxy

  1. systemctl stop haproxy

配置 Keepalived

主 HAProxy 77 lb-0-10.10.71.77 (/etc/keepalived/keepalived.conf)

  1. global_defs {
  2. notification_email {
  3. }
  4. smtp_connect_timeout 30 #连接超时时间
  5. router_id LVS_DEVEL01 ##相当于给这个服务器起个昵称
  6. vrrp_skip_check_adv_addr
  7. vrrp_garp_interval 0
  8. vrrp_gna_interval 0
  9. }
  10. vrrp_script chk_haproxy {
  11. script "killall -0 haproxy"
  12. interval 2
  13. weight 20
  14. }
  15. vrrp_instance haproxy-vip {
  16. state MASTER #主服务器 是MASTER
  17. priority 100 #主服务器优先级要比备服务器高
  18. interface ens192 #实例绑定的网卡
  19. virtual_router_id 60 #定义一个热备组,可以认为这是60号热备组
  20. advert_int 1 #1秒互相通告一次,检查对方死了没。
  21. authentication {
  22. auth_type PASS #认证类型
  23. auth_pass 1111 #认证密码 这些相当于暗号
  24. }
  25. unicast_src_ip 10.10.71.77 #当前机器地址
  26. unicast_peer {
  27. 10.10.71.66 #peer中其它机器地址
  28. }
  29. virtual_ipaddress {
  30. #vip地址
  31. 10.10.71.67/24
  32. }
  33. track_script {
  34. chk_haproxy
  35. }
  36. }

备 HAProxy 66 lb-1-10.10.71.66 (/etc/keepalived/keepalived.conf)

  1. global_defs {
  2. notification_email {
  3. }
  4. router_id LVS_DEVEL02 ##相当于给这个服务器起个昵称
  5. vrrp_skip_check_adv_addr
  6. vrrp_garp_interval 0
  7. vrrp_gna_interval 0
  8. }
  9. vrrp_script chk_haproxy {
  10. script "killall -0 haproxy"
  11. interval 2
  12. weight 20
  13. }
  14. vrrp_instance haproxy-vip {
  15. state BACKUP #备份服务器 是 backup
  16. priority 90 #优先级要低(把备份的90修改为100)
  17. interface ens192 #实例绑定的网卡
  18. virtual_router_id 60
  19. advert_int 1
  20. authentication {
  21. auth_type PASS
  22. auth_pass 1111
  23. }
  24. unicast_src_ip 10.10.71.66 #当前机器地址
  25. unicast_peer {
  26. 10.10.71.77 #peer 中其它机器地址
  27. }
  28. virtual_ipaddress {
  29. #加/24
  30. 10.10.71.67/24
  31. }
  32. track_script {
  33. chk_haproxy
  34. }
  35. }

启动 keepalived,设置开机自启动

  1. systemctl restart keepalived && systemctl enable keepalived
  2. systemctl stop keepalived

开启 keepalived服务

  1. systemctl start keepalived

验证可用性

使用ip a s查看各 lb 节点 vip 绑定情况

  1. ip a s

暂停 vip 所在节点 HAProxy

  1. systemctl stop haproxy

再次使用ip a s查看各 lb 节点 vip 绑定情况,查看 vip 是否发生漂移

  1. ip a s

或者使用下面命令查看

  1. systemctl status -l keepalived

下载 KubeKey 安装程序

下载可执行安装程序 kk 至一台目标机器:

GitHub Release Page 下载 KubeKey 或直接使用以下命令。

  1. curl -sfL https://get-kk.kubesphere.io | VERSION=v3.0.7 sh -

先执行以下命令以确保您从正确的区域下载 KubeKey。

  1. export KKZONE=cn

执行以下命令下载 KubeKey。

  1. curl -sfL https://get-kk.kubesphere.io | VERSION=v3.0.7 sh -

备注

在您下载 KubeKey 后,如果您将其传至新的机器,且访问 Googleapis 同样受限,在您执行以下步骤之前请务必再次执行 export KKZONE=cn 命令。

备注

执行以上命令会下载最新版 KubeKey,您可以修改命令中的版本号下载指定版本。

kk 添加可执行权限:

  1. chmod +x kk

创建多节点集群

您可以使用高级安装来控制自定义参数或创建多节点集群。具体来说,通过指定配置文件来创建集群。

KubeKey 部署集群

创建配置文件(一个示例配置文件)。

  1. ./kk create config --with-kubernetes v1.22.12 --with-kubesphere v3.4.0

备注

  • 安装 KubeSphere 3.4 的建议 Kubernetes 版本:v1.20.x、v1.21.x、* v1.22.x、* v1.23.x、* v1.24.x、* v1.25.x 和 * v1.26.x。带星号的版本可能出现边缘节点部分功能不可用的情况。因此,如需使用边缘节点,推荐安装 v1.21.x。如果不指定 Kubernetes 版本,KubeKey 将默认安装 Kubernetes v1.23.10。有关受支持的 Kubernetes 版本的更多信息,请参见支持矩阵

  • 如果您在这一步的命令中不添加标志 --with-kubesphere,则不会部署 KubeSphere,只能使用配置文件中的 addons 字段安装,或者在您后续使用 ./kk create cluster 命令时再次添加这个标志。

  • 如果您添加标志 --with-kubesphere 时不指定 KubeSphere 版本,则会安装最新版本的 KubeSphere。

默认文件 config-sample.yaml 创建后,根据您的环境修改该文件。

  1. vi ~/config-sample.yaml
  1. apiVersion: kubekey.kubesphere.io/v1alpha1
  2. kind: Cluster
  3. metadata:
  4. name: config-sample
  5. spec:
  6. hosts:
  7. - {name: master1, address: 10.10.71.214, internalAddress: 10.10.71.214, password: P@ssw0rd!}
  8. - {name: master2, address: 10.10.71.73, internalAddress: 10.10.71.73, password: P@ssw0rd!}
  9. - {name: master3, address: 10.10.71.62, internalAddress: 10.10.71.62, password: P@ssw0rd!}
  10. - {name: node1, address: 10.10.71.75, internalAddress: 10.10.71.75, password: P@ssw0rd!}
  11. - {name: node2, address: 10.10.71.76, internalAddress: 10.10.71.76, password: P@ssw0rd!}
  12. - {name: node3, address: 10.10.71.79, internalAddress: 10.10.71.79, password: P@ssw0rd!}
  13. roleGroups:
  14. etcd:
  15. - master1
  16. - master2
  17. - master3
  18. control-plane:
  19. - master1
  20. - master2
  21. - master3
  22. worker:
  23. - node1
  24. - node2
  25. - node3
  26. controlPlaneEndpoint:
  27. domain: lb.kubesphere.local
  28. # vip
  29. address: "10.10.71.67"
  30. port: 6443
  31. kubernetes:
  32. version: v1.22.12
  33. imageRepo: kubesphere
  34. clusterName: cluster.local
  35. masqueradeAll: false # masqueradeAll tells kube-proxy to SNAT everything if using the pure iptables proxy mode. [Default: false]
  36. maxPods: 110 # maxPods is the number of pods that can run on this Kubelet. [Default: 110]
  37. nodeCidrMaskSize: 24 # internal network node size allocation. This is the size allocated to each node on your network. [Default: 24]
  38. proxyMode: ipvs # mode specifies which proxy mode to use. [Default: ipvs]
  39. network:
  40. plugin: calico
  41. calico:
  42. ipipMode: Always # IPIP Mode to use for the IPv4 POOL created at start up. If set to a value other than Never, vxlanMode should be set to "Never". [Always | CrossSubnet | Never] [Default: Always]
  43. vxlanMode: Never # VXLAN Mode to use for the IPv4 POOL created at start up. If set to a value other than Never, ipipMode should be set to "Never". [Always | CrossSubnet | Never] [Default: Never]
  44. vethMTU: 1440 # The maximum transmission unit (MTU) setting determines the largest packet size that can be transmitted through your network. [Default: 1440]
  45. kubePodsCIDR: 10.233.64.0/18
  46. kubeServiceCIDR: 10.233.0.0/18
  47. registry:
  48. registryMirrors: []
  49. insecureRegistries: []
  50. addons: []
  51. ···
  52. # 其它配置可以在安装后之后根据需要进行修改

持久化存储配置

如本文开头的前提条件所说,对于生产环境,我们建议您准备持久性存储,可参考以下说明进行配置。若搭建开发和测试环境,您可以跳过这小节,直接使用默认集成的 OpenEBS 的 LocalPV 存储。

继续编辑上述config-sample.yaml文件,找到[addons]字段,这里支持定义任何持久化存储的插件或客户端,如 NFS Client、Ceph、GlusterFS、CSI,根据您自己的持久化存储服务类型,并参考 持久化存储服务 中对应的示例 YAML 文件进行设置。

执行创建集群

使用上面自定义的配置文件创建集群:

  1. ./kk create cluster -f config-sample.yaml

根据表格的系统依赖的前提条件检查,如果相关依赖都显示 ,则可以输入 yes 继续执行安装。

验证安装结果

此时可以看到安装日志自动输出,或者可以再打开一个 SSH 手动检查安装日志,然后等待安装成功。

  1. kubectl logs -n kubesphere-system $(kubectl get pod -n kubesphere-system -l 'app in (ks-install, ks-installer)' -o jsonpath='{.items[0].metadata.name}') -f

如果最后返回Welcome to KubeSphere,则表示已安装成功。

  1. **************************************************
  2. #####################################################
  3. ### Welcome to KubeSphere! ###
  4. #####################################################
  5. Console: http://10.10.71.214:30880
  6. Account: admin
  7. Password: P@88w0rd
  8. NOTES
  9. 1. After you log into the console, please check the
  10. monitoring status of service components in
  11. the "Cluster Management". If any service is not
  12. ready, please wait patiently until all components
  13. are up and running.
  14. 2. Please change the default password after login.
  15. #####################################################
  16. https://kubesphere.io 2020-08-15 23:32:12
  17. #####################################################

登录 console 界面

使用上述日志中给定的访问地址进行访问,进入到 KubeSphere 的登录界面并使用默认帐户(用户名admin,密码P@88w0rd)即可登录平台。

开启可插拔功能组件(可选)

上面的示例演示了默认的最小安装过程,对于可插拔组件,可以在安装之前或之后启用它们。有关详细信息,请参见启用可插拔组件