检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
应用服务网格支持对运行在Kubernetes集群上的无状态负载(Deployment)进行流量治理和流量全方位监控,将服务加入网格后,可以实现服务的灰度发布、限流、熔断、会话保持等流量治理能力以及一站式、图形化拓扑的流量健康与性能、调用链监控。本节介绍如何为网格添加服务和删除服务。 约束与限制
基于权重的分流 ASM能够提供基于权重的流量控制,根据设定的权重值将流量分发给指定的版本。 控制台更新基于权重的分流 登录UCS控制台,在左侧导航栏中单击“服务网格”。 单击服务网格名称,进入详情页。 在左侧导航栏,单击“服务中心”下的“网格服务”,进入服务列表。 单击服务名,进入服务详情页。
路由(Ingress) Ingress使用弹性负载均衡作为流量入口对外提供访问,在四层负载均衡访问方式的基础上支持了URI配置,通过对应的URI将访问流量分发到对应的服务。用户可根据域名和路径对转发规则进行自定义,完成对访问流量的细粒度划分。该访问方式由公网弹性负载均衡ELB服务地址
路由 Ingress使用弹性负载均衡作为流量入口对外提供访问,在四层负载均衡访问方式的基础上支持了URI配置,通过对应的URI将访问流量分发到对应的服务。用户可根据域名和路径对转发规则进行自定义,完成对访问流量的细粒度划分。该访问方式由公网弹性负载均衡ELB服务地址、设置的访问端口组成、定义的URI组成,例如:10
多集群负载均衡:MCI为用户提供统一入口,将流量分发到多个Kubernetes集群中,与集群所处位置无关。 流量路由:使用MCI,用户可根据不同条件(URL、HTTP头、源IP等)自定义转发规则,将流量路由到不同集群,实现更灵活的流量控制。 高可用:MCI通过健康检查和流量自动切换,实现多集群、多区域的高可用性。
时秒杀等活动期间,会遇到用户访问量激增的情况,导致服务器资源紧缺,业务时延增大。 为应对业务高峰期的流量冲击,UCS提供了智能的分布式流量治理和算力调度管理能力,灵活分配业务流量和边云资源,有效提升业务稳定性和用户体验。 优势 用户就近接入 根据用户所属区域,实现智能路由、就近接入,减少业务端到端时延。
Enforcement Points)隧道实现服务实例之间的通信,对端认证定义了流量如何通过隧道(或者不通过隧道)传输到当前服务的实例。已经注入sidecar的服务实例之间,默认通过隧道进行通信,流量会自动进行TLS加密。对等身份认证可以控制对目标工作负载上双向认证的模式。 创建对端认证
将应用服务的出入流量重定向到Sidecar的Envoy进程上,由Envoy进行流量路由。 图1 sidecar-proxy node-proxy 网格代理将会被安装在添加到该网格的每个集群的每个节点上,通过在每个节点上设置iptables规则,将应用服务的出入流量重定向到节点的E
服务网关概述 服务网关是网格的流量入口。网格外部的客户端通过服务网关访问网格内的服务。 服务网关描述了外部访问端口、协议和证书等配置。同时,通过在服务网关上配置路由规则可以对网关入口流量进行管理,对于不同的访问协议可以配置不同的路由。 图1 服务网关 目前默认是基于Kubernetes
基于条件的分流 ASM服务可以基于不同的条件将流量路由到不同的版本。 控制台更新基于条件的分流 登录UCS控制台,在左侧导航栏中单击“服务网格”。 单击服务网格名称,进入详情页。 在左侧导航栏,单击“服务中心”下的“网格服务”,进入服务列表。 单击服务名,进入服务详情页。 选择“
虚拟专用网络(VPN)方案:具体操作请参见通过VPN连接云下数据中心与云上VPC。 云专线(DC)方案:具体操作请参见用户通过单专线静态路由访问VPC或用户通过单专线BGP协议访问VPC。 操作步骤 登录UCS控制台。 在左侧导航栏中选择“容器智能分析”。 选择一个容器舰队或者未加入舰队的集群,并单击右上角“开启监控”按钮。
目标服务:选择4中创建的服务。 流量配比模式:选择“自适应模式”,流量解析根据各集群后端实例数量自动分配权重。在本示例中,ccecluster01和ccecluster02集群的实例数均为1,那么正常情况下,两个集群将按照1:1的配比接收流量,如图6所示。 图5 配置流量配比 图6 流量配比拓扑图 多活容灾场景验证
自动探查并及时上报至控制面,将该集群上的流量摘除,由此保障服务可用性不受单个集群组件故障影响。具体切流操作请参见配置条件触发自动切流。 提前摘除流量以平滑升级:在集群管理员进行集群升级等操作前,提前将该集群上的流量摘除,操作成功后再切回流量,由此保障服务可用性不受单个集群升级影响
作请参见打通跨VPC的CCE集群间网络。 本地集群间网络打通: 本地集群间的网络打通需设置Cilium为underlay模式,并对接主机BGP,具体操作请参见Cilium。 其他类型集群间网络打通: 请自行打通其他类型集群间网络。 容器网络互通 在集群A中curl集群B的Pod IP,curl通则说明网络互通。
yaml”和“cluster-{集群名称}.yaml”文件上传到执行机的“/root/”目录下。 若您需要使用L4或L7负载均衡能力,则需要将集群网络类型配置为BGP,具体操作请参见Cilium。 执行机如果出现SSH连接超时,请参考虚拟机SSH连接超时处理方法处理。 选择集群架构后,请确认ucs-ctl的执行机与集群架构一致。
配置条件触发自动切流 本小节指导您配置条件触发自动切流,以识别集群CoreDNS功能故障并自动摘除流量。 为集群安装CPD组件识别集群 在配置自动切流前,您需要在集群中安装CPD(cluster-problem-detector)组件,以自动探测集群CoreDNS域名解析功能是否正常,并进行上报。
第三方注册中心接入能力 ASM提供了服务网格对接Nacos注册中心功能,便于将Nacos上的微服务同步到网格中,实现流量治理等功能。 操作步骤 通过使用kubectl连接网格控制面获取kubeconofig的证书内容。 登录云容器引擎控制面,单击选择任意集群,进入详情页。 建议选
群升级前,通过创建无条件触发的Remedy对象,将MCI流量从目标集群上摘除。 创建Remedy对象可在特定触发条件下执行特定动作。集群管理员准备升级目标集群时(如member1),可以创建如下Remedy对象,将MCI流量从member1上摘除。 示例YAML定义了一个Reme
力。集群联邦开通后,舰队内的成员集群将自动接入联邦。 开发团队:创建工作负载、流量分发 行管人员将多集群联邦基础设施搭建完成后,开发人员就可以使用这些基础设施资源了,详细的操作指导请参见工作负载、流量分发。 运维团队:查看并监控资源使用情况 运维人员利用容器智能分析提供的智能分析
通过分布式调度管理,实现百万级节点算力协同,随时、随地提供应用所需的算力资源,让应用感受不到跨云限制。 应用流量治理新模式 通过分布式流量控制,实现智能流量分发调度,实时跨域、按需调配应用访问流量,让应用感受不到流量限制。 功能介绍 跨云、跨地域集群统一接入,统一管理 支持跨云、跨地域的集群统一接入、