检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
从拓扑图可以看出,reviews-v1和reviews-v3服务的调用次数分别为706和167,比例大致接近4:1,符合设定的流量比例策略。成功实现了灰度发布。 灰度版本切换 检查v3版本的资源数与v1版本是否相匹配,确认其能承接v1的所有流量后,即可将v1流量全部切换到v3。 在“监测与处理”页面,单击v3版本后的“全流量接管”。
单击“策略下发”。 灰度策略的生效需要几秒的时间,您可以在监测灰度运行状态页面,观察灰度版本的运行状态。 灰度版本切换 检查v2版本的资源数与v1版本是否相匹配,确认其能承接v1的所有流量后,即可将v1流量全部切换到v2。 在“灰度发布”页面,单击灰度任务名为“test”后的“监测与处理”。
置路由策略。 单击托管网格的名称,查看数据面所有组件和Sidecar的业务pod信息。 “集群管理”页签:展示已添加的到网格中的集群信息,以及添加新的集群到网格,或移除已添加的集群。 “数据面组件管理”页签:展示Istio数据面的所有组件,以及每个组件的运行状态,CPU、内存占用率,命名空间等信息。
流量治理概述 流量治理是Istio的核心功能,其目标是提供非侵入的流量治理能力,用户仅仅关注自己的业务逻辑,无需关注服务访问管理。流量治理要解决的问题类似如下: 动态修改服务间访问的负载均衡策略,比如配置一致性哈希将流量转发到特定的服务实例上; 同一个服务有两个版本在线,将一部分流量切到某个版本上;
新建集群和网格迁移方案 请务必确保准备工作完成。 请根据自身需求选择集群版本和网格版本,推荐使用最新集群和网格版本。 新建集群和网格 登录CCE控制台选择在当前企业版集群所在的同VPC下创建集群。 在应用服务网格ASM控制台 ,创建基础版本网格,选择步骤1新建的集群。 在新建的网格详
置相应的灰度策略。 灰度策略 当您需要在生产环境发布一个新的待上线版本时,您可以选择添加一个灰度版本,并配置相应的灰度策略,将原有的生产环境的默认版本的流量引流一部分至待上线版本。经过评估稳定后,可以将此灰度版本接管所有流量,下线原来的版本,从而接管原有的生产环境的版本上的流量。
采样率:用于调用链生成的请求占全部请求的采样百分比。 选择使用服务:即选择调用链上报的服务后端。可选择“华为云APM”和“第三方Jaeger/Zipkin服务”,当选择“第三方Jaeger/Zipkin服务”时,需要配置“服务地址”和“服务端口”两个参数,即第三方调用链服务接收请求信息的地址和端口。
协议端口:选择“基本协议/全部协议”。 源地址:填写1中获取的ccecluster02集群的容器网段。 按照上述方法,为ccecluster02集群的Node安全组入方向放通ccecluster01集群的容器网段。 场景二:CCE集群服务访问CCE Turbo集群服务 登录CCE控制台,单击
卸载ASM-PROXY 如果已完成虚拟机治理任务,可以将其中的ASM-PROXY卸载,释放资源。 删除已添加的iptables规则 以root用户登录虚拟机。 执行以下命令删除添加的istio iptables规则。 iptables -t nat -D PREROUTING -p
控制面和数据面在社区版本基础上进行可靠性加固和性能优化。 多云多集群、多基础设施 提供免运维的托管控制面,提供多云多集群的全局统一的服务治理、灰度、安全和服务运行监控能力,并支持容器和VM等多种基础设施的统一服务发现和管理。 协议扩展 社区通用的HTTP、gRPC、TCP、TLS外,扩展对Dubbo协议的支持。 传统SDK集成
虚拟机治理 方案介绍 约束与限制 部署ASM-PROXY 验证服务访问 流量治理 卸载ASM-PROXY
查看流量监控 操作场景 服务的流量治理页面支持查看近1小时内流量的监控数据,包括RPS、成功率和请求时延。 操作步骤 登录应用服务网格控制台,单击服务网格的名称,进入网格详情页面。 在左侧导航栏选择“服务管理”,在列表右上方选择服务所在命名空间。 选择一个服务,单击操作列的“流量治理”,在右侧页面查看近1小时内流量的监控数据。
您根据您的业务需求,选择合适的独享节点规格,以提高应用服务网格的可用性。 QPS(每秒请求数)总数 0~20000 20000~60000 节点规格 8U16G 16U32G 其中QPS总数为集群中所有应用的所有组件QPS总和。 即将提供应用服务实例个数与控制面内存资源的匹配推荐。
验证服务访问 虚拟机服务访问容器服务 容器服务访问虚拟机服务 虚拟机服务访问虚拟机服务 父主题: 虚拟机治理
企业版 网格支持虚拟机治理,其他类型不支持,本文档后续章节均以1.8.4网格版本为例。 支持v1.19及以上版本集群。 支持扁平和非扁平网络架构。 如果是多集群,需要集群在同一个VPC,否则虚拟机与其他VPC集群网络不通。 不支持容器隧道网络集群。 不支持虚拟机和容器实例属于同一个服务。
流量治理 虚拟机服务添加网关和路由 虚拟机服务灰度发布 虚拟机服务配置故障注入 父主题: 虚拟机治理
间下所有Deployment类型的Pod,新生成的Pod去除istio-proxy sidecar。 已勾选的命名空间,若存在未注入的Pod,将会重启该工作负载的所有Pod以注入sidecar。若不存在未注入的Pod,将不会重启。 :已有服务关联的Pod不会自动注入istio-proxy
流量监控记录的是组件过去24小时内的数据,所以当部分组件删除后并不能及时的在拓扑图上消失,而是会仍然存在一段时间。 流量治理中的故障注入功能,不能作用于基于请求比例灰度发布的场景。只接受单一版本或基于请求内容灰度发布的场景。 托管网格多集群场景下,只支持集群内部服务之间的流量监控,暂时不支持跨集群服务之间的流量监控。
所有Pod的app和version标签是否都相等 问题描述 Service关联的所有Pod的app和version标签必须都相等。app标签在流量监控中用于流量的跟踪,version标签在灰度发布中用于区分不同版本。如果存在app或version标签不相等的Pod,则报此异常。 修复指导
health-check-option protocol:健康检查的协议。 delay:健康检查间隔(秒)。 timeout:健康检查的超时时间(秒)。 max_retries:健康检查的最大重试次数。 也可在步骤1服务页面单击操作列的“更新”在更新服务页面进行设置。 父主题: 网关Service