检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
升级后处理说明 请确认数据面已成功升级完成并充分观察业务,业务正常运行后再执行本步骤。 此步骤将卸载老版本网格控制面并释放相关资源。 一旦执行此步骤,网格将无法回退,请谨慎操作。 父主题: 金丝雀升级
网关Service 服务亲和 负载均衡器健康检查 父主题: Istio-ingressgateway高可用性配置指导
控制面升级说明 此步骤将部署灰度版本网格控制面,所有资源都将带上版本revision标签,如负载istiod-1-13-9-r5,现有业务实例sidecar不会对接到该灰度版本,升级和回退不会对原网格业务造成影响,但是需要注意若您的版本是从非金丝雀版本升级到金丝雀版本时,升级过程
需要注意的是,在部署新网格版本控制面时,istio-ingressgateway和istio-egressgateway的新版本也会同时部署,新老网格版本的网关将同时工作。 操作步骤 登录应用服务网格控制台,单击服务网格的名称,进入网格详情页面。 在左侧导航栏选择“网格配置”,单击“升级”页签。
当前服务版本号,版本号不支持修改。 图1 灰度发布基本信息 部署灰度版本信息。 部署集群 灰度发布服务所属的集群。 版本号 输入服务的灰度版本号。 实例数量 灰度版本的实例数量。灰度版本可以有一个或多个实例,用户可根据实际需求进行修改。每个灰度版本的实例都由相同的容器部署而成。 镜像名称 默认为该服务的镜像。
集群内部无法使用ELB地址访问负载处理。 进入CCE Console页面,单击“集群名称--服务--服务”,单击要操作服务更多列的“编辑YAML”。 通过YAML配置如下参数: spec: type: LoadBalancer externalTrafficPolicy: Local all
也可以通过单击步骤1页面待升级工作负载的操作列的“升级”按钮来配置,对应参数如下: 建议值说明: 网关对CPU敏感,建议申请和限制比例为1:1。避免申请值过小而限制值过大,容易导致节点超分严重。 2U4G仅为示例,实际配置值请根据压测结果自行调整。 CPU配额参数说明: 参数 说明
一、若升级前服务未添加网关,则升级后无需修改。 二、若升级前服务添加了网关,则升级后进行如下修改: 为网格所在集群配置kubectl命令,参考CCE控制台集群详情页的指导进行配置。 在istio-system命名空间下创建两个VirtualService YAML文件。 文件名:tomcat-default-gateway
调度策略 污点和容忍策略 负载亲和调度策略 节点亲和调度策略 父主题: 网关工作负载
LL的系统信号强行终止。 也可以通过单击步骤1页面待升级工作负载的操作列的“升级”按钮来配置,对应参数如下: 配置该参数会触发工作负载滚动升级,即Pod会立即发生重启。老Pod删除时按旧的配置值(30s)生效。 针对注入了Sidecar的业务负载,需要取Istio-proxy容器
ML”。 通过YAML配置如下参数: spec: taints: - key: istio value: ingressgateway effect: NoExecute 也可通过步骤1节点页面更多列的“污点管理”按钮配置。 进入CCE Con
负载亲和调度策略 进入CCE Console页面,单击“集群名称--工作负载”,单击待升级工作负载更多列的“编辑YAML”。 通过YAML配置如下参数: spec: template: spec: affinity: podAntiAffinity:
节点亲和调度策略 进入CCE Console页面,单击“集群名称-节点管理-节点”,单击更多列的|“编辑YAML”。 通过YAML配置如下参数: metadata: labels: istio: ingressgateway 也可在步骤1节点页面单击操作列的“标签管理”设置。
Pod优雅删除 Istio-proxy容器终止排出时间 Pod缩容时间窗 父主题: 网关工作负载
Service的选择器中是否配置了version标签 问题描述 Service的选择器(spec.selector)中不能包含version标签。如果包含,则报此异常。 修复指导 登录CCE控制台,单击集群名称进入详情页面。 在左侧导航栏选择“资源 > 服务发现”,单击对应服务后的“更多
Istio-proxy容器终止等待时间,Istio-ingressgateway场景下建议值是300秒。 配置该参数会触发工作负载滚动升级,即Pod会立即发生重启。老Pod删除时按旧的配置值(5s)生效。 父主题: Pod优雅删除
负载均衡器健康检查 进入CCE Console页面,单击“集群名称--服务--服务”,单击要操作服务更多列的“编辑YAML”。 通过YAML配置如下参数: metadata: annotations: kubernetes.io/elb.health-check-flag:
的业务逻辑,无需关注服务访问管理。流量治理要解决的问题类似如下: 动态修改服务间访问的负载均衡策略,比如配置一致性哈希将流量转发到特定的服务实例上; 同一个服务有两个版本在线,将一部分流量切到某个版本上; 服务保护,如限制并发连接数、限制请求数、隔离有故障的服务实例等; 动态修改
对选定服务的选定端口,根据需要配置各种不同的治理规则。 优势 重试:服务访问失败自动重试,从而提高总体访问成功率和质量。支持配置HTTP请求重试次数、重试超时时间和重试条件。 超时:服务访问超时自动处理,快速失败,从而避免资源锁定和请求卡顿。支持配置HTTP请求超时时间。 连接池
某些场景下,用户希望能够指定拦截的IP网段,只有IP网段内的请求会被代理拦截;某些场景下,需要配置拦截规则仅针对特定端口的请求生效。以下将介绍两种拦截网段的配置方式。 负载级别配置拦截IP网段 通过配置业务deployment文件,可以在负载级别配置IP网段拦截: 执行kubectl edit deploy –n