检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
允许迁移期间业务访问中断。 解除业务上使用k8s域名进行跨集群访问。 解除业务跨集群k8s服务访问(可选) 方案一:将有访问关系的服务迁移到同一个集群中。 方案二:通过创建网关进行服务间访问。 业务解除跨集群流量访问,如A集群a服务访问B集群b服务,此步骤需要在迁移集群后操作。 在B集
Gt:仅在节点亲和性中设置,调度节点的标签值大于列表值 (字符串比较)。 Lt:仅在节点亲和性中设置,调度节点的标签值小于列表值 (字符串比较)。 标签值 设置节点亲和性时,填写节点标签对应的标签值。 配置节点亲和参数会触发工作负载滚动升级,即Pod会立即发生重启。 父主题: 调度策略
yaml 【可选】解除业务跨集群k8s服务访问 方案一:将有访问关系的服务迁移到同一个集群中。 方案二:通过创建网关进行服务间访问。 业务解除跨集群流量访问,如A集群a服务访问B集群b服务,以此为例需进行如下操作 在新基础版网格上创建网关访问b服务,路由选择前缀匹配,URL选择 "/"。
Pod优雅删除 Istio-proxy容器终止排出时间 Pod缩容时间窗 父主题: 网关工作负载
虚拟机服务访问容器服务 启动ASM-PROXY后,虚拟机服务可以访问容器内的服务,如下图所示。 验证流程如下: 部署容器服务:在CCE集群中部署容器服务tomcat。 容器服务加入网格:将tomcat服务加入网格,确保服务诊断状态为正常。 访问容器服务:编辑虚拟机的/etc/ho
容器服务访问虚拟机服务 启动ASM-PROXY后,容器内的服务可以访问虚拟机上的服务,如下图所示。 验证流程如下: 部署虚拟机服务:在虚拟机中部署httptest应用。 部署容器服务:在CCE集群中部署容器服务tomcat。 添加虚拟机服务到网格:不同于容器服务有自动注册能力,当
配置该参数会触发工作负载滚动升级,即Pod会立即发生重启。老Pod删除时按旧的配置值(30s)生效。 针对注入了Sidecar的业务负载,需要取Istio-proxy容器终止排出时间和业务容器优雅退出时间中的较大值。 父主题: Pod优雅删除
为了保证虚拟机与CCE集群的Pod互通,准备的虚拟机需要与CCE集群处于同一VPC内。 虚拟机需放通安全组,入方向需添加到<cluster-name>-cce-control安全组的规则,否则ping不通Pod IP。 获取根证书 通过kubectl访问CCE集群。 登录云容器引擎控制
参数 说明 申请 容器使用的最小CPU需求,作为容器调度时资源分配的判断依赖。只有当节点上可分配CPU总量 ≥ 容器CPU申请数时,才允许将容器调度到该节点。 限制 容器能使用的CPU最大值。 内存配额参数说明: 参数 说明 申请 容器使用的最小内存需求,作为容器调度时资源分配的判断依赖。只有当节点上可分配内存总量
Sidecar未就绪导致Pod启动失败 问题背景 加入网格的服务有时可能遇到Pod启动失败,且一直重启。排查原因发现业务容器与外部通信时流量会经过istio-proxy容器,但业务容器比istio-proxy容器先启动,在istio-proxy容器没启动成功时,业务容器已经启动,与外部通信将会失败,Pod一直重启。
群的Node安全组入方向放通对方集群的容器网段。 CCE集群服务访问CCE Turbo集群服务,需要为Turbo集群的ENI安全组入方向放通CCE集群的容器网段。 CCE Turbo集群服务访问CCE集群服务,以及CCE Turbo集群服务之间互访,均无需额外配置安全组规则。 如
所有Pod是否都注入了sidecar 问题描述 Service管理的所有Pod都必须存在istio-proxy容器,否则报此异常。 修复指导 登录ASM控制台,选择服务所在网格。单击左侧导航中的“网格配置”,选择“sidecar管理”页签,检查服务所在命名空间是否已注入sidecar。
Istio CNI与Init容器兼容性问题 问题背景 Istio CNI 插件可能会导致使用了 initContainer 的应用出现网络连通性问题。 使用 Istio CNI 时,kubelet 会通过以下步骤启动一个注入的 Pod: Istio CNI 插件在 Pod 内设置流量重定向到
因为种种原因,容器与虚拟机共存将是一个长期的过程,但容器化的趋势不变。 在阶段二中,大量的虚拟机应用并不能很快容器化,人们通常会将新业务和少量应用率先实现容器化,并部署到Kubernetes中。在应用尚未完全实现容器化,处于过渡阶段时会遇到诸多问题,比如虚拟机上的非容器化服务是否可以像
delete deployment {oldDeploymentName} -n {namespace} 应用新的工作负载配置。 kubectl apply -f productpage-deployment.yaml 1.15及以下集群还可以在CCE控制台直接修改Pod的标签,但有可能会导致ReplicaSet残留。
根据标签查找Service关联的Pod。 kubectl get pod -n {namespace} -l app=ratings,release=istio-bookinfo {namespace}和Service的namespace一致。 根据Pod名称,找到其关联的工作负载。
Pod刚刚启动后,为什么不能立即看到流量监控数据? 请确保集群已开通APM。 流量监控对采集到的数据进行了聚合处理,需积累一分钟才能看到数据。 父主题: 流量监控
tio-sidecar-injector Pod。 重启业务服务Pod,多实例滚动升级不会断服。 方法二:调整网格中的某个服务 修改服务的yaml文件。 kubectl edit deploy <nginx> -n <namespace> 在spec.template.metadata
istio资源管理 YAML方式配置Istio资源 YAML配置资源处理策略 IstioOperator配置资源处理策略 父主题: 网格配置
uration) Istio-proxy容器终止等待时间,Istio-ingressgateway场景下建议值是300秒。 配置该参数会触发工作负载滚动升级,即Pod会立即发生重启。老Pod删除时按旧的配置值(5s)生效。 父主题: Pod优雅删除