检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
登录应用服务网格页面,单击“购买网格”,选择步骤1的集群,“可观测性配置--调用链”启用调用链,选择“第三方Jaeger/Zipkin服务”,填写服务地址和服务端口,其他参数根据需要自行填写。 服务地址为步骤2中所创建服务的<服务名称>.<命名空间>.svc.cluster.local。 服务端口为步骤2创建负载均
Bookinfo应用的灰度发布实践 应用服务网格(Application Service Mesh,简称ASM)是基于开源Istio推出的服务网格平台,它深度、无缝对接了企业级Kubernetes集群服务云容器引擎(CCE),在易用性、可靠性、可视化等方面进行了一系列增强,可为客户提供开箱即用的上手体验。
Sidecar未就绪导致Pod启动失败 问题背景 加入网格的服务有时可能遇到Pod启动失败,且一直重启。排查原因发现业务容器与外部通信时流量会经过istio-proxy容器,但业务容器比istio-proxy容器先启动,在istio-proxy容器没启动成功时,业务容器已经启动,与外部通信将会失败,Pod一直重启。
静态目标服务 方案介绍 通过dubbo:reference在Dubbo服务的服务消费者中对引用的服务提供者进行配置。使用选项url定义点对点直连服务提供者地址,绕过注册中心,直接调用目标服务。 详细说明 如果原Dubbo服务中使用的是xml配置文件,则只需要修改配置文件即可。 <?xml
19h 执行以下命令,测试访问虚拟机服务。 kubectl exec -it <tomcat-xxx> -n <vmns> -- curl <vm-server1>.<vmns>.svc.cluster.local:8080 其中,<vm-server1>为虚拟机服务名称,<vmns>为3中填写的命名空间。
1.13版本特性 支持Istio 1.13.9版本 支持v1.21、v1.23 CCE Turbo集群版本 支持v1.21、v1.23 CCE集群版本 支持通过ProxyConfig API配置Istio sidecar proxy 从Istio 1.10版本开始,Sidecar不再重定向流量到
19h 多次执行以下命令,对虚拟机服务发起访问。 kubectl exec -it <tomcat-xxx> -n <vmns> -- curl <vm-server1>.<vmns>.svc.cluster.local:8080 其中,<vm-server1>为虚拟机服务名称,<vmns>为3中填写的命名空间。
一键创建体验应用为什么启动很慢? 体验应用包含productpage、details、ratings和reviews 4个服务,需要创建所有相关的工作负载和Istio相关的资源(DestinationRule、VirtualService、Gateway)等,因此创建时间较长。 父主题:
选择{集群名}-cce-node-{随机ID}的安全组,单击操作列的“配置规则”,添加入方向规则。 协议端口:选择“基本协议/全部协议”。 源地址:填写1中获取的ccecluster02集群的容器网段。 按照上述方法,为ccecluster02集群的Node安全组入方向放通ccecluster01集群的容器网段。
访问日志 服务网格提供了访问日志查询能力,可对网格中数据面所有Proxy的AccessLog进行采集。本文介绍如何查看采集的访问日志。 网格需已“启用访问日志”能力,如何开启请参考设置可观测性配置。 操作步骤 登录应用服务网格ASM控制台。 单击服务网格名称,进入服务网格详情页。
AOM页面查询应用服务网格详细指标 服务网格开启应用指标并接入华为云AOM后,可以在AOM页面查询网格的详细指标,具体步骤如下: 登录AOM页面,进入“指标浏览”页面。 选择“指标源”,选择想要查询的网格上报指标的Prometheus实例。 在页面上查询上报至AOM的指标。 全量指标查询
所有Pod是否都注入了sidecar 问题描述 Service管理的所有Pod都必须存在istio-proxy容器,否则报此异常。 修复指导 登录ASM控制台,选择服务所在网格。单击左侧导航中的“网格配置”,选择“sidecar管理”页签,检查服务所在命名空间是否已注入sidecar。
Pod缩容时间窗 进入CCE Console页面,单击“集群名称--工作负载”,单击待升级工作负载更多列的“编辑YAML”。 通过YAML配置如下参数: spec: template: spec: terminationGracePeriodSeconds:
更改流量策略 操作场景 流量策略设置完成后,支持更改流量策略,如将负载均衡的算法由“轮询调度”转为“随机调度”。 操作步骤 登录应用服务网格控制台,单击服务网格的名称,进入网格详情页面。 在左侧导航栏选择“服务管理”,选择需要更改流量策略的服务,单击操作列的“流量治理”,在右侧页面进行流量策略更改。
port: number: 8080 subset: v1 升级完成后在服务列表页面,单击外部访问URL,检查访问是否正常。 在服务网关页面,检查服务网关路由是否显示正常。 父主题: 附录
流量监控 购买网格时,基础配置 中的“ 可观测性配置”选择对接APM服务,则可以通过流量监控来监测流量概况、组件运行状态、调用链等信息,并在系统业务异常时快速定位到问题点。 适用场景 适用于1.15之前版本的网格,且APM服务在需要监控网格的region已开通。 约束与限制 流量
流量监控 通过流量监控可以监控流量概况、组件运行状态、调用链等信息,并在系统业务异常时快速定位到问题点。 使用约束 流量监控记录的是组件过去24小时内的数据,所以当部分组件删除后并不能及时的在拓扑图上消失,而是会仍然存在一段时间。 流量治理中的故障注入功能,不能作用于基于请求比例
创建网格为什么会自动创建一个otel-collector工作负载? 问题描述 创建网格会自动创建一个otel-collector工作负载。 原因分析 ASM服务网格对接至集群后,会在命名空间monitoring下创建一个otel-collector工作负载。创建这个工作负载的原因
方案介绍 应用现状 将应用迁移到云原生架构,不断容器化的过程中,一般会经历三个阶段,如下图所示。 阶段一:所有应用都部署在虚拟机上。 阶段二:应用既部署在虚拟机上也部署在容器中,正在从虚拟机向容器迁移,并且使用Kubernetes管理容器。 阶段三:所有应用都部署在容器中,使用K
虚拟机治理 方案介绍 约束与限制 部署ASM-PROXY 验证服务访问 流量治理 卸载ASM-PROXY