0企业版多集群场景(新建集群和网格方案) 前提 确保准备工作已完成。 梳理网格下各个集群的网关和跨集群svc。 集群 网关 跨集群访问的服务 A a-gw 集群A 、集群B B b-gw 集群B ... ... ... 关闭mtls以及访问授权,是用如下命名查看是否存在对应资源。
p”中,定义了一个命令nginx -s quit; sleep 10,这个命令首先会发送一个优雅关闭信号给Nginx进程,然后暂停10秒。这样,在Pod终止之前,Nginx会有足够的时间完成正在处理的请求并优雅地关闭。 需要注意的是,sleep 10中的10秒是一个示例值,您可以
Service在所有集群的配置是否相同 问题描述 如果网格管理了多个集群,其他集群的同名Service和当前集群的Service被视为同一个服务,spec.selector配置、spec.ports配置必须和当前Service相同。 仅在网格管理的集群数量大于1时才可能出现此异常。 修复指导 修改多集群下同名Service的配置:
返回控制台的“监测与处理”页面查看v1和v3版本的实时流量监控情况。 图12 流量监控详情 在“流量监控”页面,您可以查看Bookinfo应用各服务之间的实时拓扑。ASM提供的流量监控功能,可监控服务之间的拓扑、会话请求调用链、各环节耗时和RPS、RT等性能状态。 图13 流量监控拓扑 从拓扑图可以
成功率和质量。支持配置HTTP请求重试次数、重试超时时间和重试条件。 超时:服务访问超时自动处理,快速失败,从而避免资源锁定和请求卡顿。支持配置HTTP请求超时时间。 连接池:通过连接池管理,可以对四层协议配置TCP的最大连接数、连接超时时间、最大无响应次数、最短空闲时间和健康检
流量治理页面,我创建的集群、命名空间和应用为什么不显示? 请确保您的集群已经成功启用Istio。 确认已经在“服务列表”页面添加了至少一个服务,且服务的状态为“运行中”。 确认完上述几点后,如果还没有数据,请检查您是否自行卸载过集群内的ICAgent系统组件。 父主题: 流量治理
0企业版多集群场景(使用原集群创建网格) 前提 确保准备工作已完成。 梳理网格下各个集群的网关和跨集群svc。 集群 网关 跨集群访问的服务 A a-gw 集群A 、集群B B b-gw 集群B ... ... ... 关闭mtls以及访问授权,是用如下命名查看是否存在对应资源。 kubectl get PeerAuthentication
持完整的生命周期管理和流量治理,兼容Kubernetes和Istio生态,其功能包括负载均衡、熔断、限流等多种治理能力。ASM内置金丝雀、蓝绿多种灰度发布流程,提供一站式自动化的发布管理。ASM基于无侵入的监控数据采集,提供实时流量拓扑、调用链等服务性能监控和运行诊断,构建全景的服务运行视图。
在用户集群中安装网格的控制面组件,对集群内的服务进行非侵入式的治理、遥测和安全等管理。支持Istio1.6版本和Istio1.8版本,只能够对一个集群进行管理。 图1 专有网格 托管网格 托管网格将网格的控制面组件从用户集群中分离,部署到一个独立的控制面集群中,简化了用户运维负担和资源消耗,用户只需要基于网格进行服务管理。托管网格还能够对
全独立,具有稳定的持久化存储和网络标示,以及有序的部署、收缩和删除等特性。如:mysql-HA、etcd。 实例(Pod) Pod是Kubernetes部署应用或服务的最小的基本单位。一个Pod 封装多个应用容器(也可以只有一个容器)、存储资源、一个独立的网络 IP 以及管理控制容器运行方式的策略选项。
Istio控制面组件负责向数据面组件注入sidecar,管理数据面sidecar行为,下发策略配置,搜集监控数据等。其中,sidecar是指运行在业务Pod中,与业务容器协同工作,负责业务Pod的路由转发,监控数据采集,流量规则配置等功能。 “网格配置”中各个页签的功能如下: “基本信息”页签:可
应用服务网格基于Istio提供的服务治理能力,对服务提供多版本支持和灵活的流量策略,从而支持多种灰度发布场景。 当前版本支持金丝雀发布和蓝绿发布。 金丝雀发布 在生产环境上引一部分实际流量对一个新版本进行测试,测试新版本的性能和表现,在保证系统整体稳定运行的前提下,尽早发现新版本在实际环境上的问题。
namespace。 上述http.delegate列表配置了“/”和“/test”两个路由,请根据需要添加或者删除。 选择“istio资源:virtualservices”,命名空间选择“istio-system”,单击“创建”再创建一个VirtualService资源,输入以下内容: apiVersion:
以处于同一VPC内,也可以将多个集群的VPC通过其他方式(对等连接、云连接等)连通。 集群的服务网段、容器网段不能和网格内已选集群的服务网段、容器网段冲突。如果集群和网格内的已选集群处于不同的VPC,集群的子网网段也不能冲突。 同一网格最多只能添加五个集群。 在可观测性配置中勾选
Mixer组件正式下线,访问日志、调用链和监控均基于数据面采集 EnvoyFilter增强,支持更多灵活的Insert操作 支持VM类型服务治理 启用基于AuthorizationPolicy的新的授权策略 支持Istio 1.8.4、1.8.6版本 支持v1.15、v1.17、v1.19和v1.21 CCE集群版本
要求网格版本为1.8.4-r3及以上)。网络类型分为扁平网络和非扁平网络,如果是非扁平网络,还要为集群配置一个东西向流量的私网ELB,作为其他集群的访问入口。 关于扁平网络和非扁平网络的介绍以及如何选型请参见扁平网络和非扁平网络;选择非扁平网络时,如果查询不到ELB,请参考企业版
管理,不需要独立的注册中心和配置中心;数据面的服务发现、负载均衡和各种治理都在ASM数据面Envoy上执行,SDK作为开发框架,回归到开发框架的本来职能,作为一个纯净轻量的应用开发框架供用户开发代码。 多种基础设施:在方案中,数据面可以是容器,也可以是VM。服务可以是各种语言,本
支持蓝绿灰度发布模板 - √ √ 支持灰度发布过程中服务运行情况的监控以辅助灰度发布决策 - √ √ 支持灰度发布过程中服务请求情况的监控以辅助灰度发布决策 - √ √ 灰度发布时动态配置服务实例数 - √ √ 支持灰度发布过程中动态的流量比例监控 - √ √ 应用拓扑 提供应用下服务调用关系的全局拓扑
支持蓝绿灰度发布模板 - √ √ 支持灰度发布过程中服务运行情况的监控以辅助灰度发布决策 - √ √ 支持灰度发布过程中服务请求情况的监控以辅助灰度发布决策 - √ √ 灰度发布时动态配置服务实例数 - √ √ 支持灰度发布过程中动态的流量比例监控 - √ √ 应用拓扑 提供应用下服务调用关系的全局拓扑
支持为sidecar(即istio-proxy容器)配置CPU和内存的资源上下限。同一个节点上部署的工作负载,对于未设置资源上下限的工作负载,如果其异常资源泄露会导致其他工作负载分配不到资源而异常。未设置资源上下限的工作负载,工作负载监控信息也会不准确。 默认的sidecar资源上下限为:
您即将访问非华为云网站,请注意账号财产安全