检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Ingress支持的Service类型。 约束与限制 仅独享型负载均衡支持HTTP和HTTPS类型的后端服务器组Pod开启慢启动功能。 仅在流量分配策略使用加权轮询算法时生效。 慢启动仅对新增后端服务器Pod生效,后端服务器组Pod首次添加后端服务器慢启动不生效。 后端服务器的慢启动结束之后,不会再次进入慢启动模式。
Service即可访问到后端Pod提供的服务。如需对外暴露可直接设置Service类型为LoadBalancer,弹性负载均衡ELB将作为流量入口。 灰度发布原理 以Deployment为例,用户通常会为每个Deployment创建一个Service,但Kubernetes并未限
场景:可以设置真实负载阈值生效方式为硬约束,CPU真实负载阈值和内存真实负载阈值在60~80之间设置。 配置案例2 随着集群状态,工作负载流量与请求的动态变化,节点的利用率也在实时变化,集群有可能会再次出现负载极端不均衡的情况,在业务Pod允许被驱逐重新调度的场景中,通过负载感知
ice有一个固定IP地址(在创建CCE集群时有一个服务网段的设置,这个网段专门用于给Service分配IP地址),Service将访问它的流量转发给Pod,具体转发给哪些Pod通过Label来选择,而且Service可以给这些Pod做负载均衡。 那么对于上面的例子,为后台添加一个
增强了集群升级场景的容器日志采集的可靠性。 修复部分安全问题。 v1.29.2-r0 v1.29.3 CCE Ingress支持基于HTTP头部自定义Header进行流量分发。 支持为第三方工作负载应用配置扩缩容优先级策略。 (仅CCE Turbo集群)支持使用annotation为Pod配置安全组。 (仅CCE
增强了集群升级场景的容器日志采集的可靠性。 修复部分安全问题。 v1.29.2-r0 v1.29.3 CCE Ingress支持基于HTTP头部自定义Header进行流量分发。 支持为第三方工作负载应用配置扩缩容优先级策略。 (仅CCE Turbo集群)支持使用annotation为Pod配置安全组。 (仅CCE
群提供相对隔离的网络环境。 购买CCE集群 弹性负载均衡 ELB 云容器引擎支持将创建的应用对接到弹性负载均衡,弹性负载均衡可以将外部访问流量分发到不同的后端容器应用中。 您可以通过弹性负载均衡,从外部网络访问容器负载。 创建无状态负载(Deployment) 创建有状态负载(StatefulSet)
年/包月。包括系统盘和数据盘。 弹性公网IP 通过CCE控制台创建的包年/包月云服务器仅支持绑定“按带宽计费”的弹性公网IP。如需使用“按流量计费”或“加入共享带宽”,请前往弹性公网IP控制台购买后绑定至云服务器。 包年/包月云服务器搭配“按带宽计费”的弹性公网IP时,带宽的计费模式同为包年/包月。
bandwidth 允许 CCE Standard/CCE Turbo 公网带宽的付费模式:bandwidth为按带宽计费;traffic为按流量计费。 公网带宽大小 公网独享型负载均衡器公网带宽的大小 参数名 取值范围 默认值 是否允许修改 作用范围 bandwidth_size 1Mbit/s~2000Mbit/s
awk "{print \\$NF}"`;do cd $dir; done && echo "ok" 磁盘卡IO DiskHung 检查节点上所有磁盘是否存在卡IO,即IO读写无响应 卡IO定义:系统对磁盘的IO请求下发后未有响应,部分进程卡在D状态 典型场景:操作系统硬盘驱动异常或底层网络严重故障导致磁盘无法响应
webui port: 8081 selector: #定义Service的标签选择器,用于确定该Service将流量路由到哪些Pod app: flink component: jobmanager 根据jobmanager-service
bandwidth 允许 CCE Standard/CCE Turbo 公网带宽的付费模式:bandwidth为按带宽计费;traffic为按流量计费。 公网带宽大小 公网独享型负载均衡器公网带宽的大小 参数名 取值范围 默认值 是否允许修改 作用范围 bandwidth_size 1Mbit/s~2000Mbit/s
行重启操作;若容器的存活检查成功则不执行任何操作。 就绪探针:readinessProbe,用于检查用户业务是否就绪,如果未就绪,则不转发流量到当前实例。一些程序的启动时间可能很长,比如要加载磁盘数据或者要依赖外部的某个模块启动完成才能提供服务。这时候程序进程已启动,但是并不能对
00 集群规格为1000节点及以上时,默认值为200 控制器访问kube-apiserver的突发流量上限 kube-api-burst 与kube-apiserver通信的突发流量上限。 集群规格为1000节点以下时,默认值为100 集群规格为1000节点及以上时,默认值为200
Ingress访问日志。 添加TCP/UDP服务:Nginx Ingress默认仅支持转发外部HTTP和HTTPS流量,通过添加TCP/UDP端口映射,可实现转发外部TCP/UDP流量到集群内服务。关于添加TCP/UDP服务的更多信息,请参见暴露TCP/UDP服务。 协议:选择TCP或UDP。
请保持此默认值,否则导致coredns健康检查失败而不断重启。详情请参见health。 ready 默认配置 检查后端服务是否准备好接收流量,当前侦听{$POD_IP}:8081。如果后端服务没有准备好,CoreDNS将会暂停 DNS 解析服务,直到后端服务准备好为止。详情请参见ready。
是“与”关系,但同一个规则块中的值是“或”关系。例如,Method和QueryString两种转发条件都配置时,需要同时满足,才能实现目标流量分发。但如果Method值为GET,POST,即只需要满足Method为GET或POST,且QueryString满足条件即可。 表2 数组结构
etector可以作为DaemonSet运行, 也可以独立运行。 CCE容器网络扩展指标 CCE容器网络扩展指标是一款容器网络流量监控管理插件。支持流量统计信息ipv4发送公网报文数和字节数、ipv4接收报文数和字节数以及ipv4发送报文数和字节数,且支持通过PodSelecto
量包含系统默认实例,取值范围为16~256。 该设置的目的为防止节点因管理过多实例而负载过重,请根据您的业务需要进行设置。 节点最多能创建多少个Pod还受其他因素影响,具体请参见节点可创建的最大Pod数量说明。 云服务器组 云服务器组是对云服务器的一种逻辑划分,同一云服务器组中的云服务器遵从同一策略。
当集群中包含GPU节点时,才能设置GPU配额,且集群中需安装CCE AI套件(NVIDIA GPU)插件。 不使用:表示不使用GPU。 GPU 整卡:单个容器独享GPU。 GPU 虚拟化:容器需要使用的GPU百分比,例如设置为10%,表示该容器需使用GPU资源的10%。 关于如何在集群中