检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
单击集群名称进入集群,在左侧选择“节点管理”,在右侧选择“节点池”页签。 单击节点池名称后的“更多 > 删除”。 在弹出的“删除节点池”窗口中,请仔细阅读界面提示。 确定要对节点池进行删除操作后,请在弹窗中输入“DELETE”,单击“是”,即可完成节点池的删除。 父主题: 管理节点池
预检请求的缓存时长。 该参数值应该根据实际需求合理设置。如果设置得太短,可能会导致频繁的预检请求;如果设置得太长,可能会在CORS策略更新后延迟生效。 nginx.ingress.kubernetes.io/cors-max-age: "3600" 验证跨域访问配置是否生效 使用
通过配额管理功能,用户可以对命名空间或相关维度下的各类负载(deployment, pod等)数量以及资源(cpu, memory)上限进行控制。启用该功能后,用户创建命名空间时将自动创建ResourceQuota对象 在高并发场景下(如批量创建pod),配额管理机制可能导致部分请求因冲突而失败,
Nginx Ingress高级配置示例 为Nginx Ingress配置HTTPS证书 为Nginx Ingress配置重定向规则 为Nginx Ingress配置URL重写规则 为Nginx Ingress配置HTTPS协议的后端服务 为Nginx Ingress配置GRPC协议的后端服务
插件中deployment组件多可用部署是否采用均分模式,默认:false。插件Deployment实例均匀调度到当前集群下各可用区,增加新的可用区后建议扩容插件实例以实现跨可用区高可用部署;均分模式限制不同可用区间插件实例数相差不超过1,单个可用区资源不足会导致后续其他实例无法调度。 tolerations
流量高峰期无限制地占用节点资源。然而,这种方法可能会存在资源瓶颈,达到资源使用上限后可能会导致应用出现异常。为了解决这个问题,可以通过伸缩Pod的数量来分摊每个应用实例的压力。如果增加Pod数量后,节点资源使用率上升到一定程度,继续扩容出来的Pod无法调度,则可以根据节点资源使用率继续伸缩节点数量。
最大浪涌为25%,即升级过程中可能的最大Pod数为13。在该工作负载注解中,指定了Pod延时启动时间为20s,在该时间内保证Pod正常启动后,跨VPC网络可正常访问。 表1 Pod延迟启动annotation配置 注解 默认值 参数说明 取值范围 cni.yangtse.io/r
75 综上,Node 2得分大于Node 1,按照Binpack策略,Pod将会优先调度至Node 2。 配置装箱调度策略 安装Volcano后,Binpack策略默认生效。如果默认配置无法达到您降低资源碎片的目标,可以通过“配置中心 > 调度配置”页面自定义Binpack策略权重和
以上示例中,占位符$2表示将第二个括号即(.*)中匹配到的所有字符填写到“nginx.ingress.kubernetes.io/rewrite-target”注解中,作为重写后的URL路径。 例如,上面的Ingress正则匹配式将导致多种情况的URL重写,可能的情形如下: 访问“/something”路径重写为“/”路径
要进行任何配置修改,只需要在cluster-1上配置即可。 在将cluster-1中应用的访问流量复制到cluster-2中对应的应用服务后,客户端只会收到cluster-1中的请求响应,cluster-2中的请求响应会被丢弃。 对cluster-1执行以下命令来配置流量镜像。更多关于Nginx
r从1.11开始逐渐被废弃。 Metrics Server是集群核心资源监控数据的聚合器,您可以在CCE控制台快速安装本插件。 安装本插件后,可创建HPA策略,具体请参见创建HPA策略。 社区官方项目及文档:https://github.com/kubernetes-sigs/metrics-server。
17 v1.19 v1.21 v1.23 新增beta检查项ScheduledEvent,支持通过metadata接口检测宿主机异常导致虚拟机进行冷热迁移事件。该检查项默认不开启。 0.8.10 1.16.3 v1.17 v1.19 v1.21 v1.23 新增ResolvConf配置文件检查。
程序的分发。对于应用发布者而言,可以通过Helm打包应用、管理应用依赖关系、管理应用版本并发布应用到软件仓库。对于使用者而言,使用Helm后不用需要编写复杂的应用部署文件,可以以简单的方式在Kubernetes上查找、安装、升级、回滚、卸载应用程序。 Helm和Kubernetes之间的关系可以如下类比:
您需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。 约束与限制 该特性仅在使用独享型ELB时支持配置。 该特性依赖ELB高级转发策略,开启后将不再根据域名/路径匹配确定优先级,请您根据实际需要自定义转发策略优先级。关于转发策略优先级详情请参见ELB Ingress转发策略优先级说明。
执行刷新操作后可查看到对应的镜像信息。 部署核心组件dcgm-exporter 在CCE中部署dcgm-exporter,需要添加一些特定配置,才可以正常监控GPU信息。详细yaml如下,其中yaml中标红的部分为较为重要的配置项。 当云原生监控插件对接AOM后,指标会上报到您
点池,操作详情请参见创建节点池。 关于GPU虚拟化节点的规格、操作系统、容器引擎、操作系统要求请参见准备GPU虚拟化资源。 节点池创建完成后,单击“弹性伸缩”,在“伸缩对象”中将目标规格的“弹性伸缩”按钮开启,然后单击“确定”进行保存。 步骤二:异构资源配置 单击左侧导航栏的“配置中心”,选择“异构资源配置”页签。
及如何解读和应用扫描结果中的修复建议,请参见镜像安全扫描。 使用镜像签名并配置验签策略 镜像验签是一种安全机制,用于验证容器镜像是否在创建后被篡改过。镜像的创建者可以对其内容进行签名,使用者则可以通过验证这个签名来确认镜像的完整性和来源。 镜像验签是维护容器镜像安全性的关键措施之
不可更改。 图1 设置xGPU配额 本文主要为您介绍GPU虚拟化的使用,其他参数详情请参见工作负载。 其余信息都配置完成后,单击“创建”。 工作负载创建成功后,您可以尝试验证GPU虚拟化的隔离能力。 登录容器查看容器被分配显存总量。 kubectl exec -it gpu-app
如何根据集群规格调整插件配额? 当您的集群规格调整后,可能需要根据集群规格相应地调整插件资源配额,以确保插件实例能够正常运行。例如,如果您将集群规格从50节点调整为200节点或以上,则需要增加插件CPU、内存配额,防止插件实例因需要调度过多的节点而出现OOM等异常。因此,在调整集群规格后,请您同时考虑调整插件资源配额。
安装Volcano后,您可通过“配置中心 > 调度配置”选择开启或关闭DRF调度能力,默认开启。 登录CCE控制台。 单击集群名称进入集群,在左侧选择“配置中心”,在右侧选择“调度配置”页签。 在“AI任务性能增强调度”配置中,选择是否开启“公平调度 (drf) ”。 启用该能力后,可增强集群业务的吞吐量,提高业务运行性能。