检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
)、-(中划线)、.(点) 无 允许 CCE Standard/CCE Turbo 当负载均衡器的type指定为public时,可以指定的公网带宽的名称。 公网带宽付费模式 公网带宽的付费模式:bandwidth为按带宽计费;traffic为按流量计费。 参数名 取值范围 默认值
Ingress时,CCE会根据Ingress配置中的域名、URL等转发规则,在ELB侧配置相应的转发策略。 为了满足复杂的流量路由需求,CCE集成了ELB的高级转发策略能力,支持URL重定向、重写等高级转发能力,但高级转发策略的排序逻辑与普通的转发策略存在差异。 具体如下: 未开启ELB
SVC时则不会删除。 添加删除节点的时候,由于集群状态的改变,可能会引起集群内的Node访问方式的改变,为保证服务正常运行,所以ELB会进行一次刷新操作,这个过程类似于更新ELB。 修复建议: 优化应用,加快应用的启动速度。 父主题: 网络指导
弹性网卡即虚拟网卡,您可以通过创建并配置弹性网卡,并将其附加到您的云服务器实例(包括弹性云服务器和裸金属服务器)上,实现灵活、高可用的网络方案配置。 弹性网卡类型 主弹性网卡:在创建云服务器实例时,随实例默认创建的弹性网卡称作主弹性网卡。主弹性网卡无法与实例进行解绑。 扩展弹性网
etes 1.15版本所做的变更说明。 为了能够更好地方便您使用容器服务,确保您使用稳定又可靠的Kubernetes版本,请您务必在维护周期结束之前升级您的Kubernetes集群。 版本说明 CCE针对Kubernetes v1.15版本提供了全链路的组件优化和升级,v1.15版本包含两个小版本,即v1
”中找到集群上报的AOM实例,查看上述组件的指标。 图2 查看指标 自建Prometheus采集Master节点组件指标 如果您需要通过Prometheus采集Master节点组件指标,可通过以下指导进行配置。 集群版本需要v1.19及以上。 在集群中需安装自建的Promethe
超过预期规模的弹性伸缩行为。 配置建议: 节点池手动扩缩容时,建议联动调整相关上下限。 如节点池期望节点数超过此上下限,部分存量老版本autoscaler插件弹性伸缩功能将异常阻塞。最新插件版本不涉及此风险。 节点池单节点缩容冷却时间 节点池开启弹性伸缩后,新扩容的节点创建完成后
等待Pod调度到其他节点后,排查文件系统异常的原因,并进行恢复或规避。 执行以下命令,取消节点不可调度标记。 kubectl uncordon <node-name> 异常Pod清理 本服务kubelet的GC回收机制与社区保持一致,在清除Pod的Owner(例如Deployment)后,异常Pod也会随之清理。
中间件部署平台:CCE集群可以作为中间件的部署平台,使用StatefulSet、PVC等资源配置,能够实现应用的有状态化,同时配套弹性负载均衡实例,可实现中间件服务的对外发布。 执行普通任务、定时任务:使用容器化方式运行Job、CronJob类型应用,帮助业务降低对主机系统配置的依赖,全局的资源调度既保证
GPU插件关键参数检查异常处理 检查项内容 检查CCE GPU插件中部分配置是否被侵入式修改,被侵入式修改的插件可能导致升级失败。 解决方案 使用kubectl连接集群。 执行以下命令获取插件实例详情。 kubectl get ds nvidia-driver-installer
oers.d/sudoerspaas文件,以获取sudo权限,更新节点上属主和属组为root的组件(例如docker、kubelet等)与相关配置文件。请登录节点执行如下命令,排查文件的可修改性。 lsattr -l /etc/sudoers.d/sudoerspaas /etc/sudoers
问题根因 出现以上问题的原因是宿主机上有其他进程正在使用该设备。 解决方法 您需要登录到Pod所在宿主机上查找正在使用该设备的进程,并终止对应的进程。 登录Pod所在节点。 执行以下命令,找到对应挂载路径下的云存储设备,其中<mount-path>为错误信息中显示的挂载路径。 mount
total_inactive_file 如果您的应用存在以下情况,均可能导致HPA的扩容行为与预期不符,出现界面上显示的内存使用率低于HPA缩容阈值后并没有发生缩容,或者界面上显示的内存使用率未高于HPA扩容阈值但发生扩容等现象。 应用缓存占用非常高,WSS明显大于RSS,导致界面上显示的容器内存使用率小于HPA计算的内存使用率。
ues/71411 该漏洞的影响范围如下: 集群启用了扩展API server,并且kube-apiserver与扩展API server的网络直接连通。 集群对攻击者可见,即攻击者可以访问到kube-apiserver的接口,如果您的集群是部署在安全的私网内,那么不会有影响。 集群开放了pod
接已有CI/CD,完成传统应用的容器化改造和部署。 优势 高效流程管理 更优的流程交互设计,脚本编写量较传统CI/CD流水线减少80%以上,让CI/CD管理更高效。 灵活的集成方式 提供丰富的接口便于与企业已有CI/CD系统进行集成,灵活适配企业的个性化诉求。 高性能 全容器化架构设计,任务调度更灵活,执行效率更高。
命令中的yaml名称是示例,请以实际步骤2和步骤3创建的pv和pvc的yaml名字为准。 通过kubectl edit的方式修改有状态应使用新建的PVC。 kubectl edit sts sts-example -n xxx 命令中的sts-example为待升级的有状态应用的名称,请以实际为准。xxx指代有状态应用所在的命名空间。
基于GPU监控指标的工作负载弹性伸缩配置 集群中包含GPU节点时,可通过GPU指标查看节点GPU资源的使用情况,例如GPU利用率、显存使用量等。在获取GPU监控指标后,用户可根据应用的GPU指标配置弹性伸缩策略,在业务波动时自适应调整应用的副本数量。 前提条件 目标集群已创建,且集群中包含GPU节点,并已运行GPU相关业务。
用户拥有创建Ingress对象的场景。 判断方法 1.23及以下版本的CCE集群、CCE Turbo集群中: 1. 客户自行安装nginx-ingress的场景,判断nginx-ingress应用的镜像版本是否小于1.2.0 2. 使用CCE提供的nginx-ingress插件,判断插件版本号是否小于2
命令中的yaml名称是示例,请以实际步骤2和步骤3创建的pv和pvc的yaml名字为准。 通过kubectl edit的方式修改有状态应使用新建的PVC。 kubectl edit sts sts-example -n xxx 命令中的sts-example为待升级的有状态应用的名称,请以实际为准。xxx指代有状态应用所在的命名空间。
选择合适的镜像 Alpine容器镜像内置的musl libc库与标准的glibc存在以下差异: 3.3版本及更早版本的Alpine不支持search参数,不支持搜索域,无法完成服务发现。 并发请求/etc/resolve.conf中配置的多个DNS服务器,导致NodeLocal DNSCache的优化失效。