检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
hook, 并用chart中的crds目录替换。需要注意的是,crds目录中的资源只有在release安装时会部署,升级时不会更新,删除时不会卸载crds目录中的资源。若crd已存在,则重复安装不会报错。 适配方案:根据Helm官方文档 https://helm.sh/docs/char
Kubernetes 1.23版本说明 云容器引擎(CCE)严格遵循社区一致性认证。本文介绍CCE发布Kubernetes 1.23版本所做的变更说明。 资源变更与弃用 社区1.23 ReleaseNotes FlexVolume废弃,建议使用CSI。 HorizontalPodAutoscaler
CCE容器云存储PVC能否感知底层存储故障? CCE PVC按照社区逻辑实现,PVC本身的定义是存储声明,与底层存储解耦,不负责感知底层存储细节,因此没有感知底层存储故障的能力。 云监控服务CES 具备查看云服务监控指标的能力:云监控服务基于云服务自身的服务属性,已经内置了详细全
标准版本集群,提供高可靠、安全的商业级容器集群服务。 面向云原生2.0的新一代容器集群产品,计算、网络、调度全面加速。 无用户节点的Serverless版集群,无需对节点的部署、管理和安全性进行维护,并根据CPU和内存资源用量按需付费。 使用场景 - 面向有云原生数字化转型诉求的用户,期望通过容器集群管理应用,获
2] ReleaseVersion "test-convert.v1" d 转换流程(使用Helm v3客户端) 安装Helm v3客户端,参见安装Helm v3。 安装转换插件。 # helm plugin install https://github.com/helm/helm-2to3
如何上传我的镜像到CCE中使用? 镜像的管理是由容器镜像服务(SoftWare Repository)提供的,当前容器镜像服务提供如下上传镜像的方法: 客户端上传镜像 页面上传镜像 如您需要将Harbor镜像仓库平滑地迁移到容器镜像服务,请参考跨云Harbor同步镜像至华为云SWR。
据实际报错信息进行删除。 kubectl delete deploy test-nginx -n default 解决资源冲突后,尝试重新安装模板。 父主题: 模板插件
性列表,选择合适的NVIDIA驱动版本。 GPU驱动支持列表 当前GPU驱动支持列表仅针对1.2.28及以上版本的GPU插件。 如果您需要安装最新版本的GPU驱动,请将您的GPU插件升级到最新版本。 表1 GPU驱动支持列表 GPU型号 支持集群类型 机型规格 操作系统 Huawei
果您对安全组做过加固,当出现在CloudShell中无法访问集群时,请检查5443端口是否放通了198.19.0.0/16网段。 集群必须安装CoreDNS才能使用CloudShell。 当前仅华北-北京四、华北-北京一、华北-乌兰察布一、华东-上海二、华东-上海一、华南-广州、
插件实例字段说明 CoreDNS域名解析 CCE容器存储插件(Everest) CCE节点故障检测 Kubernetes Dashboard CCE集群弹性引擎 NGINX Ingress控制器 Kubernetes Metrics Server CCE容器弹性引擎 CCE突发弹性引擎(对接CCI)
容器调度与弹性插件 Volcano调度器 CCE集群弹性引擎 CCE容器弹性引擎 CCE突发弹性引擎(对接CCI) 容器垂直弹性引擎 父主题: 插件
ServiceAccount Kubernetes中所有的访问,无论外部内部,都会通过API Server处理,访问Kubernetes资源前需要经过认证与授权。 Authentication:用于识别用户身份的认证,Kubernetes分外部服务账号和内部服务账号,采取不同的认
节点journald检查异常处理 检查项内容 检查节点上的journald状态是否正常。 解决方案 请登录该节点,执行systemctl is-active systemd-journald命令查询journald服务运行状态。若回显状态异常,请执行systemctl restart
容器网络插件 CoreDNS域名解析 NGINX Ingress控制器 节点本地域名解析加速 父主题: 插件
(停止维护)Kubernetes 1.17版本说明 云容器引擎(CCE)严格遵循社区一致性认证。本文介绍CCE发布Kubernetes 1.17版本所做的变更说明。 资源变更与弃用 apps/v1beta1和apps/v1beta2下所有资源不再提供服务,使用apps/v1替代。
如何避免节点上的某个容器被驱逐? 问题背景 在工作负载调度时可能会发生一个节点上的两个容器之间互相争资源的情况,最终导致kubelet将其全部驱逐。那么能不能设定策略让其中一个服务一直保留?如何设定? 问题建议 Kubelet会按照下面的标准对Pod的驱逐行为进行评判: 根据服务
计费模式 计费模式概述 包年/包月 按需计费
网络管理 网络异常问题排查 网络规划 安全加固 网络指导
集群运行 当集群状态为“不可用”时,如何排查解决? CCE集群如何重置或重装? 如何确认已创建的集群是否为多控制节点模式? 是否可以直接连接CCE集群的控制节点? CCE集群删除之后相关数据能否再次找回? 为什么CCE集群界面的节点磁盘监控看起来不准确? 如何修改CCE集群名称?
节点池管理 创建节点池 获取指定的节点池 获取集群下所有节点池 更新指定节点池 删除节点池 伸缩节点池 同步节点池 父主题: API