检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
集群安装nginx-ingress插件失败,一直处于创建中? 问题背景 客户已经购买并搭建了CCE集群,希望在公网上可以访问到CCE上部署的应用服务,目前最高效的方式是在ingress资源上注册该应用的Service路径,从而满足要求。 但客户安装ingress插件后,插件状态一直显示“创建中”,nginx-i
使用kubectl命令行创建Ingress 您可以在添加Ingress时选择是否自动创建ELB或使用已有的ELB。 添加Ingress时自动创建ELB 添加Ingress时对接已有ELB 下面介绍如何通过kubectl命令在添加Ingress时自动创建ELB。 请参见通过kub
方法1:登录虚拟私有云服务的控制台界面,在虚拟私有云的详情页面查找VPC ID。 方法2:通过虚拟私有云服务的API接口查询。 配置建议: VPC在集群创建后无法修改,请对VPC下IP资源是否充足、是否计划与其他集群以及非容器业务共用VPC等因素进行评估,选择合适的VPC 控制节点子网
如图1,同一个region下可以有多个虚拟私有云(图中以VPC表示)。虚拟私有云由一个个子网组成,子网与子网之间的网络交互通过子网网关完成,而集群就是建立在某个子网中。因此,存在以下三种场景: 不同集群可以创建在不同的虚拟私有云中。 不同集群可以创建在同一个子网中。 不同集群可以创建在不同的子网中。 图1
工作负载异常:一直处于创建中 问题描述 节点上的工作负载一直处于创建中。 排查思路 以下排查思路根据原因的出现概率进行排序,建议您从高频率原因往低频率原因排查,从而帮助您快速找到问题的原因。 如果解决完某个可能原因仍未解决问题,请继续排查其他可能原因。 排查项一:cce-pause镜像是否被误删除
自定义指标。 插件配置完成后,单击“安装”。 步骤二:创建示例工作负载 登录CCE控制台,单击集群名称进入集群。 在集群控制台左侧导航栏中选择“工作负载”,单击右上角“创建工作负载”。创建一个Nginx工作负载,详情请参见创建无状态负载(Deployment)。 步骤三:修改配置文件
查看节点LVM设置,发现/dev/vdb没有创建LVM逻辑卷。 解决方案 手工创建逻辑卷: pvcreate /dev/vdb vgcreate vgpaas /dev/vdb 然后在界面重置节点后节点状态正常。 父主题: 节点创建
创建或升级实例失败,提示rendered manifests contain a resource that already exists 问题现象 创建或升级实例失败,提示“Create release by helm failed:rendered manifests contain
节点最大实例数说明 在创建节点时,可以配置节点可以创建的最大实例数(maxPods)。该参数是kubelet的配置参数,决定kubelet最多可创建多少个Pod。 对于默认节点池(DefaultPool)中的节点,节点创建完成后,最大实例数不支持修改。 对于自定义节点池中的节点,创建完成后可通
挂载文件存储的节点,Pod创建删除卡死 故障现象 在挂载文件存储(SFS或SFS Turbo)的节点上,删除Pod卡在“结束中”,创建Pod卡在“创建中”。 可能原因 后端文件存储被删除,导致无法访问挂载点。 节点与文件存储间网络异常,导致无法访问挂载点。 解决方案 登录挂载文件
st”委托。 (可选)创建虚拟私有云 虚拟私有云为CCE集群提供一个隔离的、用户自主配置和管理的虚拟网络环境。 创建首个集群前,您必须先确保已存在虚拟私有云,否则无法创建集群。创建方法请参见创建虚拟私有云和子网。 若您已有虚拟私有云,可重复使用,无需重复创建。 登录管理控制台。
CCE节点变更规格后,为什么无法重新拉起或创建工作负载? 问题背景 kubelet启动参数中默认将CPU Manager的策略设置为static,允许为节点上具有某些资源特征的pod赋予增强的CPU亲和性和独占性。用户如果直接在ECS控制台对CCE节点变更规格,会由于变更前后CP
创建CCE Turbo集群时如何设置IPv6服务网段 问题背景 当您需要创建一个IPv4/IPv6双栈的CCE Turbo集群时,需要设置IPv6服务网段,该网段默认值为fc00::/112,包含了65536个IPv6服务地址。如果您需要自定义服务网段,您可参考本文进行设置。 IPv6介绍
在CCE集群中使用密钥Secret的安全配置建议 当前CCE已为secret资源配置了静态加密,用户创建的secret在CCE的集群的etcd里会被加密存储。当前secret主要有环境变量和文件挂载两种使用方式。不论使用哪种方式,CCE传递给用户的仍然是用户配置时的数据。因此建议:
整体应用容器化改造时,需要执行完整的改造流程。 容器化改造流程包括:分析应用、准备应用运行环境、编写开机脚本、编写Dockerfile、制作并上传镜像、创建容器工作负载。 改造流程每一部分的详情可参考改造流程。 图1 容器化改造流程 父主题: 实施步骤
在Kubernetes集群中,应用通常采用Deployment + LoadBalancer类型Service的方式对外提供访问。应用更新或升级时,Deployment会创建新的Pod并逐步替换旧的Pod,这个过程中可能会导致服务中断。 解决方案 避免服务中断可以从Deployment和Service两类资源入手:
节点池一直在扩容中但“操作记录”里为何没有创建节点的记录? 问题现象 节点池的状态一直处于“扩容中”,但是“操作记录”里面没有看到有对应创建节点的记录。 原因排查: 检查如下问题并修复: 租户是否欠费。 查看节点池配置的规格是否资源不足。 租户的ECS或内存配额是否不足。 如果一次创建节点太多,可能会出现租户的ECS容量校验不过的情况发生。
异构资源配置 GPU配置 GPU虚拟化 CCE GPU虚拟化采用自研xGPU虚拟化技术,能够动态对GPU设备显存与算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户自己定义使用的GPU
参见网络概述。 表1 集群网络配置 参数 说明 虚拟私有云 选择集群所在的虚拟私有云VPC,如没有可选项可以单击右侧“新建虚拟私有云”创建。创建后不可修改。 节点子网 选择节点所在子网,如没有可选项可以单击右侧“新建子网”创建。创建后子网不可修改。 节点默认安全组 您可选择使用C
com/gpu资源的工作负载无法和使用虚拟化显存的工作负载共同调度到同一节点。 编辑插件配置时,修改“虚拟化节点兼容GPU共享模式”选项,不会影响已运行的工作负载。修改该配置可能工作负载导致调度失败。例如,兼容能力从开启到关闭,已使用nvidia.com/gpu资源的工作负载仍存在虚拟化GPU显存隔离