检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
port:Pod间通信端口号。 spec.ports.name:Pod间通信端口名称。 apiVersion: v1 kind: Service # 对象类型为Service metadata: name: nginx labels: app: nginx spec: ports:
或ComponentConfig来配置这些参数。(--lock-object-namespace用来定义锁对象的命名空间,--lock-object-name用来定义锁对象的名称) 在Kubernetes 1.28版本,KMSv1已弃用,以后只会接收安全更新。请改用KMSv2。在
或ComponentConfig来配置这些参数。(--lock-object-namespace用来定义锁对象的命名空间,--lock-object-name用来定义锁对象的名称) 在Kubernetes 1.28版本,KMSv1已弃用,以后只会接收安全更新。请改用KMSv2。在
请勿删除cce-pause等系统镜像,否则可能导致无法正常创建容器。 方案二:扩容磁盘 扩容磁盘的操作步骤如下: 在EVS控制台扩容数据盘。详情请参见扩容云硬盘容量。 在EVS控制台扩容成功后,仅扩大了云硬盘的存储容量,还需要执行后续步骤扩容逻辑卷和文件系统。 登录CCE控制台,进入集群,在左侧选择“节点管理”,单击节点后的“同步云服务器”。
量的节点。 节点数范围:弹性伸缩时节点池下的节点数量会始终介于节点数范围内。 冷却时间:指当前节点池扩容出的节点多长时间不能被缩容。 伸缩对象 规格选择:对节点池中的节点规格单独设置是否开启弹性伸缩。 当节点池中包含多个规格时,您可以对每个规格的节点数范围和优先级进行单独配置。 配置完成后,单击“确定”。
纳管过程中,请勿在弹性云服务器控制台对所选虚拟机做任何操作。 节点纳管至节点池后,如果节点池触发弹性伸缩策略缩容节点,则该节点将会被删除。 操作步骤 登录CCE控制台。 单击集群名称进入集群,在左侧选择“节点管理”,在右侧选择“节点池”页签。 单击节点池名称后的“更多 > 纳管节点”。
将合并到从所选DNS策略生成的基本搜索域名中,并删除重复的域名。Kubernetes最多允许6个搜索域。 options:可选的对象列表,其中每个对象可以具有name属性(必需)和value属性(可选)。此属性中的内容将合并到从指定的DNS策略生成的选项中,并删除重复的条目。 详
方便您快速将您的配置以文件的形式导入到容器中。 约束与限制 ConfigMap资源文件大小不得超过1MB。 静态Pod中不可使用ConfigMap。 操作步骤 登录CCE控制台,单击集群名称进入集群。 在左侧导航栏中选择“配置与密钥”,在右上角单击“创建配置项”。 填写参数。 表1 新建配置参数说明
driver_version 是 String 插件安装驱动时,插件里负责安装驱动的Pod的镜像tag,一般与device_version相同 obs_url 是 String 当从默认驱动地址中下载GPU驱动时,该值为GPU的驱动地址 swr_addr 是 String 镜像仓库地址 swr_user
源类型,内容由用户决定。资源创建完成后,可在容器工作负载中作为文件或者环境变量使用。 约束与限制 静态Pod中不可使用Secret。 操作步骤 登录CCE控制台,单击集群名称进入集群。 在左侧导航栏中选择“配置与密钥”,选择“密钥”页签,在右上角单击“创建密钥”。 填写参数。 表1
储中。 其余信息都配置完成后,单击“创建工作负载”。 工作负载创建成功后,容器挂载目录下的数据将会持久化保持,您可以参考验证数据持久化中的步骤进行验证。 使用kubectl自动创建本地持久卷 使用kubectl连接集群。 使用StorageClass动态创建PVC及PV。 创建pvc-local
在监听器详情页面,找到服务器证书并记录。 在CCE控制台中,单击ingress1的“更多 > 更新”,选择证书来源为ELB服务器证书,并配置为上一步骤查询到的服务器证书,单击“确定”更新Ingress配置。 ingress1的证书来源由TLS密钥更换为服务器证书,且更换前后密钥内容一致,实际生效的配置在更换前后不变。
本身缺陷导致的业务受损CCE服务不提供额外维护。商用场景请谨慎使用。 部署Nginx Ingress Controller 您可以通过以下步骤在集群中部署多套完全独立的Nginx Ingress Controller服务。 获取模板包。 前往社区模板发布页面,选择合适的版本并下载tgz格式的Helm
- nolock - timeo=600 - hard PV创建后,可以创建PVC关联PV,然后在工作负载的容器中挂载,具体操作步骤请参见通过静态存储卷使用已有文件存储。 验证挂载参数是否生效。 本例中将PVC挂载至使用nginx:latest镜像的工作负载,并通过mount
视图,监控API指标。 如需对kube-controller、kube-scheduler、etcd-server组件进行监控,请参考以下步骤。 此3个组件监控指标不在容器基础指标范围,监控中心将该类指标上报至AOM后会进行收费,因此监控中心会默认屏蔽采集该类指标。 登录CCE控制台,单击集群名称进入集群详情页。
若能正常返回GPU信息,说明设备可用,插件安装成功。 如果驱动地址填写错误,需要将插件卸载后重新安装,并配置正确的地址。 nvidia驱动建议放在OBS桶里,并设置为公共读。 相关链接 GPU节点使用nvidia驱动启动容器排查思路 GPU插件安装 父主题: 工作负载异常问题排查
对命名空间进行配额管理 配额管理实现多团队或多用户在共享集群资源的情况下限制团队、用户可以使用的资源总量,包括限制命名空间下创建某一类型对象的数量以及对象消耗计算资源(CPU、内存)的总量。 通过命名空间配额管理,您可以对业务或者团队进行资源限制,减小不必要的资源开销。 详情请参见设置资源配额及限制。
csi-disk 有状态应用使用如下Headless Service。 apiVersion: v1 kind: Service # 对象类型为Service metadata: name: nginx labels: app: nginx spec: ports:
起来后就能用这个配置信息加入集群。 其它使用场景:如将Pod注册到一个中央数据库、下载应用依赖等。 更多内容请参见初始容器文档参考。 操作步骤 编辑initcontainer工作负载yaml文件。 vi deployment.yaml Yaml示例如下: apiVersion: apps/v1
见为部署在CCE容器中的JAVA应用安装Agent。 前提条件 若您还未开通APM服务,请前往APM控制台,并参照界面提示进行开通。 操作步骤 登录CCE控制台。 单击集群名称进入集群,在左侧选择“工作负载”,在右上角单击“创建工作负载”。 在创建工作负载时,在“高级设置”中找到