检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
回显的字符串即为kubeconfig.json的内容。 project:项目名称。 登录管理控制台,将鼠标移至右上角您的用户名处,单击“我的凭证”。在“API凭证”的项目列表中查找当前区域对应的项目。 swr_ak:密钥的AK。 登录管理控制台,将鼠标移至右上角您的用户名处,单击“我的凭证”。在
theus的集群,在左侧导航栏中选择“服务”。 单击右上角“YAML创建”,创建一个公网LoadBalancer类型的Service。 apiVersion: v1 kind: Service metadata: name: prom-lb #服务名称,可自定义 namespace:
和恢复卸载之前的任务信息。如集群中还存在正在使用的Volcano自定义资源,请谨慎卸载插件。 表7 Volcano自定义资源 名称 API组 API版本 资源级别 Command bus.volcano.sh v1alpha1 Namespaced Job batch.volcano
yaml”的YAML文件,此处文件名可自定义。 vi ingress-test.yaml 以关联已有ELB为例,YAML文件配置如下: apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: ingress-test
topology.kubernetes.io/zone进行优先级排序,尽量将Pod调度至可用区az1的节点上。设置节点亲和性示例如下: apiVersion: apps/v1 kind: Deployment metadata: name: gpu labels:
存活探测情况下的放弃就意味着重新启动容器。就绪探测情况下的放弃 Pod 会被打上未就绪的标签。 默认值是 3,最小值是 1。 YAML示例 apiVersion: v1 kind: Pod metadata: labels: test: liveness name: liveness-http
在集群中创建一个Deployment。 创建deployment.yaml文件,文件内容示例如下: kind: Deployment apiVersion: apps/v1 metadata: name: example namespace: default spec:
podAffinity字段来设置工作负载亲和性,将前端Pod(标签为app=frontend)和后端Pod(标签为app=backend)部署在一起。 apiVersion: apps/v1 kind: Deployment metadata: name: frontend labels:
protocol-port中对应,本例中将443端口、80端口分别发布成HTTPS、HTTP协议。 以自动创建独享型ELB为例,配置示例如下,其中关键配置通过红色字体标出: apiVersion: v1 kind: Service metadata: annotations: # 在自动创建ELB参数中指定4层和7层的flavor
yaml”的YAML文件,此处文件名可自定义。 vi ingress-test.yaml 以关联已有ELB为例,YAML文件配置如下: apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: test namespace:
单击“确定”,创建Service。 通过kubectl命令行创建 以关联已有ELB为例,Service使用SNI的YAML文件配置如下: apiVersion: v1 kind: Service metadata: name: test labels: app: test
版本实例上,然后手动继续更新,最后在升级的剩余时间内逐渐自动增大流量。 创建一个rollout-canary.yaml文件,示例如下: apiVersion: argoproj.io/v1alpha1 kind: Rollout metadata: name: rollout-canary
功能、优化。您可通过CCE集群版本发布说明查看最新版本的特性说明。 避免大跨度兼容风险:Kubernetes版本的迭代过程中,会不断带来API变更与功能废弃。长久未升级的集群,在需要升级时需要更大的运维保障投入。周期性的跟随升级能有效缓解版本差异累积导致的兼容性风险。建议用户每季
以下示例为创建一个名为nginx的Deployment负载,使用nginx:latest镜像创建两个Pod,每个Pod占用100m CPU、200Mi内存。 apiVersion: apps/v1 # 注意这里与Pod的区别,Deployment是apps/v1而不是v1 kind: Deployment
webhook。kruise-controller-manager会创建webhook configurations来配置哪些资源需要感知处理,并为kube-apiserver提供可调用的Service。 Deployment kruise-daemon 通过DaemonSet部署到每个节点上,提供镜像预热、容器重启等功能。
t)和节点动态预热容器网卡数(nic-warm-target)两个参数配置,且不支持节点池级别的差异化配置。 请通过console页面或API修改容器网卡动态预热参数配置,请勿直接后台修改节点annotations上对应的容器网卡动态预热参数,集群升级后,后台直接修改的annotations会被覆盖为原始的值。
仅支持使用Docker容器引擎: Docker in Docker(通常在CI场景)。 节点上使用Docker命令。 调用Docker API。 节点操作系统 由于业务容器运行时共享节点的内核及底层调用,为保证兼容性,建议节点的操作系统选择与最终业务容器镜像相同或接近的Linux发行版本。
CronHPA查询关联HPA失败 FailedGetHorizontalPodAutoscaler 重要 CronHPA查询关联的HPA对象失败(通常是kube-apiserver侧响应失败)。 CronHPA CronHPA查询伸缩对象失败 FailedGetHpaScale 重要 CronHPA获取待伸缩资源对象失败。
启驱动选择时,如从控制台创建NPU节点,控制台会自动补充NPU驱动(用户无法指定版本和类型)安装命令,并在安装完成后自动重启节点;如通过API或其他方式创建节点则需要用户在“安装后执行脚本”中添加驱动安装命令。 支持的NPU卡类型和对应的操作系统规格如下: NPU卡类型 支持的操作系统
v1.21 v1.23 v1.25 v1.27 支持xGPU设备监控 支持nvidia.com/gpu与volcano.sh/gpu-* api兼容 2.0.5 v1.19 v1.21 v1.23 v1.25 - 2.0.0 v1.19 v1.21 v1.23 v1.25 支持GPU虚拟化