检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
runc漏洞(CVE-2024-21626)对CCE服务的影响说明 漏洞公告 2024/02/01 19 1.21版本集群停止维护公告 集群版本公告 2024/01/22 20 1.19版本集群停止维护公告 集群版本公告 2023/07/07 21 1.17版本集群停止维护公告 集群版本公告 2022/11/29
16.0.11 192.168.0.73 <none> <none> ... 调用dcgm-exporter接口,验证采集的应用GPU信息。 其中172.16.0.11为dcgm-exporter组件的Pod IP。 curl 172.16.0.11:9400/metrics
Service有一个配置参数(externalTrafficPolicy),用于设置Service是否希望将外部流量路由到节点本地或集群范围的端点,示例如下: apiVersion: v1 kind: Service metadata: name: nginx-nodeport spec: ex
njob.yaml文件中。 在v1.21及以上集群中,CronJob的apiVersion为batch/v1。 在v1.21以下集群中,CronJob的apiVersion为batch/v1beta1。 apiVersion: batch/v1 kind: CronJob metadata:
Standard/CCE Turbo GC回收工作线程数 参数名 取值范围 默认值 是否允许修改 作用范围 concurrent-gc-syncs 大于等于0 20 允许 CCE Standard/CCE Turbo Job并发处理数 参数名 取值范围 默认值 是否允许修改 作用范围 concurrent-job-syncs
涉及所有集群(新建的1.19.10及以上版本集群不受该漏洞影响)。 登录节点,执行命令,查看BuildDate,如果查看BuildDate是在2021-08-20之后的时间,则表示已经修复,不受该漏洞影响。 漏洞处理方案 您可以禁用 kubelet 上的VolumeSubpath feature g
全场景支持,适合在线业务、深度学习、大规模成本算力交付等。 节点自动伸缩 CCE突发弹性引擎(对接CCI) 将Kubernetes API扩展到无服务器的容器平台(如CCI),无需关心节点资源。 适合在线突增流量、CI/CD、大数据作业等场景。 CCE容器实例弹性伸缩到CCI服务
od和集群中节点的IP失败。 当前CiliumNetworkPolicy及CiliumClusterwideNetworkPolicy API不支持Node Selector、DNS策略和L7网络策略。 资源消耗 每个节点上有常驻进程cilium-agent负责处理eBPF网络加
yaml文件。 vi nginx-hostpath.yaml YAML文件内容如下,将节点上的/data目录挂载至容器中的/data目录下。 apiVersion: apps/v1 kind: Deployment metadata: name: nginx-hostpath namespace:
使用kubectl连接集群。 创建一个使用nvidia.com/gpu资源的工作负载。 创建gpu-app.yaml文件,示例如下: apiVersion: apps/v1 kind: Deployment metadata: name: gpu-app namespace:
健康检查协议为UDP。 操作步骤 使用"kubernetes.io/elb.health-check-options"注解的示例如下: apiVersion: v1 kind: Service metadata: name: nginx namespace: default
yaml”的YAML文件,此处文件名可自定义。 vi ingress-test.yaml 以关联已有ELB为例,YAML文件配置如下: apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: ingress-test
容量) 吞吐量 = min (150, 100 + 0.15 × 容量) 单队列访问时延(ms) 亚毫秒级 1 亚毫秒级 1 1 1~ 3 API名称 ESSD2 GPSSD2 ESSD GPSSD SSD SAS 关于云硬盘性能的详细介绍,请以磁盘类型及性能介绍为准。 使用场景 根
IPVS模式下,kube-proxy使用IPVS负载均衡代替了iptables。这种模式同样有效,IPVS的设计就是用来为大量服务进行负载均衡的,它有一套优化过的API,使用优化的查找算法,而不是简单的从列表中查找规则。详情请参见IPVS代理模式。 父主题: 购买集群
storageclass.yaml 向storageclass.yaml中填入以下内容,该内容仅是StorageClass配置的模板,您可以根据需求自行修改。 apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: test-
通过kubectl命令行使用已有专属存储 使用kubectl连接集群。 创建PV。当您的集群中已存在创建完成的PV时,可跳过本步骤。 创建pv-dss.yaml文件。 apiVersion: v1 kind: PersistentVolume metadata: annotations: pv.kubernetes
对象(比如Pods)上的键值对,最多可以添加20条标签。 使用该标签可区分不同节点,可结合工作负载的亲和能力实现容器Pod调度到指定节点的功能。详细请参见Labels and Selectors。 K8S污点(Taints) 默认为空。支持给节点加污点来设置反亲和性,每个节点最多配置20条污点,每条污点包含以下3个参数:
专属节点标签CCE-Dynamic-Provisioning-Node。 待纳管节点的系统组件使用独立磁盘存储时需挂载数据盘,可使用本地盘(磁盘增强型实例)或至少挂载一块20GiB及以上的数据盘,且不存在10GiB以下的数据盘。关于节点挂载数据盘的操作说明,请参考新增磁盘。 待纳管节点规格要求至少 2 核 4 GiB,且只绑定了
l命令。 创建并编辑nginx-emptydir.yaml文件。 vi nginx-emptydir.yaml YAML文件内容如下: apiVersion: apps/v1 kind: Deployment metadata: name: nginx-emptydir namespace:
Service,请您自行重新创建相同的Service。 如果安装插件时使用默认的DefaultBackend Service,则重新创建的YAML示例如下。 apiVersion: v1 kind: Service metadata: name: cceaddon-nginx-ingress-<c