检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
CCE Standard集群 CCE Turbo集群 最新内核信息 VPC网络模型 容器隧道网络模型 云原生网络2.0 Huawei Cloud EulerOS 2.0 v1.30 √ √ √ 5.10.0-182.0.0.95.r1941_123.hce2.x86_64 v1.29
v1.19 v1.21 v1.23 支持Pod配置全域弹性公网IP 1.3.35 v1.17 v1.19 v1.21 v1.23 支持原地升级镜像 支持ReadinessGates 1.3.25 v1.17 v1.19 v1.21 v1.23 支持DownwardAPI Volume
29及以上版本。 漏洞修复方案 此问题已在稳定内核版本4.4.182、4.9.182、4.14.127、4.19.52、5.1.11中修复,用户通过滚动升级节点即可。 附:TCP SACK介绍 TCP是面向连接的协议。当双方希望通过TCP连接进行通信时,他们通过TCP握手交换某些信息建立连接,
org/wikipedia/commons/thumb/c/c5/Nginx_logo.svg/500px-Nginx_logo.svg.png keywords: - ingress - nginx kubeVersion: '>=1.20.0-0' maintainers: - name: rikatz
s云盘或是local本地盘。 local本地盘无精确匹配模式,将全选所有本地盘作为数据盘。 若需保留部分本地盘,请在安装前启动脚本中将磁盘占用。类似如下脚本。 # prepare vgName=vg-test storageDevice=/dev/vdb # vgcreate vgcreate
1的端口只涉及健康检查、监控信息查询等请求,不会有信息泄露风险。 综上,该CVE对CCE集群影响不大。 漏洞修复方案 目前官方已提供安全版本修复了该漏洞,请受影响的用户升级至以下安全版本。 kubelet/kube-proxy v1.18.4+ kubelet/kube-proxy v1.17.7+ kubelet/kube-proxy
兼容:业务无需重新编译,无需进行CUDA库替换,对业务无感。 前提条件 配置 支持版本 集群版本 v1.23.8-r0、v1.25.3-r0及以上 操作系统 Huawei Cloud EulerOS 2.0操作系统 GPU类型 支持T4、V100类型的GPU 驱动版本 GPU虚拟化功能仅支持470.57.02、510
CCE集群要求该字段值必须存在,且基于PVC触发动态创建的都是EVS SCSI模式的卷,因此这里静态PV形式优先选用SCSI模式的云硬盘;同时支持升级后的老集群中VBD卷能够继续正常使用。 spec.claimRef.apiVersion 固定值"v1"。 spec.claimRef.kind
登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件中心”,在右侧找到CCE AI套件(Ascend NPU)插件,单击“安装”。 在安装插件页面,根据需求选择“规格配置”。您可根据需求调整插件实例数和资源配额。 选择是否自动安装驱动(仅插件版本为1.2.5及以上时支持)。 开启:可根据NPU机型不同指定相应的驱动版本,驱动维护更灵活。
方案二:修改CoreDNS配置 解析华为云内部域名时不需要通过外部域名解析服务器转发,不存在性能损耗 不支持在CCE集群节点解析外部域名。 Coredns升级、回退会导致配置会丢失,需要重新配置。 父主题: 自建IDC与CCE集群共享域名解析
云容器引擎与其他服务的关系 主要交互功能 弹性云服务器 ECS 在云容器引擎中具有多个云硬盘的一台弹性云服务器就是一个节点,您可以在创建节点时指定弹性云服务器的规格。 购买节点 纳管已有节点到集群 虚拟私有云 VPC 在云容器引擎中创建的集群需要运行在虚拟私有云中,您在集群中创建节点池时,节点将会从V
NetworkPolicy暂不支持安全容器(容器运行时为Kata)。 容器隧道网络的CCE Standard集群中,通过原地升级到支持Egress的集群版本,由于不会升级节点操作系统,会导致无法使用Egress,此种情况下请重置节点。 容器隧道网络集群开启NetworkPolicy后,P
inition)中的安全组。 约束与限制 v1.19及以上的CCE Turbo集群支持此功能,v1.19以下版本CCE Turbo集群需要升级到v1.19及以上版本后才能启用此功能。 1个工作负载最多可绑定5个安全组。 通过界面创建 登录CCE控制台,单击集群名称,进入集群。 在
频繁使用自定义容器网络配置时,强烈建议您关闭集群级别的全局容器网卡动态预热。如您还有使用默认容器网络配置的Pod极速弹性述求,请结合调度,合理规划节点池级别的容器网卡动态预热配置。 已开启固定IP的工作负载,如果需要关联新的容器网络配置,Pod重建时,固定IP功能会失效。请删除工
PersistentVolume的元数据信息 spec 是 PersistentVolumeSpec object PersistentVolume的规格信息 status 否 PersistentVolumeStatus object PersistentVolume的状态信息 表3 Pe
使用相同的方法制作v2版本镜像并上传至镜像仓库。 部署一个Rollout,本文中的示例会先将20%的流量发送到新版本实例上,然后手动继续更新,最后在升级的剩余时间内逐渐自动增大流量。 创建一个rollout-canary.yaml文件,示例如下: apiVersion: argoproj.io/v1alpha1
删除集群 cce:cluster:update 更新集群,如后续允许集群支持RBAC,调度参数更新等 cce:cluster:upgrade 升级集群 cce:cluster:start 唤醒集群 cce:cluster:stop 休眠集群 cce:cluster:list 查询集群列表
com/prometheus-community/helm-charts/tree/main/charts/kube-prometheus-stack/charts/crds/crds。 部署示例应用如下: apiVersion: apps/v1 kind: Deployment metadata: name:
在Kubernetes集群中,当一个节点需要访问位于其他节点上的Pod时,通常情况下,Pod的响应数据包会被自动执行SNAT,此时源地址会从Pod的IP地址变更为节点的IP地址。这种自动的IP地址转换可能会导致通信异常,从而使得跨节点的访问变得不可行。 为了确保节点能够正常访问位于其他节点上的Po
默认值:default-scheduler disable_mount_path_v1 否 Bool 默认值:false true:不将/opt/cloud/cce/nvidia挂载到GPU容器的/usr/lib/nvidia路径上 disable_nvidia_gsp 否 Bool 默认值:true