检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
为实现跨VPC访问,不同网络模型的集群需要打通的网段不同。假设集群本端VPC网段为172.16.0.0/16,对端VPC网段为172.17.0.0/16,则两端路由表配置示例如下: 不同集群网络模型场景 两端VPC路由表配置 集群本端VPC路由表 对端VPC路由表 容器隧道网络模型 目的地址需添加对端VPC网段:172
关于CCE集群版本的更新策略,请参考Kubernetes版本策略。 集群网络模型 云容器引擎支持以下几种网络模型,您可根据实际业务需求进行选择。 集群创建成功后,网络模型不可更改,请谨慎选择。 表2 网络模型对比 对比维度 容器隧道网络 VPC网络 云原生网络2.0 适用场景 对性
IPv6网段 显示集群的节点子网网段。 IPv6双栈 显示是否开启IPv6双栈。 容器网络模型 显示集群的容器网络模型,集群创建成功后,网络模型不可更改。不同网络模型对比请参见容器网络模型对比。 节点默认安全组 显示集群节点默认安全组。您可以选择自定义的安全组作为集群默认的节点安
第4课:K8s调度器原理剖析和实践 01:08:29 K8s调度器原理剖析和实践 Cloud Native Lives 第5课:K8s网络模型原理剖析与实践 01:11:04 K8s网络模型原理剖析与实践 Cloud Native Lives 第6课:K8s服务发现与负载均衡原理剖析与实践 01:11:38
CCE Standard集群为您提供简单、低成本、高可用的解决方案,无需管理和运维控制节点,并且可根据业务场景选择使用容器隧道网络模型或VPC网络模型,适合对性能和规模没有特殊要求的通用场景。 发布区域:全部 节点管理 CCE Standard集群、CCE Turbo集群支持 节
Containerd Pod重启风险检查异常处理 检查项内容 检查当前集群内使用containerd的节点在升级containerd组件时,节点上运行的业务容器是否可能发生重启,造成业务影响。 解决方案 检测到您的节点上的containerd服务存在重启风险;请确保在业务影响可控
详情请参见GPU虚拟化概述。 AI任务性能增强调度 针对AI、大数据协作调度场景,可使用Volcano公平调度(DRF)、组调度(Gang)来提升训练性能,提高资源使用效率。 公平调度(DRF) DRF(Dominant Resource Fairness)是主资源公平调度策略
CCE对节点内存的预留规则v1 v1.21.4-r0和v1.23.3-r0以下版本集群中,节点内存的预留规则使用v1模型。对于v1.21.4-r0和v1.23.3-r0及以上版本集群,节点内存的预留规则优化为v2模型,请参见CCE对节点内存的预留规则v2。 如果节点资源占用比较满,集群升级到v1.21.4-r0和v1
as Code一键式部署类最佳实践 表1 CCE最佳实践 分类 相关文档 集群相关 CCE集群选型建议 集群网络地址段规划实践 集群网络模型选择及各模型区别 通过CCE搭建IPv4/IPv6双栈集群 使用共享VPC创建CCE Turbo集群 将K8s集群迁移到CCE 预防集群过载的配置建议
tvolumeclaims/{name} 表1 路径参数 参数 是否必选 参数类型 描述 name 是 String 需要删除的PersistentVolumClaim的名称。 namespace 是 String 指定PersistentVolumeClaim所在的命名空间。 表2
Euler-docker。 执行stat /run/containerd/containerd.sock命令,若发现存在该文件则会导致docker启动失败。 执行rm -rf /run/containerd/containerd.sock命令,然后重新进行集群升级检查。 父主题:
Apache containerd安全漏洞公告(CVE-2020-15257) 漏洞详情 CVE-2020-15257是containerd官方发布的一处Docker容器逃逸漏洞。containerd是一个支持Docker和常见Kubernetes配置的容器运行时管理组件,它处理
新增基于应用资源画像的超卖能力 1.14.11 v1.23 v1.25 v1.27 v1.28 v1.29 v1.30 新增支持超节点资源调度模型(HyperJob) 支持超节点亲和调度 支持Kubernetes v1.30 1.13.7 v1.21 v1.23 v1.25 v1.27
0,则不涉及该漏洞。 CCE AI套件(NVIDIA GPU)插件老版本命名为:gpu-beta、gpu-device-plugin。 如果CCE AI套件(NVIDIA GPU)插件版本大于等于2.0.0,请登录GPU节点执行以下命令: nvidia-container-runtime
自定义:用户自行决定每台控制节点所在的位置。 图1 集群高可用 集群网络选择 集群网络模型选择:CCE支持云原生网络2.0、VPC网络、容器隧道网络模型。不同的网络模型存在性能和功能各方面的差异,请合理选择,详情请参见集群网络模型。 VPC选择:如果您的应用需要连接其他云服务如RDS数据库等,则需
可靠性和安全性,从而更好地满足业务需求。 场景分类 相关最佳实践 创建集群实践 CCE集群选型建议 集群网络地址段规划实践 集群网络模型选择及各模型区别 通过CCE搭建IPv4/IPv6双栈集群 使用共享VPC创建CCE Turbo集群 集群日常管理实践 预防集群过载的配置建议 CCE集群高可用推荐配置
若上传的模板中包含不正确或者不兼容的资源,会导致安装模板失败,类似下图: 此时模板实例无法正常工作。如果您尝试在界面上删除,可能会出现deletion failed的报错,模板实例仍在列表中: 解决方法 您可以使用kubectl命令删除残留的模板实例。 删除残留的模板实例无法从根本上解决该问题。
4.1-98版本的containerd作为kuberentes CRI运行时。 2. CCE集群containerd版本低于1.5.11以下的集群。 判断方法 在node节点上使用root用户执行containerd --version查看containerd版本。 新Conso
网络 集群网络地址段规划实践 集群网络模型选择及各模型区别 CCE集群实现访问跨VPC网络通信 使用VPC和云专线实现容器与IDC之间的网络通信 自建IDC与CCE集群共享域名解析 通过负载均衡配置实现会话保持 不同场景下容器内获取客户端源IP 通过配置容器内核参数增大监听队列长度
迁移的影响,以最大限度避免可能存在的风险。 Containerd不具备镜像构建功能,请勿在Containerd节点上使用Docker Build功能构建镜像。Docker和Containerd其他差异请参考容器引擎说明。 默认节点池中的节点迁移步骤 登录CCE控制台,单击集群名称进入集群。