检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
0容器引擎服务,具备软硬协同、网络无损、安全可靠、调度智能的优势,为用户提供一站式、高性价比的全新容器服务体验。 CCE Turbo集群提供了面向大规模高性能的场景云原生2.0网络,容器直接从VPC网段内分配IP地址,容器和节点可以分属不同子网,支持VPC内的外部网络与容器IP直通,享有高性能。 发布区域:华北-北京
集群下全部GPU节点将使用相同的驱动,请选择合适的GPU驱动版本,或自定义驱动链接地址,填写Nvidia驱动的下载链接。 须知: 如果下载链接为公网地址,如nvidia官网地址(https://us.download.nvidia.com/tesla/470.103.01/NVIDIA-Linux-x86_64-470
均可以进行通信,不同VPC的弹性云服务器不能进行通信。 不同VPC的弹性云服务器可通过VPC创建对等连接通信。 默认节点子网 | IPv4网段 显示集群的节点子网网段。 容器网络模型 显示集群的容器网络模型,集群创建成功后,网络模型不可更改。不同网络模型对比请参见容器网络模型对比。
autocreate部分参数说明 参数 是否必填 参数类型 描述 type 否 String 负载均衡实例网络类型,公网或者私网。 public :公网型负载均衡。 inner :私网型负载均衡。 默认类型:inner。 bandwidth_name 公网型负载均衡必填 String 带宽的名称
需)和value属性(可选)。此属性中的内容将合并到从指定的DNS策略生成的选项中,并删除重复的条目。 详情请参考:Kubernetes官网的dns配置说明。 DnsPolicy域名解析的几种场景应用 POD里的DNS策略可以对每个Pod进行设置,支持三种策略:Default、ClusterFirst、None。
这意味着新的Pod将不会被调度到该节点上。 kubectl cordon <nodename> CCE中<nodename>默认为节点私网IP。 使用drain命令,驱逐该节点上的Pod,将运行在该节点上运行的Pod平滑的搬迁到其他节点上。 kubectl drain <nodename>
overlay_l2:容器隧道网络,通过OVS(OpenVSwitch)为容器构建的overlay_l2网络。 vpc-router:VPC网络,使用ipvlan和自定义VPC路由为容器构建的Underlay的l2网络。 eni:云原生网络2.0,深度整合VPC原生ENI弹性网卡能力,采用VPC网段
两个VPC网段不能冲突,需要给两个VPC创建对等连接,配置方法请参见对等连接。 与ELB不同VPC的集群,集群node安全组(云原生2.0网络时为eni安全组)入方向需要放通源地址为ELB所在VPC网段。 ELB添加跨VPC后端,集群对应的安全组需要放通负载均衡器的后端子网网段、
export PACKER_LOG_PATH="packer_$PACKER_BUILD_TIMESTAMP.log" 更多packer配置详细参见官网说明。 执行结束日志: 如果出现packer插件报错的情况,请参见常见问题处理。 构建文件清理 清理执行机上构建文件,主要涉及turbo-node
overlay_l2:容器隧道网络,通过OVS(OpenVSwitch)为容器构建的overlay_l2网络。 vpc-router:VPC网络,使用ipvlan和自定义VPC路由为容器构建的Underlay的l2网络。 eni:云原生网络2.0,深度整合VPC原生ENI弹性网卡能力,采用VPC网段
overlay_l2:容器隧道网络,通过OVS(OpenVSwitch)为容器构建的overlay_l2网络。 vpc-router:VPC网络,使用ipvlan和自定义VPC路由为容器构建的Underlay的l2网络。 eni:云原生网络2.0,深度整合VPC原生ENI弹性网卡能力,采用VPC网段
user 登录Argo服务端,用户名为admin,服务端地址及密码可从1中获取。如果ECS服务器与集群处于同一VPC下,此处节点IP可使用私网IP。 argocd login <节点IP:端口号> --username admin --password <password> 回显示例如下:
0容器引擎服务,具备软硬协同、网络无损、安全可靠、调度智能的优势,为用户提供一站式、高性价比的全新容器服务体验。 CCE Turbo集群提供了面向大规模高性能的场景云原生2.0网络,容器直接从VPC网段内分配IP地址,容器和节点可以分属不同子网,支持VPC内的外部网络与容器IP直通,享有高性能。 CCE Autopilot集群
GPU监控指标说明 CCE AI套件(NVIDIA GPU)插件提供GPU监控指标,并集成了DCGM-Exporter组件(要求插件版本2.7.32+),引入更丰富的GPU可观测性场景。本文介绍CCE AI套件(NVIDIA GPU)插件指标的详细信息。 计费说明 GPU指标作为
overlay_l2:容器隧道网络,通过OVS(OpenVSwitch)为容器构建的overlay_l2网络。 vpc-router:VPC网络,使用ipvlan和自定义VPC路由为容器构建的Underlay的l2网络。 eni:云原生网络2.0,深度整合VPC原生ENI弹性网卡能力,采用VPC网段
Pod删除时,网卡释放回节点的预热网卡池。 节点删除时,将释放节点上所有已绑定的网卡(弹性网卡释放回集群预申请的网卡池,辅助弹性网卡直接删除)。 云原生2.0网络目前支持以下网卡预热策略:节点容器网卡动态预热策略和节点绑定容器网卡数总量高低水位策略(废弃中)。使用场景如下表所示: 表1 容器网卡预热策略对比表
Ingress控制器,需将nginx替换为自定义的控制器名称,用于识别Ingress对接的控制器实例。 独享型ELB规格必须支持网络型(TCP/UDP),且网络类型必须支持私网(有私有IP地址)。 运行Nginx Ingress控制器实例的节点以及该节点上运行的容器,无法访问Nginx Ingress,请将工作负载Pod与Nginx
Turbo容器网卡支持固定IP。详情请参见为Pod配置固定IP。 CCE Turbo容器网卡支持自动创建和自动绑定EIP。详情请参见为Pod配置固定EIP。 云原生2.0网络支持命名空间指定子网。 增强节点重启后,docker运行时拉取镜像的稳定性。 优化CCE Turbo集群在非全预热场景分配网卡的性能。 修复部分安全问题。
Turbo容器网卡支持固定IP。详情请参见为Pod配置固定IP。 CCE Turbo容器网卡支持自动创建和自动绑定EIP。详情请参见为Pod配置固定EIP。 云原生2.0网络支持命名空间指定子网。 增强节点重启后,docker运行时拉取镜像的稳定性。 优化CCE Turbo集群在非全预热场景分配网卡的性能。 修复部分安全问题。
节点规格说明 您可以通过本节快速浏览CCE支持的节点规格清单及相关特性,帮助您选择合适的机型规格。 节点类型 说明 节点规格 弹性云服务器-虚拟机 使用KVM/擎天虚拟化技术的弹性云服务器类型,针对不同的应用场景,可以选择多种规格类型,提供不同的计算能力和存储能力。 X86机型: