检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
产品优势 云容器引擎的优势 云容器引擎是基于业界主流的Docker和Kubernetes开源技术构建的容器服务,提供众多契合企业大规模容器集群场景的功能,在系统可靠性、高性能、开源社区兼容性等多个方面具有独特的优势,满足企业在构建容器云方面的各种需求。 简单易用 通过WEB界面一键创建CCE
节点主要是处理调度构建作业,把构建分发到Agent实际执行,监视Agent的状态。业务构建发布的工作交给Agent进行,即执行Master分配的任务,并返回任务的进度和结果。 Jenkins的Master和Agent均可安装在虚拟机或容器中,且组合形式可多样,参见表1。 表1 Jenkins部署模式
节点池级别操作系统。 节点池级别每节点的Pod数上限。 节点池升级说明 对于v1.21.11-r0、v1.23.9-r0、v1.25.4-r0及以上版本的集群,新建的节点池不再区分计费模式,默认支持创建按需和包周期的节点,为您提供更优秀的资源管理体验。 新节点池的优势如下: 同一个节点池中支持
在弹出的窗口中,在“批量操作”下方单击“新增批量操作”,然后选择“添加/更新”或“删除”,选择“K8S 污点(Taints)”。 填写需要操作污点的“键”和“值”,选择污点的效果,单击“确定”。 图1 添加污点 污点添加成功后,再次进入该界面,在节点数据下可查看到已经添加的污点。
您可以根据工作负载标签,使用标签选择器来筛选需要亲和/反亲和的Pod,并将新建的工作负载调度/不调度至目标Pod所在的节点(或节点组),同时支持必须满足和尽量满足的亲和性规则。 说明: 工作负载亲和性和反亲和性需要一定的计算时间,因此在大规模集群中会显著降低调度的速度。在包含数百个节点的集群中,不建议使用这类设置。
集群的管理规模和控制节点的数量有关系吗? 集群管理规模是指:当前集群支持管理的最大节点数。若选择50节点,表示当前集群最多可管理50个节点。 针对不同的集群规模,控制节点的规格不同,但数量不受管理规模的影响。 集群的多控制节点模式开启后将创建三个控制节点,在单个控制节点发生故障后集群可以继续使用,不影响业务功能。
工作负载亲和(podAffinity) 节点亲和的规则只能影响Pod和节点之间的亲和,Kubernetes还支持Pod和Pod之间的亲和,例如将应用的前端和后端部署在一起,从而减少访问延迟。Pod亲和同样有requiredDuringSchedulingIgnoredDuringExecution和preferr
Turbo集群正式发布,敬请购买使用 发布时间:2021/03/31 CCE Turbo集群是全面基于云原生基础设施构建的云原生2.0的容器引擎服务,具备软硬协同、网络无损、安全可靠、调度智能的优势,为用户提供一站式、高性价比的全新容器服务体验。 详情请参见购买CCE集群。 父主题: 产品变更公告
载使用的存储卷声明。 迁移后,请保持容器内的挂载路径和子路径与之前挂载SFS1.0时一致。 替换完成后,可扩容工作负载实例数。 确认无问题后,可清理CCE侧的SFS 1.0的存储卷。 有状态应用中的动态挂载存储的迁移 有状态应用中动态挂载的存储从SFS 1.0迁移到通用文件系统(SFS
Balance)实现的Ingress服务。相比于自建Nginx Ingress,ELB Ingress提供更为强大的Ingress流量管理功能,具有以下优势: 全托管免运维:ELB属于全托管免运维的云服务,不占用工作节点。 高可用性:ELB支持多可用区的同城双活容灾,无缝实时切换。完善的健康检查机制,保障业务实时在线。
(或其他集群的Service),因为kube-proxy会在ipvs-0的网桥上挂载LB类型的Service地址,ELB的流量会被ipvs-0网桥劫持。建议Ingress和Service(或不同集群的Service)使用不同ELB实例。 不推荐使用EulerOS 2.5、CentOS
在左侧弹性云服务器列表中,选择待操作节点对应的云服务器,单击后方操作列中的“更多 > 关机”。 待云服务器关机后,单击待操作节点后方操作列中的“更多 > 重置密码”,按照界面提示进行操作即可重置密码。 密码重置完成后,单击待操作节点后方操作列中的“更多 > 开机”,单击后方的“远程登录”即可通过密码登录该节点。
所有Pending状态的Pod,根据用户配置的扩缩容策略,选择出一个最合适的节点池,在这个节点池扩容。HPA和CA的工作原理详情请参见工作负载伸缩原理和节点伸缩原理。 图1 HPA + CA工作流程 使用HPA+CA可以很容易做到弹性伸缩,且节点和Pod的伸缩过程可以非常方便地观
CCE节点上监听的端口列表 表1 Node节点监听端口 目的端口 协议 端口说明 10248 TCP kubelet健康检查端口 10250 TCP kubelet服务端口,提供节点上工作负载的监控信息和容器的访问通道 10255 TCP kubelet只读端口,提供节点上工作负载的监控信息
是否可以直接连接CCE集群的控制节点? CCE支持使用Kubectl工具连接集群,具体请参见通过Kubectl连接集群。 CCE不支持登录控制节点执行相关操作。 父主题: 集群运行
如何确认已创建的集群是否为多控制节点模式? 登录CCE控制台,进入集群,在集群详情页面右侧查看控制节点数量: 3个节点即为多控制节点模式。 1个节点即为单控制节点模式。 集群一旦创建,便无法更改控制节点数,需要重新创建集群才能调整。 父主题: 集群运行
true参数,详情请参见在Pod中配置主机网络(hostNetwork)。配置完成后的Pod会占用宿主机的端口,Pod的IP就是宿主机的IP,不会占用容器网络的IP。使用时需要考虑是否与宿主机上的端口冲突,因此一般情况下除非某个特定应用必须使用宿主机上的特定端口,否则不建议使用主机网络。 父主题: 节点运维
--delete-emptydir-data:强制驱逐节点上绑定了本地存储的Pod,例如coredns。 --ignore-daemonsets:忽略节点上的守护进程集Pod,例如everest-csi-driver。 示例中节点上存在绑定本地存储的Pod和守护进程集Pod,因此驱逐命令如下: kubectl
储在宿主机上的目录,比如一个NFS的挂载目录。 PVC:PVC描述的是Pod所希望使用的持久化存储的属性,比如,Volume存储的大小、可读写权限等等。 Kubernetes管理员设置好网络存储的类型,提供对应的PV描述符配置到Kubernetes,使用者需要存储的时候只需要创建
卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户自己定义使用的GPU量,提高GPU利用率。 GPU虚拟化的优势 CCE提供的GPU虚拟化功能优势如下: 灵活:精细配置GPU算力占比及显存大小,算力分配粒度为5%GPU,显存分配粒度达MiB级别。