检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
据量。 IO读写时延:云硬盘连续两次进行读写操作所需要的最小时间间隔。 表1 云硬盘性能规格 参数 极速型SSD V2 通用型SSD V2 极速型SSD 通用SSD 超高IO 高IO 云硬盘最大容量(GiB) 系统盘:1024 数据盘:32768 系统盘:1024 数据盘:32768
但存在NAT转换损耗。 容器网络与VPC网络融合,性能无损耗。 组网规模 最大可支持2000节点 受限于VPC路由表能力,适合中小规模组网,建议规模为1000节点及以下。 VPC网络模式下,集群每添加一个节点,会在VPC的路由表中添加一条路由(包括默认路由表和自定义路由表),因此
虚拟机节点类型:通用计算增强型 节点规格:4核 | 8GiB 操作系统:EulerOS 2.9 系统盘:50GiB | 通用型SSD 数据盘:100GiB | 通用型SSD 1 1.0015元/小时 云硬盘EVS 建议选择按需计费。 云硬盘规格:100G 云硬盘类型:通用型SSD 1
等待或咨询SFS服务客户支持。若您的应用所在区域已经支持通用文件系统,建议新应用使用通用文件系统,并尽快将已有的SFS容量型文件存储迁移到通用文件系统中,以免容量不足影响业务。 表1 文件存储性能 参数 SFS容量型 通用文件系统(SFS 3.0) 最大带宽 2GB/s 1.25TB/s
PVC,动态创建出的PV会默认带有StorageClass中设置的挂载参数。 前提条件 CCE容器存储(Everest)版本要求1.2.8及以上版本。插件主要负责将挂载参数识别并传递给底层存储,指定参数是否有效依赖于底层存储是否支持。 约束与限制 挂载参数暂不支持安全容器。 由于
io/server/minio/release/linux-amd64/minio chmod +x minio 设置MinIO的用户名及密码。 此方法设置的用户名及密码为临时环境变量,在服务重启后需要重新设定,否则会使用默认root凭据minioadmin:minioadmin来创建服务。
(volumeClaimTemplates字段)实现,并依赖于StorageClass的动态创建PV能力。在多实例的有状态负载中,动态挂载可以为每一个Pod关联一个独有的PVC及PV,当Pod被重新调度后,仍然能够根据该PVC名称挂载原有的数据。而在无状态工作负载的普通挂载方式中
(volumeClaimTemplates字段)实现,并依赖于StorageClass的动态创建PV能力。在多实例的有状态负载中,动态挂载可以为每一个Pod关联一个独有的PVC及PV,当Pod被重新调度后,仍然能够根据该PVC名称挂载原有的数据。而在无状态工作负载的普通挂载方式中
s-through后,从工作负载Pod所在节点或同节点的其他容器中访问ELB的私网IP地址,会出现无法访问的问题。 1.15及以下老版本集群暂不支持该能力。 IPVS网络模式下,对接同一个ELB的Service需保持pass-through设置情况一致。 使用节点级别(Local
GPU)。 在v1.27及以下的集群中使用默认GPU调度能力时,GPU插件会把驱动的目录挂载到/usr/local/nvidia/lib64,在容器中使用GPU资源需要将/usr/local/nvidia/lib64追加到LD_LIBRARY_PATH环境变量中。v1.28及以上的集群中则无需执行此步骤。
io/disk-volume-type 是 云硬盘类型,全大写。 SAS:高I/O SSD:超高I/O GPSSD:通用型SSD ESSD:极速型SSD GPSSD2:通用型SSD v2,Everest版本为2.4.4及以上支持使用,使用时需同时指定everest.io/disk-iops和everest.
Controller挂卸卷能力 提高SFS挂载稳定性 新建集群EVS默认创建类型调整为SAS 1.2.5 v1.15 v1.17 v1.19 提升挂载相关能力可靠性 优化了使用OBS存储时的认证功能,需要用户上传密钥 提高everest插件对flexvolume卷的兼容能力 提高插件运行稳定性
the volume is correct and whether it can be mounted. 工作负载中使用了通用文件系统(SFS 3.0),但未创建通用文件系统使用的VPCEP,导致文件系统无法访问。 在集群所在VPC创建一个VPC终端节点,配置VPC终端节点的方法请参见配置VPC终端节点。
Ingress是社区常见的一种实现,目前CCE服务提供了一款基于社区的NGINX Ingress Controller优化的精选开源插件,提供丰富的七层负载均衡能力。而在高并发场景下,插件的CPU内存等预分配资源和网络连接数的不足会影响应用的性能。本文介绍如何通过调优NGINX Ingress控制器来支撑高负载业务。
Code一键式部署类最佳实践 表1 CCE最佳实践 分类 相关文档 集群相关 CCE集群选型建议 集群网络地址段规划实践 集群网络模型选择及各模型区别 通过CCE搭建IPv4/IPv6双栈集群 使用共享VPC创建CCE Turbo集群 将K8s集群迁移到CCE 预防集群过载的配置建议
创建节点支持选择Docker容器引擎。 支持使用通用型SSD v2、极速SSD v2类型的云硬盘。 ELB Ingress支持配置灰度发布。 ELB Ingress支持配置URL重定向、Rewrite重写、HTTP重定向到HTTPS能力。 开放高频使用的集群参数、节点池参数配置。 修复部分安全问题。
创建守护进程集(DaemonSet) 操作场景 云容器引擎(CCE)提供多种类型的容器部署和管理能力,支持对容器工作负载的部署、配置、监控、扩容、升级、卸载、服务发现及负载均衡等特性。 其中守护进程集(DaemonSet)可以确保全部(或者某些)节点上仅运行一个Pod实例,当有节点加入集群时,也会为其新增一个
tes中的Pod优先级定义(PriorityClass)。启用该能力后,调度器将优先保障高优先级业务调度。集群资源不足时,调度器主动驱逐低优先级业务,保障调度高优先级业务可以正常调度。 前提条件 已创建v1.19及以上版本的集群,详情请参见购买Standard/Turbo集群。
nothing”的调度需求,避免Pod的任意调度导致集群资源的浪费,主要应用于AI、大数据等多任务协作场景。启用该能力后,可以解决分布式训练任务之间的资源忙等待和死锁等痛点问题,大幅度提升整体训练性能。 前提条件 已创建v1.19及以上版本的集群,详情请参见购买Standard/Turbo集群。 已安装Volca
0版本优化了使用OBS存储时的密钥认证功能,请在Everest插件升级完成后(从低于1.2.0的版本升级到1.2.0及以上版本),重启集群中使用OBS的全部工作负载,否则工作负载使用OBS存储能力将受影响! 关于Everest插件的版本说明,请参见CCE容器存储插件(Everest)版本发布记录。