检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
后,能够获取宿主机上所有GPU设备的访问权限。 关于漏洞的详细信息,请参见CVE-2021-1056。 如果您的CCE集群中存在GPU(ECS)节点,并使用了CCE推荐的NVIDIA GPU驱动版本(Tesla 396.37),按照目前NVIDIA官方公告判断暂不受影响;如果您自行安装或更新过节点上的NVIDIA
使用本地临时卷 本地临时卷(Local Ephemeral Volume)存储在临时卷存储池,相比原生EmptyDir默认的存储介质类型性能要更好,且支持扩容。 前提条件 您已经创建好一个集群,并且在该集群中安装CSI插件(everest)。 如果您需要通过命令行创建,需要使用ku
策略触发时,工作负载实例将在此范围内伸缩。 须知: 在CCE Turbo集群中,如果使用独享型ELB对接到工作负载,则最大实例数不能超过ELB的后端服务器组配额(默认为500),否则将会导致多余的实例无法添加到ELB后端。 冷却时间 请输入缩容和扩容的冷却时间,单位为分钟,缩容扩容冷却时间不能小于1分钟。
nodelocalvolume - name: nodeemptydirvolume - name: nodeCSIscheduling - name: networkresource ... 单击“保存”。 父主题: GPU虚拟化
件被卸载后,如果节点上依然存在该污点请您手动进行删除。 约束与限制 安装时请确保集群具有足够的资源。 该插件功能仅支持虚拟机节点,不支持物理机节点和裸金属服务器。 默认节点池不支持弹性扩缩容,详情请参见默认节点池DefaultPool说明。 缩容节点会导致与节点关联的本地持久卷类
20 8G 40 16G 60 32G 80 64G及以上 110 节点网卡数量说明(仅CCE Turbo集群) CCE Turbo集群ECS节点使用弹性辅助网卡,裸金属节点使用弹性网卡,节点可以创建最大Pod数量与节点可使用网卡数量相关。 图3 节点网卡数 容器网络与主机网络的Pod
会略微变长同时IP地址的利用率会下降。 暂不支持CCE Turbo集群中BMS节点上的Pod配置固定IP。在BMS节点(使用弹性网卡)跟ECS节点(使用辅助弹性网卡)混合使用的CCE Turbo集群中,需要为Pod设置节点亲和性调度,以保证Pod不会调度到BMS节点,否则将导致固定IP无法保留。
企业项目ID,选择后可以直接创建在具体的企业项目下。 取值范围:1~100字符。 获取方法: 登录控制台后,单击顶部菜单右侧的“企业 > 项目管理”,在打开的企业项目列表中单击要加入的企业项目名称,进入企业项目详情页,找到“ID”字段复制即可。 kubernetes.io/elb.autocreate 是 elb.autocreate
0为例进行演示。 如需选择其他合适的版本,请访问https://github.com/helm/helm/releases。 在连接集群的虚拟机上下载Helm客户端。 wget https://get.helm.sh/helm-v2.17.0-linux-amd64.tar.gz 解压Helm包。
0为例进行演示。 如需选择其他合适的版本,请访问https://github.com/helm/helm/releases。 在连接集群的虚拟机上下载Helm客户端。 wget https://get.helm.sh/helm-v3.3.0-linux-amd64.tar.gz 解压Helm包。
orage大小保持一致。 volumeName PV的名称。 图1 弹性文件存储-共享路径 文件存储所在VPC必须与工作负载规划部署的ECS虚拟机的VPC保持一致。 创建PV。 kubectl create -f pv-sfs-example.yaml 创建PVC。 kubectl
"v1.23", "driver_init_image_version" : "2.1.30", "ecsEndpoint" : "******", "everest_image_version" : "2.1.30",
"v1.25", "driver_init_image_version" : "2.1.16", "ecsEndpoint" : "******", "euleros_version" : "2.2.5", "e
模块提供了基本的监控功能,通过在nginx.conf的配置可以提供一个对外访问Nginx监控数据的接口。 登录一台可连接公网的Linux虚拟机,且要求可执行Docker命令。 创建一个nginx.conf文件,如下所示,在http下添加server配置即可让nginx提供对外访问的监控数据的接口。
hub.com/Altinity/clickhouse-operator。 前提条件 已创建一个集群,且集群有可用节点,具体操作步骤请参见购买Standard/Turbo集群。 集群内节点已绑定弹性公网IP,且已配置kubectl命令行工具,具体请参见将弹性公网IP绑定至实例和通过kubectl连接集群。
fsType设置为obsfs时,该字段不起作用。 自定义存储类应用场景 在CCE中使用存储时,最常见的方法是创建PVC时通过指定StorageClassName定义要创建存储的类型,如下所示,使用PVC申请一个SAS(高I/O)类型云硬盘/块存储。 apiVersion: v1 kind: PersistentVolumeClaim
自定义StorageClass 应用现状 CCE中使用存储时,最常见的方法是创建PVC时通过指定StorageClassName定义要创建存储的类型,如下所示,使用PVC申请一个SAS(高I/O)类型云硬盘/块存储。 apiVersion: v1 kind: PersistentVolumeClaim
其余参数可保持默认,无需填写,并单击“保存”。 在“节点列表”中单击新增的节点名称,可看到Agent状态未连接,并提供了节点连接Jenkins的方式。该命令适用于虚拟机安装,而本示例为容器化安装,因此仅需复制其中的secret,如下图所示。 前往CCE控制台,单击左侧栏目树中的“工作负载 > 无状态负载”
Ingress插件需要考虑以下几个方面。 使用高性能节点 在高并发场景下,Ingress对CPU资源和网络连接数占用都非常高,所以可选增强型ECS实例。 登录CCE控制台。 单击集群名称进入集群,在左侧选择“节点管理”,在右侧选择“节点池”页签。 单击右上角“创建节点池”,创建新的节
动与CCE其他GPU组件兼容(例如监控组件等)。 如果您使用不在GPU驱动支持列表内的GPU驱动版本,可能引发GPU驱动与操作系统版本、ECS实例类型、Container Runtime等不兼容,继而导致驱动安装失败或者GPU插件异常。对于使用自定义GPU驱动的场景,请您自行验证。