检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
什么是弹性网卡? 弹性网卡即虚拟网卡,您可以通过创建并配置弹性网卡,并将其附加到您的云服务器实例(包括弹性云服务器和裸金属服务器)上,实现灵活、高可用的网络方案配置。 弹性网卡类型 主弹性网卡:在创建云服务器实例时,随实例默认创建的弹性网卡称作主弹性网卡。主弹性网卡无法与实例进行解绑。
Ubuntu内核与GPU驱动兼容性提醒 检查项内容 检查到集群中同时使用GPU插件和Ubuntu节点,提醒客户存在可能的兼容性问题。当Ubuntu内核版本在5.15.0-113-generic上时,GPU插件必须使用535.161.08及以上的驱动版本。 解决方案 您在升级后新创
如何修复出现故障的容器网卡? 容器的网卡出现故障,会导致容器不断重启,且该容器无法对外提供服务。可通过如下步骤修复出现故障的容器网卡: 操作步骤 执行如下命令,删除故障容器的Pod。 kubectl delete pod {podName} -n {podNamespace} 其中:
CCE集群的节点是否支持绑定多网卡? CCE集群的节点不支持绑定多网卡,请勿手动绑定多网卡,否则会对集群的网络访问造成影响。 父主题: 网络规划
CCE推荐的GPU驱动版本列表 对于CCE集群,各系统推荐使用驱动版本如下表,若使用非CCE推荐驱动版本,需要您自行验证机型、系统及驱动版本间的配套兼容性。您可以根据您的应用所使用的CUDA Toolkit版本,对照CUDA Toolkit与NVIDIA驱动的版本兼容性列表,选择合适的NVIDIA驱动版本。
GPU节点驱动版本 选择GPU节点驱动版本 CCE推荐的GPU驱动版本列表 手动更新GPU节点驱动版本 通过节点池升级节点的GPU驱动版本 父主题: GPU调度
Toolkit和驱动的版本兼容性列表。您可以根据应用所使用的CUDA Toolkit版本,选择合适的NVIDIA驱动版本。 在选择Nvidia驱动时,建议您在满足下表中CUDA版本和驱动版本配套关系的前提下,优先选择CCE推荐的GPU驱动版本列表中提供的GPU驱动版本。若CCE推荐的驱动版本无法匹配您使用的CUDA
确认节点标签是否已经打上nvidia资源。 查看nvidia驱动运行是否正常。 到插件运行所在的节点上,查看驱动的安装日志,路径如下所示: /opt/cloud/cce/nvidia/nvidia_installer.log 查看nvidia容器标准输出日志: 过滤容器id docker ps –a
单击进入子网,选择“基本信息”页签,在“资源概览”中单击进入弹性网卡,查看该子网下的“弹性网卡”和“辅助弹性网卡”。 查看网卡“名称”或者“描述”,如果其中包含当前集群的ID,表示网卡被集群占用。您可以在CCE控制台的集群“总览”页中复制集群ID。 如果需要清理集群内使用的子网网卡,需要提交工单处理。 父主题:
07版本。 如果节点驱动版本为450系列,请升级驱动至450.102.04版本。 如果节点驱动版本为460系列,请升级驱动至460.32.03版本。 如果您升级CCE集群节点的GPU驱动,可以升级gpu-beta插件或重装插件,并在安装插件时填写修复后的NVIDIA GPU驱动的下载地址即可。
#再次确认是否有程序正在使用GPU卡设备 节点安装指定NVIDIA驱动版本。 从NVIDIA官方网站中下载指定的驱动版本,如何选择GPU节点驱动版本请参见选择GPU节点驱动版本。 记录当前版本驱动状态。根据CCE AI套件(NVIDIA GPU)插件版本差异,查询驱动的命令如下: 1.x.x版本执行: /o
Turbo的容器网卡动态预热提供了4个相关的容器网卡动态预热参数,您可以根据业务规划,合理设置集群的配置管理或节点池的配置管理中的容器网卡动态预热参数(其中节点池的容器网卡动态预热配置优先级高于集群的容器网卡动态预热配置)。 表1 容器网卡动态预热参数 容器网卡动态预热参数 默认值
通过节点池升级节点的GPU驱动版本 如果您使用的CUDA库无法与当前的NVIDIA驱动版本匹配,您需要升级节点的驱动版本才可以正常使用GPU节点。建议您以节点池为粒度进行节点NVIDIA驱动版本的管理,创建应用时可调度到指定驱动版本的节点池,在升级驱动时,也可以根据节点池分批次控制升级。
余可加入的IPv6网卡数。 配置了共享带宽的IPv6双栈Pod:Pod创建时,CNI会等待IPv6双栈网卡插入共享带宽完成后才会返回成功;Pod删除时,会等待Pod完全删除或最长30秒删除状态后进行IPv6双栈网卡移出共享带宽。 如果Pod对应的IPv6双栈网卡加入共享带宽失败,
保障节点最少有多少张容器网卡绑定在节点上。 范围:正整数;例如10,表示节点最少有10张容器网卡绑定在节点上。当超过节点的容器网卡配额时,后台取值为节点的容器网卡配额。 配置建议: 建议配置为大部分节点日常运行Pod个数的大小;集群中的节点上会根据配置的值预热出一定的网卡个数,预热的网卡会占用容
器网卡数)< 预绑定低水位容器网卡数时,会绑定网卡直到节点上已绑定容器网卡数量(Pod使用的容器网卡数+预绑定的容器网卡数)=预绑定低水位容器网卡数。 当已绑定容器网卡数量(Pod使用的容器网卡数+预绑定的容器网卡数)> 预绑定高水位容器网卡数,且 节点预绑定的容器网卡数>0 时
0网络模式下,Pod使用的是VPC的弹性网卡/辅助弹性网卡,可以通过配置Pod的annotation为Pod配置安全组。 支持两种方式的安全组配置: Pod的网卡使用annotation配置的安全组,对应annotation配置:yangtse.io/security-group-ids。 Pod的网卡在使用
约束与限制 下载的驱动必须是后缀为“.run”的文件。 仅支持Nvidia Tesla驱动,不支持GRID驱动。 安装或重装插件时,需要保证驱动下载链接正确且可正常访问,插件对链接有效性不做额外校验。 插件仅提供驱动的下载及安装脚本执行功能,插件的状态仅代表插件本身功能正常,与驱动是否安装成功无关。
使用安全组策略为工作负载绑定安全组 云原生网络2.0网络模式下,Pod使用的是VPC的弹性网卡/辅助弹性网卡,可直接绑定安全组,绑定弹性公网IP。为方便用户在CCE内直接为Pod关联安全组,CCE新增了一个名为SecurityGroup的自定义资源对象。通过SecurityGro
型为VPC网络或容器隧道网络)。 给Pod IP绑定弹性公网IP(仅支持云原生2.0网络模型集群,在VPC控制台中手动为Pod的弹性网卡或辅助弹性网卡绑定弹性公网IP。不推荐使用,因为Pod被重调度后IP会变化导致新的Pod无法访问公网)。 通过NAT网关配置SNAT规则,通过NAT网关访问公网。