检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
请选择对应的协议类型和端口,目前支持TCP和UDP协议。不填写表示不限制。 目标网段 允许将流量转发至指定的一个网段内(可指定多个例外网段)。指定网段和例外网段用竖线(|)分隔,多个例外网段用逗号(,)分隔。例如 172.17.0.0/16|172.17.1.0/24,172.17.2.0/24
unhealthy. NVML获取设备UUID异常 隔离故障GPU节点的GPU设备 GPUXidError Xid=%d on Device=%s, UUID=%s, SN=%s, the device will go unhealthy. GPU设备存在Xid错误,Xid捕获范围为74和79
如何让多个Pod均匀部署到各个节点上? Kubernetes中kube-scheduler组件负责Pod的调度,对每一个新创建的 Pod 或者是未被调度的 Pod,kube-scheduler 会选择一个最优的节点去运行这个 Pod。kube-scheduler 给一个 Pod
GPU驱动的一个漏洞CVE-2021-1056,该漏洞是存在于NVIDIA GPU驱动程序中与设备隔离相关的安全漏洞。当容器以非特权模式启动,攻击者利用这个漏洞,通过在容器中创建特殊的字符设备文件后,能够获取宿主机上所有GPU设备的访问权限。 关于漏洞的详细信息,请参见CVE-2021-1056。 如
为ELB Ingress配置多个转发策略 Ingress可通过不同的匹配策略同时路由到多个后端服务,例如,通过访问“www.example.com/foo”、“www.example.com/bar”、“foo.example.com/”即可分别路由到三个不同的后端Service。
网络 集群网络地址段规划实践 集群网络模型选择及各模型区别 CCE集群实现访问跨VPC网络通信 使用VPC和云专线实现容器与IDC之间的网络通信 自建IDC与CCE集群共享域名解析 通过负载均衡配置实现会话保持 不同场景下容器内获取客户端源IP 通过配置容器内核参数增大监听队列长度
如何退订我的云容器引擎? 客户购买包周期资源后,支持客户退订包周期实例。退订资源实例包括资源续费部分和当前正在使用的部分,退订后资源将无法使用。退订资源实例需收取手续费。 注意事项 退订该实例是指退订续费部分和当前正在使用的部分,资源退订后将无法使用。 解决方案组合产品只支持整体退订。 订单中存在主从关系的资源,需分别退订。
OpenSSH远程代码执行漏洞公告(CVE-2024-6387) OpenSSH是一个基于SSH协议的安全网络通信工具,通过加密所有流量以消除窃听、连接劫持和其他攻击。此外,OpenSSH 还提供大量安全隧道功能、多种身份验证方法和复杂的配置选项,是远程服务器管理和安全数据通信的必备工具。
的限制,建议集群规模为1000节点及以下。 性能要求高:由于云原生网络2.0直接使用VPC网络构建容器网络,容器通信不需要进行隧道封装和NAT转换,所以适用于对带宽、时延要求极高的业务场景,比如:线上直播、电商抢购等。 大规模组网:云原生网络2.0当前最大可支持2000个ECS节点,10万个Pod。
准备GPU虚拟化资源 CCE GPU虚拟化采用自研xGPU虚拟化技术,能够动态对GPU设备显存与算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。本文介绍如何在GPU节点上实现GPU的调度和隔离能力。 前提条件 配置 支持版本 集群版本 v1.23.8-r0、v1.25
如果已经使用kubectl delete命令删除PV或PVC,会一直处在Terminating状态,在执行下面patch命令后会直接删除,无需重复执行kubectl delete命令。 PV kubectl patch pv <pv-name> -p '{"metadata":{"finalizers":null}}'
为ELB Ingress配置多个监听端口 Ingress支持配置自定义监听端口,可为同一个服务配置HTTP和HTTPS协议的监听器,例如一个服务可以同时暴露HTTP协议的80端口和HTTPS的443端口对外提供访问。 前提条件 已创建一个CCE Standard或CCE Turbo集群,且集群版本满足以下要求:
Pod不会受到影响。 验证插件 插件安装完成后,在GPU节点及调度了GPU资源的容器中执行nvidia-smi命令,验证GPU设备及驱动的可用性。 GPU节点: # 插件版本为2.0.0以下时,执行以下命令: cd /opt/cloud/cce/nvidia/bin && ./nvidia-smi
)可以通过弹性负载均衡从公网访问到工作负载,与弹性IP方式相比提供了高可靠的保障。集群外访问推荐使用负载均衡类型。 DNAT网关(DNAT) 可以为集群节点提供网络地址转换服务,使多个节点可以共享使用弹性IP。与弹性IP方式相比增强了可靠性,弹性IP无需与单个节点绑定,任何节点状态的异常不影响其访问。
异构资源配置 GPU配置 GPU虚拟化 CCE GPU虚拟化采用自研xGPU虚拟化技术,能够动态对GPU设备显存与算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户自己定义使用的GPU
负载均衡器,可以向外部暴露服务。外部的负载均衡器可以路由到NodePort服务和ClusterIP服务。 DNAT:DNAT网关。可以为集群节点提供网络地址转换服务,使多个节点可以共享使用弹性IP。与弹性IP方式相比增强了可靠性,弹性IP无需与单个节点绑定,任何节点状态的异常不影响其访问。
本文介绍如何使用GPU虚拟化能力实现算力和显存隔离,高效利用GPU设备资源。 前提条件 已完成GPU虚拟化资源准备。 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。 约束与限制 单个GPU卡最多虚拟化成20个GPU虚拟设备。 init容器不支持使用GPU虚拟化资源。
字节 磁盘可用量和已使用量 磁盘空间使用率 百分比 不同设备的磁盘使用率 磁盘IO延迟(秒) 秒 磁盘IO延迟 TCP连接 个 TCP连接数 alloc:已分配(已建立、已申请到sk_buff)的TCP套接字数量。 inuse:正在使用(侦听)的TCP套接字数量。 orphan:已分
的限制,建议集群规模为1000节点及以下。 性能要求高:由于云原生网络2.0直接使用VPC网络构建容器网络,容器通信不需要进行隧道封装和NAT转换,所以适用于对带宽、时延要求极高的业务场景,比如:线上直播、电商抢购等。 大规模组网:云原生网络2.0当前最大可支持2000个ECS节点,10万个Pod。
以上文件仅为示例,您可以根据您的业务需求进行替换或修改。 设置全局变量 流水线运行过程中,会先Build镜像上传到SWR,然后执行kubectl命令在集群中部署,这就需要能够登录SWR镜像仓库,并且要有集群的连接凭证。实际执行中可以将这些信息在Gitlab中定义成变量。 登录Gitlab,进入项目视图的Settin