检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
v1.21 v1.23 v1.25 支持GPU资源抢占 优化混部弹性限流功能 增强可用区拓扑分布能力 优化NPU芯片rank table排序能力 优化GPU虚拟化功能 提升与CA联动扩容效率 提升调度稳定性 优化持久卷调度逻辑 优化日志信息 1.10.7 v1.19.16 v1.21
CCE容器服务创建的Kubernetes集群属于单租户专属,不存在跨租户共享,影响范围较小,对于多用户场景需要关注。 当前CCE采用华为优化的Docker容器,其中RUNC采用静态编译,目前公开披露的攻击方法无法成功入侵。 华为云CCI容器实例服务: CCI引擎采用华为Kata容器引擎,提供单节点上多容器高安全
U节点的IP。本文中以192.168.0.106为例。 登录GPU节点,通过以下命令查看GPU卡的信息。 nvidia-smi 可以看到该机器上存在1张卡GPU0。本文以GPU0为例,定位使用这张卡的Pod。 根据节点IP(即192.168.0.106)和设备号(即第0张卡)定位使用了该卡的Pod。
云原生成本治理是基于FinOps理念的容器成本治理解决方案,提供部门维度、集群维度、命名空间维度的成本和资源画像,并通过工作负载资源推荐等优化手段协助企业IT成本管理人员实现容器集群的提效降本诉求。 成本洞察 成本洞察基于真实账单和集群资源用量统计数据,通过自研的成本画像算法进行
查看kubectl的连接信息,并在弹出页面中下载配置文件。 配置kubectl。 登录到您的客户端机器,复制1.b中下载的配置文件(kubeconfig.json)到您客户端机器的/home目录下。 配置kubectl认证文件。 cd /home mkdir -p $HOME/
应用扩缩容优先级策略 通过应用扩缩容优先级策略,您可以精细调整Pod在不同类型节点上的扩容和缩容顺序,实现资源管理的最优化。在使用默认扩缩容优先级策略的情况下,扩容过程中Pod优先被调度到包周期的节点,其次被调度到按需计费的节点,最后被调度到virtual-kubelet节点(弹
提供以部门、集群、命名空间、应用等维度的成本画像。成本洞察能够帮助成本管理人员分析集群成本开销、资源使用状况,识别资源浪费,为下一步的成本优化提供输入。 成本洞察从Region视角和集群资源视角展示用户的容器成本使用情况。其中: Region视角成本洞察:以企业管理人员的角度,呈
通过Kubectl命令行创建ELB Ingress 本文以Nginx工作负载为例,说明通过kubectl命令添加ELB Ingress的方法。 如您在同一VPC下没有可用的ELB,CCE支持在添加Ingress时自动创建ELB,请参考添加Ingress时自动创建ELB。 如您已在
Volcano调度 Volcano调度概述 使用Volcano调度工作负载 资源利用率优化调度 业务优先级保障调度 AI任务性能增强调度 NUMA亲和性调度 应用扩缩容优先级策略 父主题: 调度
内存总量:所选时间周期最后一天,节点池中节点的内存总量之和 命名空间维度 命名空间维度支持对选中的命名空间、以及命名空间下的工作负载进行成本优化分析,识别开销较大,利用率较低的工作负载进行优化调整。 图5 命名空间维度的成本总览 名称 含义 本月至今成本 环比上月 本月至今:选择命名空间从月初到最新账单日
存储多可用区部署的推荐配置 应用场景 在多可用区构成的集群下,业务可以指定可用区部署。 多可用区部署可以减少可用区资源不足带来的故障问题。 通过存储多可用区部署优化,可以帮您最大限度地减少应用发布中断,确保关键业务系统和应用在各种故障情况下能持续运行。 前提条件 您已创建一个安装CCE容器存储(Everest)的集群,并且集群版本≥1
跨云Harbor同步镜像至SWR存在两种场景: Harbor可以通过公网访问SWR,配置方法参见公网访问场景。 通过专线打通Harbor到VPC间的网络,使用VPC终端节点访问SWR,配置方法参见专线打通场景。 背景知识 Harbor是VMware公司开源的企业级Docker R
已停止”状态下,驱动程序Pod不会使用任何计算或内存资源。 图1 提交机制的工作原理 在CCE上运行SparkPi例子 在执行Spark的机器上安装kubectl,详情请参见通过kubectl连接集群。 kubectl安装成功后,执行如下命令授予集群权限。 # 创建服务账号 kubectl
因此会导致用户在节点容器内解析域名会偶发失败的状况。 解决方案 建议您通过修改coredns插件的存根域更新用户集群子网DNS配置,修改方法请参见为CoreDNS配置存根域。 父主题: 域名DNS
ort容器可以终止时,该类型的Pod会被终止。 如果Pod进程因使用超过预先设定的限制值而非Node资源紧张情况,系统倾向于在其原来所在的机器上重启该容器。 如果资源充足,可将QoS Pod类型均设置为Guaranteed。用计算资源换业务性能和稳定性,减少排查问题时间和成本。
01/NVIDIA-Linux-x86_64-470.103.01.run),各GPU节点均需要绑定EIP。获取驱动链接方法请参考获取驱动链接-公网地址。 若下载链接为OBS上的链接,无需绑定EIP 。获取驱动链接方法请参考获取驱动链接-OBS地址。 请确保Nvidia驱动版本与GPU节点适配。配套关系请参见GPU驱动支持列表。
问题定位 当Pod状态为“Pending”,事件中出现“实例调度失败”的信息时,可根据具体事件信息确定具体问题原因。事件查看方法请参见工作负载状态异常定位方法。 排查思路 根据具体事件信息确定具体问题原因,如表1所示。 表1 实例调度失败 事件信息 问题原因与解决方案 no nodes
从容器访问公网 容器访问公网有如下方法可以实现。 给容器所在节点绑定弹性公网IP(容器网络模型为VPC网络或容器隧道网络)。 给Pod IP绑定弹性公网IP(仅支持云原生2.0网络模型集群,在VPC控制台中手动为Pod的弹性网卡或辅助弹性网卡绑定弹性公网IP。不推荐使用,因为Po
上容器创删等操作也会受影响。 解决方法 一般场景下,以8U16G节点、数据盘大小为100G为例,建议单容器的日志标准输出速率不超过512KB/s,节点上所有容器总体日志标准速率建议不超过5MB/s。若确实存在大量日志输出场景,可考虑以下方式优化: 避免日志输出过多的容器调度在同一
IPVS模式下,kube-proxy使用IPVS负载均衡代替了iptables。这种模式同样有效,IPVS的设计就是用来为大量服务进行负载均衡的,它有一套优化过的API,使用优化的查找算法,而不是简单的从列表中查找规则。详情请参见IPVS代理模式。 父主题: 购买集群