检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Service是否存在。 kubectl get svc <backend-svc-name> -n <namespace> 如果无法查询到对应的Service,则无法通过该检查项。 解决方案 检查项一解决方案 为Nginx类型的Ingress添加注解,方式如下: kubectl
PreferNoSchedule 已运行在该节点的Pod不会被驱逐。 未运行的Pod尽量不调度到该节点。 Pod可以在这个节点上一直运行。 NoSchedule 已运行在该节点的Pod不会被驱逐。 未运行的Pod不会被调度到该节点。 Pod可以在这个节点上一直运行。 通过控制台配置容忍策略 登录CCE控制台。
ScaleNodePoolRequestBody(); List<String> listSpecScaleGroups = new ArrayList<>(); listSpecScaleGroups.add("default"); ScaleNodePoolSpec
参数说明 多可用区部署 优先模式:优先将插件的Deployment实例调度到不同可用区的节点上,如集群下节点不满足多可用区,插件实例将调度到单可用区下的不同节点。 均分模式:插件Deployment实例均匀调度到当前集群下各可用区,增加新的可用区后建议扩容插件实例以实现跨可用区高可用
类型节点上的扩容和缩容顺序,实现资源管理的最优化。在使用默认扩缩容优先级策略的情况下,扩容过程中Pod优先被调度到包周期的节点,其次被调度到按需计费的节点,最后被调度到virtual-kubelet节点(弹性至CCI);缩容过程中优先删除virtual-kubelet节点(弹性至
coredns到自建DNS网络是否正常,工作负载到自建DNS的网络是否正常,如不正常: 请打通到自建DNS网络 请确保DNS的UDP53端口放行,需要对Pod网段安全组&ACL放通如下策略: 节点网段到节点网段 节点网段到容器网段 容器网段到节点网段 容器网段到容器网段 父主题:
A驱动版本匹配,您需要升级节点的驱动版本才可以正常使用GPU节点。建议您以节点池为粒度进行节点NVIDIA驱动版本的管理,创建应用时可调度到指定驱动版本的节点池,在升级驱动时,也可以根据节点池分批次控制升级。 通过节点池升级存量节点的NVIDIA驱动,本质上是在重启节点的过程中重
上面示例表示这个Pod容忍标签为key1=value1,效果为NoSchedule的污点,所以这个Pod能够调度到对应的节点上。 同样还可以按如下方式写,表示当节点有key1这个污点时,可以调度到节点。 tolerations: - key: "key1" operator: "Exists"
成本。 设置集群默认调度器 默认调度器 (default-scheduler) Kubernetes调度器可以发现集群中新创建且尚未被调度到节点上的Pod,并负责将未调度的Pod指派到一个合适的节点上运行。在同一个集群中可以使用多个不同的调度器,kube-scheduler调度器
服务加入Istio后,如何获取客户端真实源IP? 问题现象 服务启用Istio后,访问日志中无法获取到客户端源IP。 解决方案 本文以绑定ELB类型Service的nginx应用为例,详细步骤如下: ELB侧开启获取客户端IP 独享型ELB默认开启源地址透传功能,无需手动开启。
如何上传我的镜像到CCE中使用? 镜像的管理是由容器镜像服务(SoftWare Repository)提供的,当前容器镜像服务提供如下上传镜像的方法: 客户端上传镜像 页面上传镜像 如您需要将Harbor镜像仓库平滑地迁移到容器镜像服务,请参考跨云Harbor同步镜像至华为云SWR。
能调度到拥有特定标签的节点上,详情请参见PodNodeSelector。 登录CCE控制台,单击集群名称进入集群,在左侧选择“命名空间”。 找到目标命名空间,单击“节点亲和”列的。 在弹出的窗口中,选择“启用”并单击“确定”。 启用后,命名空间下新创建的工作负载只能调度到拥有特定
云原生监控插件升级检查异常处理 检查项内容 在集群升级过程中,云原生监控插件从3.9.0之前的版本升级至3.9.0之后的版本升级时,存在兼容性问题,需检查该插件是否开启了grafana的开关。 解决方案 由于云原生监控插件在3.9.0之后的版本,不再聚合grafana的能力,因此
最后,通过Volcano丰富多样的、按需启用的调度策略,将应用调度到合适的环境中。如:基于预测的智能调度策略、基于业务的binpack装箱/重调度策略、基于运行态势的资源超卖策略等。 Volcano将分布式云平台中的资源统一管理,将不同类型的应用调度到合适的位置,有效的解决了多集群带来的资源碎片问题
如何让多个Pod均匀部署到各个节点上? Kubernetes中kube-scheduler组件负责Pod的调度,对每一个新创建的 Pod 或者是未被调度的 Pod,kube-scheduler 会选择一个最优的节点去运行这个 Pod。kube-scheduler 给一个 Pod
命名空间.svc.cluster.local 。这种使用有限制,注册中心部署必须容器化部署。 方案二:容器部署使用主机网络部署,然后亲和到集群的某一个节点,这样可以明确知道容器的服务地址(就是节点的地址),注册的地址为:服务所在节点IP,这种方案可以满足注册中心利用VM部署,缺陷是使用主机网络效率没有容器网络高。
监控GPU资源指标 通过Prometheus和Grafana,可以实现对GPU资源指标的观测。本文以实际示例介绍如何通过Prometheus查看集群的GPU显存的使用。 本文将通过一个示例应用演示如何监控GPU资源指标,具体步骤如下: 访问Prometheus (可选)为Prom
的资源,假设每个Pod占用1GiB显存,则设置Pod数量为17个,合计17GiB显存。 在等待一小段时间后,可以在节点池详情页面中,可观察到GPU节点的扩容。 父主题: GPU调度
pod-security.kubernetes.io/<MODE>-version: <VERSION> 该标签为可选,可以将安全性策略锁定到Kubernetes版本号。 <MODE>:必须是enforce、audit或warn之一,关于标签详情请参见表2。 <VERSION>:Kubernetes版本号。例如
15版本之间的CHANGELOG v1.14到v1.15的变化: https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG/CHANGELOG-1.15.md v1.13到v1.14的变化: https://github