检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
上述公式中的剩余周期为每个自然月的剩余天数/对应自然月的最大天数。 这里以扩大集群规格且无任何优惠的场景为例,假设您在2023/04/08购买了一个集群规模为50节点的包年/包月集群,且集群为高可用(控制节点数为3),购买时长为1个月,计划在2023/04/18变更集群规格为200节点。旧配置价格为1262
因此,在实际的部署环境中,需要根据应用环境的特点,选择适当的会话保持机制。 表1 会话保持类型 类型 说明 支持的会话保持类型 会话保持失效的场景 四层会话保持 当创建Service时,使用的协议为TCP或UDP,默认为四层会话保持。 源IP地址:基于源IP地址的简单会话保持,
是集群级别的资源,它能够控制Pod规约中与安全性相关的各个方面。 PodSecurityPolicy对象定义了一组Pod运行时必须遵循的条件及相关字段的默认值,只有Pod满足这些条件才会被系统接受。 v1.17.17版本的集群默认启用Pod安全策略准入控制组件,并创建名为psp-global的全局默认安全策略,您
表着一个监控任务,提供selector、podLabel等可选参数。当前支持的监控指标如下: 表2 当前支持的监控指标 监控指标 监控项名称 监控粒度 支持的运行时 支持的集群版本 支持的插件版本 支持的操作系统 IPv4发送公网报文数 dolphin_ip4_send_pkt_internet
基于GPU监控指标的工作负载弹性伸缩配置 集群中包含GPU节点时,可通过GPU指标查看节点GPU资源的使用情况,例如GPU利用率、显存使用量等。在获取GPU监控指标后,用户可根据应用的GPU指标配置弹性伸缩策略,在业务波动时自适应调整应用的副本数量。 前提条件 目标集群已创建,且集群中包含GPU节点,并已运行GPU相关业务。
的总字节数。 网络总流入速率:负载的所有Pod的容器在不同的时间段的每秒钟接收的总字节数。 网络发送丢包率:负载的所有Pod的容器在不同的时间段的发送丢失的数据包总量占发送的数据包总量的比例。 网络接收丢包率:负载的所有Pod的容器在不同的时间段的接收丢失的数据包总量占接收的数据包总量的比例。
<none> hostNetwork使用注意事项 Pod直接使用主机的网络会占用宿主机的端口,Pod的IP就是宿主机的IP,使用时需要考虑是否与主机上的端口冲突,因此一般情况下除非某个特定应用必须占用宿主机上的特定端口,否则不建议使用主机网络。 由于Pod使用主机网络,访问Pod
设置指定节点调度(nodeSelector) 在Kubernetes中,选择某个节点调度最简单的方式是在工作负载中配置nodeSelector字段,您可以通过nodeSelector字段设置希望调度的目标节点标签。Kubernetes只会将Pod调度到拥有指定标签的节点上。 前提条件 您需要为目标节点添加自定义标签,工
延迟,因为这两种类型的Pod可以共享相同的物理资源。 某类应用部署到某些特定的节点,确保关键应用总是运行在最优的硬件或配置上。 不同应用部署到不同的节点,有助于隔离应用,防止一个应用的问题影响到其他应用。 您可以使用以下方式来选择Kubernetes对Pod的调度策略: 表1 工作负载调度策略
用率等等。而这些数据的监控能力Kubernetes也没有自己实现,而是通过其他项目来扩展Kubernetes的能力。 Prometheus是一套开源的系统监控报警框架,能够采集丰富的Metrics(度量数据),目前已经基本是Kubernetes的标准监控方案。 Metrics S
实例中运行的业务排水。详细请参见停止前处理。 启动命令 在默认情况下,镜像启动时会运行默认命令,如果想运行特定命令或重写镜像默认值,需要进行相应设置。 Docker的镜像拥有存储镜像信息的相关元数据,如果不设置生命周期命令和参数,容器运行时将运行镜像制作时提供的默认的命令和参数,
安全组检查异常处理 检查项内容 检查Node节点安全组规则中,协议端口为ICMP:全部,源地址为Master节点安全组的规则是否被删除。 仅VPC网络模型的集群执行该检查项,非VPC网络模型的集群将跳过该检查项。 解决方案 请登录VPC控制台,前往“访问控制 > 安全组”,在搜索框内输入集群名称,此时预期过滤出两个安全组:
ubectl的服务器,用来连接集群。工具支持在Linux(x86、ARM)环境中运行,因此您可以任选一种架构的服务器作为操作服务器。该服务器需要至少拥有5GB左右的本地磁盘空间和≥8G的内存,以确保工具可以正常运行,并存储相关数据。 工具获取 在安装了kubectl的服务器上下载以下工具:
志以及监控指标,对问题进行全面的分析和判定,并提供具体的修复建议。这种综合诊断方法不仅提高了故障定位的准确性,还显著减少了运维人员的工作负担,从而提升了整体运维效率。 前提条件 已获取资源权限。 集群版本高于v1.17。 集群处于“运行中”状态。 选择Pod进行诊断 登录CCE控制台,单击集群名称进入集群详情页。
告警方式:选择“直接告警”。 行动规则:选择创建行动规则步骤中创建的行动规则。 其余参数可按需求配置。 本示例中的设置的告警为: 当集群中存在节点状态异常时,CCE会上报“节点状态异常”的事件到AOM,AOM根据设置的告警规则,立即触发告警通知,并根据行动规则,通过SMN通知您。 图1
任何与配置的集群域后缀不匹配的DNS查询(例如,www.kubernetes.io)将转发到从该节点继承的上游名称服务器。集群管理员可能配置了额外的存根域和上游DNS服务器。 “ClusterFirstWithHostNet”:对于使用hostNetwork运行的Pod,您应该
如何使节点CPU、内存的真实负载趋于均衡 工作负载运行过程中,真实消耗的CPU和内存存在大的波动,通过工作负载request资源无法准确评估的场景中,希望调度器可以结合集群内节点CPU、内存的负载情况,将Pod优先调度到负载较低的节点,实现节点负载均衡,避免出现因单个节点负载过高而导致的应用程序或节点故障。
class: nginx)的Nginx Ingress路由。 检查项二:检查Nginx Ingress Controller后端指定的DefaultBackend Service是否存在。 问题自检 检查项一自检 针对Nginx类型的Ingress资源,查看对应Ingress的YAML,如I
Grafana,从Grafana中看到Prometheus的监控数据。 单击访问地址,访问Grafana,选择合适的DashBoard,即可以查到相应的聚合内容。 登录CCE控制台,选择一个已安装Prometheus插件的集群,单击集群名称进入集群,在左侧导航栏中选择“服务”。
/proc/xgpu/{GPU卡序号}/meminfo,注意替换命令中的{GPU卡序号}为步骤2获取的GPU卡序号,观测GPU虚拟化的可用显存。 比较步骤2和步骤3的可用显存。 由于GPU厂商的驱动程序,本身就会占用一定量的物理显存,量级在300MB左右,这属于正常现象。例如Tesla T4配套510