检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Agent采集,且监控数据需要满足Prometheus的规范。 部署应用并转换指标 在集群中使用该应用镜像部署工作负载,将自动上报自定义监控指标。 配置验证 前往AOM查看自定义指标是否采集成功。 约束与限制 ICAgent兼容Prometheus的监控数据规范,Pod提供的自定
Standard或CCE Turbo集群,且集群版本满足以下要求: v1.23集群:v1.23.14-r0及以上 v1.25集群:v1.25.9-r0及以上 v1.27集群:v1.27.6-r0及以上 v1.28集群:v1.28.4-r0及以上 其他更高版本的集群 集群中需提前部署可用的工作负
如下配置示例适用于Kubernetes 1.13及以下版本的集群。 操作步骤 参照使用kubectl自动创建对象存储中操作创建对象存储卷,并获取PVC名称。 请参见通过kubectl连接集群,使用kubectl连接集群。 新建一个YAML文件,用于创建工作负载。假设文件名为obs
中”,创建Pod卡在“创建中”。 可能原因 后端文件存储被删除,导致无法访问挂载点。 节点与文件存储间网络异常,导致无法访问挂载点。 解决方案 登录挂载文件存储的节点,执行如下命令找到文件存储挂载路径。 findmnt 挂载点路径示例:/mnt/paas/kubernetes/k
可用的指标,从而为应用提供更加便捷的扩缩机制。 前提条件 已创建一个集群。 已通过kubectl连接集群,详情请参见通过kubectl连接集群。 步骤一:安装云原生监控插件 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件中心”。 在“插件中心”页面右侧找到云原生监控插件,单击“安装”。
Standard或CCE Turbo集群,且集群版本满足以下要求: v1.23集群:v1.23.14-r0及以上 v1.25集群:v1.25.9-r0及以上 v1.27集群:v1.27.6-r0及以上 v1.28集群:v1.28.4-r0及以上 其他更高版本的集群 集群中需提前部署可用的工作负
在开始迁移之前,请确保您已准备了一台安装了kubectl的服务器,用于连接源集群和目标集群。该服务器需要至少拥有5GB左右的本地磁盘空间和≥8G的内存,以确保迁移工具可以正常运行,并存储相关数据,如源集群的采集数据和目标集群的推荐数据等。 迁移工具支持在Linux(x86、arm)、Window
已创建2个CCE Standard集群cluster-1和cluster-2,详情请参见购买Standard/Turbo集群。 两个集群中均已安装NGINX Ingress控制器。 已安装和配置kubectl分别连接两个集群,详情请参见通过kubectl对接多个集群。 步骤1:创建工作负载,并通过Ingress对外暴露服务
CCE容器网络扩展指标 插件介绍 CCE容器网络扩展指标插件(dolphin)是一款容器网络流量监控管理插件,支持CCE Turbo集群非主机网络容器的流量统计,以及节点内容器联通性健康检查。 字段说明 表1 参数描述 参数 是否必选 参数类型 描述 basic 否 object
使用 kubectl get pvc 命令查询当前集群所在分区下可用PVC。 约束与限制 如下配置示例适用于Kubernetes 1.13及以下版本的集群。 操作步骤 请参见通过kubectl连接集群,使用kubectl连接集群。 执行如下命令,配置名为“evs-deployment-example
对象存储卷创建或导入CCE后,可以在工作负载中挂载对象存储卷。 约束与限制 如下配置示例适用于Kubernetes 1.13及以下版本的集群。 操作步骤 请参见通过kubectl连接集群,使用kubectl连接集群。 执行如下命令,配置名为“obs-deployment-example.yaml”的创建Pod的yaml文件。
节点远程登录界面(VNC)打印较多source ip_type日志问题 问题场景 集群版本:v1.15.6-r1版本 集群类型:CCE集群 网络模式:VPC网络 节点操作系统:CentOS 7.6 上述节点的容器进行容器间通信时,由于容器网络组件在VNC界面打印较多source ip_type或者not
命令行操作筛选Pod,以便在GPU/NPU卡故障时能够及时将Pod驱逐。 前提条件 已创建CCE集群,且配置了kubectl命令行工具。详细操作可参考通过kubectl连接集群。 集群上安装了CCE AI套件(GPU/NPU),可参考CCE AI套件(NVIDIA GPU)和 CCE
单击“接入管理”,查看集群接入情况,并对剩余未接入集群进行接入。 图2 接入集群 选中需要接入的集群,单击“批量接入”,可批量将选中的集群进行开通。开通成功后,可以在列表中查看接入状态。集群首次接入云原生成本治理,需要等待2天时间,才可以看到相应成本数据。 图3 批量接入 图4 接入集群管理 部门管理
当某个工作负载的多个Pod之间没有任何区别时,可以使用普通Service,利用集群kube-proxy实现Service的负载均衡,例如常见的无状态应用Nginx。 但是某些应用场景下,工作负载的各个实例间存在不同的角色区别,比如Redis集群,每个Redis实例都是不同的,它们之间存在主从关系,并且
文件存储卷创建或导入CCE后,可以在工作负载中挂载文件存储卷。 约束与限制 如下配置示例适用于Kubernetes 1.13及以下版本的集群。 操作步骤 请参见通过kubectl连接集群,使用kubectl连接集群。 执行如下命令,配置名为“sfs-deployment-example.yaml”的创建Pod的yaml文件。
如下配置示例适用于Kubernetes 1.13及以下版本的集群。 操作步骤 参照使用kubectl自动创建文件存储中操作创建文件存储卷,记录文件存储卷名称。 请参见通过kubectl连接集群,使用kubectl连接集群。 新建一个YAML文件,用于创建工作负载。假设文件名为sf
已创建Kubernetes集群,且集群版本满足以下要求: v1.23集群:v1.23.14-r0及以上版本 v1.25集群:v1.25.9-r0及以上版本 v1.27集群:v1.27.6-r0及以上版本 v1.28集群:v1.28.4-r0及以上版本 其他更高版本的集群 如果您需要通过命
已创建Kubernetes集群,且集群版本满足以下要求: v1.23集群:v1.23.17-r0及以上版本 v1.25集群:v1.25.12-r0及以上版本 v1.27集群:v1.27.9-r0及以上版本 v1.28集群:v1.28.7-r0及以上版本 v1.29集群:v1.29.3-r0及以上版本
GPU)插件和Volcano调度器插件。 登录CCE控制台,单击集群名称进入集群,在左侧选择“配置中心”。 切换至“异构资源配置”页签,开启“GPU虚拟化”。 集群默认驱动:集群中GPU节点默认使用的GPU驱动版本。如果选择“自定义驱动链接地址”,则需填写Nvidia驱动的下载链接,详情请参见获取驱动链接-公网地址。