检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
会采集容器“/var/log/nginx”路径下的日志。其中policy字段是CCE自定义的字段,能够让ICAgent识别并采集日志。 apiVersion: apps/v1 kind: Deployment metadata: name: testlog namespace:
CCE容器存储(FlexVolume),即storage-driver,是一款云存储驱动插件,北向遵循标准容器平台存储驱动接口。实现Kubernetes Flex Volume标准接口,提供容器使用EVS块存储、SFS文件存储、OBS 对象存储、SFS Turbo 极速文件存储的能力。通过安装
CCE不再支持1.13及之前版本集群的创建公告 发布时间:2020/12/08 根据CCE发布的Kubernetes版本策略中的版本策略,从2021年3月1日之后,CCE将不再支持1.13及之前版本集群的创建及维护。 建议您将集群升级到最新版本,升级操作请参见集群升级。 父主题:
如何确认已创建的集群是否为多控制节点模式? 登录CCE控制台,进入集群,在集群详情页面右侧查看控制节点数量: 3个节点即为多控制节点模式。 1个节点即为单控制节点模式。 集群一旦创建,便无法更改控制节点数,需要重新创建集群才能调整。 父主题: 集群运行
打通VPC网络 由于Jenkins节点、测试集群和生产集群在不同的VPC下,需要使用对等连接打通VPC网络,让Jenkins可访问集群的API Server控制集群。 登录VPC控制台,在左侧导航栏中选择“虚拟私有云 > 对等连接”。 打通Jenkins服务器与测试集群的网络。
topology.kubernetes.io/zone进行优先级排序,尽量将Pod调度至可用区az1的节点上。设置节点亲和性示例如下: apiVersion: apps/v1 kind: Deployment metadata: name: gpu labels:
nginx-statefulset.yaml 以下内容仅为示例,若需要了解statefulset的详细内容,请参考kubernetes官方文档。 apiVersion: apps/v1 kind: StatefulSet metadata: name: nginx spec: selector:
podAffinity字段来设置工作负载亲和性,将前端Pod(标签为app=frontend)和后端Pod(标签为app=backend)部署在一起。 apiVersion: apps/v1 kind: Deployment metadata: name: frontend labels:
GPU故障处理 前提条件 如需将GPU事件同步上报至AOM,集群中需安装云原生日志采集插件,您可前往AOM服务查看GPU插件隔离事件。 GPU插件隔离事件 当GPU显卡出现异常时,系统会将出现问题的GPU设备进行隔离,详细事件如表1所示。 表1 GPU插件隔离事件 事件原因 详细信息
v1.21 v1.23 v1.25 v1.27 支持xGPU设备监控 支持nvidia.com/gpu与volcano.sh/gpu-* api兼容 2.0.5 v1.19 v1.21 v1.23 v1.25 - 2.0.0 v1.19 v1.21 v1.23 v1.25 支持GPU虚拟化
储卷。 通过kubectl命令行动态创建SFS子目录 使用kubectl连接集群。 创建pvc-sfs-subpath.yaml文件。 apiVersion: v1 kind: PersistentVolumeClaim metadata: name: pvc-sfs-subpath
122、1.25.117、1.27.85、1.28.52、1.29.14及以上版本的插件中可用。 priority可通过Console/API主动配置节点池/伸缩组优先级,least-waste则在通用场景下降低资源浪费比例。在此基础上,topology-balance策略可以尽
L2E模式它优先进行二层转发,再进行三层转发。 场景还原: 假定有业务Pod A,它持续对外提供服务,不断被同节点访问收发报文,通过本机k8s service经过容器gw接口进行访问,或者同属本节点的Pod间直接互相访问。在升级、缩容,或者其他原因导致的退出场景,容器A已停止运行,对应的网络资源被回收。此时同节
通过kubectl命令行动态创建SFS Turbo子目录 使用kubectl连接集群。 创建pvc-sfsturbo-subpath.yaml文件。 apiVersion: v1 kind: PersistentVolumeClaim metadata: name: pvc-sfsturbo-subpath
负载均衡器基础属性 负载均衡器类型 路由对接的负载均衡器类型,支持对接共享型ELB实例和独享型ELB实例,并且支持自动创建ELB实例 参数名 取值范围 默认值 是否允许修改 作用范围 k8s annotation: kubernetes.io/elb.class 支持elbv3局点:performance
负载均衡器基础属性 负载均衡器类型 服务对接的负载均衡器类型,支持对接共享型ELB实例和独享型ELB实例,并且支持自动创建ELB实例 参数名 取值范围 默认值 是否允许修改 作用范围 k8s annotation: kubernetes.io/elb.class 支持elbv3局点:performance
theus的集群,在左侧导航栏中选择“服务”。 单击右上角“YAML创建”,创建一个公网LoadBalancer类型的Service。 apiVersion: v1 kind: Service metadata: name: prom-lb #服务名称,可自定义 namespace:
在创建工作负载时,可以通过配置节点亲和性,将Pod调度到对应架构的节点上。 使用YAML可以通过nodeSelector进行配置,如下所示。 apiVersion: apps/v1 kind: Deployment metadata: name: test spec: selector:
避免IPVS缺陷导致的DNS概率性解析超时 问题描述 当集群使用IPVS作为kube-proxy负载均衡模式时,您可能会在CoreDNS缩容或重启时遇到DNS概率性解析超时的问题。 该问题由社区Linux内核缺陷导致,具体信息请参见https://github.com/torva
节点ARP表项超过限制 问题现象 ARP缓存超限,容器网络的访问出现异常,例如coredns域名解析概率失败。 问题根因 出现该问题的原因是节点上容器缓存的ARP表项超过限制。 问题定位 在节点操作系统内核为4.3以上时,dmsg日志中会有显性的打印neighbor table