检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
storage 存储容量,单位Gi,必须和已有pv的storage大小保持一致。 volumeName PV的名称。 极速文件存储所在VPC,子网必须与工作负载规划部署的ECS虚拟机的VPC保持一致,安全组开放入方向端口(111、445、2049、2051、20048)。 创建PV。 kubectl
可扩容节点或迁移节点中的pod至其他节点。 场景二 pod的内存的limit设置较小,实际使用率超过limit,导致容器触发了OOMkill。 解决方法: 扩大工作负载内存的limit设置。 示例 本例将创建一个Pod尝试分配超过其限制的内存,如下这个Pod的配置文档,它申请50M的内存, 内存限制设置为100M。
适用于可以自行应对操作系统切换成本的个人或企业。 升级操作系统通过替换节点系统盘的方式分批次升级节点,请不要在系统盘中保存重要数据或者提前做好备份工作,数据盘在升级过程中则不受影响。 父主题: 产品变更公告
故障与潜在风险并给出修复建议。 监控中心 监控中心提供不同维度的数据洞察、仪表盘等功能。监控中心提供容器视角的可视化视图,支持集群、节点、工作负载和Pod等多种维度的监控视图,支持多级下钻与关联分析。仪表盘功能内置常见的容器监控大盘,如Kubernetes APIServer组件
迁移完成后,节点上用户自定义的资源标签、K8s标签、污点不受影响。 迁移完成后,节点上名为cce.cloud.com/cce-nodepool的系统标签会被删除。如果已有工作负载使用该标签进行亲和/反亲和调度,在Kubelet重启时会将该节点上已存在的Pod停止并重新调度。 将默认节点池中的节点迁移到自定义节点池
且Pod是否正常运行。 若未关联Pod,请将Service关联至对应的后端Pod。 若关联的Pod运行异常,请解决Pod异常的问题,请参见工作负载状态异常定位方法。 failed to ensure load balancer: Not Found Service关联的负载均衡器不存在。
到CCE容器弹性引擎,单击“安装”。 配置插件规格后单击“安装”,插件详细说明请参考CCE容器弹性引擎。 在CCE控制台单击左侧导航栏的“工作负载”,命名空间选择“kube-system”,找到CoreDNS实例,单击操作栏中的“弹性伸缩”。 在“HPA策略”中,您可以根据业务需
name: system:authenticated apiGroup: rbac.authorization.k8s.io 创建工作负载,并配置内核参数值,且需要与1中开启net.core.somaxconn的节点亲和。 apiVersion: apps/v1 kind:
onds_total Gauge 容器CPU使用量 container_memory_working_set_bytes Gauge 容器工作内存使用量 vmagent_remotewrite_bytes_sent_total Counter Prometheus Agent远程写入字节数发送总计
并且将二者绑定了。 定义了StorageClass后,就可以减少创建并维护PV的工作,PV变成了自动创建,作为使用者,只需要在声明PVC时指定StorageClassName即可,这就大大减少工作量。 再次说明,StorageClassName的类型在不同厂商的产品上各不相同,这里只是使用了文件存储作为示例。
持采集应用的自定义指标。您需要按照Prometheus规范在应用中提供自定义指标,并且暴露自定义指标的接口,然后在集群中使用该应用镜像部署工作负载,Prometheus会通过采集配置对这些指标进行采集。详情请参见使用云原生监控插件监控自定义指标。 对接AOM监控服务 AOM实例是
'nginx:perl' imagePullSecrets: - name: default-secret 创建该工作负载: kubectl apply -f deployment.yaml 查看已运行的Pod。 kubectl get pod -owide
Controller进行管理,则该节点不会被缩容。第三方Pod Controller是指除Kubernetes原生的工作负载(如Deployment、StatefulSet等)外的自定义工作负载,可通过自定义资源CRD进行创建。 节点缩容策略 缩容并发数:最多支持多少个空闲节点同时缩容,默认10。
CPU管理策略配置 单击“确定”,完成配置操作。 验证 以8U32G节点为例,并提前在集群中部署一个CPU request为1,limit为2的工作负载。 登录到节点池中的一个节点,查看/var/lib/kubelet/cpu_manager_state输出内容。 cat /var/l
如果您的集群中已存在自建Prometheus,您可以勾选“兼容模式”,云原生监控插件将会安装在cce-monitoring命名空间下并与您的自建Prometheus共同工作,但兼容模式将存在部分约束与限制,详情请参见云原生监控插件兼容自建Prometheus。 单击“立即开通”,并选择指标上报的AOM实例。 图2
API响应延迟增加、控制节点资源水位升高的现象。在过载状况极端的情况下,可能会出现 Kubernetes API 无法响应,控制节点无法使用,甚至整个集群无法正常工作的情况。 集群过载会对集群控制平面及依赖该平面的业务产生影响。以下列举了一些可能受到影响的场景: Kubernetes资源管理:在进行创建、删除、更新或查询
组件说明 表3 gpu插件组件 容器组件 说明 资源类型 nvidia-driver-installer 为节点安装Nvidia GPU驱动的工作负载,仅在安装场景占用资源,安装完成后无资源占用。 DaemonSet nvidia-gpu-device-plugin 为容器提供Nvidia
标识快速跟踪和多集群部署功能,实现多个集群之间同一应用部署问题。 图1 Argo CD工作流程 本文介绍在ArgoCD中对接CCE执行持续部署的过程,并通过一个具体的示例演示该过程。 准备工作 创建一个CCE集群,且需要给节点绑定一个EIP,用于安装Argo CD服务时下载镜像。
且该节点已绑定弹性IP,用于部署WordPress从外部镜像仓库下载镜像。创建集群的方法,请参见快速创建Kubernetes集群。 准备工作 下载并配置kubectl连接集群。 登录CCE控制台,单击集群名称,在集群信息页面查看“连接信息 > kubectl ”,单击“配置”并按照指导配置kubectl。
制品仓库:对接容器镜像服务,支持镜像全生命周期管理的服务,提供简单易用、安全可靠的镜像管理功能,帮助您快速部署容器化服务。 弹性伸缩:支持工作负载和节点的弹性伸缩,可以根据业务需求和策略,经济地自动调整弹性计算资源的管理服务。 服务治理:深度集成应用服务网格,提供开箱即用的应用服