检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
x86_64的场景下,节点上容器出现OOM后,可能遇到节点上所有容器无法访问,docker、jdb等相关进程处于D状态,节点重启后恢复。 问题根因 业务容器内存使用超过容器的内存限制量时,触发cgroup OOM,被系统内核终止。容器cgroup OOM在CentOS 7会偶现触发ext4文件系统卡死,ex
基于Prometheus指标的弹性伸缩实践 Kubernetes默认的HPA策略只支持基于CPU和内存的自动伸缩,在复杂的业务场景中,仅使用CPU和内存使用率指标进行弹性伸缩往往无法满足日常运维需求。为此,CCE提供云原生监控插件(kube-prometheus-stack),可
单击工作负载操作列的“监控”,即可查看Pod的CPU、内存、网络I/O等监控大盘。 通过Pod内存监控查看内存增长曲线,确定异常出现时间。 根据监控、内存增长时间点、日志、进程名等信息,排查Pod内对应进程是否存在内存泄漏。 若OOM是进程内存泄漏导致,请您自行排查泄露原因。 若进程运行状
创建使用自定义指标的HPA策略 Kubernetes默认的HPA策略只支持基于CPU和内存的自动伸缩,在复杂的业务场景中,仅使用CPU和内存使用率指标进行弹性伸缩往往无法满足日常运维需求。通过自定义指标配置工作负载HPA策略,可以根据业务自身特点,通过更多指标实现更灵活的弹性配置。
限制:允许容器使用的CPU最大值 参数名 取值范围 默认值 是否允许修改 作用范围 cpu 0.01-2000 0.25 允许 - 内存配额 申请:容器需要使用的内存最小值 限制:允许容器使用的内存最大值 参数名 取值范围 默认值 是否允许修改 作用范围 memory 1-2097152Mi 512Mi 允许
行chmod u+x 工具名 命令(例如chmod u+x image-migrator-linux-amd64),授予可执行权限。 表1 image-migrator工具包获取 image-migrator image-migrator是一个镜像迁移工具,能够自动将基于Docker
CCE容器弹性引擎插件的资源使用量主要受集群中总容器数量和伸缩策略数量影响,通常场景下建议每5000容器配置CPU 500m, 内存1000Mi资源,每1000伸缩策略CPU 100m,内存500Mi。 若cce-hpa-controller插件版本低于1.2.11,不支持使用云原生监控插件插件提供Metrics
基于ELB监控指标的弹性伸缩实践 应用现状 在使用工作负载弹性伸缩时,Kubernetes默认提供基于CPU/内存等资源使用率指标进行伸缩。但是在流量突发的场景下,基于CPU/内存使用率资源使用率数据会滞后于ELB流量指标,无法及时反映应用实际需求。因此,对于某些需要快速弹性扩缩容的业
MPI作业,在提交前就需要配置SSH插件,用来完成Pod资源的SSH信息配置。 在线离线业务混部:支持集群内在离线作业混部以及节点CPU和内存资源超卖,提升集群整体资源利用率。 建议搭配使用 GPU加速云服务器 + 弹性负载均衡ELB + 对象存储服务OBS 图1 AI计算 父主题:
limitsMem 是 String 内存大小限制,单位:Mi name 是 String 插件名称,固定为:customedhpa-controller requestsCpu 是 String 申请的CPU大小,单位:m requestsMem 是 String 申请的内存大小,单位:Mi 表5
会产生一个常驻进程。当负载使用对象存储数过多或大量读写对象存储文件时,常驻进程会占用大量内存,为保证负载稳定运行,建议负载使用的对象存储卷数量不超过其申请的内存GiB数量,如负载的申请的内存规格为4GiB,则建议其使用的对象存储数不超过4。 安全容器不支持使用对象存储。 挂载普通桶时不支持硬链接(Hard
导致当前集群的CPU和内存使用量计算存在偏差,使扩容时节点池的资源总数可以部分超出CPU/内存的扩容上限。 节点池缩容时,如果缩容已变更规格的节点,将导致实际缩容的CPU/内存数(4U8G)大于预期缩容的CPU/内存数(2U4G),使得被缩容的CPU/内存资源过多。 解决方案 不
时,常驻进程会占用大量内存,部分场景下内存消耗量参考表1,为保证负载稳定运行,建议负载使用的对象存储卷数量不超过其申请的内存GiB数量,如负载的申请的内存规格为4GiB,则建议其使用的对象存储数不超过4。 表1 单个对象存储常驻进程内存消耗 测试项目 内存消耗 长稳运行 约50m
存储介质 开启内存: 开启后可以使用内存提高运行速度,但存储容量受内存大小限制。适用于数据量少,读写效率要求高的场景。 未开启时默认存储在硬盘上,适用于数据量大,读写效率要求低的场景。 说明: 开启内存后请注意内存大小,如果存储容量超出内存大小会发生OOM事件。 使用内存时的Empt
系统级别的命名空间kube-system、kube-public默认不支持设置资源配额。 设置资源配额,然后单击“确定”。 命名空间设置了CPU或内存资源配额后,创建工作负载时,必须指定CPU或内存的请求值(request)和约束值(limit),否则CCE将拒绝创建实例。若设置资源配额值为0,则不限制该资源的使用。
什么是云原生网络2.0网络模式,适用于什么场景? 云原生网络2.0是什么 云原生网络2.0是新一代容器网络模型,深度整合了虚拟私有云VPC的原生弹性网卡(Elastic Network Interface,简称ENI)能力,采用VPC网段分配容器地址,支持ELB直通容器,享有高性能。
求的PRS为30万,可将CPU/内存的requests和limits均设置为16 Core/20 GiB。 设置实例数大于等于2。 关闭插件的指标采集。 如果不需要获取Metrics信息,推荐关闭指标采集,关闭后可节省Nginx容器的CPU及内存消耗。 通过以下方式对Nginx全局配置进行调优:
0-1062.12.1.el7.x86_64的场景下(主要为1.17.9版本集群),反复创建应用时出现cgroup kmem泄露,导致节点内存有空余,但是无法创建新的Pod,并提示报错Cannot allocate memory。 问题根因 在反复创建应用时会创建的临时memory
Metrics Server 从Kubernetes 1.8开始,Kubernetes通过Metrics API提供资源使用指标,例如容器CPU和内存使用率。这些度量可以由用户直接访问(例如,通过使用kubectl top命令),或者由集群中的控制器(例如,Horizontal Pod
limitsMem 是 String 内存大小限制,单位:Mi name 是 String 插件名称,固定为:metrics-server requestsCpu 是 String 申请的CPU大小,单位:m requestsMem 是 String 申请的内存大小,单位:Mi 表5 tolerations污点