检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
些建议,以降低这种风险。 容器镜像最小化 为了加强容器镜像的安全性,首先应从镜像中移除所有不必要的二进制文件。如果使用的是Docker Hub上的未知镜像,推荐使用如Dive这样的工具来审查镜像内容。Dive能够展示镜像每一层的详细内容,帮助您识别潜在的安全风险。更多信息,请参见Dive。
使用延迟绑定的云硬盘(csi-disk-topology)实现跨AZ调度 应用现状 云硬盘使用在使用时无法实现跨AZ挂载,即AZ1的云硬盘无法挂载到AZ2的节点上。有状态工作负载调度时,如果使用csi-disk存储类,会立即创建PVC和PV(创建PV会同时创建云硬盘),然后PVC
使用通用文件存储(SFS 3.0)自动收集异常退出的JVM转储文件 当您使用Java开发业务时,如果设置的JVM堆空间过小,程序可能会出现OOM(Out Of Memory)问题。为了解决这个问题,您可以使用通用文件存储(SFS 3.0)作为记录日志的载体,并将其挂载到容器内的相
弹性规格:适用于业务用量波动较大的场景,按实际使用量收取每小时使用的容量费用。v1.21.10-r10、v1.23.8-r10、v1.25.3-r10及以上版本集群支持使用弹性规格。 固定规格:适用于业务用量较为稳定的场景,按固定规格折算收取每小时使用的容量费用。 弹性公网IP:选择“自动
使用VPC和云专线实现容器与IDC之间的网络通信 使用场景 借助VPC和云专线,在VPC网络模型的集群中实现集群容器网段(172.56.0.0/16)与IDC网段(10.1.123.0/24)的相互通信。 图1 网络示意 表1 地址信息 网络 网段 用户侧IDC网络 10.1.123
容器监控的内存使用率与实际弹性伸缩现象不一致 问题现象 容器监控的内存使用率与实际弹性伸缩现象不一致,例如容器内存使用率在界面上显示为40%左右,而HPA设置缩容阈值为70%,但界面上显示的内存使用率低于HPA阈值后并没有发生缩容。 问题根因 界面上显示的容器内存使用率与HPA弹性伸缩的内存使用率在计算方式上存在差异:
在CCE集群中使用工作负载Identity的安全配置建议 工作负载Identity允许集群中的工作负载模拟IAM用户来访问云服务,从而无需直接使用IAM账号的AK/SK等信息,降低安全风险。 本文档介绍如何在CCE中使用工作负载Identity。 约束与限制 支持1.19.16及以上版本集群。
容器使用SCSI类型云硬盘偶现IO卡住如何解决? 问题描述 容器使用SCSI类型的云硬盘存储,在CentOS节点上创建和删除容器触发磁盘频繁挂载卸载的场景,有概率会出现系统盘读写瞬时冲高,然后系统卡住的问题,影响节点正常工作。 出现该问题时,可在dmesg日志中观察到: Attached
健康检查使用UDP协议的安全组规则说明 操作场景 当负载均衡协议为UDP时,健康检查也采用的UDP协议,您需要打开其后端服务器的ICMP协议安全组规则。关于使用UDP协议健康检查的详细说明,请参见使用UDP协议有什么注意事项?。 操作步骤 登录CCE控制台,单击服务列表中的“网络
要性日益显著。 方案架构 该方案使用Gitlab和Jenkins来实现容器应用的自动化构建和持续部署,其中Gitlab提供了源码管理和版本控制的功能,而Jenkins则负责进行容器应用的构建和部署。并且为了保证生产环境和测试环境互不影响,该方案使用了两个独立的Kubernetes
Prometheus实例,告警中心将不会创建指标类告警规则。开通监控中心请参考开通监控中心。 表1中使用problem_gauge指标的指标类告警规则依赖CCE节点故障检测插件(NPD)。如需要使用相关的告警规则,请确保节点故障检测插件(NPD)已安装且正常运行。 表1中的事件类告警依赖日
使用Prometheus监控Master节点组件指标 本文将介绍如何使用Prometheus对Master节点的kube-apiserver、kube-controller、kube-scheduler、etcd-server组件进行监控。 通过监控中心查看Master节点组件指标
实施步骤 搭建Jenkins和Gitlab环境 配置集群环境 配置Gitlab项目 持续集成及持续部署 父主题: 使用Jenkins和Gitlab实现多集群隔离的DevOps流程
CCE AI套件(NVIDIA GPU)插件使用DCGM-Exporter监控GPU指标 对运维人员来说,实现对Kubernetes的大规模GPU设备可监测能力至关重要。通过监测GPU相关指标能够了解整个集群的GPU使用情况、健康状态、工作负载性能等,从而实现对异常问题的快速诊断
用量按需付费。 使用场景 - 面向有云原生数字化转型诉求的用户,期望通过容器集群管理应用,获得灵活弹性的算力资源,简化对计算、网络、存储的资源管理复杂度。 适合对极致性能、资源利用率提升和全场景覆盖有更高诉求的客户。 适合具有明显的波峰波谷特征的业务负载,例如在线教育、电子商务等行业。
本示例中共2个对等连接,网络连通需求如下: peer-XA:连通vpc-X和vpc-A的网络。 peer-XB:连通vpc-X和vpc-B的网络。 父主题: 使用Jenkins和Gitlab实现多集群隔离的DevOps流程
对接MySQL:用于存储第三方企业数据,MySQL使用外部云数据库。 本例应用容器化改造价值 本例应用原先使用虚机方式部署,在部署和升级时,遇到了一系列的问题,而容器化部署解决了这些问题。 通过使用容器,您可以轻松打包应用程序的代码、配置和依赖关系,将其变成易于使用的构建块,从而实现环境一致性、运
登录容器实例 操作场景 如果在使用容器的过程中遇到非预期的问题,您可登录容器进行调试。 约束与限制 同一用户在使用CloudShell组件连接CCE集群或容器时,限制同时打开的实例上限数量为15个。 使用CloudShell登录容器 CloudShell基于VPCEP实现,在Cl
v3,主要有以下变化: 移除tiller Helm v3 使用更加简单和灵活的架构,移除了 tiller,直接通过kubeconfig连接apiserver,简化安全模块,降低了用户的使用壁垒。 改进了升级策略,采用三路策略合并补丁 Helm v2 使用双路策略合并补丁。在升级过程中,会对比最近一次发布的chart
升级实例过程中实现业务不中断 通过特权容器功能优化内核参数 使用Init容器初始化应用 容器与节点时区同步 容器网络带宽限制的配置建议 使用hostAliases参数配置Pod的/etc/hosts文件 CCE容器中域名解析的最佳实践 CCE中使用x86和ARM双架构镜像 通过Core Dump文件定位容器问题