检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
pvc-evs-auto-example.yaml 命令执行完成后,会在集群所在分区创建EVS云硬盘,您可以在“存储管理 > 云硬盘存储卷”中查看该云硬盘,也可以在EVS的控制台根据卷名称查看该硬盘。 父主题: 云硬盘存储卷
指定StorageClass的企业项目 CCE支持使用存储类创建云硬盘和对象存储类型PVC时指定企业项目,将创建的存储资源(云硬盘和对象存储)归属于指定的企业项目下,企业项目可选为集群所属的企业项目或default企业项目。 若不指定企业项目,则创建的存储资源默认使用存储类StorageClass中指定的企业项目,CCE提供的
容器数据持久化 应用Pod数据存储,根据实际需求选择合适的数据卷类型。 可靠性 节点异常无法恢复时,存在本地磁盘中的数据无法恢复,而云存储此时可以提供极高的数据可靠性。 存储管理 数据备份 对应用数据进行备份 可靠性 数据丢失后,无法恢复。 CCE支持的存储在持久化和多节点挂载方面的区别是怎样的?
Ingress支持的Service类型。 约束与限制 建议其他资源不要使用Ingress自动创建的ELB实例,否则在删除Ingress时,ELB实例会被占用,导致资源残留。 添加Ingress后请在CCE页面对所选ELB实例进行配置升级和维护,不可在ELB页面对配置进行更改,否则可能导致Ingress服务异常。
在“容器配置”中选择“数据存储”,为实现数据的持久化存储,需要设置为云存储。 本例使用了MongoDB数据库,并需要数据持久化存储,所以需要配置云存储。请根据您业务的实际情况,来决定是否需要使用云存储。 此处挂载的路径,需要和docker开机运行脚本中的mongoDB存储路径相同,请参见开
MongoDB:本例中MongoDB和Tomcat应用是在同一台机器中部署。因此对应配置可以固定,不需要将配置提取出来。 应用需要对接哪些外部服务,例如数据库,文件存储等等。 应用部署在虚拟机上时,该类配置需要每次部署时手动配置。容器化部署,可通过环境变量的方式注入到容器中,部署更为方便。 本例需要对接M
eID和storageType必须同时被配置。 bs:EVS云存储 nfs:SFS弹性文件存储 obs:OBS对象存储 efs:SFS Turbo极速文件存储 accessModes 是 Array of strings 指定volume应该具有的访问模式,列表中仅第一个配置参数有效。
0文件系统中创建子目录 支持获取存储卷的使用情况 2.4.28 v1.23 v1.25 v1.27 v1.28 v1.29 修复部分问题 2.4.21 v1.23 v1.25 v1.27 v1.28 v1.29 支持OBS多AZ冗余存储策略 支持自定义存储卷名称前缀 支持包周期EVS卷
Cgroups和Namespace 容器引擎存储驱动 Device Mapper Docker容器:OverlayFS2 Containerd容器:OverlayFS Pod Overhead 内存:100MiB CPU:0.1Core Pod Overhead为安全容器本身资源占用。比如Pod申请的limits
ID和storageType必须同时被配置。 bs:EVS云存储 nfs:SFS弹性文件存储 obs:OBS对象存储 efs:SFS Turbo极速文件存储 accessModes Array of strings 指定volume应该具有的访问模式,列表中仅第一个配置参数有效。
安装正常。 问题原因 最初建立的集群中各节点的基本配置为2U4G,且各节点上有kubelet,kube-proxy及docker等相关程序占用系统资源,导致节点可用资源低于2000m,无法满足nginx-ingress插件的要求,从而无法安装。 建议方案 请重新购买节点,节点要求(>=4U8G)。
d请求的内存资源总量>(节点可分配的内存资源总量-节点已分配的内存资源总量) 集群节点临时存储不足的判定方式:当前Pod请求的临时存储总量>(节点可分配的临时存储总量-节点已分配的临时存储总量) 如果当前Pod请求的资源总量大于节点可分配的资源总量减去节点已分配的资源总量,Pod就不会调度到当前节点。
Kubernetes抽象出了Volume来解决这两个问题,也就是存储卷,Kubernetes的Volume是Pod的一部分,Volume不是单独的对象,不能独立创建,只能在Pod中定义。 Pod中的所有容器都可以访问Volume,但必须要挂载,且可以挂载到容器中任何目录。 实际中使用容器存储如下图所示,将容器的内容挂
Turbo下动态创建子目录的方法,能够在SFS Turbo下动态创建子目录并挂载到容器,这种方法能够共享使用SFS Turbo,从而更加经济合理的利用SFS Turbo存储容量。 约束与限制 仅支持1.15+集群。 集群必须使用everest插件,插件版本要求1.1.13+。 不支持安全容器。 使用everest
详情及示例请见Helm官方文档:https://v3.helm.sh/docs/faq/changes_since_helm2 默认存储驱动程序更改为secrets Helm v2 默认情况下使用 ConfigMaps 存储发行信息,而在 Helm v3 中默认使用 Secrets。 发布名称限制在namespace范围内
工作负载异常:存储卷无法挂载或挂载超时 排查思路 以下排查思路根据原因的出现概率进行排序,建议您从高频率原因往低频率原因排查,从而帮助您快速找到问题的原因。 如果解决完某个可能原因仍未解决问题,请继续排查其他可能原因。 排查项一:EVS存储卷是否跨AZ挂载 排查项二:存储中是否同时存在多条权限相关的配置
挂载文件存储的节点,Pod创建删除卡死 故障现象 在挂载文件存储(SFS或SFS Turbo)的节点上,删除Pod卡在“结束中”,创建Pod卡在“创建中”。 可能原因 后端文件存储被删除,导致无法访问挂载点。 节点与文件存储间网络异常,导致无法访问挂载点。 解决方案 登录挂载文件
上一章节介绍的HostPath是一种持久化存储,但是HostPath的内容是存储在节点上,导致只适合读取。 如果要求Pod重新调度后仍然能使用之前读写过的数据,就只能使用网络存储了,网络存储种类非常多且有不同的使用方法,通常一个云服务提供商至少有块存储、文件存储、对象存储三种。Kubernetes
'{"metadata":{"finalizers":null}}' kubectl delete pvc <pvc-name> 父主题: 存储管理
NPU资源,调度器也会根据打分机制将工作负载调度到GPU/NPU节点运行,于是可能会出现GPU/NPU节点的CPU、内存资源被普通工作负载占用的情况,导致GPU/NPU资源闲置。 解决方案 在使用GPU/NPU节点时,可以为其添加污点,并通过工作负载容忍度设置,避免非GPU/NPU工作负载调度到GPU/NPU节点上。