检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在Pod里使用密钥时,需要Pod和密钥处于同一集群和命名空间中。 当Secret 被更新时,Kubernetes会同时更新数据卷中的数据。 但对于以subPath形式挂载的Secret数据卷,当Secret 被更新时,Kubernetes无法自动更新数据卷中的数据。 使用密钥设置工作负载的环境变量
支持,可由多个节点或工作负载共享 CCE存储类型选择 创建工作负载时,可以使用以下类型的存储。建议将工作负载pod数据存储在云存储上。若存储在本地磁盘上,节点异常无法恢复时,本地磁盘中的数据也将无法恢复。 本地硬盘:将容器所在宿主机的文件目录挂载到容器的指定路径中(对应Kubernetes的
部署为强制模式。 登录CCE控制台,单击集群名称进入集群。 创建不同可用区的节点。 重复以下步骤,选择创建不同可用区的节点。您也可以通过创建多个节点池,节点池中关联不同的可用区规格,扩容不同节点池的实例数来为集群创建不同AZ的节点。 在集群控制台左侧导航栏中选择“节点管理”,切换
下的内部版本。用于跟踪某一集群版本内的迭代,集群版本内唯一,跨集群版本重新计数。 约束限制: 不支持用户指定,集群创建时自动选择对应集群版本的最新平台版本。 取值范围: platformVersion格式为:cce.X.Y X: 表示内部特性版本。集群版本中特性或者补丁修复,或者
管理集群 修改CCE集群配置 开启集群过载控制 变更集群规格 更改集群节点的默认安全组 删除集群 禁止删除集群 休眠/唤醒按需计费集群 续费包年/包月集群 按需计费集群转包周期 父主题: 集群
如何确认已创建的集群是否为多控制节点模式? 登录CCE控制台,进入集群,在集群详情页面右侧查看控制节点数量: 3个节点即为多控制节点模式。 1个节点即为单控制节点模式。 集群一旦创建,便无法更改控制节点数,需要重新创建集群才能调整。 父主题: 集群运行
器。 方案二:扩容磁盘 扩容磁盘的操作步骤如下: 在EVS控制台扩容数据盘。详情请参见扩容云硬盘容量。 在EVS控制台扩容成功后,仅扩大了云硬盘的存储容量,还需要执行后续步骤扩容逻辑卷和文件系统。 登录CCE控制台,进入集群,在左侧选择“节点管理”,单击节点后的“同步云服务器”。
购买集群 集群类型对比 购买Standard/Turbo集群 在CCE Turbo集群中使用分布式云资源 使用KMS进行Secret落盘加密 iptables与IPVS如何选择 父主题: 集群
工作负载中实现数据持久化与共享性。 前提条件 您已经创建好一个集群,并且在该集群中安装CCE容器存储(Everest)。 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。 您已经创建好一个文件存储,并且文件存储与集群在同一个VPC内。
集群删除 集群删除失败:安全组中存在残留资源 冻结或不可用的集群删除后如何清除残留资源 父主题: 集群
MySQL实例的相关操作和注意事项。 前提条件 已创建一个CCE集群,具体操作步骤请参见创建集群。 在集群内已创建一个Pod,具体操作步骤请参见创建无状态负载(Deployment)。 从Pod访问ECS 从Pod访问其他云服务(以RDS for MySQL为例) 假设集群VPC为vpc-demo1,网段为192
拟私有云和子网。 修改云服务器的虚拟私有云和子网 计费模式不一致 将云服务器的计费模式修改成与节点池的计费模式一致。 修改云服务器的计费模式 数据盘不一致 将云服务器的数据盘配置修改成与节点池的数据盘配置一致。 修改云服务器的数据盘 企业项目不一致 将云服务器的企业项目修改成与节点池的企业项目一致。
Containerd节点业务容器标准输出日志写入过快导致节点数据盘使用率过高 问题现象 Containerd节点上业务容器标准输出不断写入大量日志,导致/var/lib/containerd目录占用空间不断增长,同时节点上容器创删速度变慢,进一步出现磁盘使用率过高、Pod驱逐、节点异常等现象。
Service,OBS)提供海量、安全、高可靠、低成本的数据存储能力,可供用户存储任意类型和大小的数据。适合企业备份/归档、视频点播、视频监控等多种数据存储场景。 标准接口:具备标准Http Restful API接口,用户必须通过编程或第三方工具访问对象存储。 数据共享:服务器、嵌入式设备、IOT设
com。 问题建议 方案一:发布服务使用域名发现,需要提前预置好主机名和命名空间,服务发现使用域名的方式,注册的服务的域名为:服务名.命名空间.svc.cluster.local 。这种使用有限制,注册中心部署必须容器化部署。 方案二:容器部署使用主机网络部署,然后亲和到集群的某一个节点
集群升级 CCE集群升级时,升级集群插件失败如何排查解决? 父主题: 集群
1及更早版本的环境中,攻击者通过运行一个恶意镜像,可能实现容器逃逸,从而获得主机系统的访问权限。成功利用此漏洞可能会导致代码执行、拒绝服务、权限提升、信息泄露和数据篡改。 判断方法 如果集群未安装CCE AI套件(NVIDIA GPU)插件或插件版本低于2.0.0,则不涉及该漏洞。 CCE AI套件(NVIDIA
的解决方案,并且将解决方案融合到其业务系统中。 价值 云容器引擎深度集成应用服务网格,提供开箱即用的应用服务网格流量治理能力,用户无需修改代码,即可实现灰度发布、流量治理和流量监控能力。 优势 开箱即用 与云容器引擎无缝对接,一键开启后即可提供非侵入的智能流量治理解决方案。 策略化智能路由
当Pod被重新调度后,仍然能够根据该PVC名称挂载原有的数据。适用于多实例的有状态工作负载。 本地持久卷不支持通过静态PV使用,即不支持先手动创建PV然后通过PVC在工作负载中挂载的方式使用。 约束与限制 本地持久卷仅在集群版本 >= v1.21.2-r0 时支持,且需要everest插件版本>=2
用。 如下图: 问题定位 node节点中vg被删除或者损坏无法识别,为了避免重置的时候误格式化用户的数据盘,需要先手动恢复vg,这样重置的时候就不会去格式化其余的数据盘。 解决方案 登录节点。 重新创建PV和VG,但是创建时报错: root@host1:~# pvcreate /dev/vdb