检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
控制集群资源数据量 集群资源数据量过大会降低etcd的性能,包括数据读取和写入延迟。除了总数据量以外,单类资源的数据量过大也会导致客户端全量查询该资源时控制平面消耗大量资源。因此,建议控制etcd的数据量及单类资源的数据量,如下表。 表1 不同集群规模建议etcd数据量上限 集群规模
请勿在节点上手动删除对应的存储池或卸载数据盘,否则会导致数据丢失等异常情况。 本地持久卷不支持被多个工作负载或多个任务同时挂载。 本地临时卷使用约束: 本地临时卷仅在集群版本 >= v1.21.2-r0 时支持,且需要everest插件版本>=1.2.29。 请勿在节点上手动删除对应的存储池或卸载数据盘,否则会导致数据丢失等异常情况。
local 13s 数据库更新适配 本例中数据库为本地MySQL数据库,迁移后无需重新配置。若您通过数据复制服务DRS将本地数据库迁移至云数据库RDS,则在迁移后需重新配置数据库的访问,请您根据实际情况进行配置。 若云数据库RDS实例与CCE集群处于同一VPC下
为Nginx Ingress配置跨域访问 在Web开发中,由于浏览器的同源策略,一个域下的网页通常不能直接请求另一个域下的资源。CORS(跨资源共享,Cross-Origin Resource Sharing)提供了一种安全的方式来绕过这个限制,允许跨域请求。 使用CORS允许跨域访问的场景较多,可能的场景如下:
购买CCE集群,购买GPU节点并使用gpu-beta插件安装显卡驱动。 在集群下添加一个对象存储卷。 数据预置 从https://github.com/zalandoresearch/fashion-mnist下载数据。 获取tensorflow的ML范例,加以简单的修改。 basicClass.py
器网络性能接近于VPC网络性能,所以适用于对性能要求较高的业务场景,比如:AI计算、大数据计算等。 中小规模组网:由于VPC路由网络受限于VPC路由表条目配额的限制,建议集群规模为1000节点及以下。 性能要求高:由于云原生网络2.0直接使用VPC网络构建容器网络,容器通信不需要
值以去除系统默认创建资源的影响。 在Kubernetes中,外部用户及内部组件频繁的数据更新操作采用乐观并行的控制方法。通过定义资源版本(resourceVersion)实现乐观锁,资源版本字段包含在对象的元数据(metadata)中。这个字段标识了对象的内部版本号,且对象被修改
CCE使用/var/paas目录进行基本的节点管理活动并存储属主和属组均为paas的文件数据。 当前集群升级流程会将/var/paas路径下的文件的属主和属组均重置为paas。 请您参考下述命令排查当前业务Pod中是否将文件数据存储在/var/paas路径下,修改避免使用该路径,并移除该路径下的异常文件后重试检查,通过后可继续升级。
典型场景:用户在创建节点时配置两个数据盘作为临时卷存储池,用户误操作删除了部分数据盘导致存储池异常。 检测周期:30秒 数据来源: vgs -o vg_name, vg_attr 检测原理:检查VG(存储池)是否存在p状态,该状态表征部分PV(数据盘)丢失。 节点持久卷存储池异常调
中挂载路径下的数据会存储在存储卷的tmp文件夹中。不填写时默认为根路径。 权限 只读:只能读容器路径中的数据卷。 读写:可修改容器路径中的数据卷,容器迁移时新写入的数据不会随之迁移,会造成数据丢失。 本例中将该盘挂载到容器中/data路径下,在该路径下生成的容器数据会存储到磁盘中。
的集群管理权限和所有命名空间的只读权限,而开发组长“ROBERT”、运维工程师“WILLIAM”以及两位开发工程师“LINDA”和“PRTER”则拥有了所有集群和命名空间的只读权限。 开发组长:ROBERT 用户“ROBERT”作为开发组的组长,虽然在上一步中已经为其设置了所有集
GPU视图 GPU资源指标可以衡量GPU性能和使用情况,包括GPU的利用率、温度、显存等方面的监控数据,帮助您掌控GPU运行状况。 指标说明 图1 GPU资源指标 表1 GPU图表说明 图表名称 单位 说明 集群-显存使用率 百分比 集群的显存使用率 计算公式:集群内容器显存使用总量/集群内显存总量
中挂载路径下的数据会存储在存储卷的tmp文件夹中。不填写时默认为根路径。 权限 只读:只能读容器路径中的数据卷。 读写:可修改容器路径中的数据卷,容器迁移时新写入的数据不会随之迁移,会造成数据丢失。 本例中将磁盘挂载到容器中/data路径下,在该路径下生成的容器数据会存储到云硬盘中。
可迁移的云原生监控插件目标版本为3.10.1及以上。 采集数据迁移 迁移至基于本地存储的传统模式时,数据库是自动迁移的,您只需继续执行后续采集配置迁移步骤即可。 迁移至无本地存储的轻量化模式时,由于原本的数据存储于集群内的PVC中,后续新增数据存储于AOM,数据无法直接迁移,但是您仍旧可以利用历史数据老化机制将您
manager)中没有包含对Pod中挂载的/etc/hosts文件的临时存储占用量管理,因此在特定的攻击场景下,一个挂载了/etc/hosts的Pod可以通过对该文件的大量数据写入占满节点的存储空间,从而造成节点的拒绝访问(Denial of Service)。 表1 漏洞信息 漏洞类型 CVE-ID 漏洞级别 披露/发现时间
109% 问题根因 出现该问题的原因是kubectl top node是调用kubelet的metrics API来获取数据的,因此看到的是节点上已使用的资源总和除以可分配的所有资源。 社区issue链接:https://github.com/kubernete
需要释放的资源。 删除集群节点,可支持以下操作选项: 保留:保留服务器、系统盘和数据盘数据。 删除:删除服务器(包周期节点不支持此选项,请进行手动退订)。 重置:保留并重置服务器,系统盘和数据盘数据不保留。 删除集群下工作负载挂载的云存储。 选择删除集群中存储卷绑定的底层云存储资源时,存在如下约束:
Disruption Budget,即干扰预算),升级过程中将严格根据PDB规则保障关键业务的可用性。 节点的系统盘和数据盘将会被清空,重置前请事先备份重要数据。 节点重置会清除用户单独添加的K8S标签和K8S污点,可能导致与节点有绑定关系的资源(本地存储,指定调度节点的负载等)
同工作负载的功能特性及应用场景不同。关于工作负载类型的介绍请参见工作负载概述。 负载名称 nginx 请填写工作负载的名称。 命名空间 default 命名空间是Kubernetes集群中的抽象概念,可以将集群中的资源或对象划分为一个组,且不同命名空间中的数据彼此隔离。 集群创建
Helm v2与Helm v3的差异及适配方案 随着Helm v2 发布最终版本Helm 2.17.0,Helm v3 现在已是 Helm 开发者社区支持的唯一标准。为便于管理,建议用户尽快将模板切换至Helm v3格式。 当前社区从Helm v2演进到Helm v3,主要有以下变化: