检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
等现象。 应用缓存占用非常高,WSS明显大于RSS,导致界面上显示的容器内存使用率小于HPA计算的内存使用率。 Limit与Request配置差异较大时,Request明显小于Limit,导致界面上显示的容器内存使用率小于HPA计算的内存使用率。 父主题: 监控日志
子网是虚拟私有云中的一个子集,可以将虚拟私有云划分为一个个子网,每个子网之间可以通过安全组控制其之间能否互通,保证子网之间可以相互隔离,用户可以将不同业务部署在不同的子网内。 集群是同一个VPC中一个或多个弹性云服务器或裸金属服务器(又称:节点)通过相关技术组合而成的计算机群体,为容器运行提供了计算资源池。
总体日志标准速率建议不超过5MB/s。若确实存在大量日志输出场景,可考虑以下方式优化: 避免日志输出过多的容器调度在同一个节点。例如给此类应用配置Pod间反亲和,或减少单节点的Pod数量上限。 考虑单独挂盘,如用户创建节点时挂载额外用户数据盘或应用动态挂载存储等等,然后将业务日志输出到额外挂载盘中的文件。
参数取值固定为“true”,表示云硬盘的设备类型为SCSI类型。不允许设置为其他值。 everest.io/disk-iops 否 IOPS值由用户预配置,仅使用通用型SSD v2和极速型SSD v2类型的云硬盘支持设置。 通用型SSD v2类型的IOPS范围为3000~128000,最高可配置 500*容量(GiB)。
先连接kubectl。详情请参见通过kubectl连接集群。 操作步骤 通过后台创建daemonSet,选择nginx镜像、开启特权容器、配置生命周期、添加hostNetwork: true字段。 新建daemonSet文件。 vi daemonSet.yaml Yaml示例如下:
标准版本集群,提供高可靠、安全的商业级容器集群服务。 面向云原生2.0的新一代容器集群产品,计算、网络、调度全面加速。 无用户节点的Serverless版集群,无需对节点的部署、管理和安全性进行维护,并根据CPU和内存资源用量按需付费。 使用场景 - 面向有云原生数字化转型诉求的用户,期望通过容器集群管理应用,获
开始,因为最近200秒中仅错过了3个调度(示例中一个调度周期为1分钟)。 解决方法 如果想要解决这个问题,可以在定时任务的CronJob中配置参数:startingDeadlineSeconds。该参数只能使用kubectl命令,或者通过API接口进行创建或修改。 YAML示例如下:
Warning NodeNotReady 17s node-controller Node is not ready 问题原因 节点关机后,系统会自动给节点添加污点,比如: node.kubernetes.io/unreachable:NoExecute node.cloudprovider
激活成功 给集群所使用资源打标签。 集群所使用资源包括集群Master节点、节点,存储资源(EVS、SFS、OBS等),网络资源(ELB、EIP等)。其中节点会默认添加CCE-Cluster-ID标签。 给集群添加标签。 在CCE控制台进入集群信息页面,在资源标签处给集群打标签。
建后sock文件重新挂载,可恢复正常。 通常K8S集群用户基于如下场景在容器中使用上述sock文件: 监控类应用,以DaemonSet形式部署,通过sock文件连接Docker/Containerd,获取节点容器状态信息。 编译平台类应用,通过sock文件连接Docker/Containerd,创建程序编译用容器。
在存储池中导入临时卷 CCE支持使用LVM将节点上的数据卷组成存储池(VolumeGroup),然后划分LV给容器挂载使用。在创建本地临时卷前,需将节点数据盘导入存储池。 约束与限制 本地临时卷仅在集群版本 >= v1.21.2-r0 时支持,且需要everest插件版本>=1.2
器名称的修改将无法同步到CCE控制台。更多说明请参见云服务器名称、节点名称与K8s节点名称说明。 不支持同步数据:操作系统、镜像ID、磁盘配置。 同步单个云服务器 登录CCE控制台,单击集群名称进入集群。 在集群控制台左侧导航栏中选择“节点管理”,切换至“节点”页签。 找到目标节点,单击节点后的“更多
在存储池中导入持久卷 CCE支持使用LVM将节点上的数据卷组成存储池(VolumeGroup),然后划分LV给容器挂载使用。在创建本地持久卷前,需将节点数据盘导入存储池。 约束与限制 本地持久卷仅在集群版本 >= v1.21.2-r0 时支持,且需要everest插件版本>=2.1
的 Pod 或者是未被调度的 Pod,kube-scheduler 会选择一个最优的节点去运行这个 Pod。kube-scheduler 给一个 Pod 做调度选择包含过滤和打分两个步骤。过滤阶段会将所有满足 Pod 调度需求的节点选出来,在打分阶段 kube-scheduler
当宿主机上的故障风险无法规避时,为避免因ECS实例的资源可用性或性能受损对您的业务造成更大的影响,系统会对受影响的ECS实例生成云服务器事件并进行上报,例如实例重部署、系统维护等。 您可以在弹性云服务器ECS控制台管理云服务器事件,详情请参考弹性云服务器事件概述。 使用场景 云服务器事件处理过程中可能出
待纳管节点规格要求至少 2 核 4 GiB,且只绑定了 1 张网卡。 批量纳管仅支持添加与节点池相同规格、可用区、资源预留、系统盘、数据盘配置的云服务器。 云服务器上已分区的磁盘不会被纳管为数据盘,请提前做好数据备份与磁盘清理。 单击“确定”。 父主题: 管理节点池
在资源到期前均可开通自动续费,到期前7日凌晨3:00首次尝试自动续费,如果扣款失败,每天凌晨3:00尝试一次,直至资源到期或者续费成功。到期前7日自动续费扣款是系统默认配置,您也可以根据需要修改此扣款日。 父主题: 续费
新的结算周期。按需计费模式下您可以根据实际业务需求灵活地调整资源使用,无需提前预置资源,从而降低预置过多或不足的风险。一般适用于电商抢购等设备需求量瞬间大幅波动的场景。 使用云容器引擎CCE时,CCE控制台支持选择集群或节点的计费模式(包年/包月或按需计费),且集群和节点的计费模
CCE Turbo集群(云原生2.0网络模型)中,仅当Service的后端对接使用主机网络(HostNetwork)的Pod时,亲和级别支持配置为节点级别。 表格中仅列举了可能存在访问不通的场景,其他不在表格中的场景即表示可以正常访问。 服务端发布服务类型 访问类型 客户端请求发起位置
情况,如果创建4096个节点,则每个节点最多只能创建16个Pod,因为给每个节点只分配了16个IP的网段。另外集群能创建多少节点,还受节点子网的可用IP数和集群规模的影响。 图3 网络模型选择(创建集群时配置) 网段规划建议 在集群网络构成中介绍集群中网络地址可分为集群网络、容器