检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在弹出的“删除集群”窗口中,根据系统提示,勾选删除集群时需要释放的资源。 删除集群节点,可支持以下操作选项: 保留:保留服务器、系统盘和数据盘数据。 删除:删除服务器(包周期节点不支持此选项,请进行手动退订)。 重置:保留并重置服务器,系统盘和数据盘数据不保留。 删除集群下工作负载挂载的云存储。 选择删除集群中存储
例中一个调度周期为1分钟)。 解决方法 如果想要解决这个问题,可以在定时任务的CronJob中配置参数:startingDeadlineSeconds。该参数只能使用kubectl命令,或者通过API接口进行创建或修改。 YAML示例如下: apiVersion: batch/v1
为Master节点安全组的规则是否被删除。 仅VPC网络模型的集群执行该检查项,非VPC网络模型的集群将跳过该检查项。 解决方案 请登录VPC控制台,前往“访问控制 > 安全组”,在搜索框内输入集群名称,此时预期过滤出两个安全组: 安全组名称为“集群名称-node-xxx”,此安全组关联CCE用户节点。
说明 取值 调度器访问kube-apiserver的QPS kube-api-qps 与kube-apiserver通信的QPS,即每秒查询率。 集群规格为1000节点以下时,默认值100 集群规格为1000节点及以上时,默认值200 调度器访问kube-apiserver的突发流量上限
资源分级管控为业务潮汐明显的在线业务间混部、在线和离线业务混部奠定了基础。解决了应用预留资源较多、资源无法分时复用的问题。 在线作业与离线作业 从业务是否一直在线的角度看,其类型可分为在线作业和离线作业。 在线作业:一般运行时间长,服务流量呈周期性,资源存在潮汐现象,但对服务SLA要求较高,如广告业务、电商业务等。
某些节点支持使用GPU算力,则可以使用节点亲和调度,确保高性能计算的Pod最终运行在GPU节点上。 配置节点亲和调度策略 您可以通过不同的方式配置节点亲和性调度策略,将Pod调度到满足条件的节点。 通过控制台配置 通过YAML配置 本文示例中,集群内已创建GPU节点,并设置标签为
的系统委托,其中包含CCE组件需要的云服务资源操作权限,但不包含支付权限,详情请参见系统委托说明。在创建包周期的云硬盘存储卷时,要求包含支付权限,因此需要为cce_cluster_agency委托中添加bss:order:pay权限。 解决方案 您可以创建一个自定义策略,为该策略
效。 目标服务名称:请选择已有Service或新建Service。页面列表中的查询结果已自动过滤不符合要求的Service。 目标服务访问端口:可选择目标Service的访问端口。 域名:无需填写 路径匹配规则:前缀匹配 路径:/ 目标服务名称:nginx 目标服务访问端口:80
path`字段的用户,可以使用换行符绕过对Ingress 对象的“spec.rules[].http.paths[].path”字段的处理,通过这种方式获取ingress-controller使用的credentials,进而可以获取集群中所有namespace的secrets。 判断方法
放弃排水:若节点上存在放弃排水的Pod,节点排水过程会中止,不会驱逐或删除任何Pod。 节点排水操作 您可以参考以下方式进行节点排水。 通过控制台操作 通过kubectl命令行操作 通过API操作 登录CCE控制台,单击集群名称进入集群。 在集群控制台左侧导航栏中选择“节点管理”,切换至“节点”页签。
同一个集群的服务,也能够互不干扰。 例如可以将开发环境、测试环境的业务分别放在不同的命名空间。 前提条件 至少已创建一个集群。 约束与限制 每个命名空间下,创建的服务数量不能超过6000个。此处的服务对应kubernetes的service资源,即工作负载所添加的服务。 命名空间类别
CCE突发弹性引擎(对接 CCI)作为一种虚拟的kubelet用来连接Kubernetes集群和其他平台的API。Bursting的主要场景是将Kubernetes API扩展到无服务器的容器平台(如CCI)。 基于该插件,支持用户在短时高负载场景下,将部署在云容器引擎CCE上的无状态
在弹出的“迁移节点”窗口中进行确认。 迁移完成后,节点上用户自定义的资源标签、K8s标签、污点不受影响。 迁移完成后,节点上名为cce.cloud.com/cce-nodepool的系统标签会被删除。如果已有工作负载使用该标签进行亲和/反亲和调度,在Kubelet重启时会将该节点上已存在的Pod停止并重新调度。
集群级别:集群下所有节点的IP+访问端口均可以访问到此服务关联的负载,服务访问会因路由跳转导致一定性能损失,且无法获取到客户端源IP。 节点级别:只有通过负载所在节点的IP+访问端口才可以访问此服务关联的负载,服务访问没有因路由跳转导致的性能损失,且可以获取到客户端源IP。 端口配置:
节点上容器创删等操作也会受影响。 解决方法 一般场景下,以8U16G节点、数据盘大小为100G为例,建议单容器的日志标准输出速率不超过512KB/s,节点上所有容器总体日志标准速率建议不超过5MB/s。若确实存在大量日志输出场景,可考虑以下方式优化: 避免日志输出过多的容器调度在
场景二:通过网络策略限制Pod只能被带有特定标签的Pod访问,且只能访问指定Pod 图4 同时使用Ingress和Egress 目标Pod具有role=db标签,该Pod只允许带有role=frontend标签的Pod访问其6379端口,且该Pod只能访问带有role=web标签的Pod。网络策
需要对业务做部分解耦拆分。 方式三: 整体微服务架构改造,再容器化 单独扩展:拆分为微服务后,可单独增加或缩减每个微服务的实例数量。 提升开发速度:各微服务之间解耦,某个微服务的代码开发不影响其他微服务。 通过隔离确保安全:整体应用中,若存在安全漏洞,会获得所有功能的权限。微服务架构中,若攻击
performance #需使用独享型ELB # 表示只能通过Header key1=value1或者key1=value2访问/a路径,最终访问到的服务是 svc-a:80 kubernetes.io/elb.headers.svc-a: | {
件是否开启了grafana的开关。 解决方案 由于云原生监控插件在3.9.0之后的版本,不再聚合grafana的能力,因此升级前需要重新安装开源版本grafana插件。 重新安装grafana不会影响已有的数据。 手动创建的grafana的服务(service)和路由(ingre
效。 采集端点访问403的原因是什么?该如何处理? 问题根因 您的采集端点对应的采集任务ServiceMonitor/PodMonitor配置了认证,出于安全考虑,页面访问默认不支持访问需认证的端点。 解决方案:您可以通过配置,允许访问带认证的端点。 配置允许访问带认证的端点,会