检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
置弹性伸缩策略。 配置节点池弹性伸缩策略。 伸缩配置 自定义扩容规则:单击“添加规则”,在弹出的添加规则窗口中设置参数。您可以设置多条节点弹性策略,最多可以添加1条CPU使用率指标规则、1条内存使用率指标规则,且规则总数小于等于10条。 规则类型可选择“指标触发”或“周期触发”,两种类型区别如下:
com/torvalds/linux/commit/35dfb013149f74c2be1ff9c78f14e6a3cd1539d1。 解决方案 您可以通过使用节点DNS缓存NodeLocal DNSCache降低IPVS缺陷的影响,具体操作请参见使用NodeLocal DNSCache提升DNS性能。
构节点时拉取ARM架构的镜像,当Pod调度到x86架构节点时拉取x86架构的镜像。双架构镜像的一个特征是镜像可以只使用一个地址,但背后有两个镜像,这样在描述工作负载时,可以使用同一个镜像地址,且不用配置亲和性,工作负载描述文件更简洁更容易维护。 亲和性配置说明 CCE在创建节点时,会自动给节点打上kubenetes
单击“创建”。您可以在“存储类”页签下查看已经创建的存储类及相关信息。 通过YAML创建StorageClass 目前CCE默认提供csi-disk、csi-nas、csi-obs等StorageClass,在声明PVC时使用对应StorageClassName,就可以自动创建对应类型PV,并自动创建底层的存储资源。
查看Pod的配置,确定Pod中容器的配置是否符合预期。具体操作,请参见Pod配置查看方法。 排查环境变量中的某一个Key是否存在拼写错误时,您可以参考以下方法。以command拼写成commnd为例,说明拼写问题排查方法。 在执行kubectl apply -f命令前,尝试为其添加-
绿发布,您可以根据实际情况进行选择。 基于Header的流量切分、基于Cookie的流量切分、基于服务权重的流量切分 基于Header、Cookie和服务权重三种流量切分策略均可实现灰度发布;基于服务权重的流量切分策略,调整新服务权重为100%,即可实现蓝绿发布。您可以在下述示例中了解具体使用方法。
理、队列管理等多项功能。 一般情况下,Kubernetes在调度工作负载时会使用自带的默认调度器,若需要使用Volcano调度器的能力,您可以为工作负载指定调度器。关于Kubernetes调度器的详情请参见为Pod指定调度器。 约束与限制 调度大量工作负载的场景下,Volcano
uest)和实际使用量(used)中的最大值。基于普罗监控数据,可以清晰识别分钟级别的应用资源,进行成本计算。 节点中没有被分配的空闲成本,是如何处理的? 节点中的空闲成本不会被分摊到工作负载或者命名空间成本中,可以作为集群的公共成本分摊到部门。空闲成本在各个部门的分摊比例支持设置。
目前压测所有流量都经过Proxy,业务量大就要加大分配资源。 解决方法 传文件涉及大量报文复制,会占用内存,建议把Proxy内存根据实际场景调高后再进行访问和上传。 可以考虑把该服务从网格内移除出去,因为这里的Proxy只是转发包,并没有做其他事情,如果是通过Ingress Gateway走进来的话,这个服务的灰度发布功能是不受影响的。
针对集群内命名空间之间以及同一命名空间下工作负载之间需要网络隔离的场景,可以通过配置NetworkPolicy来达到隔离的效果。具体使用请参考网络策略(NetworkPolicy)。 云原生网络2.0 云原生网络2.0模型下,可以通过配置安全组达到Pod间网络隔离。具体使用请参见SecurityGroup。
RollingUpdate rollingUpdate: maxUnavailable: 25% # 配合以下两个参数,可以控制ELB后端个数,实现优雅滚动升级。 maxSurge: 25% 单击“确定”创建工作负载后,查看工作负载状态,Pod处于未就绪状态。
SMN的主题功能实现的,目的是为消息发布者和订阅者提供一个可以相互交流的通道。联系组包含一个或多个订阅终端,您可以通过配置告警联系组,分组管理订阅终端,接收告警信息。联系组创建完成后,需要绑定至告警规则集,这样,当有告警触发时,联系组中的订阅终端就可以收到告警消息了。 登录CCE控制台。 在集群列表页面,单击目标集群名称进入详情页。
如需关闭监控中心,请前往CCE控制台“插件管理”页面卸载云原生监控插件,或者关闭AOM对接,即可以停止使用该功能。 监控中心为什么没有展示自定义指标? 监控中心暂不支持用户自定义指标的展示,如果需要查看自定义指标,可以到AOM服务监控中心的仪表盘配置自定义指标的仪表盘。详情请参见创建仪表盘。 为
进入/usr/local/nvidia/bin目录,执行nvidia-smi -q命令。 若nvidia-smi命令不存在或执行失败,有可能是驱动安装未就绪导致,可以重新安装GPU驱动后,再重试。 观察执行结果中的ECC ERROR(发生ECC故障的记录)。 Correctable Error:不会影响业务,不会触发GPU隔离。
//github.com/kubernetes/ingress-nginx/issues/1825 解决方法 您在创建Ingress时,可以通过“nginx.ingress.kubernetes.io/permanent-redirect-code”注解指定永久重定向的状态码为301。
该Ingress由Nginx Ingress Controller管理,则说明该Ingress资源存在风险。 获取Ingress类别。 您可以通过如下命令获取Ingress类别: kubectl get ingress <ingress-name> -oyaml | grep -E
默认值:default-scheduler disable_mount_path_v1 否 Bool 默认值:false true:不将/opt/cloud/cce/nvidia挂载到GPU容器的/usr/lib/nvidia路径上 disable_nvidia_gsp 否 Bool 默认值:true
登录节点进入容器,修改catalina.sh脚本。 cd /usr/local/tomcat/bin vi catalina.sh 若无法在容器中执行vi命令,可以直接执行4,也可以执行vi命令,在脚本中添加 -Duser.timezone=GMT+08,如下图所示: 将脚本先从容器内复制至节点,在脚本中添加-Duser
提供简单易用、安全可靠的镜像管理功能,帮助用户快速部署容器化服务。容器镜像服务提供的镜像仓库是用于存储、管理docker容器镜像的场所,可以让使用人员轻松存储、管理、部署docker容器镜像。 容器镜像服务相关问题汇总 https://support.huaweicloud.c
3版本的OpenKruise插件时,kruise-daemon无法在使用docker容器引擎的节点上运行,请使用containerd容器引擎。 您可以选择以下方案之一进行解决: 方案一:关闭OpenKruise插件的kruise-daemon配置,然后重试集群升级。 方案二:将集群中运行