检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
云容器引擎(CCE),在易用性、可靠性、可视化等方面进行了一系列增强,可为客户提供开箱即用的上手体验。 ASM提供非侵入式的微服务治理解决方案,支持完整的生命周期管理和流量治理,兼容Kubernetes和Istio生态,其功能包括负载均衡、熔断、限流等多种治理能力。 ASM内置灰
取值范围10~60秒,默认为15秒。 存储:(部署模式选择“Server模式”时需要配置)用于普罗数据的临时存储。 存储类型:附着集群支持Emptydir和Local Storage两种存储类型。 使用Emptydir模式普罗数据将存储在Pod中,请确保prometheus-s
在不同云上的容器服务中,当云单点宕机故障发生时,集群联邦可以秒级自动完成应用实例的弹性迁移以及流量的切换,业务的可靠性大大提升。 多活容灾方案示意如图1所示,通过创建域名访问规则,将应用分发到3个Kubernetes集群,包括两个华为云CCE集群(部署在不同Region)和一个其
本地集群如何扩容容器智能分析插件的存储磁盘? 问题描述 当容器智能分析插件(kube-prometheus-stack)所依赖的PVC存储中的磁盘写满时,prometheus-server-0 Pod的日志标准输出会出现“no space left on device”报错,此时
问题原因:集群联邦运行状态异常。 解决方案:可尝试关闭集群联邦能力后再重新开通,详细操作请参考开通集群联邦。若由于业务方面原因不能关闭集群联邦,请提交工单,联系技术支持人员进行处理。 现象二:集群状态检查异常 问题原因:舰队内集群运行状态异常或接入状态异常。 解决方案: 若集群运行状态异常,可对集群进行修复。
MCS/MCI实例删除异常如何排查? 问题现象:MCS/MCI实例删除状态异常,一直显示“删除中”。 解决方案:强制删除异常实例,并手工清理残留资源。 操作步骤: 登录UCS控制台,在左侧导航栏选择“容器舰队”页面,在“容器舰队”页签下单击目标舰队,进入舰队详情页。 在左侧导航栏
Pipeline 基于UCS容器舰队提供的多云场景下的自动化发布管理服务,提供调测、编排、发布、上线等一站式能力,帮助您建立敏捷高效的应用交付整体解决方案。 基于流水线对UCS容器舰队应用进行发布,可以实现在公有云、私有云、边缘云等多云场景下的跨云一站式应用发布。 前提条件 已创建UCS容器
取值范围10~60秒,默认为15秒。 存储:(部署模式选择“Server模式”时需要配置)用于普罗数据的临时存储。 存储类型:伙伴云集群支持Emptydir和Local Storage两种存储类型。 使用Emptydir模式普罗数据将存储在Pod中,请确保prometheus-
5秒。 存储:(部署模式选择“Server模式”时需要配置)用于普罗数据的临时存储。本地集群支持CSI-Local存储类型。将节点所拥有的磁盘以PVC的方式提供给容器使用,使用此种存储卷时容器将固定调度至本地存储卷所在节点运行,需确保Pod与目标节点没有调度冲突。 存储类型:选择“CSI-Local”。
KubeConfig 获取KubeConfig文件 更新KubeConfig文件 父主题: 单集群管理
集群架构选择X86,在ARM节点上安装本地集群,则会安装失败报错: 集群架构选择ARM,在X86节点上安装本地集群,则会安装失败报错。 解决方案:集群节点CPU架构暂不支持异构混部,请确认集群架构与安装部署本地集群节点的cpu架构一致。 若集群架构选择X86,请选择X86节点上安装本地集群。
容器迁移概述 华为云UCS的容器迁移服务为您提供了一种可靠、安全、灵活且高效的迁移方案。通过使用UCS,您可以将本地数据中心或其他云提供商上的Kubernetes集群中的云原生应用迁移到华为云UCS管理的Kubernetes集群中。这样,您可以实现统一的运维管理,降低管理成本并提高运维效率。
yaml命令删除UCS创建的SA对象。 如修改集群kubeconfig.yaml文件的server地址为集群的apiserver地址后,集群接入到UCS无法打开,解决方案请参见附着集群接入失败--排查集群kube-apiserver状态。 伙伴云集群 您需要先下载kubectl以及配置文件,拷贝到您的客户端
nodeExporter:每个节点上均有部署,收集Node级别的监控数据。 grafana:可视化浏览普罗监控数据。Grafana会默认创建大小为5 GiB的存储卷,卸载插件时Grafana的存储卷不随插件被删除。 clusterProblemDetector:用于监控集群异常。 约束和限制 目前kube-prome
问题原因:一个集群不能同时加入两个或两个以上的联邦。有这个报错提示,说明当前集群已经添加到联邦中,或者曾经加入过联邦但是存在资源残留。 解决方案:手工清理残留资源。 操作步骤: 获取报错集群的kubeconfig配置文件,并准备kubectl及运行节点,将kubeconfig文件放在运行节点/tmp目录。
after 45s 解决方案:LTS日志组有配额限制,如果出现该报错,请前往LTS下删除部分无用的日志组。限制详情请参见:日志组。 配置了容器文件路径采集,采集的目录不是挂载到容器内的,且节点引擎为docker,采集不到日志。 解决方案: 请检查工作负载所在节点的容器存储模式是否为dev
图2 有安全风险的工作负载配置示例 漏洞修复方案 规避措施 配置工作负载的WORKDIR为固定目录。 若未设置工作负载WORKDIR目录,需确保工作负载使用的容器镜像来源可信。 执行以上规避措施前,请评估对业务的影响,并进行充分测试。 修复方案 当前UCS已修复该漏洞,请您使用最新版本的本地集群和多云集群。
根据用户所属区域,实现智能路由、就近接入,减少业务端到端时延。 统一算力供给 跨地域算力协同,根据直播人数和应用需要,灵活调度边端、云端资源,提升资源利用率。 建议方案 图1 电商直播场景方案 父主题: 应用场景
适配车联网、互联网创新的业务场景,实现根据业务特点灵活接入,降低用户使用时延。 统一管理平台 提供统一全网分布式应用的运维、运营入口,提升运营运维效率。 建议方案 图1 汽车行业场景方案 父主题: 应用场景
网格使用时无法创建代理,istio组件调度失败,一直处于pending状态 解决方案 请检查节点的istiod的标签(istio=master)是否存在。 如果不存在请将istiod的标签istio=master加上。 可能原因 在CCE集群中把节点移除之后又再次纳管进去会重置节点,清除节点的标签。