检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
创建MCS对象失败怎么办? 问题描述 创建MCS对象失败,运行kubectl describe mcs mcs-example -n demo命令查看事件,显示如下: 解决方案 问题出现的原因为创建MCS对象时配置的karmada.io/elb.projectid有误,您需要删除
获取集群列表 功能介绍 获取集群信息列表 URI GET /v1/clusters 表1 Query参数 参数 是否必选 参数类型 描述 category 否 String 获取特定category的集群。 enablestatus 否 Boolean 是否获取集群的资源信息。不
关闭容器集群联邦 功能介绍 关闭容器舰队联邦 URI DELETE /v1/clustergroups/{clustergroupid}/federations 表1 路径参数 参数 是否必选 参数类型 描述 clustergroupid 是 String 容器舰队id 请求参数
快速创建和管理容器舰队 入门指引 步骤一:准备工作 步骤二:创建容器舰队 步骤三:为容器舰队添加集群 步骤四:管理多集群生命周期
守护进程集 守护进程集(DaemonSet)保证集群下全部(或某些)节点上均运行一个Pod,新节点添加到集群内也会自动部署Pod,有节点从集群移除时,该节点上的Pod也会被回收。适用于常驻集群的后台程序,如日志采集等。删除DaemonSet将会删除它创建的所有Pod。 创建守护进程集
xxx/hwofficial-ucs/proxy-agent:{version},具体的版本号参考proxy-agent组件版本发布记录,如果对应升级版本有参数变化,则需要修改对应参数。 保存修改,等待proxy-agent负载完成滚动升级。 父主题: 组件管理
0.100 这里有个topologyKey字段(拓扑域),意思是先圈定topologyKey指定的范围,然后再选择下面规则定义的内容。这里每个节点上都有kubernetes.io/hostname,所以看不出topologyKey起到的作用。 如果backend有两个Pod,分别在不同的节点上。
查看集群内工作负载情况 如果您需要监控工作负载的资源使用情况,可以前往容器洞察中的工作负载页面查看。该页面提供了指定集群下所有工作负载的综合信息,以及单个工作负载的详细监控数据,包括CPU/内存使用率、网络流入/流出速率、磁盘使用率等。 功能入口 登录UCS控制台。 在左侧导航栏中选择“容器智能分析”,在“容器洞察
管理FederatedHPA策略 本小节将指导您对已经创建的FederatedHPA策略进行管理,包括编辑策略与删除策略。 若您在工作负载扩缩过程中对策略进行了修改或删除,则修改或删除后的策略会即刻生效。 编辑FederatedHPA策略 登录UCS控制台,在左侧导航栏中选择“容器舰队”。
南北向MCS概述 约束限制 当前南北向MCS暂不支持网络协议为UDP的Service服务。 南北向MCS的type为LoadBalancer。 南北向MCS的能力 使用南北向MCS,可以将用户在集群中的联邦Service,暴露四层的访问入口至ELB实例上,客户可以通过ELB实例上
访问日志各字段解读 sidercar会在标准输出中打印访问日志,istio 1.18及以上版本的访问日志提供JSON格式的内容,下面以如下istio日志为例对每个字段的含义进行解读,解读内容见下表。 { "start_time": "%START_TIME%", "route_name":
独享型负载均衡器。该ELB实例需要满足以下条件: ELB为独享型。 ELB必须支持网络型(TCP/UDP)。 ELB网络类型必须支持私网(有私有IP地址)。 如果ELB与成员集群的网络不在同一VPC内,ELB需要支持开启跨VPC访问的开关。 MCS为跨集群后端工作负载提供统一入口
VPC子网网段不能与IDC中已使用的网络网段重叠,否则将无法接入集群,例如,IDC中已使用的VPC子网为192.168.1.0/24,那么华为云VPC中不能使用192.168.1.0/24这个子网。 网络连通可以选用如下两种方案: 虚拟专用网络(VPN)方案:请参见通过VPN连接云下数据中心与云上VPC。
VPC子网网段不能与伙伴云中已使用的网络网段重叠,否则将无法接入集群,例如,伙伴云中已使用的VPC子网为192.168.1.0/24,那么华为云VPC中不能使用192.168.1.0/24这个子网。 网络连通可以选用如下两种方案: 虚拟专用网络(VPN)方案:请参见通过VPN连接云下数据中心与云上VPC。
GPU调度概述 工作负载支持使用节点GPU资源,GPU资源使用可以分为如下两种模式: GPU静态分配(共享/独享):按比例给Pod分配GPU显卡资源,支持独享(分配单张/多张显卡)和共享(部分显卡)方式。 GPU虚拟化:UCS On Premises GPU采用xGPU虚拟化技术
NPU调度概述 UCS本地集群管理支持NPU异构资源调度能力。 可实现快速高效地处理推理和图像识别等工作。 NPU调度可以指定Pod申请NPU的数量,为工作负载提供NPU资源。 父主题: NPU调度
e-backup插件 插件简介 E-Backup是云原生存储系统(Everest2.0)中负责云原生应用数据保护的子系统。它支持用户将应用数据(k8s资源)和业务数据(pv卷中的数据)备份到OBS桶中,也允许用户将某次备份数据恢复到指定的K8s集群中。 E-Backup通过备份和
查看集群中节点 将集群接入UCS后,您可在集群控制台查看集群中的节点信息。 操作步骤 登录集群控制台。 在左侧导航栏中选择“节点管理”,查看集群中的节点信息。 单击操作列的“查看实例列表”,可查看运行在当前节点上的所有实例。 单击操作列的“事件”,可查看节点事件。 单击操作列的“更多
查看集群内Pod情况 如果您需要监控Pod的资源使用情况,可以前往容器洞察中的Pod页面查看。该页面提供了指定集群下所有Pod的综合信息,以及单个Pod的详细监控数据,包括CPU/内存使用率、网络流入/流出速率、磁盘使用率等。 页面中容器组、Pod以及实例是指同一个概念。 功能入口
k8sreplicalimits 基本信息 策略类型:合规 推荐级别:L1 生效资源类型:* 参数: ranges: min_replicas: 整型 max_replicas: 整型 作用 要求具有“spec.replicas”字段的对象(Deployments、ReplicaSets等)在定义的范围内。