检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
log”等格式日志文件,转储到AOM中,方便您查看和检索;并且云容器引擎基于AOM进行资源监控,为您提供弹性伸缩能力。 容器日志 云审计服务 CTS 云审计服务提供云服务资源的操作记录,记录内容包括您从公有云管理控制台或者开放API发起的云服务资源操作请求以及每次请求的结果,供您查询、审计和回溯使用。 云审计服务支持的CCE操作列表
集群中的节点是否有资源调度失败的事件? 问题现象: 节点运行正常且有GPU资源,但报如下失败信息: 0/9 nodes are aviable: 9 insufficient nvida.com/gpu 排查思路: 确认节点标签是否已经打上nvidia资源。 查看nvidia驱动运行是否正常。
请参考价格详情。 云原生监控插件在集群中运行需要消耗集群资源,请确保集群资源能够满足插件的安装。具体资源消耗可以前往“插件中心”云原生监控插件安装页面获取。 前提条件 开通监控中心前,用户需要使用具有admin用户组的账户完成对CCE及其依赖服务的委托授权。 授权方式:监控中心页
当您的包年/包月资源到期未续费,资源将会进入宽限期,状态变为“已过期”。宽限期内您仍然可以正常访问及使用该资源。 如果超过宽限期后,您仍未续费包年/包月资源,资源将会进入保留期,资源状态变为“已冻结”,您将无法对处于保留期的包年/包月资源执行任何操作。 保留期到期后,若包年/包月资源仍未续
SAS:高IO,是指由SAS存储提供资源的磁盘类型。 SSD:超高IO,是指由SSD存储提供资源的磁盘类型。 SATA:普通IO,是指由SATA存储提供资源的磁盘类型。EVS已下线SATA磁盘,仅存量节点有此类型的磁盘。 ESSD:极速型SSD云硬盘,是指由极速型SSD存储提供资源的磁盘类型。 GP
NPU调度 CCE支持在容器中使用NPU资源。 前提条件 创建NPU类型节点,具体请参见创建节点。 安装huawei-npu插件,具体请参见CCE AI套件(Ascend NPU)。 使用NPU 创建工作负载申请NPU资源,可按如下方法配置,指定显卡的数量。 kind: Deployment
Integer 集群删除时已经存在的集群资源记录总数 current_total Integer 基于当前集群资源记录信息,生成实际最新资源记录总数 updated Integer 集群删除时更新的资源记录总数 added Integer 集群删除时更新的资源记录总数 deleted Integer
按需计费:后付费模式,按资源的实际使用时长计费,可以随时开通/删除资源。 更多计费相关信息请参见计费模式概述。 集群名称 cce-test 自定义新建集群的名称。 企业项目 default 企业项目是一种云资源管理方式,企业项目管理服务提供统一的云资源按项目管理,以及项目内的资源管理、成员管
变更集群规格 功能介绍 该API用于变更一个指定集群的规格。 集群管理的URL格式为:https://Endpoint/uri。其中uri为资源路径,也即API访问的路径。 使用限制请参考变更集群规格。 调用方法 请参见如何调用API。 URI POST /api/v3/proje
CBC资源锁定 约束限制: 不涉及 取值范围: true: 是CBC锁定资源 false: 非CBC锁定资源 lockScene String 参数解释: CBC资源锁定场景 约束限制: 不涉及 取值范围: 不涉及 lockSource String 参数解释: 锁定资源 约束限制:
允许同时同步的资源对象的数量。配置数量越大,管理响应越快,但 CPU(和网络)负载也越高 参数名 取值范围 默认值 是否允许修改 作用范围 concurrent-deployment-syncs 大于等于0 5 允许 CCE Standard/CCE Turbo 允许同时同步的资源对象的数量。配置数量越大,管理响应越快,但
Dashboard,您可以: 向Kubernetes集群部署容器化应用 诊断容器化应用的问题 管理集群的资源 查看集群上所运行的应用程序 创建、修改Kubernetes上的资源(例如Deployment、Job、DaemonSet等) 展示集群上发生的错误 例如:您可以伸缩一个D
出现该问题的原因是kubectl top node是调用kubelet的metrics API来获取数据的,因此看到的是节点上已使用的资源总和除以可分配的所有资源。 社区issue链接:https://github.com/kubernetes/kubernetes/issues/86499。
开启GPU虚拟化后,默认该GPU节点不再支持使用Kubernetes默认GPU调度模式的工作负载,即不再支持使用nvidia.com/gpu资源的工作负载。如果您在集群中已使用nvidia.com/gpu资源的工作负载,可在gpu-device-plugin插件配置中选择“虚拟化节点兼容GPU共享模式”选项,即可
图,帮助您更好的监控APIServer的运行状态。主要包括APIServer组件的请求、资源、工作队列等相关指标。 指标说明 APIServer视图暴露的指标包括请求指标、工作队列指标和资源指标,具体说明如下: 图1 请求指标 表1 请求指标说明 指标名称 单位 说明 存活数 个
clusterUID String 任务所在的集群的ID。 resourceID String 任务操作的资源ID。 resourceName String 任务操作的资源名称。 extendParam Map<String,String> 扩展参数。 subJobs Array
系统策略 指标:可选择“CPU利用率”或“内存利用率”。 说明: 利用率 = 工作负载所有Pod实际资源使用量的平均值 / 资源申请量(Request) 期望值:请输入期望资源平均利用率。 期望值表示所选指标的期望值,通过向上取整(当前指标值 / 期望值 × 当前实例数)来计算目标实例数。
图2 安装失败 错误显示资源不足。 添加节点资源为4U8G后,nginx-ingress安装正常。 问题原因 最初建立的集群中各节点的基本配置为2U4G,且各节点上有kubelet,kube-proxy及docker等相关程序占用系统资源,导致节点可用资源低于2000m,无法满足
调度器插件。开启后为您提供资源利用率优化、AI任务性能增强、异构资源管理等高级调度能力,提升集群资源利用率,节约使用成本。 Volcano调度器增强配置: 业务优先级保障调度 资源利用率优化调度(Volcano调度器支持) AI任务性能增强调度(Volcano调度器支持) 异构资源调度(Volcano调度器支持)
为Nginx Ingress配置跨域访问 在Web开发中,由于浏览器的同源策略,一个域下的网页通常不能直接请求另一个域下的资源。CORS(跨资源共享,Cross-Origin Resource Sharing)提供了一种安全的方式来绕过这个限制,允许跨域请求。 使用CORS允许跨域访问的场景较多,可能的场景如下: