检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
日志提示“Please upgrade numpy to >= xxx to use this pandas version” 问题现象 在安装其他包的时候,有依赖冲突,对numpy库有其他要求,但是发现numpy卸载不了。出现如下类似错误: your numpy version
修改组件灰度发布策略 通过灰度发布升级组件版本配置,首批灰度发布成功后,可根据实际业务需求修改组件灰度发布策略。 前提条件 已完成组件灰度发布升级,请参考灰度发布方式升级组件版本配置。 组件状态为“灰度发布中”。查看组件状态,请参考查看组件详情。 微服务灰度发布类型的组件,其绑定
使用纳管资源配置模式创建Kubernetes环境 在使用容器部署方式基于界面配置创建并部署组件、使用容器部署方式基于YAML配置创建并部署组件、使用导入CCE工作负载创建组件之前,您需要先创建Kubernetes类型的环境。 使用纳管资源配置模式创建Kubernetes环境 登录ServiceStage控制台。
自定义看板配置流程介绍 运营看板使用流程如图1所示,包括“新建我的卡片”和“新建我的屏幕”。 图1 使用流程 新建我的卡片 通过在线构建、使用公共卡片模板及离线构建的方式构建自定义卡片。 (可选)新建并发布屏幕模板 通过关联布局和卡片、设置卡片消息联动、配置样例页面来创建屏幕模板。
Lite Server使用流程 ModelArts Lite Server提供多样化的xPU裸金属服务器,赋予用户以root账号自主安装和部署AI框架、应用程序等第三方软件的能力,为用户打造专属的云上物理服务器环境。用户只需轻松选择服务器的规格、镜像、网络配置及密钥等基本信息,即
告警后触发知识编排任务提示alert_type不存在 问题描述 部分告警任务告警后触发知识编排任务报错,提示alert_type不存在,可能由于该告警任务从老版本迁移过来,一直没有调整过,其告警结果表中没有该字段,所以会出现这种报错。 处理方法 可以在告警任务“基础”中增加一个空
nginx is stopped 问题现象 SLB部署失败,日志详细信息提示如下: "nginx is stopped" 解决方法 登录SLB实例主机,先执行启动命令/opt/huawei/openresty/init.d/nginx start,确认nginx启动失败的原因,可能是以下两种:
服务、微服务名称大小写不正确 当前ACMS会将已注册的微服务名称和租户管理服务中保存的微服务名称做匹配,如果匹配不到,或大小写不一致,则会报错。 如果业务发现租户管理服务的名称大小写不正确,但是已经在ACMS注册了该大小写不正确的微服务名,那么需要先在ACMS上删除该微服务,然后
通过IaC分发敏感配置 敏感配置项录入后,需要通过IaC部署后生效变成已发布状态,微服务才能获取。 前提条件 需要具备AppStage服务运维岗位权限或运维管理员权限,权限申请操作请参见申请权限。 步骤一:生成敏感配置项坐标 无论通过什么方式获取敏感配置,都需要有一个唯一标识,让
采集Windows主机监控指标 监控服务支持采集已纳管的Windows主机的监控指标,完成纳管Windows主机并创建名称为“xxx-opsagent-metric”的Kafka Topic,其中xxx为服务英文名称,系统会自动将采集到的指标数据保存在该Topic中。采集的数据可
运维中心负载均衡功能介绍 负载均衡(Software/Server Load Balancer,SLB)基于Nginx/OpenResty构建,作为业务前置的流量接入网关,提供反向代理、负载均衡、路由分发、灰度分流、限流降级、访问控制、监控告警等能力。 SLB组件介绍 SLB组件间的关系如图1所示。
在SLB中创建和管理灰度服务 在SLB中创建灰度服务 在SLB中初始配置灰度服务 在SLB中管理灰度状态 在SLB中创建Action任务 父主题: 配置运维中心负载均衡
管理Lite Cluster节点 节点是容器集群组成的基本元素,在资源池详情页,单击“节点管理”页签,进行删除、重置、续费等操作。当把鼠标放在节点名称上方时,会显示资源ID,资源ID可用于查询账单或者在费用中心查询包周期资源的计费信息。 删除/退订/释放节点 若是“按需计费”的资
主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.906) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 父主题: LLM大语言模型训练推理
主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.907) 场景介绍 准备工作 在Notebook调试环境中部署推理服务 在推理生产环境中部署推理服务 推理精度测试 推理性能测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明
训练迁移适配 完成环境准备之后,本节将详细介绍Dit模型训练迁移过程。 执行以下命令,下载代码。 git clone https://github.com/facebookresearch/DiT.git cd Dit 执行以下命令,安装依赖项。 pip install diffusers==0
LLaVA模型基于DevServer适配PyTorch NPU推理指导(6.3.906) LLaVA是一种新颖的端到端训练的大型多模态模型,它结合了视觉编码器和Vicuna,用于通用的视觉和语言理解,实现了令人印象深刻的聊天能力,在科学问答(Science QA)上达到了新的高度。
准备工作 准备资源 准备数据 准备权重 准备代码 准备镜像 准备Notebook 父主题: 主流开源大模型基于Standard适配PyTorch NPU训练指导(6.3.905)
moondream2基于DevServer适配PyTorch NPU推理指导 方案概览 本文档从模型部署的环境配置、模型转换、模型推理等方面进行介绍moondream2模型在ModelArts DevServer上部署,支持NPU推理场景。 本方案目前仅适用于部分企业客户,完成本
准备工作 准备资源 准备权重 准备代码 准备镜像 准备Notebook 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.905)