检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查询团队角色下用户信息 功能介绍 查询团队角色下用户信息。 URI GET /unidata/public/api/v1/team-role/user/list 表1 Query参数 参数 是否必选 参数类型 描述 team_role_id 是 String 团队角色id limit
查询bms计算资源显卡id列表 功能介绍 查询bms计算资源显卡id列表 URI GET /v1/{project_id}/system/computing-resources/{id}/devices 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String
如何使用状态管理插件 状态管理插件,可添加页面变量(state变量)和添加全局变量(stores变量),供页面及应用使用。 添加页面变量 页面状态下的变量仅适用于当前页面。 登录流程引擎。 在左侧导航栏中,选择“流程编排服务 > 流程元模板”,进入“流程元模板”页面。 在流程元模
流程编辑页面概述 什么是流程编辑 流程编辑页面是一种将流程工具拖拽到在线编辑区进行低代码甚至无代码配置,即可快速完成业务流程设计的前端页面。通过在流程编辑页面绘制业务流程,企业可以更清晰地理解流程的各个步骤和关系,方便与团队成员/相关方进行沟通、交流。 初识流程编辑页面 创建流程
工艺工程师的产品与工艺建模 产品与工艺建模概述 维护Part定义 维护质量追溯标准 维护工序定义 维护工艺流程建模 维护产品制造BOM定义 维护产线能力配置 父主题: MBM Space使用示例
可以对华为云外的站点提供服务吗? 可以为计划将业务迁移到华为云的企业提供服务。 父主题: 关于服务咨询
使用自动分组智能标注作业 为了提升智能标注算法精度,可以均衡标注多个类别,有助于提升智能标注算法精度。ModelArts内置了分组算法,您可以针对您选中的数据,执行自动分组,提升您的数据标注效率。 自动分组可以理解为数据标注的预处理,先使用聚类算法对未标注图片进行聚类,再根据聚类
ModelArts预置镜像更新说明 本章节提供了ModelArts预置镜像的变更说明 ,比如依赖包的变化,方便用户感知镜像能力的差异,减少镜像使用问题。 统一镜像更新说明 表1 统一镜像更新说明 镜像名称 更新时间 更新说明 mindspore_2.3.0-cann_8.0.rc1-py_3
查看监控服务系统预置的数据图表 AppStage运维中心可以实时监控应用及资源,采集各项指标及事件等数据以分析应用健康状态,提供全面、清晰、多维度数据可视化能力。 使用对应应用及资源后,可以在“实时监控”页面查看默认面板数据,默认面板展示系统为指标预置的全量数据图表。 如需查看业
为微服务配置告警策略 支持对某个服务下的单个微服务或者多个微服务配置告警策略,告警信息会进行上报,业务可在监控服务(ServiceInsight)管理台上查看告警信息。 前提条件 需要具备AppStage服务运维岗位权限或运维管理员权限,权限申请操作请参见申请权限。 新增告警配置
查看微服务版本信息 本文介绍如何查看及删除微服务版本信息。 查看微服务版本信息 进入AppStage运维中心。 在顶部导航栏选择服务。 单击,选择“微服务开发 > 服务发现”。 选择左侧导航栏的“服务目录 > 一方服务”。 选择“微服务列表”页签,单击微服务列表中的微服务名。 选
在SLB中创建和管理负载均衡实例 在SLB中创建负载均衡实例 在SLB中配置SLB节点信息 在SLB中配置nginx.conf 在SLB中配置url重写/重定向 在SLB中配置内网段 在SLB中进行降级配置 在SLB中配置黑白名单 在SLB中进行限流配置 在SLB中配置负载均衡其他配置项
场景介绍 本小节通过一个具体问题案例,介绍模型精度调优的过程。 如下图所示,使用MindSpore Lite生成的图像和onnx模型的输出结果有明显的差异,因此需要对MindSpore Lite pipeline进行精度诊断。 图1 结果对比 在MindSpore Lite 2.0
查看日志和性能 查看日志 训练过程中,训练日志会在最后的Rank节点打印。 图1 打印训练日志 训练完成后,如果需要单独获取训练日志文件,可以在${SAVE_PATH}/logs路径下获取。日志存放路径为:/home/ma-user/ws/saved_dir_for_ma_output/llama2-70b/logs
准备工作 准备环境 准备代码 准备数据 准备镜像 父主题: 主流开源大模型基于DevServer适配ModelLink PyTorch NPU训练指导(6.3.907)
训练脚本说明 yaml配置文件参数配置说明 各个模型深度学习训练加速框架的选择 模型NPU卡数取值表 各个模型训练前文件替换 父主题: 主流开源大模型基于DevServer适配LlamaFactory PyTorch NPU训练指导(6.3.907)
准备镜像环境 Step1 检查环境 请参考DevServer资源开通,购买DevServer资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。 购买DevServer资源时如果无可选资源规格,需要联系华为云技术支持申请开通。 当容器需要提供服务给多个用户
推理模型量化 使用AWQ量化 使用SmoothQuant量化 使用kv-cache-int8量化 使用GPTQ量化 父主题: 主流开源大模型基于Lite Cluster适配PyTorch NPU推理指导(6.3.910)
推理模型量化 使用AWQ量化 使用SmoothQuant量化 使用kv-cache-int8量化 使用GPTQ量化 父主题: 主流开源大模型基于Lite Cluster适配PyTorch NPU推理指导(6.3.911)
准备工作 准备环境 准备代码 准备镜像环境 准备数据(可选) 父主题: 主流开源大模型基于DevServer适配LlamaFactory PyTorch NPU训练指导(6.3.908)