检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ModelArts部署在线服务时,如何避免自定义预测脚本python依赖包出现冲突? 导入模型时,需同时将对应的推理代码及配置文件放置在模型文件夹下。使用Python编码过程中,推荐采用相对导入方式(Python import)导入自定义包。 如果ModelArts推理框架代码内
使用GPU A系列裸金属服务器有哪些注意事项? 使用华为云A系列裸金属服务器时有如下注意事项: nvidia-fabricmanager版本号必须和nvidia-driver版本号保持一致,可参考安装nvidia-fabricmanager方法。 NCCL必须和CUDA版本相匹配,可单击此处可查看配套关系和安装方法。
接入SQL Server数据源 概述 ABM支持把SQL Server作为一个数据源,并用于模型采集。在使用SQL Server数据源前,您需要先接入数据源。 操作步骤 登录ROMA Connect控制台,在“实例”页面单击实例上的“查看控制台”,进入实例控制台。 在左侧的导航栏选择“应用业务模型ABM
导入导出自定义后端 概述 ROMA Connect支持通过文件的方式导入导出自定义后端。 导入自定义后端:支持导入YAML和JSON格式API定义文件,且文件内容应满足Swagger 2.0规范。 导出自定义后端:支持导出YAML和JSON格式API定义文件。 前提条件 导入自定
配置异常数据存储(可选) 概述 本节主要提供数据集成任务异常数据存储的配置说明,仅当目标端数据类型为DB2、DWS、MySQL、GaussDB(for MySQL)、Oracle、PostgreSQL和SQL Server、Gauss100时可配置。 在每次任务执行过程中,如果源
认证源管理 CraftArts IPDCenter支持配置多种第三方认证源,包括组织社交认证源和组织认证源,为组织用户登录CraftArts IPDCenter提供便利。组织创建者或组织管理员可以根据组织需要添加、修改和删除认证源。 组织社交认证源 应用绑定组织已添加的社交认证源
集成管理 应用集成 卡片管理 密钥管理 父主题: 统一集成认证
角色管理 角色管理介绍 在IPDCenter基础服务中,设有全局角色和团队角色。 全局角色是指用于管理IPDCenter基础服务全局功能操作权限的角色,或者拥有某个子模块最高权限的角色,例如系统管理员、安全保密员、安全审计员等,支持用户自定义添加全局角色。系统默认预置4类全局角色,如表1所示。
备料员的物料上载 导入物料与上载物料 父主题: MBM Space使用示例
系统管理 应用配置 用户权限 运维监控 租户管理 父主题: MBM Space界面使用指导
推理精度测试 本章节介绍如何使用lm-eval工具开展语言模型的推理精度测试,数据集包含mmlu、ARC_Challenge、GSM_8k、Hellaswag、Winogrande、TruthfulQA等。 约束限制 确保容器可以访问公网。 当前的精度测试仅适用于语言模型精度验证
训练迁移快速入门案例 本篇指导是迁移的总体思路介绍,便于用户对迁移过程有一个整体的认识。如果您希望通过具体案例直接实操,请参考《主流开源大模型基于DevServer适配PyTorch NPU训练指导》。该案例以ChatGLM-6B为例,介绍如何将模型迁移至昇腾设备上训练、模型精度对齐以及性能调优。
InternVL2基于DevServer适配PyTorch NPU训练指导(6.3.912) 方案概览 本方案介绍了在ModelArts Lite DevServer上使用昇腾计算资源Ascend Snt9B开展InternVL2-8B, InternVL2-26B和Intern
Qwen-VL基于DevServer适配Pytorch NPU的推理指导(6.3.909) Qwen-VL是规模视觉语言模型,可以以图像、文本、检测框作为输入,并以文本和检测框作为输出。具有强大的性能、多语言对话、多图交错对话、支持中文开放域定位、细粒度识别和理解等特点。 本文档
主流开源大模型基于DevServer适配PyTorch NPU推理指导(6.3.907) 推理场景介绍 部署推理服务 推理性能测试 推理精度测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明 附录:大模型推理常见问题 父主题: LLM大语言模型训练推理
主流开源大模型基于Standard+OBS+SFS适配PyTorch NPU训练指导(6.3.907) 场景介绍 准备工作 预训练 SFT全参微调训练 LoRA微调训练 查看日志和性能 训练脚本说明 常见错误原因和解决方法 父主题: LLM大语言模型训练推理
自定义脚本代码示例 从OBS中导入模型文件创建模型时,模型文件包需符合ModelArts的模型包规范,推理代码和配置文件也需遵循ModelArts的要求。 本章节提供针对常用AI引擎的自定义脚本代码示例(包含推理代码示例)。模型推理代码编写的通用方法及说明请见模型推理代码编写说明。
主流开源大模型基于Lite Cluster适配PyTorch NPU推理指导(6.3.910) 推理场景介绍 准备工作 部署推理服务 推理性能测试 推理精度测试 推理模型量化 eagle投机小模型训练 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明 附录:大模型推理常见问题
创建和管理灰度服务 在SLB中创建灰度服务 在SLB中初始配置灰度服务 在SLB中管理灰度状态 在SLB中创建Action任务 父主题: 配置运维中心负载均衡
主流开源大模型基于Standard+OBS适配ModelLink PyTorch NPU训练指导(6.3.909) 场景介绍 准备工作 预训练 SFT全参微调训练 LoRA微调训练 查看日志和性能 训练脚本说明 常见错误原因和解决方法 父主题: LLM大语言模型训练推理