检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
file.copy_parallel”接口加速数据下载。 需要时可以通过在训练作业的“环境变量”中设置“MOX_C_ACCELERATE=0”,来关闭数据下载加速特性。 父主题: 在Notebook中使用Moxing命令
“数据来源”:“OBS” “导入方式”:“目录”。 “导入路径”:数据存储的OBS路径。 “数据标注状态”:已标注。 “高级特征选项 ”:默认关闭,可通过勾选高级选项提供增强功能。 如“按标签导入”:系统将自动获取此数据集的标签,您可以单击“添加标签”添加相应的标签。此字段为可选字段
(可选)本地安装ma-cli 使用场景 本文以Windows系统为例,介绍如何在Windows环境中安装ma-cli。 Step1:安装ModelArts SDK 参考本地安装ModelArts SDK完成SDK的安装。 Step2:下载ma-cli 下载ma-cli软件包。 完成软件包签名校验。
推理精度测试 本章节介绍如何进行推理精度测试,数据集是ceval_gen、mmlu_gen、math_gen、gsm8k_gen、humaneval_gen。 前提条件 确保容器可以访问公网。 Step1 配置精度测试环境 获取精度测试代码。精度测试代码存放在代码包AscendC
推理精度测试 本章节介绍如何进行推理精度测试。 前提条件 确保容器可以访问公网。 Step1 配置精度测试环境 获取精度测试代码。精度测试代码存放在代码包AscendCloud-3rdLLM-xxx.zip的llm_tools/llm_evaluation(6.3.905版本)目
ToolKit,协助用户完成SSH远程连接Notebook、代码上传、提交训练作业、将训练日志获取到本地展示等,用户只需要专注于本地的代码开发即可。 本章节介绍如何使用PyCharm ToolKit插件创建训练作业并调试。 前提条件 Step1 下载并安装PyCharm ToolKit。 在本地PyCharm中已有训练代码工程。
“部署超时时间” 用于设置单个模型实例的超时时间,包括部署和启动时间。默认值为20分钟,输入值必须在3到120之间。 “运行日志输出” 默认关闭,批量服务的运行日志仅存放在ModelArts日志系统,在服务详情页的“日志”支持简单查询。 如果开启此功能,批量服务的运行日志会输出存放
使用llm-compressor工具量化Deepseek-v2系列模型 本章节介绍如何在GPU的机器上使用开源量化工具llm-compressor量化模型权重,然后在NPU的机器上实现推理量化。 具体操作如下: 开始之前,请确保安装了以下库: git clone https://github.com/vllm-project/llm-compressor
llama2-7b https://huggingface.co/meta-llama/Llama-2-7b-chat-hf llama2-13b https://huggingface.co/meta-llama/Llama-2-13b-chat-hf llama2-70b https://huggingface
下载JupyterLab文件到本地 在JupyterLab中开发的文件,可以下载至本地。关于如何上传文件至JupyterLab,请参见上传文件至JupyterLab。 不大于100MB的文件,可以直接从JupyterLab中下载到本地,具体操作请参见从JupyterLab中下载不大于100MB的文件至本地。
委托授权ModelArts云服务使用SFS Turbo 本章节介绍如何配置ModelArts委托权限,允许用户使用专属资源池的网络中的“关联sfsturbo”和“解除关联”功能。 当用户新增委托并授权操作SFS Turbo时,请参考新增委托授权操作SFS Turbo。 当用户为已有的委托新增权限,授权操作SFS
llama2-70b https://huggingface.co/meta-llama/Llama-2-70b-hf https://huggingface.co/meta-llama/Llama-2-70b-chat-hf (推荐) 4 llama3 llama3-8b https://huggingface
llama2-70b https://huggingface.co/meta-llama/Llama-2-70b-hf https://huggingface.co/meta-llama/Llama-2-70b-chat-hf (推荐) 4 llama3 llama3-8b https://huggingface
--page-size Int 否 每页显示的训练作业数量,默认是10。 -v / --verbose Bool 否 显示详细的信息开关,默认关闭。 示例:查询指定任务ID的训练作业。 ma-cli ma-job get-job -i b63e90xxx 示例:根据任务名称关键字“auto”过滤训练作业。
本与难度。 当您第一次使用MaaS服务时,可以参考快速入门使用ModelArts Studio的Qwen2-7B模型框架实现对话问答,了解如何在MaaS服务上的创建和部署模型。当您想更全面的了解MaaS服务的功能时,也可以参考最佳实践在ModelArts Studio基于Qwen2-7B模型实现新闻自动分类。
创建算法”的“代码目录”下放置相应的文件或安装包。 安装python依赖包请参考模型中引用依赖包时,如何创建训练作业? 安装C++的依赖库请参考如何安装C++的依赖库? 在预训练模型中加载参数请参考如何在训练中加载部分训练好的参数? 解析输入路径参数、输出路径参数 运行在ModelArts
Vicuna,用于通用的视觉和语言理解,实现了令人印象深刻的聊天能力,在科学问答(Science QA)上达到了新的高度。 本文档主要介绍如何利用ModelArts Lite Server,使用PyTorch_npu+华为自研Ascend Snt9B硬件,完成LLaVA模型训练。
推理精度测试 本章节介绍如何使用opencompass工具开展语言模型的推理精度测试,数据集是ceval_gen、mmlu_gen、math_gen、gsm8k_gen、humaneval_gen。 约束限制 确保容器可以访问公网。 当前的精度测试仅适用于语言模型精度验证,不适用
详情请参见如何上传超过5GB的大对象。 权重校验 当“权重设置与词表”选择“自定义权重”时,需要选择是否开启权重文件校验。默认是开启的。 当开启权重校验时,平台会对OBS中的权重文件进行校验,确认其是否满足规范。权限校验常见的失败情况及其处理建议请参见权重校验。 当关闭权重校验时
Notebook:Notebook作业 state String 业务状态。可选值如下: Enabling:启动中 Enabled:已启动 Disabling:关闭中 Disabled:已关闭 表26 driver 参数 参数类型 描述 gpu PoolDriverStatus object GPU驱动信息。 npu