检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在工作流列表上方的搜索框中,根据您需要的属性类型,例如名称、状态、当前节点、启动时间、运行时长或标签等,过滤出相应的工作流。 图1 属性类型 单击搜索框右侧的按钮,可设置Workflow列表页需要展示的内容和展示效果。 表格内容折行:默认为关闭状态。启用此功能可以让Workflow列表页中的内容在显示时自动
选择用于训练的自定义镜像。 “代码目录” 执行本次训练作业所需的代码目录。本文示例的代码目录为“obs://test-modelarts/ascend/code/”。 “启动命令” 镜像的Python启动命令。本文示例的启动命令为“bash ${MA_JOB_DIR}/code/run_torch_ddp_npu
module named 'tyro'" 错误截图: 报错原因:未指定tyro依赖包版本,导致安装依赖为最新0.9.0版本导致与其他依赖冲突 解决措施:任务前容器内更新'tyro'版本为0.8.14或以下版本 pip install tyro==0.8.14 父主题: 主流开源大模型基于Lite
module named 'tyro'" 错误截图: 报错原因:未指定tyro依赖包版本,导致安装依赖为最新0.9.0版本导致与其他依赖冲突 解决措施:任务前容器内更新'tyro'版本为0.8.14或以下版本 pip install tyro==0.8.14 父主题: 主流开源大模型基于Lite
AppKey和AppSecret不匹配 当服务预测使用的AppKey和AppSecret不匹配时,报错“APIG.1009”:“AppKey or AppSecret is invalid”。 查询AppKey和AppSecret,使用APP认证访问在线服务,请参考访问在线服务(APP认证)。 父主题: 服务预测
执行的时长。 events 否 Array of strings 执行的事件。 labels 否 Array of strings 为执行记录设置的标签。 data_requirements 否 Array of DataRequirement objects 节点steps使用到的数据。
|──AscendSpeed # 基于AscendSpeed的训练代码 工作目录介绍 详细的工作目录参考如下,建议参考以下要求设置工作目录。 ${workdir}(例如/home/ma-user/ws ) |──llm_train
|──AscendSpeed # 基于AscendSpeed的训练代码 工作目录介绍 详细的工作目录参考如下,建议参考以下要求设置工作目录。 ${workdir}(例如/home/ma-user/ws ) |──llm_train
场景介绍 方案概览 本文档利用训练框架PyTorch_npu+华为自研Ascend Snt9B硬件,为用户提供了常见主流开源大模型在ModelArts Lite Cluster上的训练方案。训练框架使用的是ModelLink。 本方案目前仅适用于企业客户,完成本方案的部署,需要先联系您所在企业的华为方技术支持。
|──AscendSpeed # 基于AscendSpeed的训练代码 工作目录介绍 详细的工作目录参考如下,建议参考以下要求设置工作目录。 ${workdir}(例如/home/ma-user/ws ) |──llm_train
操作路径,符合标准的Json PATCH格式,代表以服务详情的Json返回体为基准,想要执行替换的值的目标路径(Json PATH)。当前支持且仅支持对模型相关所有参数的替换更新,因此前缀固定为“/config/”。例如,当期望更新第一个模型中的实例数量,则路径为“/config/0/instance_count”。
file。如下图所示: 方法二:单击上侧菜单栏中的Run > Open configurations按钮 步骤二:选择语言 如果需要对Python语言进行设置,在弹出的Select a debug configuration中选择Python File,其他语言操作类似。如下图所示: 步骤三:编辑launch
必须修改。加载tokenizer与Hugging Face权重时存放目录绝对或相对路径。请根据实际规划修改。 template qwen 必须修改。用于指定模板。如果设置为"qwen",则使用Qwen模板进行训练,模板选择可参照表1中的template列 output_dir /home/ma-user/ws/Qwen2-72B/sft-4096
“模型部署>在线服务”,进入在线服务管理页面。单击目标服务名称,进入服务详情页面。您可以单击页面右上角“停止”,停止正在运行中服务。 部署方式为ModelArts边缘节点和ModelArts边缘资源池的服务不支持停止。 删除服务 如果服务不再使用,您可以删除服务释放资源。 登录M
问题4:Error waiting on exit barrier错误 错误截图: 报错原因:多线程退出各个节点间超时时间默认为300s,时间设置过短。 解决措施: 修改容器内torch/distributed/elastic/agent/server/api.py文件参数: vim
查询推理服务标签 功能介绍 查询当前项目下的推理服务标签,默认查询所有工作空间,无权限不返回标签数据。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v1
查询服务监控信息 查询当前服务对象监控信息。 示例代码 在ModelArts notebook平台,Session鉴权无需输入鉴权参数。其它平台的Session鉴权请参见Session鉴权。 方式1:根据部署在线服务生成的服务对象进行查询服务监控 1 2 3 4 5 6 7 from
Item”至少创建2项。如图20所示。 表单字段类型为“dropdown”时,支持的变量类型为“raw”和“string”。 表单字段类型为“input”时,支持的变量类型有“boolean”、“date”、“integer”、“number” 、“raw”和“string”。 表单字段类型为“slider”时,支持输入滑动条的最小值、最大值和步长。
|──AscendSpeed # 基于AscendSpeed的训练代码 工作目录介绍 详细的工作目录参考如下,建议参考以下要求设置工作目录。 ${workdir}(例如/home/ma-user/ws ) |──llm_train
场景介绍 方案概览 本文档利用训练框架PyTorch_npu+华为自研Ascend Snt9B硬件,为用户提供了常见主流开源大模型在ModelArts Lite Server上的预训练和全量微调方案。训练框架使用的是ModelLink。 本方案目前仅适用于部分企业客户,完成本方案