检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
单击“添加授权”后,系统会引导您为特定用户或所有用户进行委托配置,通常默认会创建一个名为“modelarts_agency_<用户名>_随机ID”的委托条目。在权限配置的区域,您可以选择ModelArts提供的预置配置,也可以自定义选择您所授权的策略。如果这两种形态对于您的诉求均
obs:bucket:PutBucketCORS 必须配置。若有使用并行文件系统,则需额外配置obs:bucket:HeadBucket。 从容器镜像中导入模型。 SWR SWR Admin 必须配置。SWR共享版不支持细粒度权限项,因此需要配置Admin权限。 使用ModelArts Edge功能。
在ModelArts控制台的“全局配置”页面,单击“添加授权”后,系统会引导您为特定用户或所有用户进行委托配置,通常默认会创建一个名为“modelarts_agency_<用户名>_随机ID”的委托条目。在权限配置的区域,您可以选择ModelArts提供的预置配置,也可以自定义选择您所授权
执行训练任务(推荐) 新的训练方式将统一管理训练日志、训练结果和训练配置,使用yaml配置文件方便用户根据自己实际需求进行修改。推荐用户使用该方式进行训练。 权重文件支持以下组合方式,用户根据自己实际要求选择: 训练stage 不加载权重 增量训练:加载权重,不加载优化器(默认开启)
如出现错误,可能是机器上的NPU设备没有正常安装,或者NPU镜像被其他容器挂载。请先正常安装固件和驱动,或释放被挂载的NPU。 检查是否安装docker。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。 yum install -y
在ModelArts的Notebook中如何设置VS Code背景色为豆沙绿? 在VS Code的配置文件settings.json中添加如下参数 "workbench.colorTheme": "Atom One Light", "workbench.colorCustomizations":
在ModelArts的Notebook中实例重新启动后要怎么连接? 可以在本地的ssh config文件中对这个Notebook配置参数“StrictHostKeyChecking no”和“UserKnownHostsFile=/dev/null”,如下参考所示: Host roma-local-cpu
优先排查APIG(API网关)是否是通的,可以在本地使用curl命令排查,命令行:curl -kv {预测地址}。如返回Timeout则需排查本地防火墙,代理和网络配置。 检查模型是否启动成功或者模型处理单个消息的时长。因APIG(API网关)的限制,模型单次预测的时间不能超过40S,超过后系统会默认返回Timeout错误。
yaml文件参数配置,样例yaml配置文件结构如下: base块:基础配置块,主要为公共配置参数 ModelName块:该模型所需配置的参数,如qwen2.5-7b块 exp_name:实验块,训练策略-序列长度所需参数配置 样例yaml文件仅展示常用实验配置,如需其他配置需根据样例自行添加。
部署预测分析服务 模型部署 模型部署操作即将模型部署为在线服务,并且提供在线的测试UI与监控能力。完成模型训练后,可选择准确率理想且训练状态为“运行成功”的版本部署上线。具体操作步骤如下。 在“运行节点”页面中,待训练状态变为“等待输入”,双击“服务部署”节点,完成相关参数配置。
om,引擎包选择步骤3构建的镜像。 图3 创建模型 将创建的模型部署为在线服务,大模型加载启动的时间一般大于普通的模型创建的服务,请配置合理的“部署超时时间”,避免尚未启动完成被认为超时而导致部署失败。 图4 部署为在线服务 调用在线服务进行大模型推理,请求路径填写/v2/mod
当您需要修改训练作业的算法时,可以在训练作业详情页面右上角,单击“另存为算法”。 在“创建算法”页面中,会自动填充上一次训练作业的算法参数配置,您可以根据业务需求在原来算法配置基础上进行修改。 订阅算法不支持另存为算法。 重建训练作业 当对创建的训练作业不满意时,您可以单击操作列的重建,重新创建训
以前往权限管理页面修改配置,节点重试启动后新修改的配置信息可以在当前执行中立即生效。 停止 单击指定节点查看详情,可以对运行中的节点进行停止操作。 继续运行 对于单个节点中设置了需要运行中配置的参数时,节点运行会处于“等待操作”状态,用户完成相关数据的配置后,可单击“继续运行”按钮并确认继续执行当前节点。
<cfgs_yaml_file>:性能测试配置的yaml文件地址,指代码目录中performance_cfgs.yaml相对或绝对路径,此配置文件为训练最优配置参数。 --baseline <baseline>:<可选>GP-Ant8机器性能基线yaml文件路径,用户可自行修改,不填则使用工具自带基线配置,默认基线配置样例如下:
自定义脚本代码示例 从OBS中导入模型文件创建模型时,模型文件包需符合ModelArts的模型包规范,推理代码和配置文件也需遵循ModelArts的要求。 本章节提供针对常用AI引擎的自定义脚本代码示例(包含推理代码示例)。模型推理代码编写的通用方法及说明请见模型推理代码编写说明。
Step3 安装云端Python插件 在新打开的VS Code界面,单击左侧列表的Extensions选项,在搜索框中输入Python,在下拉列表中单击“Install”进行安装。 图8 安装云端Python插件 如果安装云端的Python插件不成功时,建议通过离线包的方式安装。具体操
修改服务个性化配置 服务个性化配置规则由配置条件、访问版本、自定义运行参数(包括配置项名称和配置项值)组成。 您可以为在线服务的不同版本设定不同配置条件,并支持携带自定义运行参数。 个性化配置规则的优先级与顺序相对应,从高到低设置。您可以通过拖动个性化配置规则的顺序更换优先级。
本方案介绍了在ModelArts的Lite Server上使用昇腾计算资源开展DeepSeek R1和DeepSeek V3模型推理部署的详细过程。 资源规划 本方案部署使用BF16权重需要配置4台Ascend Snt9B资源,用W8A8量化权重需要2台Ascend Snt9B资源。Snt9B资源的单卡显存不低于64GB。
Profiling数据采集 在train.py的main()函数Step迭代处添加配置,添加位置如下图所示: 此处需要注意的是prof.step()需要加到dataloder迭代循环的内部以保证采集单个Step迭代的Profiling数据。 更多信息,请参见Ascend PyTorch
训练tokenizer文件说明 在训练开始前,有些模型需要对模型的tokenizer文件,或者模型配置文件进行修改,具体的修改如下: Qwen-VL 修改文件modeling_qwen.py: # 将36 37 两行注释部分 36 SUPPORT_BF16 = SUPPORT_CUDA