检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
<instance connection port> user ma-user IdentityFile ~/.ssh/test.pem StrictHostKeyChecking no UserKnownHostsFile /dev/null
执行代码,执行后如下图所示,会部署一个在线服务,该容器即为服务端。 python test.py 图2 部署在线服务 在XShell中新建一个终端,参考步骤5~7进入容器,该容器为客户端。执行以下命令验证自定义镜像的三个API接口功能。当显示如图所示时,即可调用服务成功。 curl -X POST
OBS路径(推荐) 直接使用moxing的copy_parallel接口,复制对应的OBS路径。 ModelArts数据管理中的数据集(即manifest文件格式) 使用moxing的copy_manifest接口将文件复制到本地并获取新的manifest文件路径,然后使用SDK解析新的manifest文件。
join(base_bucket_path, "train/test-pytorch.py"), code_dir) training_file = TrainingFiles(code_dir=code_dir, boot_file="test-pytorch.py", obs_path=base_bucket_path
服务IP和端口号。 API接口: GET /v1/{project_id}/services/{service_id}/predict/endpoints?type=host_endpoints 方式一:图形界面的软件获取服务的IP和端口号 图6 接口返回示例 方式二:Python语言获取IP和端口号
were not found in your environment: flash_attn 根因:昇腾环境暂时不支持flash_attn接口 规避措施:修改dynamic_module_utils.py文件,将180-184行代码注释掉 vim /home/ma-user/an
<instance connection port> user ma-user IdentityFile ~/.ssh/test.pem StrictHostKeyChecking no UserKnownHostsFile /dev/null
-inform DER -content D:\ma_cli-latest-py3-none-any.whl -noverify > ./test 本示例以软件包在D:\举例,请根据软件包实际路径修改。 Step3:安装ma-cli 在本地环境cmd中执行命令python --ve
Integer 当前返回的日志大小(单位:字节)。最大为5兆。 full_size Integer 完整的日志大小(单位:字节)。 表4 调用训练接口失败响应参数 参数 类型 描述 error_msg String 调用失败时的错误信息,调用成功时无此字段。 error_code String
训练作业权限 表1 训练作业(新版)细化权限说明 权限 对应API接口 授权项 依赖的授权项 IAM项目 企业项目 创建训练作业 POST /v2/{project_id}/training-jobs modelarts:trainJob:create swr:repository:listTags
服务IP和端口号。 API接口: GET /v1/{project_id}/services/{service_id}/predict/endpoints?type=host_endpoints 方式一:图形界面的软件获取服务的IP和端口号 图6 接口返回示例 方式二:Python语言获取IP和端口号
表示不做重新下发作业,也不会启用环境检测。打开开关后,允许设置重启次数为1~128次。 图5 自动重启设置 使用API接口设置容错检查: 用户可以通过API接口的方式开启自动重启。创建训练作业时,在“metadata”字段的“annotations”中传入“fault-toler
Usage(NPU显存使用率)。 value Array of numbers 运行指标对应数值,1min统计一个平均值。 表5 调用训练接口失败响应参数 参数 类型 描述 error_msg String 调用失败时的错误信息,调用成功时无此字段。 error_code String
发送请求的模块,在这里修改请求响应。目前支持vllm.openai,atb的tgi模板 ├── ... ├── eval_test.py # 启动脚本,建立线程池发送请求,并汇总结果 ├── service_predict.py # 发送请求
"bounds": [-1, 0, 1] } } task参数需指定为grad_probe,dump_path表示输出目录,需手工指定,默认输出到dump_path目录。参数grad_level可取值L0、L1、L2,级别越大导出的数据越详细。更多详细参数说明请参考参数说明。
time时需要配置,多个权重相加必须等于100;当在一个在线服务中同时配置了多个模型版本且设置不同的流量权重比例时,持续地访问此服务的预测接口,ModelArts会按此权重比例将预测请求转发到对应的模型版本实例。 specification 是 String 资源规格,当前版本可选modelarts
Long 训练作业的版本ID。 表2 Query参数 参数 是否必选 参数类型 说明 base_line 否 String 日志的基准位置,根据接口返回获得,为空的时候代表获取最新的日志。 lines 否 Integer 获取日志的长度,默认为50行。lines的范围为[0, 500]。
Yolov8基于DevServer适配MindSpore Lite推理指导(6.3.909) 方案概览 本方案介绍了在ModelArts的DevServer上使用昇腾Atlas 300I Duo推理卡计算资源,部署Yolov8 Detection模型推理的详细过程。 本方案目前仅适用于企业客户。
unzip val2014.zip wget http://images.cocodataset.org/zips/test2015.zip && unzip test2015.zip mkdir -p annotations && cd annotations/ # Download
xxx [ModelArts Service Log][init] download code_url: s3://dgg-test-user/snt9-test-cases/mindspore/lenet/ 类型二:time=“xxx” level=“xxx” msg=“xxx” file=“xxx”