检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
调用失败时的错误码,具体请参见错误码。调用成功时无此字段。 请求示例 如下以更新名为“config”的作业参数为例。 PUT https://endpoint/v1/{project_id}/training-job-configs/config { "config_desc":
|──llm_inference # 推理代码包 |──llm_tools # 推理工具 代码上传至OBS 将AscendSpeed代码包AscendCloud-LLM-xxx.zip在本地解压缩后,将llm_train文件上传至OBS中。
调用成功时无此字段。 请求示例 如下以创建名为“testConfig”,描述为“This is config”的训练作业参数为例。 POST https://endpoint/v1/{project_id}/training-job-configs { "config_name":
内置属性:三元组关系标签的指向实体类型,创建关系标签时必须指定,该参数仅文本三元组数据集使用。 请求示例 查询数据集的统计信息 GET https://{endpoint}/v2/{project_id}/datasets/WxCREuCkBSAlQr9xrde/data-annotations/stats
|──llm_inference # 推理代码包 |──llm_tools # 推理工具 代码上传至SFS Turbo 将AscendSpeed代码包AscendCloud-LLM-xxx.zip直接上传至ECS服务器中的SFS
传输完成文件大小(字节)。 file_size_total Long 总文件大小(字节)。 请求示例 获取数据集导入任务列表 GET https://{endpoint}/v2/{project_id}/datasets/{dataset_id}/import-tasks 响应示例
最小GPU规格。 min_memory String 最小内存。 min_ascend String 最小Ascend规格。 请求示例 GET https://{endpoint}/v1/{project_id}/models 响应示例 状态码: 200 模型列表 { "total_count"
参数类型 描述 az String AZ的名称。 count Integer AZ的资源数量。 请求示例 查询节点池列表。 GET https://{endpoint}/v2/{project_id}/pools/{pool_name}/nodepools { } 响应示例 状态码:
内置属性:三元组关系标签的指向实体类型,创建关系标签时必须指定,该参数仅文本三元组数据集使用。 请求示例 查询团队标注任务中未审核样本的统计信息 GET https://{endpoint}/v2/{project_id}/datasets/WxCREuCkBSAlQr9xrde/workforce-
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 GET https://{endpoint}/v1/{project_id}/models/ai-engine-runtimes 响应示例 状态码: 200
2312-aarch64-snt9b-20240606190017-b881580 RUN cd /home/ma-user && git clone https://github.com/comfyanonymous/ComfyUI.git -c http.sslVerify=false && cd
ecret”等信息。您也可以在此处对APP应用进行“添加授权”或“解除授权”的操作。 预测 对在线服务进行预测。具体操作请参见使用预测功能测试在线服务。 实例 查看同步在线服务的实例信息。这里的实例个数和部署服务时设置的“计算节点个数”相对应,如果修改服务或服务异常,实例数会有变
bucket/XXX.txt”。用户无法直接使用open方法打开OBS文件,上面描述的打开本地文件的代码将会报错。 OBS提供了很多方式和工具给用户使用,如SDK、API、console、OBS Browser等,ModelArts mox.file提供了一套更为方便的访问OBS
|──llm_inference # 推理代码包 |──llm_tools # 推理工具 代码上传至SFS Turbo 将AscendSpeed代码包AscendCloud-LLM-xxx.zip直接上传至ECS服务器中的SFS
|──llm_inference # 推理代码包 |──llm_tools # 推理工具 代码上传至OBS 将AscendSpeed代码包AscendCloud-LLM-xxx.zip在本地解压缩后,将llm_train文件上传至OBS中。
ue 将yaml文件中的per_device_train_batch_size调小,重新训练如未解决则执行下一步。 替换深度学习训练加速的工具或增加zero等级,可参考模型NPU卡数、梯度累积值取值表,如原使用Accelerator可替换为Deepspeed-ZeRO-1,Dee
String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 查询资源池监控信息。 GET https://{endpoint}/v2/{project_id}/pools/{pool_name}/monitor { } 响应示例 状态码:
bash Step4 安装依赖和软件包 从github拉取Wav2Lip代码。 cd /home/ma-user git clone https://github.com/Rudrabha/Wav2Lip.git cd /home/ma-user/Wav2Lip git reset
调度时间单位,可选DAYS/HOURS/MINUTES。 type String 调度类型,当前仅支持取值为stop,即运行指定时间后自动停止。 请求示例 GET https://{endpoint}/v1/{project_id}/services 响应示例 状态码: 200 服务列表 { "total_count"
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 打通VPC。 PATCH https://{endpoint}/v1/{project_id}/networks/{network_name} { "spec" : {