检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
下输入一个文件夹名称,例如:demo。挂载时,后台自动会在Notebook容器“的/data/”目录下创建该文件夹,用来挂载OBS文件系统。 选择存放OBS并行文件系统下的文件夹,单击“确定”。 挂载成功后,可以在Notebook实例详情页查看到挂载结果。 代码调试。 打开Not
如果推理需要使用npu加速图片预处理,需要安装torchvision_npu,可放到镜像制作脚本里面。内容如下: git clone https://gitee.com/ascend/vision.git vision_npu cd vision_npu git checkout
操作步骤 打开ModelArts Notebook。 选中Notebook文件(ipynb文件),创建定时任务。 图1 打开Notebook Jobs 在Create Job界面,填写参数后单击“create”。 图2 创建定时任务参数填写 Job name:定时任务名称。 Enviro
true:只读权限 false:默认值,读写权限 请求示例 如下以查询“job_id”为10,每页5条,第一页的作业版本详情为例。 GET https://endpoint/v1/{project_id}/training-jobs/10/versions?per_page=5&page=1
true:只读权限 false:默认值,读写权限 请求示例 如下以查询“job_id”为10,“version_id”为10的作业为例。 GET https://endpoint/v1/{project_id}/training-jobs/10/versions/10 响应示例 成功响应示例
WorkflowDagPolicies 参数 参数类型 描述 use_cache Boolean 是否使用缓存。 请求示例 停止工作流 POST https://{endpoint}/v2/{project_id}/workflows/{workflow_id}/executions/4dd
参数种类。 请求示例 如下以查询算法限制个数为1,查询作业名字中包含TestModelArtsalgorithm的所有算法数据为例。 GET https://endpoint/v2/{project_id}/algorithms?limit=1&searches=name%3ATestModelArtsalgorithm
发布后可获得数据集A和数据集B的Manifest文件。可通过数据集的“数据集输出位置”获得此文件。 创建一个空数据集C,即无任何输出,其输入位置选择一个空的OBS文件夹。 在数据集C中,执行导入数据操作,将数据集A和数据集B的Manifest文件导入。 导入完成后,即将数据集A和数据集B的数据分别都
get_rank() # 仅让0号卡进行数据下载 if rank_id % 8 == 0: mox.file.copy_parallel('obs://bucket-name/dir1/dir2/', '/cache') 建议与总结 在创建训练作业前,推荐您先使用ModelArts开
前提条件 在“我的模型”页面存在已创建成功的模型。 已准备好训练数据集,并存放于OBS桶中,OBS桶必须和MaaS服务在同一个Region下。 当需要永久保存日志时,需要准备好存放日志的OBS路径,OBS桶必须和MaaS服务在同一个Region下。 创建调优作业 登录ModelArts管理控制台。
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 资源池扩容。 PATCH https://{endpoint}/v2/{project_id}/pools/{pool_name} { "spec" : { "resources"
print(predictor_list) 参数说明 表1 查询检索参数说明 参数 是否必选 参数类型 描述 session 是 Object 会话对象,初始化方法见Session鉴权。 service_id 否 String 服务ID,默认不过滤服务ID。 service_name 否 String
5-72B √ x Qwen2.5-32B √ √ 前提条件 在“我的模型”页面存在已创建成功的模型。 已准备好用于存放压缩后模型权重文件的OBS桶,OBS桶必须和MaaS服务在同一个Region下。 创建压缩作业 登录ModelArts管理控制台。 在左侧导航栏中,选择“ModelArts
章节。 委托授权 为了完成AI计算的各种操作,ModelArts在AI计算任务执行过程中需要访问用户的其他服务,例如训练过程中,需要访问OBS读取用户的训练数据。在这个过程中,就出现了ModelArts“代表”用户去访问其他云服务的情形。从安全角度出发,ModelArts代表用户
请确保训练作业已运行成功,且模型已存储至训练输出的OBS目录下(输入参数为train_url)。 针对使用常用框架或自定义镜像创建的训练作业,需根据模型包结构介绍,将推理代码和配置文件上传至模型的存储目录中。 确保您使用的OBS目录与ModelArts在同一区域。 创建模型操作步骤
本次批量服务的任务结束时间。 描述 您可以单击编辑按钮,添加服务描述。 输入数据目录位置 本次批量服务中,输入数据的OBS路径。 输出数据目录位置 本次批量服务中,输出数据的OBS路径。 模型名称&版本 本次批量服务所使用的模型名称及版本。 运行日志输出 默认关闭,批量服务的运行日志仅存放在ModelArts日志系统。
TfServingBaseService class MnistService(TfServingBaseService): # 预处理中处理用户HTTPS接口输入匹配模型输入 # 对应上述训练部分的模型输入为{"images":<array>} def _preprocess(self
如果推理需要使用npu加速图片预处理,需要安装torchvision_npu,可放到镜像制作脚本里面。内容如下: git clone https://gitee.com/ascend/vision.git vision_npu cd vision_npu git checkout
”,资源池名称为“pool-001”,资源池类型为“Dedicate”(物理资源池),资源池支持的作业类型为“训练作业”。 POST https://{endpoint}/v2/{project_id}/pools { "kind" : "Pool", "apiVersion"
t.json" 同时也可以为“dict”类型的变量 ,如: data = { "is_training": "False", "observations": [[1,2,3,4]], "default_policy/eps:0" : "0.0" } path 否 String