检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
删除开发环境实例,删除的资源包括Notebook容器以及对应的所有存储资源。 通过运行的实例保存成容器镜像 运行的实例可以保存成容器镜像,保存的镜像中,安装的依赖包(pip包)不丢失,VSCode远程开发场景下,在Server端安装的插件不丢失。 查询支持的有效规格列表 查询支持的有效规格列表。 查询支持可切换规格列表
l Docker Engine on Ubuntu。MiniConda与tflite安装包为第三方安装包,ModelArts不对其安全相关问题进行负责,如用户有安全方面的需求,可以对该安装包进行加固后发布成同样名称的文件上传到构建节点。 制作自定义镜像 确认Docker Engine版本。执行如下命令。
9使用的yum源是“http://repo.huaweicloud.com”,该源可用。如果执行“yum update”时报错, 显示有软件包冲突等问题, 可通过“yum remove xxx软件包”解决该问题。 NVIDIA的驱动程序是一个二进制文件,需使用系统中的libelf库(在elfutils-lib
WorkflowServicePackege 参数 是否必选 参数类型 描述 package_id 否 String 资源包的UUID。 status 否 String 资源包状态。 pool_id 否 String 资源池ID。 service_id 否 String 服务ID。 workflow_id
根据置信度筛选。 slice_thickness 否 String DICOM层厚,通过层厚筛选样本。 study_date 否 String DICOM扫描时间。 time_in_video 否 String 视频中某个时间。 表6 SearchLabels 参数 是否必选 参数类型 描述 labels
{image_url} Step3 上传权重文件 上传安装依赖软件推理代码AscendCloud-3rdLLM-xxx.zip和算子包AscendCloud-OPP-xxx.zip到容器中,包获取路径请参见表1。 将权重文件上传到DevServer机器中。权重文件的格式要求为Huggingface格式。开源权重文件获取地址请参见表3。
务需要选择任务所需的资源卡数。 如果选择付费资源,则请确认账号未欠费,且余额高于所选计算规格的收费标准,否则可能会导致AI Gallery工具链服务异常中断。AI Gallery的计算规格的计费说明请参见计算规格说明。 作业参数配置完成后,单击“启动作业”。 在“订单信息确认”页
表21 WorkflowServicePackege 参数 参数类型 描述 package_id String 资源包的UUID。 status String 资源包状态。 pool_id String 资源池ID。 service_id String 服务ID。 workflow_id
用户训练代码的标准输出。 pip-requirement.txt安装日志 如果用户有定义pip-requirement.txt文件,会产生pip包安装日志。 ModelArts平台日志 ModelArts平台产生的系统日志,主要用于运维人员定位平台问题。 普通日志的文件格式如下,其中task
pull {image_url} 步骤三 上传代码包和权重文件 上传安装依赖软件推理代码AscendCloud-LLM-6.3.910-xxx.zip和算子包AscendCloud-OPP-6.3.910-xxx.zip到主机中,包获取路径请参见表2。 将权重文件上传到Server
pull {image_url} 步骤三 上传代码包和权重文件 上传安装依赖软件推理代码AscendCloud-LLM-6.3.911-xxx.zip和算子包AscendCloud-OPP-6.3.911-xxx.zip到主机中,包获取路径请参见表2。 将权重文件上传到Server
rc2,驱动版本是23.0.5。 约束限制 本案例仅支持在专属资源池上运行。 支持的模型列表 本方案支持以下模型的训练,如表1所示。 表1 代码包中适配的模型 序号 支持模型 支持模型参数量 权重文件获取地址 1 Llama2 llama2-7b https://huggingface
请确保训练作业已运行成功,且模型已存储至训练输出的OBS目录下(输入参数为train_url)。 针对使用常用框架或自定义镜像创建的训练作业,需根据模型包结构介绍,将推理代码和配置文件上传至模型的存储目录中。 确保您使用的OBS目录与ModelArts在同一区域。 创建模型操作步骤 登录Mod
pull {image_url} 步骤三 上传代码包和权重文件 上传安装依赖软件推理代码AscendCloud-LLM-6.3.909-xxx.zip和算子包AscendCloud-OPP-6.3.909-xxx.zip到主机中,包获取路径请参见表2。 将权重文件上传到Server
根据置信度筛选。 slice_thickness String DICOM层厚,通过层厚筛选样本。 study_date String DICOM扫描时间。 time_in_video String 视频中某个时间。 表6 SearchLabels 参数 参数类型 描述 labels Array
表20 WorkflowServicePackege 参数 参数类型 描述 package_id String 资源包的UUID。 status String 资源包状态。 pool_id String 资源池ID。 service_id String 服务ID。 workflow_id
署,需要先联系您所在企业的华为方技术支持。 约束限制 本文档适配昇腾云ModelArts 6.3.907版本,请参考表1获取配套版本的软件包,请严格遵照版本配套关系使用本文档。 本文档中的模型运行环境是ModelArts Lite Server。 镜像适配的Cann版本是cann_8
署,需要先联系您所在企业的华为方技术支持。 约束限制 本文档适配昇腾云ModelArts 6.3.906版本,请参考表1获取配套版本的软件包,请严格遵照版本配套关系使用本文档。 本文档中的模型运行环境是ModelArts Lite Server。 镜像适配的Cann版本是cann_8
在“调用说明”页面,选择接口类型,复制调用示例,修改接口信息和API Key后用于业务环境调用模型服务API。 Python示例代码如下所示: 使用普通requests包调用。 import requests import json if __name__ == '__main__': url = "https:/example
磁盘上。 使用ModelArts VSCode插件调试训练ResNet50图像分类模型 MindSpore VS Code Toolkit工具 目标检测 本案例以Ascend Model Zoo为例,介绍如何通过VS Code插件及ModelArts Notebook进行云端数据调试及模型开发。