AI开发平台MODELARTS-ModelArts入门实践

时间:2024-11-08 17:12:37

ModelArts入门实践

本章节列举了一些常用的实践案例,方便您快速了解并使用ModelArts完成AI开发。

表1 常用最佳实践

分类

实践案例

描述

适用人群

ModelArts Studio

在ModelArts Studio基于Llama3-8B模型实现新闻自动分类

本案例介绍在ModelArts Studio大模型即服务平台(下面简称为MaaS),使用Llama3-8B模型框架实现新闻自动分类,能够高效处理和分类大量新闻内容。

面向AI大模型开发新手用户,了解AI大模型基础知识即可

ModelArts Standard模型训练

使用ModelArts Standard的专属资源池训练模型

本案例介绍了如何使用ModelArts Standard专属资源池提供的计算资源,结合SFS和OBS存储,在ModelArts Standard的训练环境中开展单机单卡、单机多卡、多机多卡分布式训练。

面向熟悉代码编写和调测的AI工程师,同时了解SFS和OBS云服务

示例:从 0 到 1 制作 自定义镜像 并用于训练(Pytorch+CPU/GPU)

本案例介绍如何从0开始制作镜像,并使用该镜像在ModelArts Standard平台上进行训练。镜像中使用的AI引擎是Pytorch,训练使用的资源是CPU或GPU。

面向熟悉代码编写和调测的AI工程师,同时熟悉docker容器知识

示例:从 0 到 1 制作自定义镜像并用于训练(MindSpore+Ascend)

本案例介绍如何从0开始制作镜像,并使用该镜像在ModelArts Standard平台上进行训练。镜像中使用的AI引擎是MindSpore,训练使用的资源是Ascend。

主流开源大模型基于Standard适配PyTorch NPU训练指导

本案例基于ModelArts Standard供的昇腾计算资源,指导用户完成Llama、Qwen、ChatGLM、Yi、Baichuan等常见开源大模型的预训练、SFT微调、LoRA微调训练过程。

面向熟悉代码编写和调测的AI工程师

ModelArts Standard推理部署

使用Standard一键完成商超商品识别模型部署

本案例以“商超商品识别”模型为例,介绍从AI Gallery订阅模型,一键部署到ModelArts Standard,并进行在线推理预测的体验过程。

面向AI开发零基础的用户

从0-1制作自定义镜像并创建AI应用

针对ModelArts不支持的AI引擎,您可以构建自定义镜像,并将镜像导入ModelArts,创建为AI应用。本案例详细介绍如何使用自定义镜像创建AI应用,并部署成在线服务。

面向熟悉代码编写和调测的AI工程师,同时熟悉docker容器知识

主流开源大模型基于Standard适配PyTorch NPU推理指导

本案例基于ModelArts Standard供的昇腾计算资源,指导用户完成Llama、Qwen、ChatGLM、Yi、Baichuan等常见开源大模型的推理部署、模型评测、模型量化等功能。

面向熟悉代码编写和调测的AI工程师

ModelArts Standard自动学习

使用Standard自动学习实现垃圾分类

本案例基于华为云AI开发者社区AI Gallery中的数据集资产,让零AI基础的开发者使用ModelArts Standard的自动学习功能完成“图像分类”AI模型的训练和部署。

面向AI开发零基础的用户

使用Standard自动学习实现口罩检测

本案例基于华为云AI开发者社区AI Gallery中的数据集资产,让零AI基础的开发者使用ModelArts Standard的自动学习功能完成“物体检测”AI模型的训练和部署。依据开发者提供的标注数据及选择的场景,无需任何代码开发,自动生成满足用户精度要求的模型。

ModelArts Standard开发环境

本地开发的MindSpore模型迁移至云上训练

本案例介绍了如何将本地开发好的MindSpore模型代码,通过PyCharm ToolKit连接到ModelArts Standard进行云上调试和训练。

面向熟悉代码编写和调测的AI工程师

使用ModelArts VS Code插件进行模型开发(Ascend)

本案例以Ascend Model Zoo为例,介绍如何通过VS Code插件及ModelArts Standard的Notebook进行云端数据调试及模型开发。

ModelArts Lite Server

主流开源大模型基于DevServer适配PyTorch NPU训练指导

本案例基于ModelArts Lite DevServer供的昇腾计算资源,指导用户完成Llama、Qwen、ChatGLM、Yi、Baichuan等常见开源大模型的预训练、SFT微调、LoRA微调训练过程。

面向熟悉代码编写和调测的AI工程师,同时熟悉Linux和Docker容器基础知识

主流开源大模型基于DevServer适配PyTorch NPU推理指导

本案例基于ModelArts Lite DecServer提供的昇腾计算资源,指导用户完成Llama、Qwen、ChatGLM、Yi、Baichuan等常见开源大模型的推理部署、模型评测、模型量化等功能。

support.huaweicloud.com/qs-modelarts/modelarts_06_0011.html