检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
各个模型深度学习训练加速框架的选择 LlamaFactory框架使用两种训练框架: DeepSpeed和Accelerate都是针对深度学习训练加速的工具,但是它们的实现方式和应用场景有所不同。 DeepSpeed是一种深度学习加速框架,主要针对大规模模型和大规模数据集的训练。D
Standard模型部署 ModelArts Standard提供模型、服务管理能力,支持多厂商多框架多功能的镜像和模型统一纳管。 通常AI模型部署和规模化落地非常复杂。 例如,智慧交通项目中,在获得训练好的模型后,需要部署到云、边、端多种场景。如果在端侧部署,需要一次性部署到不同规格
创建模型成功后,部署服务报错,如何排查代码问题 问题现象 创建模型成功后,部署服务失败,如何定位是模型代码编写有问题。 原因分析 用户自定义镜像或者通过基础镜像导入的模型时,用户自己编写了很多自定义的业务逻辑,这些逻辑有问题将会导致服务部署或者预测失败,需要能够排查出哪里有问题。
Online暂不支持GPU加速,建议安装tensorflow-cpu减小磁盘占用,并加快安装速度。 鲲鹏镜像暂时无法安装TensorFlow,敬请期待后续更新。 父主题: 基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型
epochs=10) 父主题: 基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型
置。 表1 CV大模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“CV大模型”。 部署模型 选择需要进行部署的模型。 部署方式 选择“云上部署”。 安全护栏 选择模式 安全护栏保障模型调用安全。 选择类型 当前支持安全护栏基础版,内置了默认的内容审核规则。
建模步骤 创建部署模型。 创建新的部署模型图或者在已有的部署模型图中进行画图设计,如果部署模型场景较多,可根据实际情况将内容进行拆分,按实际部署场景创建多个部署模型图。 建立交付元素与部署元素的部署关系。 从工具箱拖入部署元素创建到部署模型图中,描述部署场景,再将交付模型中定义的打包交付
部署模型的基础构造型与自定义构造型元素才认定为部署元素)。 在部署模型图上创建出来的部署元素; 引用到部署模型中的部署元素(包含关联空间中的引用的部署元素); 如何检查 查询部署模型图内元素类型为架构方案配置构造型的所有元素,查询基于模型图构出的部署模型架构树。 正确示例 每个部署元素都有连线关系和上下级关系(包含关系)。
置。 表1 预测大模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“预测大模型”。 部署模型 选择需要进行部署的模型。 部署方式 选择“云上部署”。 安全护栏 选择模式 安全护栏保障模型调用安全。 选择类型 当前支持安全护栏基础版,内置了默认的内容审核规则。
基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型 概要 准备工作 导入和预处理训练数据集 创建和训练模型 使用模型
在“创建部署”页面,参考表1完成部署参数设置。 表1 NlP大模型部署参数说明 参数分类 部署参数 参数说明 部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“NLP大模型”。 部署模型 选择需要进行部署的模型。 部署方式 选择“云上部署”。 最大TOKEN长度 模型可最大请求的上下文TOKEN数。 安全护栏
可以设置批量部署、增量部署等部署策略吗? 目前页面上还没有提供部署策略的选择,但是可以通过配置来实现一些部署策略,例如: 批量部署:在为应用配置主机时,可以选择多个主机作为目标主机。 增量部署:模板部署中支持新增部署步骤,或者禁用单个或者多个部署步骤。 父主题: 应用部署
管理预测大模型部署任务 模型更新 完成创建预测大模型部署任务后,可以替换已部署的模型并升级配置,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,单击模型名称,进入模型详情页面。
管理CV大模型部署任务 模型更新 完成创建CV大模型部署任务后,可以替换已部署的模型并升级配置,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,单击模型名称,进入模型详情页面。
管理专业大模型部署任务 模型更新 完成创建专业大模型部署任务后,可以替换已部署的模型并升级配置,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,单击模型名称,进入模型详情页面。
查看预测大模型部署任务详情 部署任务创建成功后,可以查看大模型部署的任务详情,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,完成创建预测大模型部署任务后,可以查看模型的部署状态。
管理NLP大模型部署任务 模型更新 完成创建NLP大模型部署任务后,可以替换已部署的模型并升级配置,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,单击模型名称,进入模型详情页面。
查看NLP大模型部署任务详情 部署任务创建成功后,可以查看大模型部署任务详情,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,完成创建NLP大模型部署任务后,可以查看模型的部署状态。
Online中使用TensorFlow和Jupyter Notebook完成神经网络模型的训练,并利用该模型完成简单的图像分类。 父主题: 基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型
如果提示未开通则根据提示跳转至开通页面完成服务开通。 进入“基础配置”页面,选择Python技术栈,CPU架构选择X86计算,CPU/内存选择2U4G,单击“下一步”。 进入“工程配置”页面,选择不创建工程,然后单击“确定”,完成实例创建。 安装TensorFlow 进入CodeArts IDE