检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
启动/停止/删除实例 保存Notebook实例 动态扩充云硬盘EVS容量 动态挂载OBS并行文件系统 查看Notebook实例事件 Notebook Cache盘告警上报 父主题: 使用Notebook进行AI开发调试
通过JupyterLab在线使用Notebook实例进行AI开发 使用JupyterLab在线开发和调试代码 JupyterLab常用功能介绍 在JupyterLab使用Git克隆代码仓 在JupyterLab中创建定时任务 上传文件至JupyterLab 下载JupyterLab文件到本地
获取训练作业支持的公共规格。 获取训练作业支持的AI预置框架 获取训练作业支持的AI预置框架。 AI应用管理接口 表10 AI应用管理接口 API 说明 查询模型runtime 查询模型AI引擎以及runtime。 创建AI应用 创建AI应用。 查询AI应用列表 查询AI应用列表,可以根据不同的检索参数进行查询。
部署后的AI应用是如何收费的? ModelArts支持将AI应用按照业务需求部署为服务。训练类型不同,部署后的计费方式不同。 将AI应用部署为服务时,根据数据集大小评估模型的计算节点个数,根据实际编码情况选择计算模式。 具体计费方式请参见ModelArts产品价格详情。部署AI应用可
使用大模型在ModelArts Standard创建AI应用部署在线服务 背景说明 目前大模型的参数量已经达到千亿甚至万亿,随之大模型的体积也越来越大。千亿参数大模型的体积超过200G,在版本管理、生产部署上对平台系统产生了新的要求。例如:导入AI应用时,需要支持动态调整租户存储配额;模型
{ "cpu_image_url" : "aip/horovod_tensorflow:train", "gpu_image_url" : "aip/horovod_tensorflow:train", "image_version" : "horovod_0
公共镜像:即预置在ModelArts内部的AI引擎。 可以选择界面显示的公共镜像,也可以单击“前往AI Gallery获取更多镜像”进入AI Gallery镜像页面。AI Gallery上发布了一些较高版本的PyTorch、MindSpore、TensorFlow镜像。进入AI Gallery镜像页
在服务器执行如下命令,可以将服务器上的文件上传到AI Gallery仓库里面。 gallery-cli upload {repo_id} {文件名} 如下所示,表示将服务器上的文件“D:\workplace\models\llama-7b\config.json”上传到AI Gallery仓库“tes
使用Notebook进行AI开发调试 Notebook使用场景 创建Notebook实例 通过JupyterLab在线使用Notebook实例进行AI开发 通过PyCharm远程使用Notebook实例 通过VS Code远程使用Notebook实例 通过SSH工具远程使用Notebook
AI Gallery下载数据到OBS中使用的带宽是用户自己的还是华为云的? AI Gallery下载数据到OBS中使用的带宽是华为云的。 父主题: AI Gallery
服务管理 通过 patch 操作对服务进行更新 查询服务监控信息 查询服务列表 部署服务 查询支持的服务部署规格 查询服务详情 更新服务配置 删除服务 查询专属资源池列表 查询服务事件日志 启动停止边缘节点服务实例 查询服务更新日志 添加资源标签 删除资源标签 查询推理服务标签
模型。 步骤4:创建AI应用 在训练作业详情页的右上角单击“创建AI应用”,进入创建AI应用页面。 也可以在ModelArts管理控制台,选择“资产管理 > AI应用”,在“自定义AI应用”页面,单击“创建”,进入创建AI应用页面。 在创建AI应用页面,系统会自动根据上一步训练作业填写参数,参考如下说明确认关键参数。
声音分类项目,是识别一段音频中是否包含某种声音。可应用于生产或安防场景的异常声音监控。 文本分类 文本分类项目,识别一段文本的类别。可应用于情感分析或新闻分类等场景。 父主题: 使用自动学习实现零代码AI开发
发基于PyTorch、TensorFlow和MindSpore等引擎的AI模型。 支持通过JupyterLab工具在线打开Notebook,具体请参见通过JupyterLab在线使用Notebook实例进行AI开发。 支持本地IDE的方式开发模型,通过开启SSH连接,用户本地ID
/tmp/config.json 下载单个AI Gallery仓库 在服务器执行如下命令,可以将AI Gallery仓库的所有文件下载到服务器的缓存目录下。 gallery-cli download {repo_id} 如下所示,表示下载AI Gallery仓库“test_cli_
化架构,支持大模型分布式部署及推理 统一管理 AI 开发全流程,提升开发效率,记录模型构建实验全流程 多场景部署,灵活满足业务需求 支持云端/边端部署等多种生产环境 支持在线推理、批量推理、边缘推理多形态部署 AI工程化能力,支持AI全流程生命周期管理 支持MLOps能力,提供数
行的整个AI流程。 方案概述 推理服务的端到端运维流程 算法开发阶段,先将业务AI数据存放到对象存储服务(OBS)中,接着通过ModelArts数据管理进行标注和版本管理,然后通过训练获得AI模型结果,最后通过开发环境构建AI应用镜像。 服务运维阶段,先利用镜像构建AI应用,接着
服务管理概述 在开发环境中部署本地服务进行调试 部署在线服务 查询服务详情 推理服务测试 查询服务列表 查询服务对象列表 更新服务配置 查询服务监控信息 查询服务日志 删除服务
使用Workflow实现低代码AI开发 什么是Workflow 运行第一条Workflow 管理Workflow 开发第一条Workflow 开发Workflow命令参考
模型来源不同。订阅模型,模型来源于AI Gallery;云服务订阅模型,模型来源于其他AI服务开发的模型。 订阅模型列表 在ModelArts的“模型管理>订阅模型”页面中,罗列了从AI Gallery订阅的所有模型。 订阅模型,可通过如下操作获得: “订阅模型”列表,单击“AI Gallery订阅模型”,跳转至“AI