检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
常见问题 首次使用ModelArts如何配置授权? 直接选择“新增委托”中的“普通用户”权限即可,普通用户包括用户使用ModelArts完成AI开发的所有必要功能权限,如数据的访问、训练任务的创建和管理等。一般用户选择此项即可。 如何获取访问密钥AK/SK? 如果在其他功能(
常见问题 首次使用ModelArts如何配置授权? 直接选择“新增委托”中的“普通用户”权限即可,普通用户包括用户使用ModelArts完成AI开发的所有必要功能权限,如数据的访问、训练任务的创建和管理等。一般用户选择此项即可。 如何获取访问密钥AK/SK? 如果在其他功能(
and optionally a tag in the 'name:tag' format. -swr, --swr-path TEXT SWR path without swr endpoint, eg:organization/image:tag. [required]
ore-GPU GPU 是 是 rlstudio1.0.0-ray1.3.0-cuda10.1-ubuntu18.04 CPU、GPU强化学习算法开发和训练基础镜像,预置AI引擎 CPU/GPU 是 是 mindquantum0.9.0-mindspore2.0.0-cuda11
此处以订阅算法举例,您也可以自己准备算法。 从AI Gallery订阅一个图像分类的算法进入AI Gallery>资产集市>算法,搜索自动学习算法-图像分类。 单击算法右侧的“订阅”。 在弹出的窗口中,勾选“我已阅读并同意 《数据安全与隐私风险承担条款》 和 《华为云AI Gal
训练创建新的作业。 旧版训练管理是否停止新购? 是的,旧版训练管理将于2023年6月30日 00:00(北京时间)正式退市。 旧版训练管理如何升级到新版训练? 请参考新版训练指导文档(模型训练)来体验新版训练。 旧版训练迁移至新版训练需要注意哪些问题? 新版训练和旧版训练的差异主
Lite的基础功能和用法。 图6 ResNet50模型迁移到Ascend上进行推理 Stable Diffusion模型迁移到Ascend上进行推理:介绍如何将Stable Diffusion模型通过MSLite进行转换后,迁移在昇腾设备上运行。 图7 Stable Diffusion模型迁移到Ascend上进行推理
算法可用性。 state String 算法状态。 tags Array of Map<String,String> objects 算法标签。 attr_list Array of strings 算法属性列表。 version_num Integer 算法版本数量,默认为0。
从第三方元模型导入,则为空,默认值为空。 source_type 否 String 模型来源的类型,当前仅可取值auto,用于区分通过自动学习部署过来的模型(不提供模型下载功能);用户通过训练作业部署的模型不设置此值。默认值为空。 model_type 是 String 模型类型
标注成员描述,长度为0-256位,不能包含^!<>=&"'特殊字符。 email 否 String 标注成员邮箱。 role 否 Integer 角色。可选值如下: 0:打标者 1:审核者 2:团队管理者 3:数据集拥有者 status 否 Integer 标注成员的当前登录状态。可选值如下: 0:未发送邀请邮件
OBS桶和Notebook不在同一个区域。请确保读取的OBS桶和Notebook处于同一站点区域,不支持跨站点访问OBS桶。例如:都在华北-北京四站点。具体操作请参见如何查看OBS桶与ModelArts是否在同一区域。 没有该OBS桶的访问权限。请确认操作Notebook的账号有权限读取OBS桶中的数据。具
算法可用性。 state String 算法状态。 tags Array of Map<String,String> objects 算法标签。 attr_list Array of strings 算法属性列表。 version_num Integer 算法版本数量,默认为0。
5-14b 24576 24576 2 qwen-14b 24576 24576 3 llama2-13b 24576 24576 说明:机器型号规格以卡数*显存大小为单位,如4*64GB代表4张64GB显存的NPU卡。 父主题: 主流开源大模型基于Standard适配PyTorch
otebook。 部署推理服务 在Notebook调试环境中部署推理服务 介绍如何在Notebook中配置NPU环境,部署并启动推理服务,完成精度测试和性能测试。 在推理生产环境中部署推理服务 介绍如何在创建AI应用,部署并启动推理服务,在线预测在线服务。 父主题: 主流开源大模
authentication information: decrypt token fail”。请获取正确的token填入X-Auth-Token,进行预测。如何获取Token请参考获取IAM用户Token。 APIG.1009 AppKey和AppSecret不匹配 当服务预测使用的AppKey和
Lite提供的模型convertor工具可以支持主流的模型格式到MindIR的格式转换,用户需要导出对应的模型文件,推荐导出为ONNX格式。 如何导出ONNX模型 PyTorch转ONNX,操作指导请见此处。 PyTorch导出ONNX模型样例如下: import torch import
标注成员描述,长度为0-256位,不能包含^!<>=&"'特殊字符。 email 否 String 标注成员邮箱。 role 否 Integer 角色。可选值如下: 0:打标者 1:审核者 2:团队管理者 3:数据集拥有者 status 否 Integer 标注成员的当前登录状态。可选值如下: 0:未发送邀请邮件
其可见该资产。 管理模型可用范围 仅当发布模型时,“可用范围”启用“申请用户可用”时,才支持管理模型的可用范围。管理操作包含如何添加可使用资产的新用户、如何审批用户申请使用资产的请求。 添加可使用资产的新用户。 模型发布成功后,如果模型所有者要新增可使用资产的新用户,则可以在模型详情页添加新用户。
标注成员描述,长度为0-256位,不能包含^!<>=&"'特殊字符。 email String 标注成员邮箱。 role Integer 角色。可选值如下: 0:打标者 1:审核者 2:团队管理者 3:数据集拥有者 status Integer 标注成员的当前登录状态。可选值如下: 0:未发送邀请邮件 1:已发送邀请邮件但未登录
如果没有用户组,也可以创建一个新的用户组,并通过“用户组管理”功能添加用户,并配置授权。如果指定的子用户没有在用户组中,也可以通过“用户组管理”功能增加用户。 如何使用Cloud Shell 参考前提条件:给子账号配置允许使用Cloud Shell的权限,完成配置。 在ModelArts管理控制台的左侧导航栏中选择“模型训练