检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
前提条件 已开通工作空间白名单,并配置了ModelArts基本使用权限,具体请参见配置ModelArts基本使用权限。 创建工作空间 登录ModelArts管理控制台。 在左侧导航栏中,选择“工作空间”进入工作空间列表。 单击“创建工作空间”,进入创建页面。 表1 创建工作空间
能通过SSH登录,不同机器之间网络互通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主机的元数据。具体操作请参见禁止容器获取宿主机元数据。 SSH登录机器后,检查NP
SWR上拉取。 步骤一:检查环境 请参考DevServer资源开通,购买DevServer资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。 购买DevServer资源时如果无可选资源规格,需要联系华为云技术支持申请开通。 当容器需要提供服务给多个用户,
同的模型输入,需要填写的参数不同。当模型输入为JSON文件时,则需要根据配置文件生成映射文件;如果模型输入为文件时,则不需要。 操作步骤 登录ModelArts管理控制台,在左侧导航栏中选择“模型部署 > 批量服务”,默认进入“批量服务”列表。 在批量服务列表中,单击左上角“部署”,进入“部署”页面。
updateWorkforce 删除标注团队 workforce deleteWorkforce 自动创建IAM委托 IAM createAgency 标注成员登录labelConsole标注平台 labelConsoleWorker workerLoginLabelConsole 标注成员登出labelConsole标注平台
|── alpaca_gpt4_data.json #微调数据文件 上传代码和权重文件到工作环境 使用root用户以SSH的方式登录DevServer。 将AscendCloud代码包AscendCloud-xxx-xxx.zip上传到${workdir}目录下并解压缩
updateWorkforce 删除标注团队 workforce deleteWorkforce 自动创建IAM委托 IAM createAgency 标注成员登录labelConsole标注平台 labelConsoleWorker workerLoginLabelConsole 标注成员登出labelConsole标注平台
基础镜像。 Step1 检查环境 请参考DevServer资源开通,购买DevServer资源,并确保机器已开通,密码已获取,能通过SSH登录,不同机器之间网络互通。 购买DevServer资源时如果无可选资源规格,需要联系华为云技术支持申请开通。 当容器需要提供服务给多个用户,
能通过SSH登录,不同机器之间网络互通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主机的元数据。具体操作请参见禁止容器获取宿主机元数据。 SSH登录机器后,检查NP
参数类型 描述 owner 否 String 实例归属的用户ID,长度位32位小写字母、数字,在大账号/有admin权限场景下生效,值通常为当前登录用户ID。 sort_dir 否 String 排序方式。枚举值如下: ASC升序。 DESC降序。 sort_key 否 String 排序字段,枚举值如下:
|── alpaca_gpt4_data.json #微调数据文件 上传代码和权重文件到工作环境 使用root用户以SSH的方式登录DevServer。 将AscendCloud代码包AscendCloud-3rdLLM-xxx-xxx.zip上传到${workdir}
hostname和port也必须分别是0.0.0.0和8080不可更改。 Step2 部署模型 在ModelArts控制台的AI应用管理模块中,将模型部署为一个AI应用。 登录ModelArts控制台,单击“资产管理 > AI应用 > 创建”,开始创建AI应用。 设置创建AI应用的相应参数。此处仅介绍关键参数,设
能通过SSH登录,不同机器之间网络互通。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169.254.169.254),以防止容器获取宿主机的元数据。具体操作请参见禁止容器获取宿主机元数据。 SSH登录机器后,检查NP
UserKnownHostsFile /dev/null ForwardAgent yes 注意:这里是使用密钥登录,如果需要使用密码登录,请去掉identityFile配置,并在连接过程中根据提示多次输入密码。 连接成功后安装python插件,请参考安装Python插件。
粗的斜体字段需要根据实际值填写,其中user_name为用户名,domain_name为用户所属的账号名,user_password为用户登录密码,cn-north-1为项目名称,获取方法请参见获取用户名、获取账号名和账号ID和获取项目名称。 scope参数定义了Token的作用
标签。当无法添加某个关系标签时,界面将显示一个红色的叉号,如图2所示。 图1 实体标签和关系标签的示例 图2 无法添加关系标签 开始标注 登录ModelArts管理控制台,在左侧菜单栏中选择“数据准备> 数据标注”,进入“数据标注”管理页面。 数据管理模块在重构升级中,对未使用过
|── alpaca_gpt4_data.json #微调数据文件 上传代码和权重文件到工作环境 使用root用户以SSH的方式登录DevServer。 将AscendCloud代码包AscendCloud-xxx-xxx.zip上传到${workdir}目录下并解压缩
才支持模型自定义推理。 当使用自定义镜像部署推理服务时,要确认镜像是否满足自定义镜像规范,否则无法成功完成推理服务的部署。 部署推理服务 登录AI Gallery。 单击“模型”进入模型列表。 选择需要部署为推理服务的模型,单击模型名称进入模型详情页。 在模型详情页,选择“部署 >
已完成训练的模型包,及其对应的推理代码和配置文件,且已上传至OBS目录中。 确保您使用的OBS与ModelArts在同一区域。 创建模型操作步骤 登录ModelArts管理控制台,在左侧导航栏中选择“模型管理”,进入模型列表页面。 单击左上角的“创建模型”,进入“创建模型”页面。 在“创建模型”页面,填写相关参数。
录。 单击“确定”,自动跳转至AI Gallery的个人中心“我的下载”页签。等待五分钟左右下载完成即可。 图2 下载数据集 订阅工作流 登录ModelArts管理控制台,左侧菜单栏选择“开发空间>Workflow”,进入Workflow详情页。 在详情页的Workflow列表区域,单击“前往AI