正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
其中,加粗的斜体字段需要根据实际值填写: iam_endpoint为IAM的终端节点。 user_name为IAM用户名。 user_password为用户登录密码。 domain_name为用户所属的帐号名。 cn-north-1为项目名,代表服务的部署区域。 返回状态码“201 Created
其中,加粗的斜体字段需要根据实际值填写: iam_endpoint为IAM的终端节点。 user_name为IAM用户名。 user_password为用户登录密码。 domain_name为用户所属的帐号名。 cn-north-1为项目名,代表服务的部署区域。 返回状态码“201 Created
</object> </annotation> 上传OBS的操作步骤: 执行如下操作,将数据导入到您的数据集中,以便用于模型训练和构建。 登录OBS管理控制台,在ModelArts同一区域内创建桶。如果已存在可用的桶,需确保OBS桶与ModelArts在同一区域。 参考上传文件,
0:打标者 1:审核者 2:团队管理者 3:数据集拥有者 status Integer 标注成员的当前登录状态。可选值如下: 0:未发送邀请邮件 1:已发送邀请邮件但未登录 2:已登录 3:标注成员已删除 update_time Long 更新时间。 worker_id String
json #微调训练原始数据文件 上传代码到工作环境 使用root用户以SSH的方式登录DevServer。将AscendSpeed代码包AscendCloud-3rdLLM-xxx-xxx.zip上传到${workdir}目
才支持模型自定义推理。 当使用自定义镜像部署推理服务时,要确认镜像是否满足自定义镜像规范,否则无法成功完成推理服务的部署。 部署推理服务 登录AI Gallery。 单击“模型”进入模型列表。 选择需要部署为推理服务的模型,单击模型名称进入模型详情页。 在模型详情页,选择“部署 >
1:8080/${推理服务的请求路径} 推理部署示例 本节将详细说明以自定义引擎方式创建AI应用的步骤。 创建AI应用并查看AI应用详情 登录ModelArts管理控制台,进入“AI应用”页面中,单击“创建AI应用”,进入AI应用创建页面,设置相关参数如下: 元模型来源:选择“从对象存储服务(OBS)中选择”。
ts云服务, 完成资源的申请。 步骤1 安装模型 安装Megatron-Deepspeed框架。 使用root用户SSH的方式登录GPU裸金属服务器,登录方式在华为云购买页面可以获取。 拉取pytorch镜像,可以选择常用的镜像源进行下载。 docker pull nvcr.io/nvidia/pytorch:21
nd资源时,则支持选择训练模式。 (可选)设置标签:如果需要对训练作业进行资源分组管理,可以设置标签。 后续操作。 进入创建训练作业页面 登录ModelArts管理控制台。 在左侧导航栏中,选择“模型训练 > 训练作业”进入训练作业列表。 单击“创建训练作业”,进入创建训练作业页面。
使用容器化部署,导入的元模型有大小限制,详情请参见导入AI应用对于镜像大小限制。 前提条件 确保您使用的OBS目录与ModelArts在同一区域。 创建AI应用操作步骤 登录ModelArts管理控制台,在左侧导航栏中选择“AI应用”,进入AI应用列表页面。 单击左上角的“创建应用”,进入“创建应用”页面。 在“创建应用”页面,填写相关参数。
|── alpaca_gpt4_data.json #微调数据文件 上传代码和权重文件到工作环境 使用root用户以SSH的方式登录DevServer。 将AscendCloud代码包AscendCloud-xxx-xxx.zip上传到${workdir}目录下并解压缩
updateWorkforce 删除标注团队 workforce deleteWorkforce 自动创建IAM委托 IAM createAgency 标注成员登录labelConsole标注平台 labelConsoleWorker workerLoginLabelConsole 标注成员登出labelConsole标注平台
md”文件里。 更新后的“README.md”文件自动存放在数据集详情页的“文件版本”页签或者是模型详情页的“模型文件”页签。 创建模型资产 登录AI Gallery,单击右上角“我的Gallery”进入我的Gallery页面。 单击左上方“创建资产”,选择“模型”。 在“创建模型”弹窗中配置参数,单击“创建”。
前提条件 已开通工作空间白名单,并配置了ModelArts基本使用权限,具体请参见配置ModelArts基本使用权限。 创建工作空间 登录ModelArts管理控制台。 在左侧导航栏中,选择“工作空间”进入工作空间列表。 单击“创建工作空间”,进入创建页面。 表1 创建工作空间
只支持对状态为“运行中”的专属资源池进行扩缩容。 专属资源池不能缩容到0。 扩缩容专属资源池 资源池扩缩容有以下类型,分别为: 对已有规格增减节点数量 修改容器引擎空间大小 登录ModelArts管理控制台,在左侧菜单栏中选择“专属资源池 > 弹性集群”,默认进入“资源池”页签,查看资源池列表。 增减节点数量 单击
则需要根据配置文件生成映射文件;如果AI应用输入为文件时,则不需要。 批量服务只支持使用公共资源池,暂不支持使用专属资源池。 操作步骤 登录ModelArts管理控制台,在左侧导航栏中选择“模型部署 > 批量服务”,默认进入“批量服务”列表。 在批量服务列表中,单击左上角“部署”,进入“部署”页面。
|── alpaca_gpt4_data.json #微调数据文件 上传代码和权重文件到工作环境 使用root用户以SSH的方式登录DevServer。 将AscendCloud代码包AscendCloud-3rdLLM-xxx-xxx.zip上传到${workdir}
参数类型 描述 owner 否 String 实例归属的用户ID,长度位32位小写字母、数字,在大账号/有admin权限场景下生效,值通常为当前登录用户ID。 sort_dir 否 String 排序方式,ASC升序,DESC降序。 sort_key 否 String 排序的字段,多个字段使用(“
参数类型 描述 owner 否 String 实例归属的用户ID,长度位32位小写字母、数字,在大账号/有admin权限场景下生效,值通常为当前登录用户ID。 sort_dir 否 String 排序方式。枚举值如下: ASC升序。 DESC降序。 sort_key 否 String 排序字段,枚举值如下:
使用容器化部署,导入的元模型有大小限制,详情请参见导入AI应用对于镜像大小限制。 前提条件 确保您使用的OBS目录与ModelArts在同一区域。 创建AI应用操作步骤 登录ModelArts管理控制台,在左侧导航栏中选择“AI应用”,进入AI应用列表页面。 单击左上角的“创建应用”,进入“创建应用”页面。 在“创建应用”页面,填写相关参数。