正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
# 训练使用的算法对象,示例中使用AIGallery订阅的算法;部分算法超参的值如果无需修改,则在parameters字段中可以不填写,系统自动填充相关超参值 inputs=wf.steps.JobInput(name="data_url", data=obs_data)
ens所在的云服务区域,单击“确定”跳转至HiLens控制台的“产品订购 > 订单管理 > AI Gallery”页面。该HiLens技能自动同步至HiLens。 方式二:从“我的Gallery”进入管理控制台 在AI Gallery,单击右上角“我的Gallery > 我的资产
检查是否有“运行中”的Workflow列表。如果有,单击Workflow列表中“操作 > 删除”即可停止计费。 进入“ModelArts>自动学习”页面,检查是否有“运行中”的项目。如果有,单击项目列表中“操作 > 删除”即可停止计费。 进入“ModelArts>开发空间>Not
LLM大语言模型训练推理 在ModelArts Studio基于Llama3-8B模型实现新闻自动分类 主流开源大模型基于DevServer适配PyTorch NPU推理指导(6.3.908) 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.908)
task submitted. 提交自动标注任务成功,等待自动标注任务完成 提交自动标注任务成功,等待自动标注任务完成 200 ModelArts.4916 Auto labeling task executed. 自动标注任务执行成功 自动标注任务执行成功 200 ModelArts
作为AI应用页签的背景图展示在AI应用列表。建议使用16:9的图片,且大小不超过7MB。 如果未上传图片,AI Gallery会为AI应用自动生成封面。 应用描述 否 输入AI应用的功能介绍,AI应用创建后,将展示在AI应用页签上,方便其他用户了解与使用。 支持0~100个字符。
urce_location必填,template不需要填。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v1/{project_id}/models 表1
单击搜索框右侧的按钮,可设置Workflow列表页需要展示的内容和展示效果。 表格内容折行:默认为关闭状态。启用此功能可以让Workflow列表页中的内容在显示时自动换行。禁用此功能可截断文本,Workflow列表页中仅显示部分内容。 操作列:默认为开启状态,启用此能力可让操作列固定在最后一列永久可见。
对比:针对某条工作流的所有运行记录,按照状态、运行记录、启动时间、运行时长、参数等进行对比。 图3 对比 当单击“启动”运行工作流时,运行记录列表会自动刷新,并更新至最新一条的执行记录数据,且与DAG图和总览数据面板双向联动更新数据。每次启动后都会新增一条运行记录。 用户可以单击Workf
地址{image_url}获取请参见表1。 docker pull {image_url} Step3 上传代码包和权重文件 上传安装依赖软件推理代码AscendCloud-LLM-6.3.908-xxx.zip和算子包AscendCloud-OPP-6.3.908-xxx.zip到主机中,包获取路径请参见表2。
检查是否有“运行中”的Workflow列表。如果有,单击Workflow列表中“操作 > 删除”即可停止计费。 进入“ModelArts>自动学习”页面,检查是否有“运行中”的项目。如果有,单击项目列表中“操作 > 删除”即可停止计费。 进入“ModelArts>开发空间>Not
apReduce服务(MRS)和本地上传。 数据集中的数据导入入口 数据集中的数据导入有5个入口。 创建数据集时直接从设置的数据导入路径中自动同步数据。 创建完数据集后,在数据集列表页面的操作栏单击“导入”,导入数据。 图1 在数据集列表页导入数据 在数据集列表页面,单击某个数据
创建成功后,Notebook实例的状态为“运行中”,单击操作列的“打开”,访问JupyterLab。 图2 打开Notebook实例 进入JupyterLab页面后,自动打开Launcher页面,如下图所示。您可以使用开源支持的所有功能,详细操作指导可参见JupyterLab官网文档。 图3 JupyterLab主页
置专属资源池容器引擎空间不会造成额外费用增加。更多信息,请参见导入AI应用对镜像大小的约束限制。 自动学习项目中,在完成模型部署后,其生成的模型也将自动上传至AI应用列表中。但是自动学习生成的AI应用无法下载,只能用于部署上线。 Standard推理服务部署 只支持使用专属资源池
使用Horovod/MPI/MindSpore-GPU预置框架来运行的启动文件,平台自动以mpirun命令启动之。使用ModelArts Standard训练相应预置引擎,用户仅需关心启动文件(即训练脚本)的编写;mpirun命令和训练作业集群的构建都由平台自动完成。平台不会为启动文件额外拼接参数。 具体示例如下:
通过运行install.sh脚本,还会git clone下载Megatron-LM、MindSpeed、ModelLink源码(install.sh中会自动下载配套版本,如果手动下载源码还需修改版本)至llm_train/AscendSpeed文件夹中。下载的源码文件结构如下: |——AscendCloud-LLM
付欠款,那么付费资源(如计算规格、OBS桶)、等都将被冻结,资源进入保留期。保留期的资源不支持任何操作。如果用户在宽限期内充值,则华为云会自动扣取欠费金额(含宽限期内产生的费用) 保留期到期时仍未支付欠款(含宽限期内产生的费用),则付费资源将释放,数据无法恢复。 宽限期和保留期的详细规则请参见宽限期保留期。
UTC'的毫秒数。 description String 模型描述信息。 source_type String 模型来源的类型,仅当模型为自动学习部署过来时有值,取值为“auto”。 父主题: 模型管理
description="请输入一个只包含大小写字母、数字、下划线、中划线或者中文字符的名称。填写已有标注任务名称,则直接使用该标注任务;填写新标注任务名称,则自动创建新的标注任务") ), inputs=wf.steps.LabelingInput(name="labeling_input"
由于商用模型支持同时购买多种配额模式的资产,所以仅部署商用模型时需要进行配额选择。免费模型仅一种配额模式无需选择。 图2 修改配额 若您选择部署的非商业模型,系统自动跳转至“部署”页面。 在部署页面中,无需再选择模型及其版本,参考部署模型的操作指导完成其他参数填写,即可部署为您需要的服务。 父主题: 订阅模型