检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
发布训练后的NLP大模型 NLP大模型训练完成后,需要执行发布操作,操作步骤如下: 在模型训练列表页面选择训练完成的任务,单击训练任务名称进去详情页。 在“训练结果”页面,单击“发布”。 图1 训练结果页面 填写资产名称、描述,选择对应的可见性,单击“确定”发布模型。 发布后的模型会作为资产同步显示在“空间资产
如何评估微调后的盘古大模型是否正常 评估模型效果的方法有很多,通常可以从以下几个方面来评估模型训练效果: Loss曲线:通过Loss曲线的变化趋势来评估训练效果,确认训练过程是否出现了过拟合或欠拟合等异常情况。 模型评估:使用平台的“模型评估”功能,“模型评估”将对您之前上传的测
发布训练后的科学计算大模型 科学计算大模型训练完成后,需要执行发布操作,操作步骤如下: 在模型训练列表页面选择训练完成的任务,单击训练任务名称进去详情页。 在“训练结果”页面,单击“发布”。 图1 训练结果 填写资产名称、描述,选择对应的可见性,单击“确定”发布模型。 发布后的模型会作为资产同步显示在“空间资产
择标注项,可开启“AI预标注”功能,单击“下一步”。 图1 选择标注数据集 在“创建标注任务”页面,可配置标注分配、标注审核和标注任务的基本信息,单击“完成创建”。 图2 配置标注分配、标注审核、基本信息 当标注任务状态为“已创建”时,在操作列单击“上线”按钮。 进入“数据标注 >
能。 模型压缩:在模型部署前,进行模型压缩是提升推理性能的关键步骤。通过压缩模型,能够有效减少推理过程中的显存占用,节省推理资源,同时提高计算速度。当前,平台支持对NLP大模型进行压缩。 模型部署:平台提供了一键式模型部署功能,用户可以轻松将训练好的模型部署到云端或本地环境中。平
查看NLP大模型部署任务详情 部署任务创建成功后,可以在“模型开发 > 模型部署”页面查看模型的部署状态。 当状态依次显示为“初始化 > 部署中 > 运行中”时,表示模型已成功部署,可以进行调用。 此过程可能需要较长时间,请耐心等待。在此过程中,可单击模型名称可进入详情页,查看模
上线标注后的文本类数据集 数据集标注完成并且审核无问题后,需要对该数据集执行上线操作。上线后的数据集可以用于后续的数据评估、发布任务。 上线标注后的数据集步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程
上线加工后的气象类数据集 加工后的气象类数据集需要执行上线操作,用于后续的数据发布操作,具体步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程 > 数据加工”,在数据集操作列单击“上线”,执行上线操作。
上线标注后的视频类数据集 数据集标注完成并且审核无问题后,需要对该数据集执行上线操作。上线后的数据集可以用于后续的数据评估、发布任务。 上线标注后的数据集步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程
上线加工后的文本类数据集 加工后的文本类数据集需要执行上线操作,用于后续的数据标注、评估、发布任务,具体步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程 > 数据加工”,在数据集操作列单击“上线”,执行上线操作。
上线加工后的视频类数据集 加工后的视频类数据集需要执行上线操作,用于后续的数据标注、评估、发布任务,具体步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程 > 数据加工”,在数据集操作列单击“上线”,执行上线操作。
用户可以根据需求灵活划分工作空间,实现资源的有序管理与优化配置,确保各类资源在不同场景中的最大化利用。为进一步优化资源的管理,平台还提供了多种角色权限体系。用户可以根据自身角色从管理者到各模块人员进行不同层级的权限配置,确保每个用户在其指定的工作空间内,拥有合适的访问与操作权限
参数填写完成后单击“立即创建”创建模型压缩任务。 步骤8:部署NLP大模型 在左侧导航栏中选择“模型开发 > 模型部署”,单击“创建部署”。 在“创建部署”页面,选择“盘古大模型 > NLP大模型”,单击“从资产选模型”,选择步骤7:压缩NLP大模型步骤中压缩后的模型。 选择部署方式“
查看科学计算大模型部署任务详情 部署任务创建成功后,可以在“模型开发 > 模型部署”页面查看模型的部署状态。 当状态依次显示为“初始化 > 部署中 > 运行中”时,表示模型已成功部署,可以进行调用。 此过程可能需要较长时间,请耐心等待。在此过程中,可单击模型名称可进入详情页,查看
上线加工后的图片类数据集 加工后的图片类数据集需要执行上线操作,用于后续的数据标注、评估、发布任务,具体步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程 > 数据加工”,在数据集操作列单击“上线”,执行上线操作。
上线标注后的图片类数据集 数据集标注完成并且审核无问题后,需要对该数据集执行上线操作。上线后的数据集可以用于后续的数据评估、发布任务。 上线标注后的数据集步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程
5个。 在“高级配置”中配置预先部署好的模型与prompt提示词。单击“确定”,完成参数配置。 图8 意图识别组件参数配置 鼠标拖动左侧“提问器”组件至编排页面,并连接意图识别组件与该组件,单击该组件进行配置操作。提问器组件参数配置见图9。 其中,请将“高级配置 > Prompt提示词”中的内容替换为:
rompt配置,直接接受用户原始输入,并输出大模型执行后的原始输出,该组件的配置详见配置大模型组件。 用户可根据需求配置所需组件,并连接其他组件。除开始、结束和大模型组件外,平台提供了意图识别、提问器、插件、判断、代码组件,配置详见配置意图识别组件、配置提问器组件、配置插件组件、配置判断组件、配置代码组件。
获取模型请求URI。 若调用部署后的模型,可在左侧导航栏中选择“模型开发 > 模型部署”,在“我的服务”页签,模型部署列表单击模型名称,在“详情”页签中,可获取模型的请求URI。 图1 部署后的模型调用路径 若调用预置模型,可在左侧导航栏中选择“模型开发 > 模型部署”,在“预置服务”页
部署后的模型可用于后续调用操作。 创建NLP大模型部署任务 查看NLP大模型部署任务详情 查看部署任务的详情,包括部署的模型基本信息、任务日志等。 查看NLP大模型部署任务详情 管理NLP大模型部署任务 可对部署任务执行执行描述、删除等操作。 管理NLP大模型部署任务 调用NLP大模型 使用“能力调测”调用NLP大模型