检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
当前支持安全护栏基础版,内置了默认的内容审核规则。 资源配置 计费模式 包年包月计费模式。 实例数 设置部署模型时所需的实例数。 订阅提醒 订阅提醒 该功能开启后,系统将在任务状态更新时,通过短信或邮件将提醒发送给用户。 基本信息 服务名称 设置部署任务的名称。 描述(选填) 设置部署任务的描述。
单击左侧导航栏“工作台”,在“应用”页签,单击右上角“创建应用”。 在“创建应用”页面,填写应用名称与应用描述,单击页面左下角的图片可修改应用图标,单击“确定”,进入应用编排页面。 图1 应用编排页面 步骤2:配置Prompt 创建应用后,需要撰写提示词(Prompt),为Agent设定人设、目标、核心技能、执行步骤。
局点进行使用。 以从环境A迁移模型到环境B为例: 登录环境B的ModelArts Studio大模型开发平台,在“空间资产 > 模型”页面,单击右上角的“导入模型”。 在“导入模型”页面,下载用户证书。 图1 下载用户证书 登录环境A的ModelArts Studio大模型开发平台,在“空间资产
NLP大模型训练完成后,需要执行发布操作,操作步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型训练”,单击模型名称进入任务详情页。 单击进入“训练结果”页签,单击“发布”。 图1 训练结果页面 填写资产名称、描述,选择对应的可见性,单击“确定”发布模型。
训练异常 模型训练过程中出现了非预期的异常情况,需查看日志定位训练异常原因。 已停止 模型训练已被用户手动停止。 查看训练指标 对于训练状态为“已完成”的任务,单击任务名称,可在“训练结果”页面查看训练指标,模型的训练指标介绍请参见表2。 图1 查看训练指标 表2 训练指标说明 模型 训练指标
导入任务”页面下载数据样例进行比对。 使用Python脚本转换自定义格式为jsonl格式 对于文本类数据集,除文档、网页数据类型,其余类型的数据支持将自定义格式转换为jsonl格式。 用户可以上传自定义的python脚本实现数据集由自定义格式到jsonl格式的转换,页面中会提供脚本示例,可下载作为参考。
查看提示词评估结果 评估任务创建完成后,会跳转至“评估”页面,在该页面可以查看评估状态。 图1 查看提示词评任务状态 单击“评估名称”,进入评估任务详情页,可以查看详细的评估进度,例如在图2中有10条评估用例,当前已评估8条,剩余2条待评估。 图2 查看评估进展 评估完成后,可以查看每条数据的评估结果。
训练异常 模型训练过程中出现了非预期的异常情况,需查看日志定位训练异常原因。 已停止 模型训练已被用户手动停止。 查看训练指标 对于训练状态为“已完成”的任务,单击任务名称,可在“训练结果”页面查看训练指标,模型的训练指标介绍请参见表2。 表2 训练指标说明 模型 训练指标 指标说明 预测大模型
训练异常 模型训练过程中出现了非预期的异常情况,需查看日志定位训练异常原因。 已停止 模型训练已被用户手动停止。 查看训练指标 对于训练状态为“已完成”的任务,单击任务名称,可在“训练结果”页面查看训练指标,模型的训练指标介绍请参见图1。 图1 查看训练指标 表2 训练指标说明 模型 训练指标
预览提示词效果 提示词撰写完成后,可以通过输入具体的变量值,组成完整的提示词,查看不同提示词在模型中的使用效果。 在撰写提示词页面,找到页面右侧变量输入区域,在输入框中输入具体的变量值信息。 输入变量值后预览区域会自动组装展示提示词。也可以直接选择已创建的变量集填入变量值信息,变
单击“完成创建”,将返回至“数据评估”页面,评估任务创建成功后状态将显示为“已创建”。 单击操作列的“评估”,进入评估页面。 在评估页面,可参考评估项对当前数据的问题进行标注,且满足则单击“通过”,不满足则单击“不通过”。 全部数据评估完成后,在“人工评估”页面可查看评估进展为“100%”。
单击“下一步”,选择评估标准。单击“下一步”设置评估人员,单击“下一步”填写任务名称。 单击“完成创建”,将返回至“数据评估”页面,评估任务创建成功后状态将显示为“已创建”。 单击操作列的“评估”,进入评估页面。 在评估页面,可参考评估项对当前数据的问题进行标注,且满足则单击“通过”,不满足则单击“不通过”。 如图
模型为程序员提供了强大的代码助手,显著提升了研发效率。 盘古大模型能够根据用户给定的题目,快速生成高质量的代码,支持Java、Python、Go等多种编程语言。它不仅能够提供完整的代码实现,还能够根据用户的需求,进行代码补全和不同编程语言之间的改写转化。借助盘古大模型,程序员可以
单击“完成创建”,将返回至“数据评估”页面,评估任务创建成功后状态将显示为“已创建”。 单击操作列的“评估”,进入评估页面。 在评估页面,可参考评估项对当前数据的问题进行标注,且满足则单击“通过”,不满足则单击“不通过”。 全部数据评估完成后,在“人工评估”页面可查看评估进展为“100%”。
在“数据配比”页面,支持两种配比方式,“按数据集”和“按标签”。 按数据集:可以设置不同数据集的配比数量,单击“确定”。 按标签:该场景适用于通过数据打标类清洗算子进行加工的文本类数据集,具体标签名称与标签值可在完成清洗文本类数据集操作后,进入数据集详情页面获取。 填写示例如图1所示。
在“数据集选择”页签选择需要配比的文本类数据集(至少选择两个),单击“下一步”。 在“数据配比”页面,可以设置不同数据集的配比数量,单击“确定”。 页面将返回至“数据配比”页面,配比任务运行成功后,状态将显示为“运行成功”。 单击操作列“生成”,将生成“发布数据集”。 发布数据集可在“数据工程
”。 进入“合成配置”页面,选择合成内容与合成轮数,可选择开启“将源数据集整合至合成后数据”。 单击“下一步”,进入“指令编排”页面,单击右上角“添加指令”。 在“添加指令”页面可选择预置指令或自定义指令。 预置指令。平台为用户提供了多种预置指令,便于用户执行合成任务。 自定义指
击右上角“创建工作流”。 在“创建工作流”页面,选择工作流类型。填写工作流名称、英文名称与工作流描述。 单击页面左下角的图片可修改工作流图标,单击“确定”,进入工作流编排页面。 步骤2:配置开始节点 开始节点是工作流的起始节点,包含用户输入信息,用于触发一个工作流,是每个工作流的入口节点。开始节点不支持新增或者删除。
盘古大模型为用户提供了服务试用,用户可根据所需提交试用申请,申请通过后才可以试用盘古大模型功能。 申请试用盘古大模型服务 订购盘古大模型服务 正式使用盘古大模型服务前,需要完成服务的订购操作。 订购盘古大模型服务 配置服务访问授权 为了能够正常的存储数据、训练模型,需要用户配置盘古访问OBS的权限。
数据示例 创建提示词评估数据集 登录ModelArts Studio大模型开发平台,进入所需空间。 在左侧导航栏中选择“Agent 开发 > 提示词工程 > 提示用例管理”,单击页面右上角“创建提示用例集”。 图3 提示用例管理 在“创建数据集”页面完成数据集的上传。 图4 创建提示词评估数据集