检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
发布提示词 通过横向比较提示词效果和批量评估提示词效果,如果找到高质量的提示词,可以将这些提示词发布至“提示词模板”中。 在提示词“候选”页面,选择质量好的提示词,并单击“保存到模板库”。 图1 保存提示词至模板库 进入“Agent 开发 > 提示词工程 > 提示词模板”页面,查看发布的提示词。
模型学习数据的迭代步数就越多,可以学得更深入,但过高会导致过拟合;训练轮数越小,模型学习数据的迭代步数就越少,过低则会导致欠拟合。 您可根据任务难度和数据规模进行调整。一般来说,如果目标任务的难度较大或数据量级很小,可以使用较大的训练轮数,反之可以使用较小的训练轮数。 如果您没有
生成更具多样性的内容,可以使用较大的核采样,反之如果目标任务的需要生成更为确定的内容,可以使用较小的核采样。 请注意,温度和核采样的作用相近,在实际使用中,为了更好观察是哪个参数对结果造成的影响,因此不建议同时调整这两个参数。 如果您没有专业的调优经验,可以优先使用建议,再结合推理的效果动态调整。
在左侧导航栏中选择“数据工程 > 数据评估 > 评估任务”。 单击操作列“报告”可以查看详细的质量评估报告。 图2 查看数据集评估报告 在“查看评估报告”页面,可以查看评估概览、通过率、评估类别分布等信息。 如果数据集未完成全部评估,可以单击右上角“继续评估”,评估剩余的数据。 图3 查看评估报告详情
在左侧导航栏中选择“数据工程 > 数据评估 > 评估任务”。 单击操作列“报告”可以查看详细的质量评估报告。 图2 查看数据集评估报告 在“查看评估报告”页面,可以查看评估概览、通过率、评估类别分布等信息。 如果数据集未完成全部评估,可以单击右上角“继续评估”,评估剩余的数据。 图3 查看评估报告详情
在左侧导航栏中选择“数据工程 > 数据评估 > 评估任务”。 单击操作列“报告”可以查看详细的质量评估报告。 图2 查看数据集评估报告 在“查看评估报告”页面,可以查看评估概览、通过率、评估类别分布等信息。 如果数据集未完成全部评估,可以单击右上角“继续评估”,评估剩余的数据。 图3 查看评估报告详情
着重要作用。用户可以通过提示词工程来提高大语言模型的安全性,还可以赋能大语言模型,如借助专业领域知识和外部工具来增强大语言模型的能力。 提示词基本要素 您可以通过简单的提示词(Prompt)获得大量结果,但结果的质量与您提供的信息数量和完善度有关。一个提示词可以包含您传递到模型的
标注任务可选择是否启用标注审核,可设置多人审核,详见审核文本类数据集标注结果。审核要求可以选择以下两种方式: 选择“可部分审核”:审核人员确认部分数据达到标注要求后,可以一键通过所有的标注。 选择“全部审核”:审核员在审核一部分数据后,发现标注质量均很高,则可以一键提交剩余待审核数据,默认审核通过,即可完成审核任务。
分配标注任务时,可以选择是否启用多人标注。启用多人标注后,可以指定参与标注的人员。 标注任务可选择是否启用标注审核,可设置多人审核,详见审核文本类数据集标注结果。审核要求可以选择以下两种方式: 选择“可部分审核”:审核人员确认部分数据达到标注要求后,可以一键通过所有的标注。
标注任务可选择是否启用标注审核,可设置多人审核,详见审核文本类数据集标注结果。审核要求可以选择以下两种方式: 选择“可部分审核”:审核人员确认部分数据达到标注要求后,可以一键通过所有的标注。 选择“全部审核”:审核员在审核一部分数据后,发现标注质量均很高,则可以一键提交剩余待审核数据,默认审核通过,即可完成审核任务。
使用API调用NLP大模型 模型部署成功后,可以通过“文本对话”API调用NLP大模型。 表1 NLP大模型API清单 API分类 API访问路径(URI) 文本对话 /v1/{project_id}/deployments/{deployment_id}/chat/completions
基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。 - 通用文本(/text/completions) Java、Python、Go、.NET、NodeJs、PHP 给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全,还可以返回每个位置上不同词语的概率。它可以用来做文本生成、自动写作、代码补全等任务。
领域的关键信息,如主题、风格、格式等。 撰写提示词时,可以设置提示词变量。即在提示词中通过添加占位符{{ }}标识表示一些动态的信息,让模型根据不同的情况生成不同的文本,增加模型的灵活性和适应性。例如,将提示词设置为“你是一个旅游助手,需要给用户介绍旅行地的风土人情。请介绍下{{
质量标准 V1.0”,单击评估标准名称,可以查看具体的评估项。 图2 预置文本类数据集评估标准 在“评估标准”页面单击右上角“创建评估标准”,选择预置标准作为参考项,并填写“评估标准名称”和“描述”。 单击“下一步”,编辑评估项。 用户可以基于实际需求删减评估项,或创建自定义评估
质量标准 V1.0”,单击评估标准名称,可以查看具体的评估项。 图2 预置视频类数据集评估标准 在“评估标准”页面单击右上角“创建评估标准”,选择预置标准作为参考项,并填写“评估标准名称”和“描述”。 单击“下一步”,编辑评估项。 用户可以基于实际需求删减评估项,或创建自定义评估
缩。 模型部署:平台提供了一键式模型部署功能,用户可以轻松将训练好的模型部署到云端或本地环境中。平台支持多种部署模式,能够满足不同场景的需求。通过灵活的API接口,模型可以无缝集成到各类应用中。 模型调用:在模型部署后,用户可以通过模型调用功能快速访问模型的服务。平台提供了高效的
份认证,获得操作API的权限。 Token的有效期为24小时,需要使用一个Token鉴权时,可以先缓存起来,避免频繁调用。 如果您的华为云账号已升级为华为账号,将不支持获取账号Token。建议为您自己创建一个IAM用户,获取IAM用户的Token。 获取Token方法: Toke
准备工作 注册华为账号并开通华为云,并完成实名认证,账号不能处于欠费或冻结状态。 检查开发环境要求,确认本地已具备开发环境。 登录“我的凭证 > 访问密钥”页面,依据界面操作指引获取Access Key(AK)和Secret Access Key(SK)。下载的访问密钥为credentials
质量标准 V1.0”,单击评估标准名称,可以查看具体的评估项。 图2 预置图片类数据集评估标准 在“评估标准”页面单击右上角“创建评估标准”,选择预置标准作为参考项,并填写“评估标准名称”和“描述”。 单击“下一步”,编辑评估项。 用户可以基于实际需求删减评估项,或创建自定义评估
导出盘古大模型至其他局点 导出盘古大模型至其他局点前,请确保当前空间为该用户所创建的空间。 模型训练发布完成后,可以通过导出模型功能将本局点训练的模型导出,导出后的模型可以通过导入盘古大模型至其他局点,导入至其他局点进行使用。 以从环境A迁移模型到环境B为例: 登录环境B的ModelArts