检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
据中的模式接近,模型能够“回忆”并运用已学习的知识和指令。 不同模型间效果差异。 由于不同厂商采用的训练策略和数据集差异,同一提示词在不同模型上的效果可能大不相同。由于不同厂商采用的训练策略和数据集差异,同一提示词在不同模型上的效果可能大不相同。例如,某些模型可能在处理特定领域的
在“数据集选择”页签选择需要配比的文本类数据集(至少选择两个),单击“下一步”。 在“数据配比”页面,支持两种配比方式,“按数据集”和“按标签”。 按数据集:可以设置不同数据集的配比数量,单击“确定”。 按标签:该场景适用于通过数据打标类加工算子进行加工的文本类数据集,具体标签名称
部署区域中期海洋智能预测服务需要同时选择“区域中期海洋智能预测”和“全球中期海洋智能预测”两个模型。 部署方式 选择“云上部署”。 作业输入方式 选择 “OBS”表示从OBS中读取数据。 作业输出方式 选择 “OBS”表示将输出结果存储在OBS中。 作业配置参数 设置模型部署参数信息。 计费模式 选择计费模式。 实例数
使用API调用NLP大模型 预置模型或训练后的模型部署成功后,可以使用“文本对话”API实现模型调用。 表1 NLP大模型API清单 API分类 API访问路径(URI) 文本对话 /v1/{project_id}/deployments/{deployment_id}/chat/completions
准备工作 注册华为账号并开通华为云,并完成实名认证,账号不能处于欠费或冻结状态。 检查开发环境要求,确认本地已具备开发环境。 登录“我的凭证 > 访问密钥”页面,依据界面操作指引获取Access Key(AK)和Secret Access Key(SK)。下载的访问密钥为credentials
用户将存储在OBS服务中的数据导入至ModelArts Studio大模型开发平台后,将生成“原始数据集”被平台统一管理,用于后续加工或发布操作。 创建导入任务 创建导入任务前,请先按照数据集格式要求提前准备数据。 平台支持使用OBS服务导入数据,请详见通过控制台快速使用OBS。 创建导入任务步骤如下:
海洋模型 创建推理作业 查询推理作业详情 父主题: 科学计算大模型
预置的模型资产执行以下操作: 查看模型历史版本。在“版本列表”页面,可查看模型的各个版本。 训练、压缩、部署操作。在“版本列表”页面,可对不同版本模型执行训练、压缩或部署操作。单击相应按钮,将跳转至相关操作页面。 查看操作记录。在“操作记录”页面,可查看当前模型的操作记录。 单击
气象/降水模型 创建推理作业 查询推理作业详情 父主题: 科学计算大模型
如何利用提示词提高大模型在难度较高推理任务中的准确率 可以通过思维链的方式提高大模型在复杂推理任务中的准确率。 思维链是一种通过分步骤推理来提升大模型在复杂任务中表现的方法。通过引导模型思考问题的过程,可以使其在推理任务中得到更高的准确性,尤其是在涉及多步推理和复杂逻辑关系的任务中。
量级的sft数据,问答模块使用了6万量级的sft数据 ,包括单轮问答、多轮问答。中控模块使用了1万量级的sft数据。 针对不同的任务类型,所需数据量会所有不同。从经验上来说,对于简单的任务,数据量的要求会少一点,如3000到5000条;对于复杂的任务,需要的数据条数更大一些,如2
负载均衡:创建负载均衡步骤请详见步骤5:创建负载均衡。 实例数:设置部署模型时所需的实例数。 作业输入方式 选择 “OBS”表示从OBS中读取数据。 作业输出方式 选择 “OBS”表示将输出结果存储在OBS中。 作业配置参数 设置模型部署参数信息,平台已给出默认值。 安全护栏 选择模式 安全护栏保障模型调用安全。
回答生成的长度,避免生成异常截断。请注意,该参数值存在上限,请结合目标任务的实际需要以及模型支持的长度限制来调整。 模型规格:不同规格的模型支持的长度不同,若目标任务本身需要生成的长度已经超过模型上限,建议您替换可支持更长长度的模型。 数据质量:请检查训练数据中是否存在包含异常截断的数据,可以通过规则进行清洗。
附录 状态码 错误码 获取项目ID 获取模型部署ID
配置一个提问器节点,用于向用户或系统提出问题,获取所需信息。 插件节点配置说明 将外部API等集成到工作流中,以扩展功能或调用外部接口。 判断节点配置说明 设置条件判断逻辑,根据不同情况分支到不同的流程路径。 代码节点配置说明 配置自定义代码逻辑,用于处理特定的业务需求或复杂运算。
使用前必读 概述 调用说明 请求URI 基本概念
URL对应的IP默认不应为内网,否则会导致注册失败。仅在非商用环境部署时,才允许支持内网URL,且需要通过相关的服务的启动配置项关闭内网屏蔽。 请求方法 插件服务的请求方式,POST或GET。 权限校验 选择调用API时是否需要通过鉴权才可以调用。 无需鉴权:API可以公开访问,不需要任何形式的身份验证或授权。
型。可进行对话互动、回答问题、协助创作。 盘古大模型在ModelArts Studio大模型开发平台部署后,可以通过API调用推理接口。 表1 API清单 API 功能 操作指导 NLP大模型-文本对话 基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。 文本对话 科学计算大模型-气象/降水模型
盘古格式:训练盘古大模型时,需要将数据集格式发布为“盘古格式”。 盘古格式的示例如下,其中,context和target是键值对。与标准格式不同,context是一个数组。 {"context":["你好,请介绍自己"],"target":"我是盘古大模型"} 创建文本类数据集发布任务
M用户ID。 在调用盘古API时,获取的项目id需要与盘古服务部署区域一致,例如盘古大模型当前部署在“西南-贵阳一”区域,需要获取与贵阳一区域的对应的项目id。 图2 获取项目ID 多项目时,展开“所属区域”,从“项目ID”列获取子项目ID。 调用API获取项目ID 项目ID还可