检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
与其他服务的关系 与对象存储服务的关系 盘古大模型使用对象存储服务(Object Storage Service,简称OBS)存储数据和模型,实现安全、高可靠和低成本的存储需求。 与ModelArts服务的关系 盘古大模型使用ModelArts服务进行算法训练部署,帮助用户快速创建和部署模型。
模型开发:模型开发是大模型项目中的核心阶段,通常包括以下步骤: 选择合适的模型:根据任务目标选择适当的模型。 模型训练:使用处理后的数据集训练模型。 超参数调优:选择合适的学习率、批次大小等超参数,确保模型在训练过程中能够快速收敛并取得良好的性能。 开发阶段的关键是平衡模型的复杂度和计算资源,避免过拟合,同时保证
Pangu OBSWriteOnly obs:object:AbortMultipartUpload obs:object:DeleteObject obs:object:DeleteObjectVersion obs:object:PutObject 拥有用户OBS桶写权限 Pangu
台要求的一致。 get obs bucket folders error. 请检查OBS服务是否正常,是否可以访问OBS桶数据。 数据清洗 dataset is not online. 数据清洗使用的数据集未上线,请先执行上线操作。 invalid obs path. 请检查数据
盘古服务使用HTTPS传输协议保证数据传输的安全性。 基于OBS提供的数据保护 基于OBS服务对用户的数据进行存储和保护。请参考OBS数据保护技术说明:https://support.huaweicloud.com/productdesc-obs/obs_03_0375.html 父主题: 安全
配置服务访问授权 为了能够正常的存储数据、训练模型,需要用户配置盘古访问OBS的权限。 创建并管理盘古工作空间 平台支持用户自定义创建工作空间,并进行空间的统一管理。 导入数据至盘古平台 创建导入任务 将存储在OBS服务中的数据导入至平台统一管理,用于后续加工或发布操作。 加工数据集
盘古大模型是否可以自定义人设? 如何将本地的数据上传至平台? 导入数据过程中,为什么无法选中OBS的具体文件进行上传? 如何查看预置模型的历史版本? 更多 大模型微调训练类 如何调整训练参数,使盘古大模型效果最优? 为什么微调后的盘古大模型的回答中会出现乱码? 如何判断盘古大模型训练状态是否正常?
大模型使用类问题 盘古大模型是否可以自定义人设 如何将本地的数据上传至平台 导入数据过程中,为什么无法选中OBS的具体文件进行上传 如何查看预置模型的历史版本
是否提取”功能,可额外配置中文名称。 参数校验:可自定义参数校验规则对输出参数规范性进行校验。规则包括参数名称、校验类型及校验规则。 是否提取:开启后该参数必须提取到或使用默认值,关闭则该参数允许为空或者使用默认值。 反思:在参数提取之后,会根据参数描述与用户指令,对打开反思开关的参数,独立调用大模型进行反思并修正当前提取的结果。
表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见获取项目ID。 deployment_id 是 String 模型的部署ID,获取方法请参见获取模型部署ID。 请求参数 表2 请求Header参数 参数 是否必选 参数类型
单击“下一步”,在“参数信息”页面,参照表2完成参数配置。 表2 插件参数配置说明 参数类型 参数名称 参数说明 请求参数 参数名称 参数的名称,长度为1 ~ 50个字符,参数名称会作为大模型解析参数含义的依据。 参数描述 参数的描述,长度为1 ~ 200个字符,参数描述会作为大模型解析参数含义的依据。
用路径,详见获取调用路径。 填写请求Header参数。 参数名为Content-Type,参数值为application/json。 参数名为X-Auth-Token,参数值为步骤1中获取的Token值。 参数名为stream,参数值为true。当前工作流仅支持流式调用。 在Postman中选择“Body
在“高级配置”中配置提示词。单击“确定”,完成参数配置。 图6 意图识别节点参数配置 配置“提示器”节点。 鼠标拖动左侧“提问器”节点至编排页面,并连接“意图识别”的“文本翻译”意图节点与该节点,单击该节点进行配置。 在“参数配置”中,配置输入参数,如图7。 图7 配置输入参数 配置输出参数。如图8,单击“引用插件
> 本空间”页面,单击支持导出的模型名称,右上角的“导出模型”。 在“导出模型”页面,选择需要导出的模型,应设置导出模型时对应的导出位置(OBS桶地址),添加从环境B中下载的用户证书。设置完成后单击“确定”导出模型。 图2 导出模型 导入其他局点盘古大模型 导入盘古大模型前,请确保当前空间为该用户所创建的空间。
指令选择完成后,单击“确定”,并配置指令参数,包括“变量取值”、“保存至任务输出参数”、“模型选择”。 如图1,展示了预训练文本类数据集的合成指令参数配置示例,该合成任务实现利用预训练文本生成问答对。 图1 预训练文本类数据集合成指令参数配置示例 其中,各参数介绍如下: 变量取值:输入参数的各个变量取值。
在左侧导航栏中选择“模型开发 > 模型评测”,单击界面右上角“创建评测任务”。 在“创建评测任务”页面,参考表1完成部署参数设置。 表1 NLP大模型自动评测任务参数说明 参数分类 参数名称 参数说明 选择服务 模型来源 选择“NLP大模型”。 服务来源 支持已部署服务、外部服务两种选项。单次最多可评测10个模型。
选择需要调用的服务。可从“预置服务”或“我的服务”中选择。 填写系统人设。如“你是一个AI助手”,若不填写,将使用系统默认人设。 在页面右侧配置参数,具体参数说明见表1。 表1 NLP大模型能力调测参数说明 参数 说明 搜索增强 搜索增强通过结合大语言模型与传统搜索引擎技术,提升了搜索结果的相关性、准确性和智能化。
resource-path 资源路径,即API访问路径。从具体API的URI模块获取。 query-string 查询参数,可选,查询参数前面需要带一个“?”,形式为“参数名=参数取值”。 获取请求URI的步骤详见请求URI,示例如下: https://{endpoint}/v1/{pro
_name、project_id、project_name,如图3。 图3 请求体参数获取 请求体参数配置完成后,单击“调试”,在响应结果中单击“响应头”,其中,X-Subject-Token参数的值为获取到的Token,如图4。 图4 获取Token值 获取的文本翻译API调用
他用户调用时,原有Token认证无法支持,可通过AppCode认证调用请求。 参考表2填写请求Header参数。 表2 请求Header参数填写说明 认证方式 参数名 参数值 Token认证 Content-Type application/json X-Auth-Token T