检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如果节点有npu设备需选择“AI加速卡 > Ascend”,并选择加速卡类型。 如果节点没有加速卡,则选择“AI加速卡 > 不使用”。
如果华为云账号已经能满足您的要求,不需要创建独立的IAM用户(子用户)进行权限管理,可以跳过本章节,不影响您使用服务的其他功能。 通过IAM,您可以在华为云账号中为员工创建IAM用户(子用户),并授权控制他们对华为云资源的访问范围。
这里提供了一些将无监督数据转换为有监督数据的方案,供您参考: 基于规则构建:您可以通过采用一些简单的规则来构建有监督数据。比如: 表1 采用规则将无监督数据构建为有监督数据的常用方法 规则场景 说明 文本生成:根据标题、关键词、简介生成段落。
from pangukitsappdev.memory.redis_message_history import RedisMessageHistory from langchain.memory import ConversationBufferWindowMemory # 定义存储策略
同时,数据工程套件还提供强大的数据存储和管理能力,为大模型训练提供高质量的数据支撑。 模型开发套件 模型开发套件是盘古大模型服务的核心组件,提供从模型创建到部署的一站式解决方案。
com.huaweicloud.pangu.dev.sdk.memory.ConversationBufferMemory; import com.huaweicloud.pangu.dev.sdk.api.memory.config.MemoryStoreConfig; import org.junit.jupiter.api.Assertions; // 定义存储策略
注意,在非插件模式下,vectorFields有且只有1个。 父主题: 配置Memory(Python SDK)
有stuff、refine、map-reduce策略。 Stuff:将所有文档直接填充到prompt中,提给模型处理,适合文档较少的场景。
单击存储位置最右侧的图标,选择数据集文件所对应的obs路径,然后输入数据集名称、描述,创建数据集。 创建数据集前,请先将数据上传至OBS。 图4 创建数据集 父主题: 批量评估提示词效果
有stuff、refine和map-reduce策略。 Stuff:将所有文档直接填充到prompt中,提给模型回答,适合文档较少的场景。
注意,在非插件模式下,vectorFields有且只有1个。 父主题: 配置Memory(Java SDK)
身份认证与访问控制 用户可以通过调用REST网络的API来访问盘古大模型服务,有以下两种调用方式: Token认证:通过Token认证调用请求。 AK/SK认证:通过AK(Access Key ID)/SK(Secret Access Key)加密调用请求。
- √ √ 盘古-NLP-BI专业大模型-4K - - - - √ 盘古-NLP-BI专业大模型-32K - - - - √ 盘古-NLP-N2单场景模型-4K - - - - √ 盘古-NLP-N2单场景模型-32K - - - - √ 当前支持评估操作的模型需要经过SFT(有监督微调
统计模型调用量 模型调用成功后,有两种方式可以查看模型的调用量。 通过“服务管理”功能查看调用量:查看具体某个模型的调用总量、调用成功量、调用失败量,且可按时间进行筛选。
同时,数据工程工具链还提供强大的数据存储和管理能力,为大模型训练提供高质量的数据支撑。
如何评估微调后的模型是否正常 评估模型效果的方法有很多,通常可以从以下几个方面来评估模型训练效果: Loss曲线:通过Loss曲线的变化趋势来评估训练效果,确认训练过程是否出现了过拟合或欠拟合等异常情况。
例如,在图2中有10条评估用例,当前已经评估了8条,剩余2条待评估。 图2 查看评估进展 评估完成后,进入“评估报告”页面,可以查看每条数据的评估结果。 在评估结果中,“预期结果”即为变量值(问题)所预设的期望回答,“生成结果”即模型回复的结果。
如何调整训练参数,使模型效果最优 模型微调参数的选择没有标准答案,不同的场景,有不同的调整策略。一般微调参数的影响会受到以下几个因素的影响: 目标任务的难度:如果目标任务的难度较低,模型能较容易的学习知识,那么少量的训练轮数就能达到较好的效果。
用户可以将此次的评估报告通过导出按钮全部导出至本地存储,文件导出格式为CSV。 图3 评估报告页面 评估日志: 平台支持查看本次模型评估任务的详细日志。选择评估的模型后,可以查看其从创建开始到任务结束的日志内容,支持下载并保存到本地(log格式)。
hda.conf 增加如下配置: hilens.nfs.server.ip=192.168.0.150 hilens.nfs.mount.dir=/home/mind/model hilens.nfs.source.dir=/var/docker/hilens 其中,server.ip是nfs存储节点内网