检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何对盘古大模型的安全性展开评估和防护? 训练智能客服系统大模型需考虑哪些方面? 如何调整训练参数,使盘古大模型效果最优? 如何判断盘古大模型训练状态是否正常? 为什么微调后的盘古大模型总是重复相同的回答? 盘古大模型是否可以自定义人设? 更多 大模型概念类 如何对盘古大模型的安全性展开评估和防护?
部署配置 模型来源 选择“盘古大模型”。 模型类型 选择“NLP大模型”。 部署模型 选择需要进行部署的模型。 最大TOKEN长度 模型可最大请求的上下文TOKEN数。 部署方式 支持“云上部署”和“边缘部署”,其中,云上部署指算法部署至平台提供的资源池中。边缘部署指算法部署至客户的
选择数据集,单击“下一步”。 在“基本配置”中选择数据用途、数据集可见性、适用场景。 由于数据工程需要支持对接盘古大模型,为了使这些数据集能够被这些大模型正常训练,平台支持发布不同格式的数据集。 当前支持标准格式、盘古格式: 标准格式:数据工程功能支持的原始格式。该格式的数据集可发布到资产中,但下游模型开发不可见。
选择数据集,单击“下一步”。 在“基本配置”中选择数据用途、数据集可见性、适用场景。 由于数据工程需要支持对接盘古大模型,为了使这些数据集能够被这些大模型正常训练,平台支持发布不同格式的数据集。 当前支持标准格式、盘古格式: 标准格式:数据工程功能支持的原始格式。该格式的数据集可发布到资产中,但下游模型开发不可见。
训练指标 指标说明 NLP大模型 训练损失值 训练损失值是一种衡量模型预测结果和真实结果之间的差距的指标,通常情况下越小越好。 一般来说,一个正常的Loss曲线应该是单调递减的,即随着训练的进行,Loss值不断减小,直到收敛到一个较小的值。 验证损失值 模型在验证集上的损失值。值越小
结合数据自身特征,进行异常数据的筛选。 对于异常值,视情况进行删除、替换、保留等操作,兼顾模型的收敛与鲁棒性。 删除异常值后,盐度(S)损失收敛正常,如图4。 表2 验证集选择的时间区段 时间分辨率 推理步数 验证集选择的时间区段(验证集需要至少在以下时间点内,有连续数据 , 才能得到1条测试数据)
果之间的差距的指标,通常情况下越小越好。这里代表高空Loss(深海Loss)和表面Loss(海表Loss)的综合Loss。 一般来说,一个正常的Loss曲线应该是单调递减的,即随着训练的进行,Loss值不断减小,直到收敛到一个较小的值。 高空Loss(深海Loss) 高空Loss
结合数据自身特征,进行异常数据的筛选。 对于异常值,视情况进行删除、替换、保留等操作,兼顾模型的收敛与鲁棒性。 删除异常值后,盐度(S)损失收敛正常,如图4。 表2 验证集选择的时间区段 时间分辨率 推理步数 验证集选择的时间区段(需要至少在以下时间点内,且有连续数据,才能得到1条测试数据。)
获取Token。参考《API参考》文档“如何调用REST API > 认证鉴权”章节获取Token。 在Postman中新建POST请求,并填入应用的调用路径,详见获取调用路径。 填写请求Header参数。 参数名为Content-Type,参数值为application/json。 参数名为X-A
果之间的差距的指标,通常情况下越小越好。这里代表高空Loss(深海Loss)和表面Loss(海表Loss)的综合Loss。 一般来说,一个正常的Loss曲线应该是单调递减的,即随着训练的进行,Loss值不断减小,直到收敛到一个较小的值。 高空Loss(深海Loss) 高空Loss
nfs-kernel-server Euler OS系统 在线安装: sudo yum install nfs-utils 若需离线安装,请联系盘古客服。 防火墙需要打开rpc-bind和nfs的服务(可选): sudo firewall-cmd --zone=public --permanent
S、PaaS和SaaS类云服务内部的安全以及对租户定制配置进行安全有效的管理,包括但不限于虚拟网络、虚拟主机和访客虚拟机的操作系统,虚拟防火墙、API网关和高级安全服务,各项云服务,租户数据,以及身份账号和密钥管理等方面的安全配置。 《华为云安全白皮书》详细介绍华为云安全性的构建
异常检测数据集标注文件说明 该说明适用于表1中的异常检测标注文件格式。 要求用户将标注文件和图片存于同一文件夹,正常和异常分文件夹创建。 当目录下存在对应的txt文件时,以txt文件内容作为正常或异常的标签。 示例如下所示,import-dir-1和import-dir-2为导入子目录。 da
曲线示例如下: 图1 Loss曲线 通过观察,该Loss曲线随着迭代步数的增加呈下降趋势直至稳定,证明整个训练状态是正常的。若Loss曲线呈现轻微阶梯式下降,为正常现象。 模型持续优化: 本场景采用了下表中的推理参数进行解码,您可以在平台部署后参考如下参数调试: 表3 推理核心参数设置
在本案例中,需要对多语言文本翻译插件节点进行调试,步骤如下: 在工作流编排页面,单击插件节点的“”,进入插件节点的调试页面。 图15 单节点调试-1 在节点的“配置信息”输入请求参数的值以及Token值,单击“开始运行”。 其中,X-Auth-Token为文本翻译插件的鉴权参数,Token值由创建多语言文本翻译插件获取。
请检查训练参数中的“训练轮次”或“学习率”等参数的设置,根据实际情况调整训练参数,帮助模型更好学习。 数据量和质量均满足要求,Loss也正常收敛,为什么微调后的效果不好? 这种情况可能是由于以下几个原因导致的,建议您依次排查: PROMPT设置:请检查您使用的Prompt。一般
配置知识检索节点。 结束节点配置说明(必选) 设定工作流的结束点,标志流程的完成或终止。 试运行工作流(必选) 进行工作流的调试,确保各节点正常运行。 创建工作流(必选) 大模型工作流应用可以将NLP大模型编排至工作流中,编排完成后可以使用大模型回答用户问题。 创建工作流的步骤如下:
训练损失值是一种衡量模型预测结果和真实结果之间的差距的指标,通常情况下越小越好。这里代表深海Loss和海表Loss的综合Loss。 一般来说,一个正常的Loss曲线应该是单调递减的,即随着训练的进行,Loss值不断减小,直到收敛到一个较小的值。 深海Loss 深海Loss是衡量模型在高空
线。本场景的一个Loss曲线示例如下: 图1 Loss曲线 通过观察,Loss曲线随着迭代步数的增加呈下降趋势直至稳定,证明整个训练状态是正常的。 模型持续优化: 本场景采用了下表中的推理参数进行解码,您可以在平台部署后参考如下参数调试: 表2 推理核心参数设置 推理参数 设置值
query改写/中控模型微调时的Loss曲线 图3 问答模型微调时的Loss曲线 通过观察,Loss曲线随着迭代步数的增加呈下降趋势直至稳定,证明整个训练状态是正常的。 模型持续优化: 本场景采用了下表中的推理参数进行解码,您可以在平台中参考如下参数调试: 表3 问答模型的推理核心参数设置 推理参数 设置值