检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何判断训练状态是否正常 判断训练状态是否正常,通常可以通过观察训练过程中Loss(损失函数值)的变化趋势。损失函数是一种衡量模型预测结果和真实结果之间的差距的指标,正常情况下越小越好。 您可以从平台的训练日志中获取到每一步的Loss,并绘制成Loss曲线,来观察其变化趋势。一般
安装SDK(Python SDK) pip直接安装 执行如下命令: pip install pangu_kits_app_dev_py 本地导入 从support网站上下载pangu-kits-app-dev-py的whl包。 建议使用conda创建一个新的python环境,python版本选择3.9。
如何评估微调后的模型是否正常 评估模型效果的方法有很多,通常可以从以下几个方面来评估模型训练效果: Loss曲线:通过Loss曲线的变化趋势来评估训练效果,确认训练过程是否出现了过拟合或欠拟合等异常情况。 模型评估:使用平台的“模型评估”功能,“模型评估”将对您之前上传的测试集进
{"context ": ["用微波炉热汤要盖盖子吗? 判断以上问题是否需要调用检索,请回答“是”或”否“"], "target": "否"} {"context ": ["福田区支持哪些组织开展退役军人教育培训工作? 判断以上问题是否需要调用检索,请回答“是”或“否”"], "target
r表示工作节点,controller表示主控节点。 在服务器执行如下命令,判断docker是否安装成功。 systemctl status docker 在服务器执行如下命令,判断edge agent是否安装成功。 hdactl info 配置hda.conf配置文件信息(可选)
用于检查缓存中的数据是否与查询的数据是否一致,如果一致,就返回缓存中的结果对象 # 例如,查询“缓存是否存在?”这个问题和“test-semantic-cache-vector-001”这个会话标识,就可以从缓存中获取到之前保存的答案“存在” query = "缓存是否存在?" cache_value_after
启用盘古大模型搜索增强能力 大模型在训练时使用的是静态的文本数据集,这些数据集通常是包含了截止到某一时间点的所有数据。因此,对于该时间点之后的信息,大模型可能无法提供。 通过将大模型与盘古搜索结合,可以有效解决数据的时效性问题。当用户提出问题时,模型先通过搜索引擎获取最新的信息,
cache.update("缓存是否存在?",LLMResp.builder().answer("存在。").build()); //校验,一致 //用于检查缓存中的数据是否与查询的数据是否一致,如果一致,就返回缓存中的结果对象 //例如,查询“缓存是否存在?”这个问题和“test
若不使用,您也可以自行对接第三方内容审核服务。关于大模型生成内容的责任主体,请参考《盘古大模型服务协议》。 启用内容审核服务 登录盘古大模型套件平台。 在左侧导航栏中选择“服务管理”,单击“开启内容审核”,进行授权。 图1 内容审核授权 购买内容审核套餐包,使用“文本补全”、“多轮对话”功能时需要购买“文本内容审核”套餐包。
数据量足够,但质量较差,可以微调吗 无监督的领域知识数据,量级无法支持增量预训练,如何让模型学习 如何调整训练参数,使模型效果最优 如何判断训练状态是否正常 如何评估微调后的模型是否正常 如何调整推理参数,使模型效果最优 为什么微调后的模型,回答总是在重复某一句或某几句话 为什么微调后的模型,回答中会出现乱码
您可按照需要选择是否开启内容审核。 开启内容审核后,可以有效拦截大模型输入输出的有害信息,保障模型调用安全,推荐进行开启。 图3 大模型内容审核 盘古大模型支持通过对接内容审核,实现拦截大模型输入、输出的有害信息,保障模型调用安全。用户在开通API后,可依据需求选择是否开通、启用内容审核。
- 步骤1: 思考:好的,请问您想预订哪一个会议室? 由于缺少参数,因此模型开始追问,此时构造了用户消息,回答了模型追问的问题。可以通过AgentSession的状态来判断是否是追问闲聊,或是发起工具调用,此时AgentSession的状态为FINISHED,所以为追问或闲聊。打印的日志为:
您可按照需要选择是否开启内容审核。 开启内容审核后,可以有效拦截大模型输入输出的有害信息,保障模型调用安全,推荐进行开启。 图3 大模型内容审核 盘古大模型支持通过对接内容审核,实现拦截大模型输入、输出的有害信息,保障模型调用安全。用户可依据需求选择是否开通、启用内容审核。 推荐
当前已经评估了8条,剩余2条待评估。 图2 查看评估进展 评估完成后,进入“评估报告”页面,可以查看每条数据的评估结果。 在评估结果中,“预期结果”即为变量值(问题)所预设的期望回答,“生成结果”即模型回复的结果。通过比较“预期结果”与“生成结果”的差异可以判断提示词效果。 图3
创建工具参数说明 参数 是否必选 参数类型 描述 tool_id 是 String 工具ID,必须由英文小写字母和_组成,需要符合实际工具含义。 tool_desc 是 String 工具的描述,尽可能的准确简短描述工具的用途。 说明: 该描述直接影响大模型对工具使用的判断,请尽量描述清楚
agent_session: AgentSession): """ onSessionIteration调用结束后,检查Agent是否需要终止,如果需要终止,则返回true,默认不终止 可以在终止前对agentSession进行修改,如:修改agent的finalAnswer
这种情况可能是由于以下原因导致的,建议您排查: 训练参数设置:您可以通过绘制Loss曲线查询来确认模型的训练过程是否出现了问题,这种情况大概率是由于训练参数设置的不合理而导致了欠拟合或过拟合。请检查训练参数中的 “训练轮次”或“学习率”等参数的设置,根据实际情况调整训练参数,帮助模型更好学习。
agentSession) { } /** * onSessionIteration调用结束后,检查Agent是否需要终止,如果需要终止,则返回true,默认不终止 * 可以在终止前对agentSession进行修改,如:修改agent的finalAnswer
Agent在实际生产应用中往往涉及到的工具数量较多,如果把所用的工具全部添加至Agent会产生如下问题: 占用大量输入token。 和问题无关的工具太多,影响模型的判断。 通过Tool Retriever可以解决上述问题,其原理是在Agent运行前,先从所有可用的工具中选择与问题最相关的工具,再交给Agent去处理。
如何调整训练参数,使盘古大模型效果最优? 如何判断盘古大模型训练状态是否正常? 为什么微调后的盘古大模型总是重复相同的回答? 盘古大模型是否可以自定义人设? 更多 大模型概念类 如何对盘古大模型的安全性展开评估和防护? 训练智能客服系统大模型需考虑哪些方面? 更多 大模型使用类 盘古大模型是否可以自定义人设?