检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
盘古大模型支持通过对接内容审核,实现拦截大模型输入、输出的有害信息,保障模型调用安全。用户在开通API后,可依据需求选择是否开通、启用内容审核。 父主题: 如何调用REST API
到并复制“X-Subject-Token”参数对应的值,该值即为需要获取的Token。 图4 获取Token 您还可以通过这个视频教程了解如何使用Token认证:https://bbs.huaweicloud.com/videos/101333 。 AK/SK认证 AK/SK签名
of(Caches.IN_MEMORY); // Redis Cache cache = Caches.of(Caches.REDIS); // mysql Cache cache = Caches.of(Caches.SQL); 更新数据:指向缓存中添加或修改数据,需要指定数据的键值对和结
dcs.url= # sdk.memory.dcs.user= # sdk.memory.dcs.password= ## RDS or Mysql # Examples: jdbc:mariadb://127.0.0.1:3306/sdk?useSSL=false&useUnico
如何判断训练状态是否正常 判断训练状态是否正常,通常可以通过观察训练过程中Loss(损失函数值)的变化趋势。损失函数是一种衡量模型预测结果和真实结果之间的差距的指标,正常情况下越小越好。 您可以从平台的训练日志中获取到每一步的Loss,并绘制成Loss曲线,来观察其变化趋势。一般
如何评估微调后的模型是否正常 评估模型效果的方法有很多,通常可以从以下几个方面来评估模型训练效果: Loss曲线:通过Loss曲线的变化趋势来评估训练效果,确认训练过程是否出现了过拟合或欠拟合等异常情况。 模型评估:使用平台的“模型评估”功能,“模型评估”将对您之前上传的测试集进
如何调整推理参数,使模型效果最优 推理参数(解码参数)是一组用于控制模型生成预测结果的参数,其可以用于控制模型生成结果的样式,如长度、随机性、创造性、多样性、准确性和丰富度等等。 当前,平台支持的推理参数包括:温度、核采样以及话题重复度控制,如下提供了这些推理参数的建议值和说明,供您参考:
如何调整训练参数,使模型效果最优 模型微调参数的选择没有标准答案,不同的场景,有不同的调整策略。一般微调参数的影响会受到以下几个因素的影响: 目标任务的难度:如果目标任务的难度较低,模型能较容易的学习知识,那么少量的训练轮数就能达到较好的效果。反之,若任务较复杂,那么可能就需要更多的训练轮数。
无监督的领域知识数据,量级无法支持增量预训练,如何让模型学习 一般来说,建议采用增量预训练的方式让模型学习领域知识,但预训练对数据量的要求较大,如果您的无监督文档量级过小,达不到预训练要求,您可以通过一些手段将其转换为有监督数据,再将转换后的领域知识与目标任务数据混合,使用微调的方式让模型学习。
dcs.url= # sdk.memory.dcs.user= # sdk.memory.dcs.password= ## RDS or Mysql # Examples: jdbc:mariadb://127.0.0.1:3306/sdk?useSSL=false&useUnico
什么情况下不建议微调 虽然微调可以在一定程度上提升领域能力,但有时候微调也无法解决所有问题。即使您的目标场景依赖垂域背景知识,微调也并非最佳方案,比如: 场景微调的数据量很少或者数据质量很差:微调对数据量和数据质量有很高的要求,需要使用高质量的数据进行模型训练。 垂域知识问答场景
盘古自然语言大模型的适用场景有哪些 自然语言处理大模型是一种参数量极大的预训练模型,是众多自然语言处理下游任务的基础模型。学术界和工业界的实践证明,随着模型参数规模的增加,自然语言处理下游任务的效果显著提升,这得益于海量数据、大量算力以及深度学习的飞跃发展。 基于自然语言处理大模型的预训练模型,可以
盘古大模型提供了REST(Representational State Transfer)风格的API,支持您通过HTTPS请求调用,调用方法请参见如何调用REST API。 调用API时,需要用户网络可以访问公网。 父主题: 使用前必读
基于已有的知识库,进行摘要总结。有stuff、refine、map-reduce策略。 Stuff:将所有文档直接填充到prompt中,提给模型处理,适合文档较少的场景。 from pangukitsappdev.api.embeddings.factory import Embeddings
基于已有的知识库进行摘要总结,包括stuff、refine和map-reduce策略。 Stuff:将所有文档直接填充到prompt中,提给模型处理,适用于文档较少的场景。 import com.huaweicloud.pangu.dev.sdk.api.llms.LLMs; import
为了帮助用户更好地管理和优化Token消耗,平台提供了Token计算器工具。Token计算器可以帮助用户在模型推理前评估文本的Token数量,提供费用预估,并优化数据预处理策略。 URI POST /v1/{project_id}/deployments/{deployment_id}/caltokens 表1
数据量很少,可以微调吗 数据量足够,但质量较差,可以微调吗 无监督的领域知识数据,量级无法支持增量预训练,如何让模型学习 如何调整训练参数,使模型效果最优 如何判断训练状态是否正常 如何评估微调后的模型是否正常 如何调整推理参数,使模型效果最优 为什么微调后的模型,回答总是在重复某一句或某几句话 为什么微调后的模型,回答中会出现乱码
由于请求的实体过大,服务器无法处理,因此拒绝请求。为防止客户端的连续请求,服务器可能会关闭连接。如果只是服务器暂时无法处理,则会包含一个Retry-After的响应信息。 414 Request URI Too Long 请求的URI过长(URI通常为网址),服务器无法处理。 415 Unsupported
大模型的计量单位token指的是什么 令牌(Token)是指模型处理和生成文本的基本单位。token可以是词或者字符的片段。模型的输入和输出的文本都会被转换成token,然后根据模型的概率分布进行采样或计算。 例如,在英文中,有些组合单词会根据语义拆分,如overweight会被
通过Tool Retriever可以解决上述问题,其原理是在Agent运行前,先从所有可用的工具中选择与问题最相关的工具,再交给Agent去处理。 定义一个Tool Retriever: from pangukitsappdev.tool.in_memory_tool_provider