检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
训练模型,是指在一个原始任务上预先训练出一个初始模型,然后在下游任务中对该模型进行精调,以提高下游任务的准确性。大规模预训练模型则是指模型参数达到千亿、万亿级别的预训练模型。此类大模型因具备更强的泛化能力,能够沉淀行业经验,并更高效、准确地获取信息。 父主题: 大模型概念类问题
文本补全:给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全。例如,让模型依据要求写邮件、做摘要总结、生成观点见解等。 多轮对话:基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。 图1 使用能力调测 表1 能力调测参数说明 参数 说明 温度 用于控制生成文本的多样性和创造力。
of("pangu") 基础问答:基础的模型文本问答(temperature等参数采用模型默认的设置)。 llm_api.ask("你是谁?").answer 自定义参数问答:自定义设置如temperature等参数,获得对应的效果。 from pangukitsappdev.api.llms
g,默认使用sdk.llm.pangu.url,若地址与custom.llm.url,则为另外一个大模型。 自定义参数问答:自定义设置如temperature等参数,获得对应的效果。 import com.huaweicloud.pangu.dev.sdk.api.llms.LLM;
"description")) .build()); 定义一个ToolRetriever包含ToolProvider和向量数据库配置2个参数。其中,ToolProvider的作用为根据工具检索的结果组装工具。 上述例子使用了一个简单的InMemoryToolProvide
请参考《API文档》检查请求参数中输入的token数值是否不在范围内,并重新调试API。 PANGU.3318 tolal ContentLength Illegal. Content长度不合法 请参考《API文档》检查请求参数中输入的Content参数长度是否不在范围内,并重新调试API。
实例都包括输入和期望的输出。 LoRA 局部微调(LoRA)是一种优化技术,用于在深度学习模型的微调过程中,只对模型的一部分参数进行更新,而不是对所有参数进行更新。这种方法可以显著减少微调所需的计算资源和时间,同时保持或接近模型的最佳性能。 过拟合 过拟合是指为了得到一致假设而使
args_schema。工具入参类型,为重要参数,入参继承BaseModel的类型需额外指定,简单类型无需指定。 return_type。指定工具返回类型,为可选参数,如_run方法未指定返回类型时必选。 如果输入输出参数为复杂类型,则需要通过继承BaseModel定义复杂类型的参数描述,此时input
CSSToolRetriever(tool_provider, vector_config) 定义一个ToolRetriever包含2个参数,一个ToolProvider,一个向量数据库配置。其中,ToolProvider的作用为根据工具检索的结果组装工具。 上述例子使用了一个简单的InMemoryT
不可用的低质量的数据。 训练模型 自监督训练: 不涉及 有监督微调: 该场景采用下表中的微调参数进行微调,您可以在平台中参考如下参数进行训练: 表2 问答模型的微调核心参数设置 训练参数 设置值 数据批量大小(batch_size) 4 训练轮数(epoch) 3 学习率(learning_rate)
问题三:存在重复数据。 删除重复数据。 略 略 训练模型 自监督训练: 不涉及 有监督微调: 本场景采用了下表中的微调参数进行微调,您可以在平台中参考如下参数进行训练: 表2 微调核心参数设置 训练参数 设置值 数据批量大小(batch_size) 8 训练轮数(epoch) 4 学习率(learning_rate)
如何判断训练状态是否正常 判断训练状态是否正常,通常可以通过观察训练过程中Loss(损失函数值)的变化趋势。损失函数是一种衡量模型预测结果和真实结果之间的差距的指标,正常情况下越小越好。 您可以从平台的训练日志中获取到每一步的Loss,并绘制成Loss曲线,来观察其变化趋势。一般
提示工程是什么 大模型生成文本的过程可视为一个黑盒,同一模型下对于同一个场景,使用不同的提示词也会获得不同的结果。提示工程是指在不更新模型参数的前提下,通过设计和优化提示词的方式,引导大模型生成目标结果的方法。 为什么需要提示工程 模型生成结果优劣取决与模型能力及提示词质量。其中
思考:好的,我将更新"company_name"参数为"金财互联数据服务有限公司",并添加"nsrsbh"参数为"91440101MA59JN5456"。现在,我将再次调用工具。 行动:使用工具[risk_detection],传入参数{"report_type": "欠税信息体检"
取Token”接口。并填写请求Header参数。 接口地址为:https://iam.cn-southwest-2.myhuaweicloud.com/v3/auth/tokens 请求Header参数名为Content-Type,参数值为application/json 图2 填写获取Token接口
配置为“N2_agent_v2”,模型的相关配置需要改为Pangu-NLP-N2-Agent-L0.C模型的地址。 with_prompt参数配置为True,prompt的拼接由Agent托管处理。 父主题: Agent(智能代理)
行动:使用工具[queryScore],传入参数"{\"subjectName\":\"数学\"}" 工具返回:99 - 步骤2: 思考:好的,我需要调用 queryScore 工具来查询您的语文成绩。 行动:使用工具[queryScore],传入参数"{\"subjectName\":\"语文\"}"
基本概念 账号 用户注册华为云时的账号,账号对其所拥有的资源及云服务具有完全的访问权限,可以重置用户密码、分配用户权限等。由于账号是付费主体,为了确保账号安全,建议您不要直接使用账号进行日常管理工作,而是创建用户并使用他们进行日常管理工作。 用户 由账号在IAM中创建的用户,是云
oolean,建议参数数量不超过5个。 @AgentToolParam注解说明: description。参数的描述,为重要参数。该描述直接影响LLM对入参的提取,尽量描述清楚,如果Agent实际执行效果不符合预期,可以调整。 required。是否为可选参数。 注意:字段的命名
户可以体验平台预置的多种模型功能,包括文本补全和多轮对话。 只需在输入框中输入问题,模型便会自动返回对应的答案内容。平台还允许用户实时调整参数,以便更好地满足您的需求。 支持区域: 西南-贵阳一 体验盘古预置模型能力 应用百宝箱 应用百宝箱是盘古大模型为用户提供的便捷AI应用集,