正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Skill(技能) 基础问答 多轮对话 文档问答 文档摘要 父主题: Java SDK
Python SDK 安装SDK 配置SDK LLMs(语言模型) Prompt(提示词模板) Memory(记忆) Skill(技能) Agent(智能代理) 应用示例 父主题: 盘古应用开发SDK
模型能力与规格 模型的基础信息 模型支持的区域 模型支持的操作
Java SDK 安装SDK 配置SDK LLMs(语言模型) Prompt(提示词模板) Memory(记忆) Skill(技能) Agent(智能代理) 应用示例 父主题: 盘古应用开发SDK
Memory(记忆) Memory(记忆)模块结合外部存储为LLM应用提供长短期记忆能力,用于支持上下文记忆的对话、搜索增强等场景。 Memory(记忆)支持多种不同的存储方式和功能。 Cache缓存:是一种临时存储数据的方法,它可以提高数据的访问速度和效率。缓存可以根据不同的存
Memory(记忆) Memory(记忆)模块结合外部存储为LLM应用提供长短期记忆功能,用于支持上下文记忆的对话、搜索增强等场景。 Memory(记忆)支持多种不同的存储方式和功能。 Cache缓存:是一种临时存储数据的方法,它可以提高数据的访问速度和效率。缓存可以根据不同的存
准备工作 注册华为账号并开通华为云 购买盘古大模型套件 开通盘古大模型服务 配置盘古访问授权 创建子用户并授权使用盘古
训练盘古大模型 选择模型与训练方法 创建训练任务 查看训练任务详情与训练指标 常见训练报错与解决方案
评估盘古大模型 创建模型评估数据集 创建模型评估任务 查看评估任务详情
部署盘古大模型 部署为在线服务 部署为边缘服务
撰写提示词 创建提示词工程 撰写提示词 预览提示词效果 父主题: 提示词工程
两两比对提示词效果 设置候选提示词 两两比对提示词效果 父主题: 提示词工程
典型训练问题和优化策略 什么情况下需要微调 什么情况下不建议微调 数据量很少,可以微调吗 数据量足够,但质量较差,可以微调吗 无监督的领域知识数据,量级无法支持增量预训练,如何让模型学习 如何调整训练参数,使模型效果最优 如何判断训练状态是否正常 如何评估微调后的模型是否正常 如何调整推理参数,使模型效果最优
常用方法论 打基础 补说明 搭结构 排顺序 补预设 父主题: 提示词写作实践
写作示例 意图匹配 面试问题生成 父主题: 提示词写作实践
体验盘古大模型功能 体验盘古预置模型能力 体验盘古驱动的应用百宝箱
pangu.dev.sdk.api.skill.Skills; import com.huaweicloud.pangu.dev.sdk.api.memory.vector.Vector; import com.huaweicloud.pangu.dev.sdk.api.memory.vector
最大口令限制 用于控制聊天回复的长度和质量。 话题重复度配置 用于控制生成文本中的重复程度。 词汇重复度控制 用于调整模型对频繁出现的Token的处理方式。 历史对话保留轮数 选择“多轮对话”功能时具备此参数,表示系统能够记忆的历史对话数。 父主题: 调用盘古大模型
1000~2000中10的倍数 每训练一定数量的步骤(或批次)后,模型的状态就会被保存下来。 可以通过token_num = step * batch_size * sequence公式进行预估。其中: token_num:已训练的数据量。 step:已完成的训练步数。 batch_size:每个训练步骤中使用的样本数据量。
过200GB。 表1 自监督训练数据大小说明 模型规格 最小数据量(数据条数) 推荐数据量 单条数据token长度限制 N4-4K版本 1万条/每场景 4GB(等价10亿Tokens) 4096 有监督训练 在单次训练任务中,一个有监督数据集内,上传的数据文件数量不得超过100个