检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
llms.llm_config import LLMParamConfig # 不带参数的问答 skill.execute({"subject": "哈士奇", "count": 20}) # 带参数的问答 llm_param_config = LLMParamConfig(temperature=0
源特征与地址的列表用于用户终端(例如:浏览器)选择。 301 Moved Permanently 永久移动,请求的资源已被永久的移动到新的URI,返回信息会包括新的URI。 302 Found 资源被临时移动。 303 See Other 查看其他地址,使用GET和POST请求查看。
多轮对话 支持上下文记忆的多轮对话。 初始化。 import com.huaweicloud.pangu.dev.sdk.api.llms.LLMs; import com.huaweicloud.pangu.dev.sdk.api.skill.Skills; import com
从agentSession中取出要调用的工具 final AgentAction currentAction = agentSession.getCurrentAction(); log.info("Agent的状态为{},不为{},所以需要调用工具,调用的工具为{},入参为{}"
History History缓存,用于存储历史对话信息,辅助模型理解上下文信息,历史消息对有固定窗口、消息摘要等策略。 初始化:消息记录支持不同的存储方式,如内存、DCS(Redis)、RDS(Sql)。 import com.huaweicloud.pangu.dev.sdk.api
初始化带参数的盘古LLM LLM pangu = LLMs.of(LLMs.PANGU, llmConfig); pangu.ask("写一篇五言律诗").getAnswer(); 支持调整的参数解释。 private int maxTokens; // 完成时要生成的令牌的最大数量
“西南-贵阳一”区域对应的project id。 图1 查看盘古服务区域 图2 获取user name、domain name、project id 下载并安装Postman调测工具。 打开Postman,新建一个POST请求,输入“西南-贵阳一”区域的“获取Token”接口,并填写请求Header参数。
应用开发SDK概述 应用开发SDK针对大模型应用开发场景,对大语言模型进行封装,提供了提示词模板、记忆、技能、智能代理等功能模块,简化用户的开发工作,帮助用户快速开发一个大模型应用。当前应用开发SDK支持如下语言: Java Python 开发环境要求 华为云盘古大模型应用开发SDK要求JAVA
缘部署,输入推理实例数(根据边缘资源池的实际资源选择),输入服务名称,单击“立即创建”。 创建成功后,可在“模型部署 > 边缘部署”,查看边缘部署列表。 单击“服务名称”可进入服务详情界面。 如果服务部署状态为“部署失败”,可单击服务操作列的“启动”按钮,重新部署。 父主题: 部署为边缘服务
模型能力与规格 模型的基础信息 模型支持的区域 模型支持的操作
构造fewshotPrompt模板: // 基于长度策略(长度限制50) // 传入prompt的开头 "参考以下示例,给出给定单词的反义词:" // 传入分隔符 "\n\n" // 传入prompt的结尾 "给定一个单词:{{word}},返回一个反义词:" FewShotPromptTemplate
应用增强功能”。用户可根据需求自行选择功能模型,输入资源名称,类型选择“边缘部署”,输入需要订购的推理算力,单击“确认订单”。 订购完成后,进入“平台管理 > 资产管理 > 模型推理资产”,可查看订购的边缘部署资产。 父主题: 部署为边缘服务
a funny joke about chickens" == format2 自定义prompt # 按约定的格式准备prompt文件; # 文档结构和文件名参考提供的系统预置prompts文件 文档结构示例: …… prompts -- default
体验盘古大模型功能 申请体验盘古大模型服务 体验盘古预置模型能力 体验盘古驱动的应用百宝箱
体验盘古大模型功能 申请体验盘古大模型服务 体验盘古预置模型能力 体验盘古驱动的应用百宝箱
准备盘古大模型训练数据集 训练数据集创建流程 模型训练所需数据量与数据格式要求 创建一个新的数据集 检测数据集质量 清洗数据集(可选) 发布数据集 创建一个训练数据集
small”报错,表示数据量太少,拼接到模型要求长度后,条数不满足一次训练下沉。 解决方案:请增大数据集大小或者把epochs设大,保证日志中的Sink_num > 0。 图3 The dataset size is too small Decrypt failed报错 报错原因:模