检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置Skill(Java SDK) 配置基础问答能力(Java SDK) 配置多轮对话能力(Java SDK) 配置文档问答能力(Java SDK) 配置文档摘要能力(Java SDK) 父主题: Java
配置Skill(Python SDK) 配置基础问答能力(Python SDK) 配置多轮对话能力(Python SDK) 配置文档问答能力(Python SDK) 配置文档摘要能力(Python SDK) 父主题: Python
配置基础问答能力(Python SDK) 提供简单的对话实现。 初始化 from pangukitsappdev.api.llms.factory import LLMs from pangukitsappdev.api.skill.base import SimpleSkill
配置LLMs(Python SDK) LLMs模块用于对大语言模型API的适配封装,提供统一的接口快速地调用盘古、GALLERY三方模型等模型API。 初始化:根据相应模型定义LLM类,如使用盘古LLM为: LLMs.of("pangu")。 from pangukitsappdev
配置文档问答能力(Java SDK) 基于已有的知识库进行回答,包括stuff、refine和map-reduce策略。 Stuff:将所有文档直接填充到prompt中,提给模型回答,适用于文档较少的场景。 import com.huaweicloud.pangu.dev.sdk
配置文档问答能力(Python SDK) 基于已有的知识库进行回答。有stuff、refine和map-reduce策略。 Stuff:将所有文档直接填充到prompt中,提给模型回答,适合文档较少的场景。 from pangukitsappdev.api.embeddings.factory
配置基础问答能力(Java SDK) 基础问答(SimpleSkill)提供基础的对话实现。 初始化。 1 2 3 4 5 6 import com.huaweicloud.pangu.dev.sdk.api.llms.LLMs; import com.huaweicloud.pangu
配置多轮对话能力(Python SDK) 支持上下文记忆的多轮对话。 初始化 from pangukitsappdev.skill.conversation_skill import ConversationSkill from pangukitsappdev.api.llms.factory
配置Prompt(Python SDK) 提示词模板模块提供模板格式化、自定义配置管理功能。 模板格式化 from langchain import PromptTemplate from pangukitsappdev.api.llms.factory import LLMs from
配置多轮对话能力(Java SDK) 支持上下文记忆的多轮对话。 初始化。 import com.huaweicloud.pangu.dev.sdk.api.llms.LLMs; import com.huaweicloud.pangu.dev.sdk.api.skill.Skills;
配置文档摘要能力(Python SDK) 基于已有的知识库,进行摘要总结。有stuff、refine、map-reduce策略。 Stuff:将所有文档直接填充到prompt中,提给模型处理,适合文档较少的场景。 from pangukitsappdev.api.embeddings
配置文档摘要能力(Java SDK) 基于已有的知识库进行摘要总结,包括stuff、refine和map-reduce策略。 Stuff:将所有文档直接填充到prompt中,提给模型处理,适用于文档较少的场景。 import com.huaweicloud.pangu.dev.sdk
配置Prompt(Java SDK) 提示词模板模块提供模板格式化、自定义配置、few-shot管理功能。 模板格式化 import com.huaweicloud.pangu.dev.sdk.template.KV; import com.huaweicloud.pangu.dev
模型部署”,单击界面右上角“部署”。 在创建部署页面,完成部署配置,填写基本信息。 表1 部署配置参数 参数名称 说明 选择模型 选择需要部署的模型。 推理资源 选择非限时免费的模型时显示。选择盘古大模型服务提供的在线推理资产。 部署方式 选择“在线部署”,即将算法部署至盘古大模型服务提供的资源池中。
添加Agent流式输出(Java SDK) Agent用于工具调用场景,与普通的LLM流式输出相比,提供了事件流的封装。消息内容、工具调用等通过不同的事件类型区分。 通过如下接口为Agent添加流式输出的回调: /** * 设置流式接口回调函数 * * @param streamAgentCallback
extends StaticTool<GetReimbursementLimitTool.InputParam, String> { 父主题: 配置Agent(Java SDK)
swer :param agent_session: AgentSession :return: bool类型结果 """ return False 定义一个监听器 通过实现AgentListener定义一个监听器:
最终结果: 您的数学成绩是99分,您的语文成绩也是99分。 AgentSessionSkill使用的大模型建议为N2-基础模型或者其他同等类型的模型。 多Agent组合 有时需要多个Agent配合完成任务,可以通过子Agent作为tool方式实现: // 定义子Agent(tool形式)
} }); 上述例子中,当满足if判断条件时,会直接终止Agent的执行,且finalAnswer被设置为工具的原始返回值。 父主题: 配置Agent(Java SDK)
最终结果: 您的数学成绩是55分,而语文成绩是56分。 AgentSessionSkill使用的大模型建议为N2-基础模型或者其他同等类型的模型。 父主题: 配置Agent(Python SDK)