检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
session = agent.run_step(session) # 此时已经得到完整调用信息了,调用risk_detection API,将API返回结果给Agent继续执行 AgentSessionHelper.set_tool_output(session, "金财互联数据服务有限公司1月份存在异常经营风险")
pangu.dev.sdk.api.agent.Agent; import com.huaweicloud.pangu.dev.sdk.api.annotation.AgentTool; import com.huaweicloud.pangu.dev.sdk.api.llms.LLMs;
通多调用Agent的addListener接口添加一个监听器: from pangukitsappdev.agent.react_pangu_agent import ReactPanguAgent from pangukitsappdev.api.llms.factory import
本示例中,通过使用Postman软件调用AI助手API,API的详细请求参数、响应参数介绍请参见AI助手API参数说明。 打开Postman,新建一个POST请求,在地址栏填写获取AI助手API调用地址获取的调用地址。 在Header中配置IAM Token信息。 请求Header参数名为X-Auth-Toke
String 模型的部署ID,获取方法请参见获取模型调用API地址。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。 用于获取操作API的权限。获取Token接口响应消息头中X-Subject-Token的值即为Token。
项目ID还可通过调用查询指定条件下的项目信息API获取。 获取项目ID的接口为“GET https://{Endpoint}/v3/projects”,其中{Endpoint}为IAM的终端节点,可以从地区和终端节点获取。接口的认证鉴权请参见认证鉴权。 响应示例如下,例如,对话机器人服务部署
检查开发环境要求,确认本地已具备开发环境。 开通盘古大模型API。 登录盘古大模型套件平台。 在左侧导航栏中选择“服务管理”,在相应服务的操作列单击“查看详情”,可在服务列表中申请需要开通的服务。 通用文本(文本补全):文本补全接口提供单轮文本能力,常用于文本生成、文本摘要、闭卷问答等任务。
例如,需要构建一个企业助理应用,该应用需要具备预定会议室、创建在线文档和查询报销信息等功能。在构建此应用时,需要将预定会议室与创建在线文档等功能的API接口定义为一系列的工具,并通过AI助手,将这些工具与大模型进行绑定。当用户向AI助手提问时,大模型就会根据用户的问题自动规划调用相应工具,从而实现对应的功能。
华为云盘古 是(大语言模型至少选一个) 盘古模型API调用URL。 华为云IAM账号认证信息。 盘古大模型API参考文档: 申请资源时,可联系客户支持获取。 IAM帮助文档: https://support.huaweicloud.com/api-identitycenter/iic_04_0032
String 模型的部署ID,获取方法请参见获取模型调用API地址。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。 用于获取操作API的权限。获取Token接口响应消息头中X-Subject-Token的值即为Token。
B:我家里上不了网了 B:网连不上 A:先生,您家的网络无法连接是吗 A:请问您尝试重新插拔网线吗? B:是的,我试了 B:还是不行 拼接后的微调数据格式示例: {"context": ["xxx号话务员为您服务! 先生您好,有什么可以帮助您的?", "你好,是这样的 我家里上不了网了 网连不上"
dev.sdk.agent.ReactPanguAgent; import com.huaweicloud.pangu.dev.sdk.api.llms.LLMs; public static void initAgent() { LLM llm = LLMs.of(LLMs
API NLP大模型 Token计算器
大模型内容审核 盘古大模型支持通过对接内容审核,实现拦截大模型输入、输出的有害信息,保障模型调用安全。用户在开通API后,可依据需求选择是否开通、启用内容审核。 父主题: 如何调用REST API
NLP大模型 文本补全 多轮对话 父主题: API
如何调用REST API 开通API 构造请求 认证鉴权 返回结果
在弹窗中可获取对应模型的API请求地址。其中,路径选中部分即为模型的部署ID(deployment_id)。 图3 获取API请求地址 父主题: 附录
255.0 执行命令cat /etc/hccn.conf,确保有如下回显网卡信息,则配置完成。 配置NFS网盘服务。 大模型采用镜像+模型分开的方式部署时,需要有一个节点来提供NFS网盘服务,创建部署时通过NFS挂载的方式访问模型。 父主题: 部署为边缘服务
#TXT格式,一行对应1条JSON #PDF、WORD、HTML只需上传对应的文档,文档内容为文本 #JSONL {"text":"《活着》,是中国著名作家余华所写的一部长篇小说。《活着》讲述了一个普通农民徐福贵的人生历程。他的人生充满了苦难和挫折,但他在面对这些困难时,始终保持着坚强和乐观的态度。"}
附录 状态码 错误码 获取项目ID 获取模型调用API地址