检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
强模型的理解和回答能力。 该参数需要与工具配合使用,需要填入工具input_schema参数中API的请求参数。例如,在配置AI助手工具的代码示例中,创建预定会议室API的请求参数中有start,设置为start,即将会议的开始相关的信息作为关键信息,带入新轮次的对话中。 指令参数输入示例:
API清单 API 功能 NLP-文本补全 给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全。它可以用来做文本生成、自动写作、代码补全等任务。 NLP-多轮对话 基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。 父主题: 使用前必读
盘古-NLP-BI专业大模型-4K 4096 基于NLP-N2-基础功能模型运用特定专业代码数据训练后的BI专业大模型,具有4K上下文能力。 盘古-NLP-BI专业大模型-32K 32768 基于NLP-N2-基础功能模型运用特定专业代码数据训练后的BI专业大模型,具有32K上下文能力。 盘古-NLP-N2单场景模型-4K
名认证”才可以正常使用服务。具体认证方式请参见实名认证。 获取账号信息 在调用服务API、SDK时,需要将账号相关的信息作为API凭证传入代码。 API凭证主要包括:IAM用户名、IAM用户名ID、账号名、账号ID、项目ID、项目、所属区域。可登录控制台在“我的凭证 > API凭证”页面获取。
图4 填写获取Token接口 填写“获取token”接口的请求体。在Postman中选择“Body > raw”选项,参考图5复制并填入以下代码,并填写user name、domain name、password。 { "auth": { "identity":
添加Agent流式输出(Python SDK) Agent用于工具调用场景,与普通的LLM流式输出相比,区分了文本流与工具流。 文本流将输出模型的思考过程和最终结果;工具流将输出工具的调用过程,而工具的调用的执行结果是通过监听获取的。 通过如下接口为Agent添加流式输出的回调:
使用Tool Retriever优化Agent性能(Python SDK) Agent在实际生产应用中往往涉及到的工具数量较多,如果把所用的工具全部添加至Agent会产生如下问题: 占用大量输入token。 和问题无关的工具太多,影响模型的判断。 通过Tool Retriever
使用Tool Retriever优化Agent性能(Java SDK) Agent在实际生产应用中往往涉及到的工具数量较多,如果把所用的工具全部添加至Agent会产生如下问题: 占用大量输入token。 和问题无关的工具太多,影响模型的判断。 通过Tool Retriever可以
NET、NodeJs 给定一个提示和一些参数,模型会根据这些信息生成一个或多个预测的补全,还可以返回每个位置上不同词语的概率。它可以用来做文本生成、自动写作、代码补全等任务。 开发环境要求 华为云盘古大模型推理SDK要求: Java SDK适用于JDK 1.8及其以上版本。 Python SDK适用于Python3及以上版本。
https://{endPoint}/v1/{projectId}/deployments/{deploymentId} ; # sdk.llm.pangu.url= 创建代码,示例如下: /****************************************** 会议室状态查询工具
APIG.0201 Backend timeout. 请求超时。 请检查原调用请求是否过于频繁,如果是并发过大,可以通过重试机制解决,在代码里检查返回值,碰到这个并发错误可以延时一小段时间(如2-5s)重试请求;也可以后端检查上一个请求结果,上一个请求返回之后再发送下一个请求,避免请求过于频繁。
实例化Agent(Python SDK) Agent实例化过程包括注册LLM和注册工具两个部分。 from pangukitsappdev.agent.react_pangu_agent import ReactPanguAgent from pangukitsappdev.api
功能模型:功能模型是在基模型的基础上经过微调,专门适应特定任务,并具备对话问答的能力。经过特定场景优化的功能模型能够更有效地处理文案生成、阅读理解、代码生成等任务。 专业大模型:针对特定场景优化的大模型。例如,与非专业大模型相比,BI专业大模型更适合执行数据分析、报告生成和业务洞察等任务。
可以同过scoreThreshold 设置相似性判断阈值 // 例如使用Redis向量、余弦相似度、CSS词向量模型,并且设置相似性判断阈值为0.1f,代码示例如下 Cache cache = Caches.of(CacheStoreConfig.builder() .storeName(Caches
可以同过scoreThreshold 设置相似性判断阈值 # 例如使用Redis向量、余弦相似度、CSS词向量模型,并且设置相似性判断阈值为0.1f,代码示例如下 embedding_api = Embeddings.of("css") cache_config = CacheStoreCo
https://{endPoint}/v1/{projectId}/deployments/{deploymentId} ; # sdk.llm.pangu.url= 创建代码文件(chat.py),示例如下: import os import sys import gradio as gr from pangukitsappdev
添加Agent流式输出(Java SDK) Agent用于工具调用场景,与普通的LLM流式输出相比,提供了事件流的封装。消息内容、工具调用等通过不同的事件类型区分。 通过如下接口为Agent添加流式输出的回调: /** * 设置流式接口回调函数 * * @param streamAgentCallback
LLM llm2 = LLMs.of(LLMs.PANGU); log.info(llm2.ask("你好").getAnswer()); 上述代码中custom.llm.url为自定义的url地址(名字由开发者任意指定,或直接传入url地址),可以指向不同的模型,因此llm1为一个大
HttpConfig这个类在sdk-core包里面找不到,造成原因为用户使用的sdk版本太老导致,建议使用最新版本的华为云java sdk,运行代码再具体定位。 java.lang.NoSuchFieldError: ALLOW_LEADING_DECIMAL_POINT_FOR_NUMBERS
https://{endPoint}/v1/{projectId}/deployments/{deploymentId} ; # sdk.llm.pangu.url= 创建代码文件(doc_summary.py),示例如下: import os import gradio as gr import docx import