检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
应用示例 搜索增强 长文本摘要 父主题: Java SDK
现对华为云上购买的盘古大模型资源的权限隔离,可以使用统一身份认证服务(IAM)和盘古角色管理功能进行精细的权限管理。 如果华为云账号已经能满足您的要求,不需要创建独立的IAM用户(子用户)进行权限管理,可以跳过本章节,不影响您使用服务的其他功能。 通过IAM,您可以在华为云账号中
行内容审核,帮助客户降低业务违规风险。 授权使用华为云内容审核,有效拦截大模型输入输出的有害信息,保障模型调用安全。 授权后,在调用盘古大模型能力时,模型的输入和输出将分别调用一次内容审核服务,该服务为付费项,用户可按需购买。 若不使用,您也可以自行对接第三方内容审核服务。关于大
监控安全风险 盘古提供基于主机防护服务HSS的资源和操作监控能力,同时支持CTS审计日志,帮助用户监控自身企业账号下的管理操作。用户可以实时掌握服务使用过程中所产生的各类监控指标。 父主题: 安全
vector_api.add_docs(bulk_list) 通过vectorStoreConfig判断使用CSS的插件模式和非插件模式。如果配置了embedding模型,则使用非插件模式,否则使用插件模式。注意,在非插件模式下,vectorFields有且只有1个。 父主题: Memory(记忆)
build(ClientBuilder.java:98) HttpConfig这个类在sdk-core包里面找不到,造成原因为用户使用的sdk版本太老导致,建议使用最新版本的华为云java sdk,运行代码再具体定位。 java.lang.NoSuchFieldError: ALLOW_
议室? - 步骤1: 思考:好的,我需要先查询A02会议室今天下午3点到8点的预定状态。使用meeting_room_status_query工具进行查询。 行动:使用工具[meeting_room_status_query],传入参数"{\"start\": \"2024-05-07
'relation_operator': 'EQUAL-TO'}]}}"} 数据量级要求:本场景使用了30000条数据进行微调。 类似场景需要的微调数据量视具体情况而定,从经验上来说,若实际场景相对简单和通用,使用几千条数据即可;若场景复杂或专业,则需要上万条数据。 数据质量要求: 保证数据的分布和目标需要与实际场景匹配。
相当可观的基础知识,但如果目标任务要求回答必须符合特定的风格或格式,这将造成和基础知识的数据分布差异。例如,需要模型使用某银行客服的口吻进行线上问答,此时需要使用符合该银行风格和格式的数据集进行微调,以提升模型的遵循度。 Prompt工程后,效果仍无法达到预期:当对模型做了大量的
盘古自然语言大模型的适用场景有哪些 自然语言处理大模型是一种参数量极大的预训练模型,是众多自然语言处理下游任务的基础模型。学术界和工业界的实践证明,随着模型参数规模的增加,自然语言处理下游任务的效果显著提升,这得益于海量数据、大量算力以及深度学习的飞跃发展。 基于自然语言处理大模型的预训练模型,可以
自定义模型 如果使用的模型不是盘古或者兼容OpenAI-API的开源模型,如,闭源模型或者裸机部署的自定义推理服务,可以通过继承AbstractLLM自定义一个模型,示例代码如下: @Slf4j public class CustomLLM extends AbstractLLM<LLMResp>
上述例子使用了一个简单的InMemoryToolProvider,InMemoryToolProvider的原理为将完整的工具存入内存,再根据工具检索的结果(tool_id)将其从内存中取出。一般来说,ToolProvider将由用户自定义,后续会有例子说明。 上述例子使用的向量数
LLMs模块用于对大语言模型API的适配封装,提供统一的接口快速地调用盘古、GALLERY三方模型等模型API。 初始化:根据相应模型定义LLM类,如使用盘古LLM为: LLMs.of("pangu")。 from pangukitsappdev.api.llms.factory import
pangu_kits_app_dev_py 本地导入 从support网站上下载pangu-kits-app-dev-py的whl包。 建议使用conda创建一个新的python环境,python版本选择3.9。 在whl包同级目录下,执行如下命令安装: pip install p
toolId)将其从内存中取出。一般来说,ToolProvider将由用户自定义,将在后续示例中说明。 此外,上述例子使用的向量数据库配置指定索引名称,以及使用name和description作为向量化字段,因此工具入库时,会将工具的name和description进行向量化,并在后续的检索中生效。
AI助手”,选择需要运行的AI助手,单击“查看”。 图1 查看AI助手 在详情页面,AI助手API调用地址。 图2 获取调用地址 获取Token 本示例中,通过使用Postman软件获取Token。 登录“我的凭证 > API凭证”页面,获取user name、domain name、project id。
可支持选择一个场景进行推理,如:搜索RAG方案等,具有32K上下文能力。 NLP大模型训练过程中,一般使用token来描述模型可以处理的文本长度。token(令牌)是指模型处理和生成文本的基本单位。token可以是词或者字符的片段。模型的输入和输出的文本都会被转换成token,然
间和资源。 对LLM使用缓存: LLM llm = LLMs.of(LLMs.PANGU, llmConfig); llm.setCache(Caches.of(Caches.IN_MEMORY)); llm.ask("你能讲一个笑话吗?") 此时,再次使用同样的问题,则不会再调用大模型,而是直接从内存返回:
.build()); 使用AppCode鉴权添加的Header: X-Apig-AppCode:your-key 使用APIG简易认证方式添加的Header: Authorization:Bearer your-key 当LLM被定义好之后,使用方式与盘古大模型相同,开源模
解能力,导致用户需求难以准确捕捉,频繁转接至人工客服。这不仅增加了企业的运营成本,也影响了用户体验。盘古大模型的引入为这一问题提供了有效解决方案。 盘古大模型通过将客户知识数据转换为向量并存储在向量数据库中,利用先进的自然语言处理技术对用户输入的文本进行深度分析和理解。它能够精准