检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
其中,filePath指的是需要解析的文档路径,mode为分割解析模式,具体定义如下: 0 - 返回文档的原始段落,不做其他处理。 1 - 根据标注的书签或目录分段,一般适合有层级标签的word文档。 2 - 根据内容里的章节条分段,适合制度类文档。 3 - 根据长度分段,默认按照500字拆分,会尽量保留完整句子。
输出更可预测;温度设置越高,输出种类更多,更不可预测。 核采样 控制生成文本多样性和质量。 最大口令限制 用于控制聊天回复的长度和质量。一般来说,设置较大的参数值可以生成较长和较完整的回复,但也可能增加生成无关或重复内容的风险。较小的参数值可以生成较短和较简洁的回复,但也可能导
输出更可预测;温度设置越高,输出种类更多,更不可预测。 核采样 控制生成文本多样性和质量。 最大口令限制 用于控制聊天回复的长度和质量。一般来说,设置较大的参数值可以生成较长和较完整的回复,但也可能增加生成无关或重复内容的风险。较小的参数值可以生成较短和较简洁的回复,但也可能导
metadata 扩展字段 。 表2 metadata参数说明 参数 是否必选 参数类型 描述 url 是 String assistant api调用地址。 authType 是 String 用于指定身份验证的类型,默认值“OAuth”,使用OAuth协议进行身份验证。 代码示例: {
返回一个资源特征与地址的列表用于用户终端(例如:浏览器)选择。 301 Moved Permanently 永久移动,请求的资源已被永久的移动到新的URI,返回信息会包括新的URI。 302 Found 资源被临时移动。 303 See Other 查看其他地址,使用GET和POST请求查看。
合规度校验规则说明 校验项 说明 个人隐私 校验数据中是否存在个人隐私信息,例如,身份证号、手机号、固定电话、Email地址、护照号、车牌号、军官证、车架号、GPS地址、IP地址、MAC地址和IMEI码等。 敏感关键词 校验数据中是否存在敏感关键字,如涉政信息。 表4 合规度状态说明 合规数据量
附录 状态码 错误码 获取项目ID 获取模型调用API地址
上述代码中custom.llm.url为自定义的url地址(名字由开发者任意指定,或直接传入url地址),可以指向不同的模型,因此llm1为一个大模型;而llm2没有指定config,默认使用sdk.llm.pangu.url,若地址与custom.llm.url,则为另外一个大模型。
vider,InMemoryToolProvider的原理为将完整的工具存入内存,再根据工具检索的结果(tool_id)将其从内存中取出。一般来说,ToolProvider将由用户自定义,后续会有例子说明。 上述例子使用的向量数据库配置指定索引名称,以及使用name和descri
ovider,InMemoryToolProvider的原理为将完整的工具存入内存,再根据工具检索的结果(toolId)将其从内存中取出。一般来说,ToolProvider将由用户自定义,将在后续示例中说明。 此外,上述例子使用的向量数据库配置指定索引名称,以及使用name和de
基于NLP-N2-基模型训练的单场景模型,可支持选择一个场景进行推理,如:搜索RAG方案等,具有32K上下文能力。 NLP大模型训练过程中,一般使用token来描述模型可以处理的文本长度。token(令牌)是指模型处理和生成文本的基本单位。token可以是词或者字符的片段。模型的输
点到9点。 " 在第二次运行Agent时,包含第一次运行的所有工具调用细节。 agentSession相当于Agent的会话Memory。一般情况下,需要将agentSession对象在外部持久化,在每一轮会话传入agentSession对象中的sessionId,下面的示例代码用一个map对象模拟外部的持久化:
"target": "你有什么办法让孩子写作业吗"} 中控模块:对于中控模块,可以首先尝试使用基础功能模型基于prompt来进行相关中控逻辑的判断,一般情况下能够满足绝大部分场景的需求。如果针对特别细分的垂域场景,且需要中控逻辑能够取得接近100%准确率的效果,则可以按照需求可以准备对应的
odule-version需要配置为“N2_agent_v2”,模型的相关配置需要改为Pangu-NLP-N2-Agent-L0.C模型的地址。 with_prompt参数配置为True,prompt的拼接由Agent托管处理。 父主题: 配置Agent(Python SDK)
载该obs文件,上传到环境B对应的obs桶中。 登录环境B的盘古大模型套件平台,在“模型迁移”页面,选择“导入模型”,输入模型对应的obs地址和模型名称后,单击“确定”,启动导入模型任务。 图4 导入模型
="https://pangu.cn-southwest-2.myhuaweicloud.com/v1/infers/N2-基础模型的调用地址"))) agent_session_skill = AgentSessionSkill(llm=summary_llm_api) pri
leVersion需要配置为“N2_agent_v2”,如上例所示,因此模型的url要配置为Pangu-NLP-N2-Default模型的地址。 支持注册开源模型,开源模型的定义可参考开源模型。 final LLM llm = LLMs.of(LLMs.OPENAI, LLMConfig
下载并安装Postman调测工具。 打开Postman,新建一个POST请求,输入“西南-贵阳一”区域的“获取Token”接口,并填写请求Header参数。 接口地址为:https://iam.cn-southwest-2.myhuaweicloud.com/v3/auth/tokens 请求Heade
String 项目ID,获取方法请参见获取项目ID。 deployment_id 是 String 模型的部署ID,获取方法请参见获取模型调用API地址。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。 用
基于NL2JSON助力金融精细化运营 场景介绍 在金融场景中,客户日常业务依赖大量报表数据来支持精细化运营,但手工定制开发往往耗费大量人力。因此,希望借助大模型消除语义歧义性,识别用户查询意图,并直接生成支持下游操作的结构化JSON信息。大模型的NL2JSON能力可以从自然语言输