检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在基于事实的问答场景,可以使用较低的回复随机性数值,以获得更真实和简洁的答案;在创造性的任务例如小说创作,可以适当调高回复随机性数值。建议不要与核采样同时调整。 核采样 模型在输出时会从概率最高的词汇开始选择,直到这些词汇的总概率累积达到核采样值。核采样值可以限制模型选择这些高概率
点的输出。 判断节点:编排应用时作为分支切换节点,可以根据输入满足的判断条件,指定执行对应的工作流分支。 代码节点:用于引入代码执行器,根据节点的输入,执行指定Python代码,节点的输出是代码执行的结果信息。 知识检索节点:可以根据输入参数从指定知识库内召回匹配的信息。 消息节
构,自定义创建独立的工作空间。 每个工作空间在资产层面完全隔离,确保资产的安全性和操作的独立性,有效避免交叉干扰或权限错配带来的风险。用户可以结合实际使用场景,如不同的项目管理、部门运营或特定的研发需求,划分出多个工作空间,实现资产的精细化管理与有序调配,帮助用户高效地规划和分配任务,使团队协作更加高效。
通过模块化方式,插件能够为大模型提供更多专业技能和复杂任务处理能力,使其在多样化的实际场景中更加高效地满足用户需求。 通过插件接入,用户可以为应用赋予大模型本身不具备的能力。插件提供丰富的外部服务接口,当任务执行时,模型会根据提示词感知适用的插件,并自动调用它们,从外部服务中获
图4 多场景测试-复杂对话场景 优化Prompt设计:从prompt设计维度来看,可以通过以下方式进行优化: 清晰的输入指令: 在翻译场景中,明确的输入指令将提升工作流的运行效果。例如:prompt可以设计为:请将以下中文句子翻译成英文:“我喜欢吃苹果”。通过这种明确的指令,更容易生成准确的翻译结果。
应用会根据盘古NLP大模型对提示词的理解,来响应用户问题。因此,一个好的提示词可以让模型更好地理解并执行任务,应用效果与提示词息息相关。 配置提示词步骤如下: 在“提示词”模块,可依据模板填写Prompt,单击“”,输入框中将自动填入角色指令模板。 示例如图2,您可以依据模板进行填写。 图2 配置Prompt 填
大模型使用类 盘古大模型是否可以自定义人设 如何将本地的数据上传至平台 导入数据过程中,为什么无法选中OBS的单个文件进行上传 如何查看预置模型的历史版本 训练/推理单元与算力的对应关系是什么
在文本框中输入问题,单击“命中测试”,页面下方将展示多条匹配的内容,并按照匹配分值降序排列。 用户可以根据分值与匹配到的信息数量来评估当前知识库是否满足需求。 单击“查看历史”,可以查看用户输入的历史问题。 父主题: 创建与管理知识库
Backend timeout. 请求超时。 请检查原调用请求是否过于频繁,如果是并发过大,可以通过重试机制解决,在代码里检查返回值,碰到这个并发错误可以延时一小段时间(如2-5s)重试请求;也可以后端检查上一个请求结果,上一个请求返回之后再发送下一个请求,避免请求过于频繁。 请与技术支持确认,API是否已完成部署。
能力更强,更专业。 统一管,资产管理“全” ModelArts Studio大模型开发平台数据、模型、Agent应用在统一的入口进行管理,可以快速的掌握资产的使用情况、版本情况和溯源信息等。
表格数据。支持上传常见的表格文件格式,便于管理和分析结构化数据,包括:xlsx、xls、csv格式。 无论是文本文档、演示文稿,还是电子表格文件,用户都可以轻松地将数据导入知识库,无需额外的转换或格式处理。 父主题: 创建与管理知识库
”、“全球中期海洋智能预测”、“区域中期海洋智能预测”、“全球中期海洋生态智能预测”、“全球中期海浪智能预测”。 全球中期天气要素预测模型可以选择1个或者多个模型进行部署。 部署模型 在“从资产选模型”选择所需模型。 部署方式 支持“云上部署”和“边缘部署”,其中,云上部署指算法
天气系统的可预报性,会对扰动本身做一定的评判,能够挑选出预报结果与真实情况偏差最大的一类初始扰动。这些扰动不仅可以用来识别最可能导致特定天气或气候事件的初始条件,还可以用来评估预报结果的不确定性。 ensemble_noise_perlin_scale 否 Double 集合预报
如果用户具备多个空间的访问权限,可在页面左上角单击切换空间。 图2 切换空间 管理盘古工作空间 盘古工作空间支持用户查看当前空间详情,修改空间名称与描述,还可以对不需要的空间实现删除操作。 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 单击左侧导航栏的
务的启动配置项关闭内网屏蔽。 请求方法 插件服务的请求方式,POST或GET。 权限校验 选择调用API时是否需要通过鉴权才可以调用。 无需鉴权:API可以公开访问,不需要任何形式的身份验证或授权。 用户级鉴权:需要用户提供身份验证信息来访问API。 需填写密钥位置,即密钥是从H
String> 插件配置信息。 当工作流关联插件节点,并且插件是“用户级鉴权”时,需要在此配置对应的鉴权信息,例如针对如下插件,config可以配成:{"key2": "value"}。 其他情况该参数无需传值,plugin_configs传空数组即可。 响应参数 流式(Header中的stream参数为true)
任务。 ModelArts Studio大模型开发平台为用户提供了多种规格的专业大模型,以满足不同场景和需求。以下是当前支持的模型清单,您可以根据实际需求选择最合适的模型进行开发和应用。 模型支持区域 模型名称 说明 西南-贵阳一 Pangu-NLP-BI-4K-20241130
获取项目ID的接口为“GET https://{Endpoint}/v3/projects”,其中{Endpoint}为IAM的终端节点,可以从地区和终端节点获取。接口的认证鉴权请参见认证鉴权。 响应示例如下,例如,对话机器人服务部署的区域为“cn-north-4”,响应消息体中
温度 用于控制生成文本的多样性和创造力。调高温度会使得模型的输出更多样性和创新性。 默认值:0 核采样 控制生成文本多样性和质量。调高核采样可以使输出结果更加多样化。 默认值:1.0 最大口令限制 用于控制聊天回复的长度和质量。 默认值:2048 话题重复度控制 用于控制生成文本中
描述,单击“确定”,进入工作流编排页面。 图2 创建工作流 在工作流编排页面,平台已预先编排了开始、大模型与结束节点。 单击节点右上角的,可以对当前节点执行重命名、复制、删除操作。开始和结束节点为必选节点,无法删除。 图3 节点的重命名、复制、删除操作 配置“开始”节点。单击“开