检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
rompt配置,直接接受用户原始输入,并输出大模型执行后的原始输出,该组件的配置详见配置大模型组件。 用户可根据需求配置所需组件,并连接其他组件。除开始、结束和大模型组件外,平台提供了意图识别、提问器、插件、判断、代码组件,配置详见配置意图识别组件、配置提问器组件、配置插件组件、配置判断组件、配置代码组件。
说明 步骤1:创建应用 本样例场景实现应用的创建。 步骤2:配置Prompt 本样例场景实现应用中的提示词配置。 步骤3:添加预置插件 本样例场景实现应用的插件配置。 步骤4:配置对话体验 本样例场景实现应用的对话体验配置。 步骤5:调试应用 本样例场景实现应用的调试。 步骤1:创建应用
用户可以根据需求灵活划分工作空间,实现资源的有序管理与优化配置,确保各类资源在不同场景中的最大化利用。为进一步优化资源的管理,平台还提供了多种角色权限体系。用户可以根据自身角色从管理者到各模块人员进行不同层级的权限配置,确保每个用户在其指定的工作空间内,拥有合适的访问与操作权限
部署后的模型可用于后续调用操作。 创建NLP大模型部署任务 查看NLP大模型部署任务详情 查看部署任务的详情,包括部署的模型基本信息、任务日志等。 查看NLP大模型部署任务详情 管理NLP大模型部署任务 可对部署任务执行执行描述、删除等操作。 管理NLP大模型部署任务 调用NLP大模型 使用“能力调测”调用NLP大模型
使用盘古大模型服务前,需要进行一系列准备工作,确保您能够顺利使用盘古大模型服务。 准备工作 申请试用盘古大模型服务 配置服务访问授权 创建并管理盘古工作空间 04 AI一站式流程 通过一站式流程,完成从数据集准备、模型训练、压缩、部署到调用,全面掌握盘古大模型的开发过程。同时,结合应用开发的提示词工程、Agent应
查看NLP大模型部署任务详情 部署任务创建成功后,可以在“模型开发 > 模型部署”页面查看模型的部署状态。 当状态依次显示为“初始化 > 部署中 > 运行中”时,表示模型已成功部署,可以进行调用。 此过程可能需要较长时间,请耐心等待。在此过程中,可单击模型名称可进入详情页,查看模
查看科学计算大模型部署任务详情 部署任务创建成功后,可以在“模型开发 > 模型部署”页面查看模型的部署状态。 当状态依次显示为“初始化 > 部署中 > 运行中”时,表示模型已成功部署,可以进行调用。 此过程可能需要较长时间,请耐心等待。在此过程中,可单击模型名称可进入详情页,查看
用户提出的问题,作为运行工作流的输入,与工作流开始节点输入参数对应。 plugin_configs 否 List<PluginConfig> 插件配置,当工作流有配置用户自定义插件节点时,可能需要配置鉴权信息等,具体结构定义详见表4。 表4 PluginConfig参数 参数 是否必选 参数类型 描述 plugin_id
准备工作 申请试用盘古大模型服务 配置服务访问授权 创建并管理盘古工作空间
支持您添加或去除新的高空层次,训练任务会根据您配置的高空层次对模型重新进行训练。 高空变量 设置训练数据的高空变量信息,在“预训练”的场景中也支持您添加或去除新的高空变量,选择后会在变量权重中增加或去除该变量权重,训练任务会根据您配置的高空变量对模型重新进行训练。 表面变量 设置
获取模型部署ID 模型部署ID获取步骤如下: 登录ModelArts Studio大模型开发平台。 获取模型请求URI。 若调用部署后的模型,可在左侧导航栏中选择“模型开发 > 模型部署”,在“我的服务”页签,模型部署列表单击模型名称,在“详情”页签中,可获取模型的部署ID。 图1
外部知识。 例如,在构造泛化问题的任务中,需要基于原问题改写为相同含义的问题,而不是生成相似的问题。当提示词使用“请生成10个跟“手机银行怎么转账”相似的问题”时,模型会认为实体/关键词/场景一致则是相似(在这个例子里实体为手机银行),而不是任务需要的语义级别的相同含义,所以输出内容会发散。
部署NLP大模型 创建NLP大模型部署任务 查看NLP大模型部署任务详情 管理NLP大模型部署任务 父主题: 开发盘古NLP大模型
小,适当的数据批量大小能够确保训练各个阶段都能充分利用计算资源,提升并行效率。 数据配置 训练数据 选择训练模型所需的数据集。要求数据集经过发布操作,发布数据集操作方法请参见发布数据集。 资源配置 计费模式 选择训练模型所需的训练单元。 当前展示的完成本次训练所需要的最低训练单元要求。
手工编排Agent应用 手工编排Agent应用流程 配置Prompt builder 配置插件 配置知识 配置开场白和推荐问题 调试Agent应用 父主题: 开发盘古大模型Agent应用
进入应用详情页面。 图1 填写应用名称与应用描述 图2 创建应用 配置Prompt builder,详见配置Prompt builder。 配置插件,详见配置插件。 配置知识,详见配置知识。 配置对话,详见配置开场白和推荐问题。 调试Agent应用,详见调试Agent应用。 A
部署科学计算大模型 创建科学计算大模型部署任务 查看科学计算大模型部署任务详情 管理科学计算大模型部署任务 父主题: 开发盘古科学计算大模型
Key(SK)。下载的访问密钥为credentials.csv文件,包含AK/SK信息。 认证用的ak和sk硬编码到代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全。 使用推理SDK章节示例代码均以ak和sk保存在环境变量中来实现身份验证。 登录“我的凭
度语义理解与生成能力的人工智能大语言模型。可进行对话互动、回答问题、协助创作。 盘古大模型在ModelArts Studio大模型开发平台部署后,可以通过API调用推理接口。 表1 API清单 API 功能 操作指导 NLP大模型-文本对话 基于对话问答功能,用户可以与模型进行自然而流畅的对话和交流。
可以查看到调用链中该组件的输入和输出。 此外,平台支持配置构建应用所需的NLP大模型参数。 单击应用右上角的,打开大模型参数配置页面。配置参数见表1,完成大模型参数配置。 表1 大模型参数配置 参数 说明 模型选择 选择要使用的LLM,不同的模型效果存在差异。 模式选择 用于配置大模型的输出多样性。 包含取值: