检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
可将会话ID设置为任意值,使用标准UUID格式。 图2 获取工作流调用路径-2 使用Postman调用API 获取Token。参考《API参考》文档“如何调用REST API > 认证鉴权”章节获取Token。 在Postman中新建POST请求,并填入工作流的调用路径,详见获取调用路径。
内容提取。 数据转换 个人数据脱敏 对文本中的手机号码、身份证件、邮箱地址、url链接、国内车牌号、IP地址、MAC地址、IMEI、护照、车架号等个人敏感信息进行数据脱敏,或直接删除敏感信息。 中文简繁转换 将中文简体和中文繁体进行转换。 符号标准化 查找文本中携带的非标准化符号进行标准化、统一化转换。
模型。 已部署服务:选择部署至ModelArts Studio平台的模型进行评测。 外部服务:通过API的方式接入外部模型进行评测。选择外部服务时,需要填写外部模型的接口名称、接口地址、请求体、响应体等信息。 请求体支持openai、tgi、自定义三种格式。openai格式即是由
符,可将会话ID设置为任意值,使用标准UUID格式。 图2 获取应用调用路径-2 使用Postman调用API 获取Token。参考《API参考》文档“如何调用REST API > 认证鉴权”章节获取Token。 在Postman中新建POST请求,并填入应用的调用路径,详见获取调用路径。
使用该功能调用部署后的预置服务进行文本对话,支持设置人设和参数等。 使用“能力调测”调用NLP大模型 使用API调用NLP大模型 可调用API接口与NLP预置服务进行文本对话。 使用API调用NLP大模型 图2 科学计算预置模型使用流程图 表2 科学计算预置模型使用流程表 流程 子流程 说明
请改写命令案例,生成10个相似命令,保证每个命令都可以调用正确的指标接口。 请注意: 1. 命令必须契合人类常见的提问方式,命令方式必须保证多样化 2. 生成的命令只能改写命令案例中文表达部分的内容 指标接口名称:利润的平均值、市值的平均值 命令案例:科技行业公司的平均利润和市值是多少
填写后可通过大模型进行优化,单击“智能优化”,在 “Prompt优化”窗口中单击“确定”。 步骤3:添加预置插件 应用支持添加插件技能,可添加“预置插件”和“个人插件”。添加插件可以为应用配备更多技能,建议插件数量不超过5个。 本节示例将指导您添加名为python_interpreter的“预置插件”。
身份认证与访问控制 用户可以通过调用REST网络的API来访问盘古大模型服务,有以下两种调用方式: Token认证:通过Token认证调用请求。 AK/SK认证:通过AK(Access Key ID)/SK(Secret Access Key)加密调用请求。经过认证的请求总是需要
步骤5:配置提问器节点 配置一个提问器节点,用于向用户或系统提出问题,获取所需信息。 步骤6:配置插件节点 将外部API等集成到工作流中,以扩展功能或调用外部接口。 步骤7:配置判断节点 设置条件判断逻辑,根据不同情况分支到不同的流程路径。 步骤8:配置代码节点 配置自定义代码
盘古推理SDK简介 推理SDK概述 盘古大模型推理SDK是对REST API进行的封装,通过该SDK可以处理用户的输入,生成模型的回复,从而实现自然流畅的对话体验。 表1 推理SDK清单 SDK分类 SDK功能 支持语言 使用场景 推理SDK 对话问答(/chat/completions)
查看提示词评估结果 评估任务创建完成后,会跳转至“评估”页面,在该页面可以查看评估状态。 图1 查看提示词评任务状态 单击“评估名称”,进入评估任务详情页,可以查看详细的评估进度,例如在图2中有10条评估用例,当前已评估8条,剩余2条待评估。 图2 查看评估进展 评估完成后,可以查看每条数据的评估结果。
或本地环境中。平台支持多种部署模式,能够满足不同场景的需求。通过灵活的API接口,模型可以无缝集成到各类应用中。 模型调用:在模型部署后,用户可以通过模型调用功能快速访问模型的服务。平台提供了高效的API接口,确保用户能够方便地将模型嵌入到自己的应用中,实现智能对话、文本生成等功能。
一定的不足,例如,处理复杂、专业的内容时。 为了解决这些问题,构建一个自动化的多语言翻译工作流显得尤为重要。通过集成翻译工具(如机器翻译API、大型语言模型等),可以在保证翻译效率的同时,提升翻译质量,并根据实际场景和用户需求进行灵活调整。 本章将详细介绍如何利用不同的节点构建一
如何查看预置模型的历史版本 ModelArts Studio平台支持查看预置模型的多个历史版本,并提供对历史版本进行训练等操作的功能。您还可以查看每个版本的操作记录、状态以及其他基础信息。 要查看预置模型的历史版本,您可以按照以下步骤操作: 进入平台的“空间资产 > 模型 > 预置”页面。
查看NLP大模型部署任务详情 部署任务创建成功后,可以查看大模型部署任务详情,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,完成创建NLP大模型部署任务后,可以查看模型的部署状态。
查看NLP大模型评测报告 评测任务创建成功后,可以查看大模型评测任务报告,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型评测”。 单击操作列“评测报告”,在“评测报告”页面,可以查看评测任务的基本信息及评测概览。
查看预测大模型部署任务详情 部署任务创建成功后,可以查看大模型部署的任务详情,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,完成创建预测大模型部署任务后,可以查看模型的部署状态。
查看专业大模型部署任务详情 部署任务创建成功后,可以查看大模型部署的任务详情,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,完成创建专业大模型部署任务后,可以查看模型的部署状态。
查看NLP大模型训练状态与指标 模型启动训练后,可以在模型训练列表中查看训练任务的状态,单击任务名称可以进入详情页查看训练结果、训练任务详情和训练日志。 查看模型训练状态 在模型训练列表中查看训练任务的状态,各状态说明详见表1。 表1 训练状态说明 训练状态 训练状态含义 初始化
处理能力,使其在多样化的实际场景中更加高效地满足用户需求。 通过插件接入,用户可以为应用赋予大模型本身不具备的能力。插件提供丰富的外部服务接口,当任务执行时,模型会根据提示词感知适用的插件,并自动调用它们,从外部服务中获取结果并返回。这样的设计使得Agent能够智能处理复杂任务,