检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
当前,基于Agent平台可以构建两种类型的应用,一种是针对文本生成、文本检索的知识型Agent,如搜索问答助手、代码生成助手等,执行主体在大模型;另一种是针对复杂工作流场景的流程型Agent,如金融分析助手、网络检测助手等。 知识型Agent:以大模型为任务执行核心,用户通过配置Pro
基于上述功能,平台还提供了灵活的工作流设计功能,支持用户编写少量代码来构建逻辑复杂、稳定性要求高的Agent应用。通过拖拉拽方式,开发者可以组合各种组件(如LLM、代码、意图识别等),快速搭建工作流,实现更高效的应用开发。 父主题: 产品功能
起报时间间隔小时数,默认6。 forecast_lead_hours Long 预报未来小时数,默认168。 draw_figures String 是否输出结果图片,取值true/false,默认true。 forecast_features String 确定性预报的输出要素,例如“Surface:U;1000:T;800:
应的评估数据集。 提示词变量是一种可以在文本生成中动态替换的占位符,用于根据不同的场景或用户输入生成不同的内容。其中,变量名称可以是任意的文字,用于描述变量的含义或作用。 提示词评估数据集约束限制 上传文件限xlsx格式。 数据行数不小于10行,不大于50行。 数据不允许相同表头,表头数量小于20个。
式、自定义格式,可按需进行数据集格式转换。 默认格式:平台默认的格式。 盘古格式:训练盘古大模型时,需要进行数据集格式转换。当前仅文本类、图片类数据集支持转换为盘古格式。 自定义格式:文本类数据集可以使用自定义脚本进行数据格式转换。 父主题: 使用数据工程准备与处理数据集
单击“确定”,完成参数配置。 连接大模型组件和其他组件。 配置意图识别组件 意图识别组件用于根据用户的输入进行分类并导向后续不同的处理流程。 意图识别组件一般位于工作流前置位置。在对用户的输入进行意图识别时,意图识别组件会通过大模型推理,匹配用户输入与开发者预先定义的描述类别的关键字,并根据匹配结果流向对应处理流程。
Long 预报未来小时数,默认168。如需预报未来30天,可将此参数设置成720。 draw_figures 否 String 是否输出结果图片,取值true/false,默认true。 forecast_features 否 String 确定性预报的输出要素,例如“Surface:U;1000:T;800:
起报时间间隔小时数,默认6。 forecast_lead_hours Long 预报未来小时数,默认168。 draw_figures String 是否输出结果图片,取值true/false,默认true。 forecast_features String 确定性预报的输出要素,例如“Surface:U;1000:T;800:
默认格式:平台默认的格式。 盘古格式:训练盘古大模型时,需要进行数据集格式转换。当前仅文本类、图片类数据集支持转换为盘古格式。 发布文本类数据集 开发盘古NLP大模型 训练NLP大模型 进行模型的训练,如预训练、微调等训练方式。 训练NLP大模型 压缩NLP大模型 通过模型压缩可以降低推理显存占用,节省推理资源提高推理性能。
GET:请求服务器返回指定资源。 PUT:请求服务器更新指定资源。 POST:请求服务器新增资源或执行特殊操作。 DELETE:请求服务器删除指定资源,如删除对象等。 HEAD:请求服务器资源头部。 PATCH:请求服务器更新资源的部分内容。当资源不存在的时候,PATCH可能会去创建一个新的资源。
提示词也称为Prompt,是与大模型进行交互的输入,可以是一个问题、一段文字描述或者任何形式的文本输入。 提示词要素 指令:要求模型执行的具体任务或回答的问题。如:“写一篇关于勇士的小说”、“天空为什么是蓝色的?” 说明:对任务要求的补充说明。如:“有冒险、友情等元素”、“生成文本少于200字” 上
可以尝试修改参数以查看模型效果,示例如下: 将“核采样”参数调小,如改为0.1,保持其他参数不变,单击“重新生成”,再单击“重新生成”,可以看到模型前后两次回复内容的多样性降低。 图2 “核采样”参数调小后生成结果1 图3 “核采样”参数调小后生成结果2 将“核采样”参数调大,如改为1,保持其他参数不变,单击“重
称和描述,单击“下一步”。 图2 选择数据集 在加工步骤编排页面展示了预先设置好的开始、结束步骤。在左侧“添加算子”分页可选择合适的算子,如个人数据脱敏、文本长度过滤等。 导入的数据集格式为“JSONL”,因此默认添加了JSON内容提取算子。 图3 加工算子编排 单击各算子右上角的图标可进行拖动,调整算子的编排顺序。
NLP大模型”,单击“从资产选模型”,选择步骤7:压缩NLP大模型步骤中压缩后的模型。 选择部署方式“云上部署”,选择最大TOKEN长度,如“4096”,选择架构类型“ARM”。 在“资源配置”中配置实例数,如“1”,“安全护栏”功能已默认开启。 填写服务名称及描述,单击“立即部署”,启动模型部署。
调用盘古NLP大模型API实现文本对话 场景描述 此示例演示了如何调用盘古NLP大模型API实现文本对话功能。您将学习如何通过API接口发送请求,传递对话输入,并接收模型生成的智能回复。通过这一过程,您可以快速集成NLP对话功能,使应用具备自然流畅的交互能力。 准备工作 调用盘古
使用API调用NLP大模型 模型部署成功后,可以通过“文本对话”API调用NLP大模型。 表1 NLP大模型API清单 API分类 API访问路径(URI) 文本对话 /v1/{project_id}/deployments/{deployment_id}/chat/completions
如何判断盘古大模型训练状态是否正常 判断训练状态是否正常,通常可以通过观察训练过程中Loss(损失函数值)的变化趋势。损失函数是一种衡量模型预测结果和真实结果之间的差距的指标,正常情况下越小越好。 您可以从平台的训练日志中获取到每一步的Loss,并绘制成Loss曲线,来观察其变化
使用API调用科学计算大模型 使用API调用科学计算大模型步骤如下: 登录ModelArts Studio大模型开发平台,进入所需空间。 单击左侧“模型开发 > 模型部署”。 若调用已部署的模型,单击状态为“运行中”的模型名称,在“详情”页签,可获取API的URL。 图1 获取已部署模型的调用路径
创建提示词工程 通过精心设计和优化提示词,可以引导大模型生成用户期望的输出。提示词工程任务的目标是通过设计和实施一系列的实验,来探索如何利用提示词来提高大模型在各种任务上的表现。 撰写提示词前需要先创建提示词工程,用于对提示词进行统一管理。 登录ModelArts Studio大模型开发平台,进入所需空间。
认证鉴权 调用接口有如下两种认证方式,您可以选择其中一种进行认证鉴权。 Token认证:通过Token认证调用请求。 AK/SK认证:通过AK(Access Key ID)/SK(Secret Access Key)加密调用请求。 Token认证 Token在计算机系统中代表令牌