检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
请求URI 服务的请求URI即API服务的终端地址,通过该地址与API进行通信和交互。 URI获取步骤如下: 登录ModelArts Studio大模型开发平台。 进入所需工作空间。 获取请求URI。 获取模型请求URI。 若调用部署后的模型,可在左侧导航栏中选择“模型开发 >
集,用户可在其中使用盘古大模型预置的场景应用和外部应用,轻松体验大模型开箱即用的强大能力。 操作流程 使用盘古应用百宝箱生成创意活动方案的步骤如下: 登录ModelArts Studio大模型开发平台,进入所需空间。 在左侧导航栏中选择“Agent开发”,将跳转至Agent开发平台。
表执行“生成”操作,将生成“加工数据集”被平台统一管理,并用于后续的发布任务。 平台支持对加工数据集查看基本信息、数据血缘等管理操作,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“数据工程 > 数据加工
单个图片类数据集支持发布的格式为: 默认格式:平台默认的格式。 盘古格式:训练盘古大模型时,需要将数据集格式发布为“盘古格式”。 创建文本类数据集流通任务步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“数据工程 > 数据发布
创建知识库 创建知识库的步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“Agent开发”,跳转至Agent开发平台。 单击左侧导航栏“工作台”,在“知识库”页签,单击右上角“创建知识库”。 在“创建知识库
获取模型部署ID 模型部署ID获取步骤如下: 登录ModelArts Studio大模型开发平台。 获取模型请求URI。 若调用部署后的模型,可在左侧导航栏中选择“模型开发 > 模型部署”,在“我的服务”页签,模型部署列表单击模型名称,在“详情”页签中,可获取模型的部署ID。 图1
样性、平衡性和代表性。 如果单个数据集已满足您的需求,可跳过此章节至流通图片类数据集。 创建图片类数据集配比任务 创建图片类数据集配比任务步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“数据工程 > 数据发布
各个方面,帮助模型消耗更多的计算资源进行全面推理。这样,模型能够在多个推理步骤后得出更准确的结论,而不是直接跳到最终答案,减少了过度简化或跳跃推理的可能性。 分步推理与反馈:通过分步推理,模型能够在每个步骤后检查和修正自己的思考过程。 例如,在给定一个复杂的逻辑推理问题时,可以要
Models)通常指的是具有海量参数和复杂结构的深度学习模型,广泛应用于自然语言处理(NLP)等领域。开发一个大模型的流程可以分为以下几个主要步骤: 数据集准备:大模型的性能往往依赖于大量的训练数据。因此,数据集准备是模型开发的第一步。首先,需要根据业务需求收集相关的原始数据,确保数
样性、平衡性和代表性。 如果单个数据集已满足您的需求,可跳过此章节至流通文本类数据集。 创建文本类数据集配比任务 创建文本类数据集配比任务步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“数据工程 > 数据发布
该标准或在该标准的基础上创建评估标准。 若您希望使用平台预置的评估标准,可跳过此章节至创建图片类数据集评估任务。 创建图片类数据集评估标准步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“数据工程 > 数据发布
进入提问器节点。该节点主要负责提问用户翻译需求(如翻译文本、目标语言等)。 文本翻译插件节点:在翻译意图分支中,文本翻译插件节点负责调用华为云文本翻译API,实现从源语言到目标语言的翻译过程。插件将翻译结果返回,传递给结束节点。 大模型节点:如果用户的意图属于“其他”意图分支(如
登录环境B的ModelArts Studio大模型开发平台,在“空间资产 > 模型”页面,单击右上角的“导入模型”。 在“导入模型”页面,下载用户证书。 图1 下载用户证书 登录环境A的ModelArts Studio大模型开发平台,在“空间资产 > 模型 > 本空间”页面,单击支持导出的模型名称,右上角的“导出模型”。
用盘古NLP大模型创建Python编码应用 操作步骤 说明 步骤1:创建应用 本样例场景实现应用的创建。 步骤2:配置Prompt 本样例场景实现应用中的提示词配置。 步骤3:添加预置插件 本样例场景实现应用的插件配置。 步骤4:配置对话体验 本样例场景实现应用的对话体验配置。 步骤5:调试应用 本样例场景实现应用的调试。
工作流编排流程见表1。 表1 工作流编排流程 操作步骤 说明 步骤1:创建工作流 创建一个新的工作流。 步骤2:配置开始节点 设定工作流的起始点。 步骤3:配置大模型节点 将大模型节点加入工作流,用于处理复杂的自然语言理解或生成任务。 步骤4:配置意图识别节点 配置该节点来分析用户输入,识别其意图,以便后续处理。
进入“工作台 > 插件”页面。 导出插件。 单击页面右上角“导出”。 在“导出插件”页面选择工作流,单击“导出”。插件将以一个jsonl格式的文件下载至本地。 导入插件。 单击页面右上角“导入”。 在“导入”页面,单击“选择文件”选择需要导入的jsonl文件。 选择导入文件后,选择解析内容。
进入“工作台 > 应用”页面。 导出应用。 单击页面右上角“导出”。 在“导出应用”页面选择应用,单击“导出”。应用将以一个jsonl格式的文件下载至本地。 导入应用。 单击页面右上角“导入”。 在“导入”页面,单击“选择文件”选择需要导入的jsonl文件。 选择导入文件后,选择解析内容。
> 工作流”页面。 导出工作流。 单击页面右上角“导出”。 在“导出工作流”页面选择工作流,单击“导出”。工作流将以一个jsonl格式的文件下载至本地。 导入工作流。 单击页面右上角“导入”。 在“导入”页面,单击“选择文件”选择需要导入的jsonl文件。 选择导入文件后,选择解析内容。
的URI模块获取。 query-string 查询参数,可选,查询参数前面需要带一个“?”,形式为“参数名=参数取值”。 获取请求URI的步骤详见请求URI,示例如下: https://{endpoint}/v1/{project_id}/deployments/{deploym
压缩功能。 推理资源:推理单元可用于NLP、CV、专业大模型的模型推理功能, 模型实例可用于预测、科学计算大模型的模型推理功能。 具体订购步骤如下: 使用主账户登录ModelArts Studio大模型开发平台,单击“立即订购”进入“订购”页面。 在“开发场景”中勾选需要订购的大