检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
备和处理数据,才能提取出有价值的信息,从而更好地支持模型训练。因此,数据的采集、清洗、标注、评估、发布等环节,成为数据开发中不可或缺的重要步骤。 数据工程操作流程见图1、表1。 图1 数据集构建流程图 表1 数据集构建流程表 流程 子流程 说明 导入数据至盘古平台 创建导入任务
创建导入任务 创建导入任务前,请先按照数据集格式要求提前准备数据。 平台支持使用OBS服务导入数据,请详见通过控制台快速使用OBS。 创建导入任务步骤如下: 登录ModelArts Studio大模型开发平台,单击进入操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程 > 数据获取
该标准或在该标准的基础上创建评估标准。 若您希望使用平台预置的评估标准,可跳过此章节至创建文本类数据集评估任务。 创建文本类数据集评估标准步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“数据工程 > 数据发布
该标准或在该标准的基础上创建评估标准。 若您希望使用平台预置的评估标准,可跳过此章节至创建视频类数据集评估任务。 创建视频类数据集评估标准步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“数据工程 > 数据发布
表执行“生成”操作,将生成“发布数据集”被平台统一管理,并用于后续的发布任务。 平台支持对发布数据集查看基本信息、数据血缘等管理操作,具体步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“数据工程 > 数据发布
样性、平衡性和代表性。 如果单个数据集已满足您的需求,可跳过此章节至流通图片类数据集。 创建图片类数据集配比任务 创建图片类数据集配比任务步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“数据工程 > 数据发布
样性、平衡性和代表性。 如果单个数据集已满足您的需求,可跳过此章节至流通文本类数据集。 创建文本类数据集配比任务 创建文本类数据集配比任务步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“数据工程 > 数据发布
各个方面,帮助模型消耗更多的计算资源进行全面推理。这样,模型能够在多个推理步骤后得出更准确的结论,而不是直接跳到最终答案,减少了过度简化或跳跃推理的可能性。 分步推理与反馈:通过分步推理,模型能够在每个步骤后检查和修正自己的思考过程。 例如,在给定一个复杂的逻辑推理问题时,可以要
该标准或在该标准的基础上创建评估标准。 若您希望使用平台预置的评估标准,可跳过此章节至创建图片类数据集评估任务。 创建图片类数据集评估标准步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“数据工程 > 数据发布
本样例场景实现应用的创建。 步骤2:配置Prompt 本样例场景实现应用中的提示词配置。 步骤3:添加预置插件 本样例场景实现应用的插件配置。 步骤4:配置对话体验 本样例场景实现应用的对话体验配置。 步骤5:调试应用 本样例场景实现应用的调试。 步骤1:创建应用 创建应用的步骤如下: 登录ModelArts
在“高级配置”中配置提示词。单击“确定”,完成参数配置。 图6 意图识别节点参数配置 配置“提示器”节点。 鼠标拖动左侧“提问器”节点至编排页面,并连接“意图识别”的“文本翻译”意图节点与该节点,单击该节点进行配置。 在“参数配置”中,配置输入参数,如图7。 图7 配置输入参数 配置输出参数。如图8,单击“引用插件
意图识别节点为可选节点,若无需配置,可跳过该步骤。 意图识别节点配置步骤如下: 拖动左侧“意图识别”节点至画布中,单击该节点以打开节点配置页面。 参照表3,完成意图识别节点的配置。 表3 意图识别节点配置说明 配置类型 参数名称 参数说明 参数配置 输入参数 参数名称:默认名称input,为固定值,不可编辑。
单击“完成”,完成用户组授权。 图5 完成授权 创建盘古子用户 创建盘古子用户步骤如下: 使用主账号登录IAM服务控制台。 左侧导航窗格中,选择“用户”页签,单击右上方的“创建用户”。 图6 创建用户 配置用户基本信息,单击“下一步”。 配置用户信息时,需要勾选“编程访问”,如果未勾选此项,会导致I
请确保您有预置的NLP大模型,并已完成模型的部署操作,详见《用户指南》“开发盘古NLP大模型 > 部署NLP大模型 > 创建NLP大模型部署任务”。 使用“能力调测”功能 调用API接口 “能力调测”功能支持用户直接调用已部署的预置服务,使用步骤如下: 登录ModelArts Studio大模型开发平台,进入所需空间。
插件、判断、代码和消息节点。 创建工作流时,每个节点需要配置不同的参数,如输入和输出参数等,开发者可通过拖、拉、拽可视化编排更多的节点,实现复杂业务流程的编排,从而快速构建应用。 工作流方式主要面向目标任务包含多个复杂步骤、对输出结果成功率和准确率有严格要求的复杂业务场景。 父主题:
需空间。 获取调用路径。 在左侧导航栏中选择“模型开发 > 模型部署”。 获取已部署模型的调用路径。在“我的服务”页签,单击状态为“运行中”的模型名称,在“详情”页签,可获取模型调用路径,如图1。 图1 获取已部署模型的调用路径 获取预置服务的调用路径。在“预置服务”页签中,选择
参数-类型-解释表中\n\n以下是你的思考过程:\n步骤1.根据用户问题从指标-解释表中得到metrics中caption的值,格式为:\"metrics\":[{\"caption\":\"xx\"}],不要超过两个\n步骤2.根据用户问题从参数-类型-解释表中得到dimens
使用API调用科学计算大模型 预置模型或训练后的模型部署成功后,可以使用API调用科学计算大模型。 获取调用路径 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 获取调用路径。 在左侧导航栏中选择“模型开发 > 模型部署”。 获取已部署模型的调用路径。在“我的服
性。 模型压缩:在模型部署前,进行模型压缩是提升推理性能的关键步骤。通过压缩模型,能够有效减少推理过程中的显存占用,节省推理资源,同时提高计算速度。当前,平台支持对NLP大模型进行压缩。 模型部署:平台提供了一键式模型部署功能,用户可以轻松将训练好的模型部署到云端或本地环境中。平
压缩功能。 推理资源:推理单元可用于NLP、CV、专业大模型的模型推理功能, 模型实例可用于预测、科学计算大模型的模型推理功能。 具体订购步骤如下: 使用主账户登录ModelArts Studio大模型开发平台,单击“立即订购”进入“订购”页面。 在“开发场景”中勾选需要订购的大