检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
质量标准 V1.0”,单击评估标准名称,可以查看具体的评估项。 图2 预置文本类数据集评估标准 在“评估标准”页面单击右上角“创建评估标准”,选择预置标准作为参考项,并填写“评估标准名称”和“描述”。 单击“下一步”,编辑评估项。 用户可以基于实际需求删减评估项,或创建自定义评估
质量标准 V1.0”,单击评估标准名称,可以查看具体的评估项。 图2 预置视频类数据集评估标准 在“评估标准”页面单击右上角“创建评估标准”,选择预置标准作为参考项,并填写“评估标准名称”和“描述”。 单击“下一步”,编辑评估项。 用户可以基于实际需求删减评估项,或创建自定义评估
缩。 模型部署:平台提供了一键式模型部署功能,用户可以轻松将训练好的模型部署到云端或本地环境中。平台支持多种部署模式,能够满足不同场景的需求。通过灵活的API接口,模型可以无缝集成到各类应用中。 模型调用:在模型部署后,用户可以通过模型调用功能快速访问模型的服务。平台提供了高效的
导出盘古大模型至其他局点 导出盘古大模型至其他局点前,请确保当前空间为该用户所创建的空间。 模型训练发布完成后,可以通过导出模型功能将本局点训练的模型导出,导出后的模型可以通过导入盘古大模型至其他局点,导入至其他局点进行使用。 以从环境A迁移模型到环境B为例: 登录环境B的ModelArts
创建NLP大模型部署任务 模型训练完成后,可以启动模型的部署操作。 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“模型开发 > 模型部署”,单击界面右上角“创建部署”。 在“创建部署”页面,模型类型选择“NLP大模
设置候选提示词 用户可以将效果较好的提示词设为候选提示词,并对提示词进行比对,以查看其效果。 每个工程任务下候选提示词上限9个,达到上限9个时需要删除其他候选提示词才能继续添加。 登录ModelArts Studio大模型开发平台,进入所需空间。 在左侧导航栏中选择“Agent 开发
当数据集中存在异常数据、噪声数据、或不符合分析需求的数据时,可以通过加工数据集进行处理,包括但不限于数据提取、过滤、转换、打标签等操作。 上线加工后的数据集 对加工后的数据集执行上线操作。 标注数据集(可选) 创建数据集标注任务 创建数据集标注任务,并对数据集执行标注操作,标注后的数据可以用于模型训练。 审核数据集标注结果
Studio大模型开发平台提供了全面的数据集质量评估工具,能够帮助用户从多个维度检测和优化数据集的质量。平台预设了多种数据类型的基础评估标准,用户可以直接使用这些标准,也可以根据具体的业务需求创建自定义的评估标准。通过这种灵活的配置方式,用户能够根据不同的应用场景和目标,精确地评估和优化数据质量,确
Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 单击左侧导航栏“调用统计”,选择“NLP”页签。 选择当前调用的NLP大模型,可以按照不同时间跨度查看当前模型的调用总数、调用失败的次数、调用的总Tokens数、以及输入输出的Tokens数等基本信息。 此外,该功能还提
不受其他空间的影响,从而保障数据和资源的隔离性与安全性。用户可以根据需求灵活划分工作空间,实现资源的有序管理与优化配置,确保各类资源在不同场景中的最大化利用。为进一步优化资源的管理,平台还提供了多种角色权限体系。用户可以根据自身角色从管理者到各模块人员进行不同层级的权限配置,确保
训练、优化、部署与调用等流程。pipeline编排流程可以基于python代码实现,也可以人工模拟每一步的执行情况。检索模块可以使用Elastic Search来搭建,也可以利用外部web搜索引擎。在初步验证大模型效果时,可以假设检索出的文档完全相关,将其与query及特定pro
此示例演示了如何调用盘古NLP大模型API实现文本对话功能。您将学习如何通过API接口发送请求,传递对话输入,并接收模型生成的智能回复。通过这一过程,您可以快速集成NLP对话功能,使应用具备自然流畅的交互能力。 准备工作 调用盘古NLP大模型API实现文本对话前,请确保您已完成NLP大模型的部
涵盖数据获取、加工、标注、评估和发布等关键环节,帮助用户高效构建高质量的训练数据集,推动AI应用的成功落地。具体功能如下: 数据获取:用户可以轻松将多种类型的数据导入ModelArts Studio大模型开发平台,支持的数据类型包括文本、图片、视频、气象、预测数据以及用户自定义的
创建科学计算大模型部署任务 模型训练完成后,可以启动模型的部署操作。 登录ModelArts Studio大模型开发平台,进入所需空间。 在左侧导航栏中选择“模型开发 > 模型部署”,单击界面右上角“创建部署”。 在“创建部署”页面,模型类型选择“科学计算大模型”,参考表1完成部署参数设置,启动模型部署。
ent设定人设、目标、核心技能、执行步骤。Agent会根据LLM对提示词的理解,来选择使用插件或知识库,响应用户问题。因此,一个好的提示词可以让LLM更好的理解并执行任务,Agent效果与提示词息息相关。 在应用详情页面的“Prompt builder”模块中,需要填入promp
如何评估微调后的盘古大模型是否正常 评估模型效果的方法有很多,通常可以从以下几个方面来评估模型训练效果: Loss曲线:通过Loss曲线的变化趋势来评估训练效果,确认训练过程是否出现了过拟合或欠拟合等异常情况。 模型评估:使用平台的“模型评估”功能,“模型评估”将对您之前上传的测
可进行对话互动、回答问题、协助创作。 盘古大模型(NLP大模型、科学计算大模型)在ModelArts Studio大模型开发平台部署后,可以通过API调用推理接口。 盘古仅提供技术能力,不对最终生成的内容负责,建议用户在使用服务的过程中,对模型生成的内容进行适当的审核和过滤,以保证内容的安全性。
发布其他类数据集 原始数据集和加工后的数据集不可以直接用于模型训练,需要独立创建一个“发布数据集”。 其他类数据集当前仅支持发布为“默认格式”,操作步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程
上线标注后的文本类数据集 数据集标注完成并且审核无问题后,需要对该数据集执行上线操作。上线后的数据集可以用于后续的数据评估、发布任务。 上线标注后的数据集步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程
上线标注后的视频类数据集 数据集标注完成并且审核无问题后,需要对该数据集执行上线操作。上线后的数据集可以用于后续的数据评估、发布任务。 上线标注后的数据集步骤如下: 登录ModelArts Studio大模型开发平台,进入所需操作空间。 图1 进入操作空间 在左侧导航栏中选择“数据工程