检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
或缺的重要步骤。 数据工程操作流程见图1、表1。 图1 数据集构建流程图 表1 数据集构建流程表 流程 子流程 说明 导入数据至盘古平台 创建导入任务 将存储在OBS服务中的数据导入至平台统一管理,用于后续加工或发布操作。 加工数据集 清洗数据集 通过专用的清洗算子对数据进行预处
2024年12月发布的版本,支持根据历史时间序列数据来预测未来的值,广泛应用于金融、销售预测、天气预报、能源消耗预测等领域。 在选择和使用盘古大模型时,了解不同模型所支持的操作行为至关重要。不同模型在预训练、微调、模型评测、模型压缩、在线推理和能力调测等方面的支持程度各不相同,开发者应根据
训练状态含义 初始化 模型训练任务正在进行初始化配置,准备开始训练。 已完成 模型训练已完成。 运行中 模型正在训练中,训练过程尚未结束。 创建失败 训练任务创建失败。 训练失败 模型训练过程中出现了非预期的异常情况,需查看日志定位训练异常原因。 训练异常 模型训练过程中出现了非预期的异常情况,需查看日志定位训练异常原因。
进行工作流的调试,确保各节点正常运行。 步骤1:创建工作流 创建工作流的步骤如下: 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“Agent开发”,跳转至Agent开发平台。 单击左侧导航栏“工作台”,在“工作流”页签,单击右上角“创建工作流”。 在
的能力,引导模型生成更准确、更有针对性的输出,从而提高模型在特定任务上的性能。 在创建提示词工程前,可以先使用预置的提示词模板,或基于提示词模板进行改造 。如果提示词模板满足不了使用需求可再单独创建。 提示词模板可在平台“Agent 开发 > 提示词工程 > 提示词模板”中获取。
挥盘古大模型在实际业务中的价值。 快速入门 使用盘古预置NLP大模型进行文本对话 使用盘古应用百宝箱生成创意活动方案 使用盘古NLP大模型创建Python编码助手应用 05 实践 通过基模型训练出行业大模型和提示词写作的最佳实践,您将深入掌握行业模型的定制化流程与高效提示词构建方
在“导出模型”页面,选择需要导出的模型,应设置导出模型时对应的导出位置(OBS桶地址),添加从环境B中下载的用户证书。设置完成后单击“确定”导出模型。 图2 导出模型 导入其他局点盘古大模型 导入盘古大模型前,请确保当前空间为该用户所创建的空间。 导入模型功能可以将其他局点训练的模型导入本局点进行使用。
服务器等待请求发生超时。 客户端可以随时再次提交该请求而无需进行任何更改。 409 Conflict 服务器在完成请求时发生冲突。 返回该状态码,表明客户端尝试创建的资源已经存在,或者由于冲突请求的更新操作不能被完成。 410 Gone 客户端请求的资源已经不存在。 返回该状态码,表明请求的资源已被永久删除。
从而通过身份认证,获得操作API的权限。 Token的有效期为24小时,需要使用一个Token鉴权时,可以先缓存,避免频繁调用。 如果您的华为云账号已升级为华为账号,将不支持获取账号Token。建议为您自己创建一个IAM用户,获取IAM用户的Token。 获取Token方法: T
平台提供了Prompt提示词工程和插件自定义等功能,帮助用户在无需编写代码的情况下,快速构建、调优并运行属于自己的大模型应用。通过简单的配置,用户可以轻松创建Agent应用,快速体验智能化应用的便捷性。 平台提供导入知识功能,支持用户存储和管理数据,并与AI应用进行互动。支持多种格式的本地文档(
自监督学习(Self-Supervised Learning,简称SSL)是一种机器学习方法,它从未标记的数据中提取监督信号,属于无监督学习的一个子集。该方法通过创建“预设任务”让模型从数据中学习,从而生成有用的表示,可用于后续任务。它无需额外的人工标签数据,因为监督信号直接从数据本身派生。 有监督学习
AppCode值,获取AppCode步骤如下: 登录ModelArts Studio平台,进入所需空间。 在左侧导航栏中选择“模型开发 > 应用接入”,单击界面右上角“创建应用接入”。 在“应用配置”中,选择已部署好的大模型,单击“确定”。 在“应用接入”列表的“APP Code”操作列中可获取APPCode值。
中控模块:盘古-NLP-N1-基础功能模型 说明:该模块需要实现意图识别分类的功能。当输入意图识别模块的是政务问题时,控制下游调用检索模块;当输入不需要调用检索的非政务问题时,不调用检索,直接模型回答问题。实现方法为通过微调获得一个具有二分类能力的模型。 问答模块:盘古-NLP-N2-基础功能模型
Explorer中具体API页面的“代码示例”页签查看对应编程语言类型的SDK代码。 图1 获取SDK代码示例 当您在中间填充栏填入对应内容时, 右侧代码示例会自动完成参数的组装。 图2 设置输入参数 填写输入参数时,deployment_id为模型部署ID,获取方式如下: 若调用部署后的模型,可在左侧导航栏中选择“模型开发
在“扩缩容”页面完成当前资源的扩缩容操作,平台将根据扩缩容前后的规格差异支付或退还费用差价。 缩容可能会影响进行中的任务以及后续任务的创建,缩容前,请先确认需要缩容的资源已释放。 父主题: 准备工作
请检查调用API时是否有传入认证鉴权信息。 PANGU.0031 Inner service exception. 服务内部异常。 请联系服务技术支持协助解决。 PANGU.3305 call cal tokens failed 获取token错误。 请检查调用API时使用的token是否完整,是否存在错误。
通用质量评估 针对文本进行通用质量的评估,例如流畅度、清晰度、丰富度等。 说明: 使用该清洗算子前,请确保有已部署的NLP大模型,具体步骤详见创建NLP大模型部署任务。 父主题: 数据集清洗算子介绍
管理NLP大模型评测任务 管理评测任务 在评测任务列表中,任务创建者可以对任务进行克隆(复制评测任务)、启动(重启评测任务)和删除操作。 登录ModelArts Studio大模型开发平台,在“我的空间”模块,单击进入所需空间。 在左侧导航栏中选择“模型开发 > 模型评测”,可进行如下操作:
DELETE:请求服务器删除指定资源,如删除对象等。 HEAD:请求服务器资源头部。 PATCH:请求服务器更新资源的部分内容。当资源不存在的时候,PATCH可能会去创建一个新的资源。 在接口的URI部分,请求方法为“POST”,例如: POST https://{endpoint}/v1/{project
海洋模型 创建推理作业 查询推理作业详情 父主题: 科学计算大模型