检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
管理”。 在“订购管理”页面,单击“模型订购”页签,在订阅模型列表单击操作列“退订”。 模型资产退订后不影响运行中的模型训练、压缩、评测、部署等任务,但退订之后将无法再选择该模型创建任务,请谨慎操作。 退订属于高危操作,在退订模型资产前,请确保您已保存所有必要的数据和进度,以避免不必要的损失。
开发盘古科学计算大模型 使用数据工程构建科学计算大模型数据集 训练科学计算大模型 部署科学计算大模型 调用科学计算大模型
开发盘古NLP大模型 使用数据工程构建NLP大模型数据集 训练NLP大模型 压缩NLP大模型 部署NLP大模型 评测NLP大模型 调用NLP大模型
盘古科学计算大模型微调训练实践 微调场景介绍 构建微调训练任务数据集 构建微调训练任务 构建部署任务 微调典型问题 父主题: 模型训练实践
130 2024年11月发布的版本,支持4K序列长度推理,支持4个推理单元部署。 Pangu-NLP-BI-32K-20241130 2024年11月发布的版本,支持32K序列长度推理,支持8个推理单元部署。 在选择和使用盘古大模型时,了解不同模型所支持的操作行为至关重要。不同模
project_id 是 String 项目ID,获取方法请参见获取项目ID。 deployment_id 是 String 模型的部署ID,获取方法请参见获取模型部署ID。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。
单击“下一步”,进入“指令编排”页面。 在左侧“添加指令”中添加预置指令。 指令选择完成后,配置指令参数。 下图展示了预训练文本类数据集的合成指令参数配置示例,该合成任务实现利用预训练文本生成问答对。 图1 预训练文本类数据集合成指令参数配置示例 8. 指令编排完成后,单击右上角“启用调测”,可以对当前编排的指令效果进行预览。
其中,“单轮问答”标注项支持“AI辅助标注”功能,若开启该功能,需要选择已部署的NLP服务作为AI辅助标注模型。 可选择开启“多人作业”功能,开启后,可选择多人协同完成作业,并增加审核功能可供选择。参考表2配置标注分配与审核。 表2 标注分配与审核配置 参数类型 参数名称 参数说明 标注分配 标注员 添加标注人员与数量。
配置服务访问授权 配置OBS访问授权 ModelArts Studio大模型开发平台使用对象存储服务(Object Storage Service,简称OBS)进行数据存储,实现安全、高可靠和低成本的存储需求。因此,为了能够顺利进行存储数据、训练模型等操作,需要用户配置访问OBS服务的权限。
布的模型,所有这些模型将存放于空间资产中进行统一管理。用户可查看预置模型的历史版本和操作记录,还可以执行模型的进一步操作,包括训练、压缩、部署等。此外,平台支持导出和导入盘古大模型的功能,使用户能够将其他局点的盘古大模型迁移到本局点,便于模型资源共享。 父主题: 管理盘古大模型空间资产
调试应用的步骤如下: 在页面右上角单击“”,参考表2配置大模型参数。 表2 大模型参数配置 参数 说明 模型选择 选择要使用的大模型,不同的模型效果存在差异。 该模型需提前部署,步骤请参见创建NLP大模型部署任务。 模式选择 用于配置大模型的输出多样性。 包含取值: 精确的:模型的输
用户可以根据需求灵活划分工作空间,实现资源的有序管理与优化配置,确保各类资源在不同场景中的最大化利用。为进一步优化资源的管理,平台还提供了多种角色权限体系。用户可以根据自身角色从管理者到各模块人员进行不同层级的权限配置,确保每个用户在其指定的工作空间内,拥有合适的访问与操作权限
请检查插件服务是否有问题导致无法连接。 认证鉴权 110000 认证失败。 查看认证配置。 110001 用户信息获取失败。 查看用户信息是否正确配置。 工作流 112501 工作流认证失败。 查看认证配置。 112502 缺少必要参数。 从打印日志可以看出当前缺失何种参数。 112503
步处理并最终输出答案,展示在前端界面。 在该框架中,query改写模块、中控模块和问答模块由大模型具体实现,因此涉及到大模型的训练、优化、部署与调用等流程。pipeline编排流程可以基于python代码实现,也可以人工模拟每一步的执行情况。检索模块可以使用Elastic Sea
running or have been deleted. 推理服务状态异常。 请检查调用API时deploymentId是否正确,并检查模型的部署状态是否存在异常,如果仍无法解决请联系服务技术支持协助解决。 PANGU.3267 qps exceed the limit. QPS超出限制。
本场景采用了下表中的推理参数进行解码,您可以在平台部署后参考如下参数调试: 表3 推理核心参数设置 推理参数 设置值 最大Token限制(max_token) 4096 温度(temperature) 0.3 核采样(top_p) 1.0 话题重复度控制(presence_penalty) 0 部署推理服务后,可以
本场景采用了下表中的推理参数进行解码,您可以在平台部署后参考如下参数调试: 表2 推理核心参数设置 推理参数 设置值 最大Token限制(max_token) 1024 温度(temperature) 0.3 核采样(top_p) 0.8 话题重复度控制(presence_penalty) 0 部署推理服务后,可以
针对文本进行语法质量的评估,例如相关性、规范性等。 使用数据打标的通用质量评估、问题时效性评估、回答质量评分、语法质量评估算子前,请确保有已部署的NLP大模型,具体步骤详见创建NLP大模型部署任务。 父主题: 数据集加工算子介绍
在“创建训练任务”页面进行配置。 训练配置:按照图1所示进行配置。 本案例选择的基础模型为“Pangu-AI4S-Ocean_Regional_24h-3.1.0”。 图1 训练配置 数据配置:选择构建微调训练任务数据集中构建的微调训练数据集,参考表1完成配置,配置示例如图2。 表1 训练参数说明
型训练要求。通过平台提供的数据发布功能,用户能够根据具体任务需求,灵活选择数据发布格式,保证数据的兼容性与一致性,从而为后续模型训练和应用部署打下坚实基础。 支持数据发布的数据集类型 支持数据发布的数据集类型见表1。 表1 支持数据发布的数据集类型 数据类型 数据评估 数据发布 文本类