检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
撰写提示词 创建提示词工程 撰写提示词 预览提示词效果 父主题: 开发盘古大模型提示词工程
开发盘古科学计算大模型 使用数据工程构建科学计算大模型数据集 训练科学计算大模型 部署科学计算大模型 调用科学计算大模型
训练科学计算大模型 科学计算大模型训练流程与选择建议 创建科学计算大模型训练任务 查看科学计算大模型训练状态与指标 发布训练后的科学计算大模型 管理科学计算大模型训练任务 科学计算大模型训练常见报错与解决方案 父主题: 开发盘古科学计算大模型
部署科学计算大模型 创建科学计算大模型部署任务 查看科学计算大模型部署任务详情 管理科学计算大模型部署任务 父主题: 开发盘古科学计算大模型
评测NLP大模型 创建NLP大模型评测数据集 创建NLP大模型评测任务 查看NLP大模型评测报告 管理NLP大模型评测任务 父主题: 开发盘古NLP大模型
开发盘古CV大模型 使用数据工程构建CV大模型数据集 训练CV大模型 部署CV大模型
训练CV大模型 CV大模型训练流程与选择建议 创建CV大模型训练任务 查看CV大模型训练状态与指标 发布训练后的CV大模型 管理CV大模型训练任务 CV大模型训练常见报错与解决方案 父主题: 开发盘古CV大模型
训练预测大模型 预测大模型训练流程与选择建议 创建预测大模型训练任务 查看预测大模型训练状态与指标 发布训练后的预测大模型 管理预测大模型训练任务 预测大模型训练常见报错与解决方案 父主题: 开发盘古预测大模型
创建与管理知识库 知识库介绍 创建知识库 管理知识库 父主题: 开发盘古大模型Agent应用
模型训练任务正在进行初始化配置,准备开始训练。 已完成 模型训练已完成。 运行中 模型正在训练中,训练过程尚未结束。 创建失败 训练任务创建失败。 训练失败 模型训练过程中出现了非预期的异常情况,需查看日志定位训练异常原因。 训练异常 模型训练过程中出现了非预期的异常情况,需查看日志定位训练异常原因。
初始化 模型训练任务正在进行初始化配置,准备开始训练。 已完成 模型训练已完成。 运行中 模型正在训练中,训练过程尚未结束。 创建失败 训练任务创建失败。 训练失败 模型训练过程中出现了非预期的异常情况,需查看日志定位训练异常原因。 训练异常 模型训练过程中出现了非预期的异常情况,需查看日志定位训练异常原因。
应用会根据盘古NLP大模型对提示词的理解,来选择使用插件、工作流或知识库,响应用户问题。因此,一个好的提示词可以让模型更好地理解并执行任务,应用效果与提示词息息相关。 配置Prompt Builder步骤如下: 在“Prompt builder”模块,需要在输入框中填写Prompt提示词。 可依据
jackson版本要求请见pom.xml。 使用java sdk出现json解析报错 图1 json解析报错 服务端返回的数据格式不符合json格式,导致sdk侧解析json数据报错。 服务端返回的json数据不符合json反序列化的规则,和sdk定义的数据结构不一致,导致反序列化失败。 sdk json数据解析问题。
典型问题如下: 问题一:文本翻译插件运行失败,报错信息如图1。 图1 文本翻译插件运行失败 可能原因:调用文本翻译API的Token错误或失效。 解决方法:参考创建多语言文本翻译插件,重新获取Token并进行试运行。 问题二:文本翻译失败,如图2,工作流不输出翻译后的内容,始终处于提问状态。
Pangu-NLP-BI-32K-20241130 2024年11月发布的版本,支持32K序列长度推理,支持8个推理单元部署。 在选择和使用盘古大模型时,了解不同模型所支持的操作行为至关重要。不同模型在预训练、微调、模型压缩、在线推理和能力调测等方面的支持程度各不相同,开发者应
盘古大模型的模型订阅、数据托管单元、推理单元默认采用包周期计费,数据智算单元、数据通算单元默认采用按需计费,训练单元采用包周期和按需计费两种方式。 盘古大模型使用周期内不支持变更配置。
计费模式 包周期计费模式属于预付费模式,即先付费再使用。按需计费模式属于后付费模式,即费用根据服务实际消耗量计费,系统将每小时自动扣费。 盘古大模型的计费模式见表1。 表1 计费模式表 计费类别 计费项 计费模式 计费量纲 付费方式 计费周期 模型服务 模型订阅服务 包周期计费 套
如何判断盘古大模型训练状态是否正常 判断训练状态是否正常,通常可以通过观察训练过程中Loss(损失函数值)的变化趋势。损失函数是一种衡量模型预测结果和真实结果之间的差距的指标,正常情况下越小越好。 您可以从平台的训练日志中获取到每一步的Loss,并绘制成Loss曲线,来观察其变化趋势。一般来
通过对海量数据的深入学习和分析,盘古大模型能够捕捉语言中的细微差别和复杂模式,无论是在词汇使用、语法结构,还是语义理解上,都能达到令人满意的精度。此外,模型具备自我学习和不断进化的能力,随着新数据的持续输入,其性能和适应性不断提升,确保在多变的语言环境中始终保持领先地位。 应用场景灵活 盘古大模型具备强大的学习
大模型相关服务和产品,方便地构建自己的模型和应用。 数据工程工具链 数据是大模型训练的基础,为大模型提供了必要的知识和信息。数据工程工具链作为盘古大模型服务的重要组成部分,具备数据获取、清洗、数据合成、数据标注、数据评估、数据配比、数据流通和管理等功能。 该工具链能够高效收集和处