检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
调用NLP大模型 使用“能力调测”调用NLP大模型 使用API调用NLP大模型 统计NLP大模型调用信息 父主题: 开发盘古NLP大模型
加工文本类数据集 清洗文本类数据集 合成文本类数据集 标注文本类数据集 父主题: 加工数据集
加工图片类数据集 清洗图片类数据集 标注图片类数据集 父主题: 加工数据集
开发盘古预测大模型 使用数据工程构建预测大模型数据集 训练预测大模型 部署预测大模型
开发盘古专业大模型 部署专业大模型
组授权,才能使得用户组中的用户获得对应的权限。授权后,用户就可以基于被授予的权限对云服务进行操作。 服务使用OBS存储训练数据和评估数据,如果需要对OBS的访问权限进行细粒度的控制。可以在盘古服务的委托中增加Pangu OBSWriteOnly、Pangu OBSReadOnly策略,控制OBS的读写权限。
参数名称 参数说明 选择服务 模型来源 选择“NLP大模型”。 服务来源 支持已部署服务、外部服务两种选项。单次最多可评测10个模型。 已部署服务:选择部署至ModelArts Studio平台的模型进行评测。 外部服务:通过API的方式接入外部模型进行评测。选择外部服务时,需要填写外部
包周期资源到期后,如果您想继续使用服务,需要在保留期内进行手动续费,否则不能再对已过保留期的服务进行续费操作,需重新购买对应的服务。了解更多关于续费的信息,请参见续费。 欠费 在使用云服务时,账户的可用额度小于待结算的账单,即被判定为账户欠费。欠费后,可能会影响云服务资源的正常运行,需要及时充值。详细介绍请参见欠费说明。
通用”页签,单击“创意活动方案生成”进入该应用。 图1 “创意活动方案生成”应用 如图2,在应用页面,输入所需的活动主题与活动描述,单击“创作”。 图2 活动主题与描述 该预置应用将根据所输入的主题与描述,在“结果生成”中生成相应的创意活动方案。 图3 创意活动方案生成结果
部署模型”中,可选择模型以替换当前已部署的模型。 在“升级配置”中,选择以下两种升级模式: 全量升级:新旧版本服务同时运行,直至新版本完全替代旧版本。在新版本部署完成前,旧版本仍可使用。需要该服务所消耗资源的2倍,用于保障全量一次性升级。 滚动升级:部分实例资源空出用于滚动升级,逐个或逐批停止
部署模型”中,可选择模型以替换当前已部署的模型。 在“升级配置”中,选择以下两种升级模式: 全量升级:新旧版本服务同时运行,直至新版本完全替代旧版本。在新版本部署完成前,旧版本仍可使用。需要该服务所消耗资源的2倍,用于保障全量一次性升级。 滚动升级:部分实例资源空出用于滚动升级,逐个或逐批停止
训练智能客服系统大模型需考虑哪些方面 根据智能客服场景,建议从以下方面考虑: 根据企业实际服务的场景和积累的数据量,评估是否需要构建行业模型,如电商、金融等。 根据每个客户的金牌客服话术,可以对对话模型进行有监督微调,进一步优化其性能。 根据每个客户的实际对话知识,如帮助文档、案
应用中提供准确的预测结果。 应用与部署:当大模型训练完成并通过验证后,进入应用阶段。主要包括以下几个方面: 模型优化与部署:将训练好的大模型部署到生产环境中,可能通过云服务或本地服务器进行推理服务。此时要考虑到模型的响应时间和并发能力。 模型监控与迭代:部署后的模型需要持续监控其
定行业的专业知识和术语,从而深刻把握行业特性。这种快速学习与适应能力,为各行业企业和机构带来了极大的便利。它们可以根据具体需求,利用盘古大模型构建或优化业务流程,提高工作效率,降低运营成本,并为客户提供更精准、个性化的服务。 模型效果优秀 经过海量数据训练,盘古大模型在各种自然语
预测大模型支持接入的数据集类型 盘古预测大模型仅支持接入预测类数据集,不同模型所需数据见表1,该数据集格式要求请参见预测类数据集格式要求。 表1 预测大模型与数据集类型对应关系 基模型 模型分类 数据集内容 文件格式 预测大模型 时序预测模型 时序数据 csv 回归模型 异常检测模型 分类模型 回归分类数据
数据工程常见报错与解决方案 数据工程常见报错及解决方案请详见表1。 表1 数据工程常见报错与解决方案 功能模块 常见报错 解决方案 数据获取 File format mismatch, require [{0}]. 请检查创建数据集时使用的数据,与平台要求的文件内容格式是否一致。
人工标注与AI预标注两种形式。 其中,图片Caption、视频Caption标注项支持AI预标注功能。 通过数据加工操作,平台能够有效清理噪声数据、标准化数据格式,提升数据集的整体质量。 数据发布:平台提供了数据评估、数据配比、数据流通的发布操作,旨在通过数据质量评估与合理的比例
最大值:不同模型支持的token长度,请参见《产品介绍》“模型能力与规格 > 盘古NLP大模型能力与规格”章节。 缺省值:默认部署时token长度最大值,请参见《产品介绍》“模型能力与规格 > 盘古NLP大模型能力与规格”章节。 说明: token是指模型处理和生成文本的基本单位。