云服务器内容精选

  • 盘古NLP大模型能力与规格 盘古NLP大模型是业界首个超千亿参数的中文预训练大模型,结合了大数据预训练和多源知识,借助持续学习不断吸收海量文本数据,持续提升模型性能。除了实现行业知识检索、文案生成、阅读理解等基础功能外,盘古NLP大模型还具备模型调用等高级特性,可在智能客服、创意营销等多个典型场景中,提供强大的AI技术支持。 ModelArts Studio大模型开发平台为用户提供了多种规格的NLP大模型,以满足不同场景和需求。不同模型在处理上下文token长度和功能上有所差异,以下是当前支持的模型清单,您可以根据实际需求选择最合适的模型进行开发和应用。 表1 盘古NLP大模型规格 模型支持区域 模型名称 可处理最大上下文长度 可处理最大输出长度 说明 西南-贵阳一 Pangu-NLP-N1-Chat-32K-20241130 32K 4K 2024年11月发布的版本,支持8K序列长度训练,4K/32K序列长度推理。全量微调、LoRA微调8个训练单元起训,1个推理单元即可部署。 Pangu-NLP-N1-Chat-128K-20241130 128K 4K 2024年11月发布的版本,仅支持128K序列长度推理。 Pangu-NLP-N2-Base-20241030 - 4K 2024年11月发布的版本,仅支持模型增量预训练。32个训练单元起训,预训练后的模型版本需要通过微调之后,才可支持推理部署。 Pangu-NLP-N2-Chat-32K-20241030 32K 4K 2024年10月发布版本,支持8K序列长度训练,4K/32K序列长度推理。全量微调32个训练单元起训,LoRA微调8个训练单元起训,4个推理单元即可部署。此模型版本差异化支持预训练特性、INT8量化特性。 Pangu-NLP-N2-32K-3.1.35 32K 4K 2024年12月发布版本,支持8K序列长度训练,4K/32K序列长度推理。全量微调32个训练单元起训,LoRA微调8个训练单元起训,4个推理单元即可部署,4K支持64并发,32K支持64并发。此模型版本差异化支持预训练特性、INT8量化特性。 Pangu-NLP-N2-128K-3.1.35 128K 4K 2024年12月发布的版本,仅支持128K序列长度推理部署。 Pangu-NLP-N2-256K-3.1.35 256K 4K 2024年12月发布的版本,仅支持256K序列长度推理部署。 Pangu-NLP-N4-Chat-4K-20241130 32K 4K 2024年11月发布的版本,支持4K序列长度训练,4K序列长度推理。全量微调64个训练单元起训,LoRA微调32个训练单元起训,8个训练单元即可部署。此模型版本差异化支持预训练、INT8/INT4量化特性。 Pangu-NLP-N4-Chat-32K-20241130 32K 4K 2024年11月发布的版本,仅支持32K序列长度推理部署。 在选择和使用盘古大模型时,了解不同模型所支持的操作行为至关重要。不同模型在预训练、微调、模型评测、在线推理和能力调测等方面的支持程度各不相同,开发者应根据自身需求选择合适的模型。以下是盘古NLP大模型支持的具体操作: 表2 盘古NLP大模型支持的能力 模型 预训练 微调 模型评测 模型压缩 在线推理 能力调测 Pangu-NLP-N1-Chat-32K-20241130 - √ √ √ √ √ Pangu-NLP-N1-Chat-128K-20241130 - - √ - √ √ Pangu-NLP-N2-Base-20241030 √ - √ - - - Pangu-NLP-N2-Chat-32K-20241030 - √ √ √ √ √ Pangu-NLP-N2-32K-3.1.35 √ √ √ √ √ √ Pangu-NLP-N2-128K-3.1.35 - - √ - √ √ Pangu-NLP-N2-256K-3.1.35 - - √ - √ √ Pangu-NLP-N4-Chat-4K-20241130 - √ √ √ √ √ Pangu-NLP-N4-Chat-32K-20241130 - √ √ √ √ √ 父主题: 模型能力与规格