[快速入门]国内ai大模型哪家最好用
大模型混合云

全链路专业服务,让模型从可用到好用 · 6阶段30+专业服务,覆盖模型建设全流程,加速政企落地大模型 · 创新运营服务模式,实现全场景模型经验沉淀、全流程运营赋能产业,快速孵化模型场景化应用 模型混合云十创新技术 模型混合云十创新技术 了解详情 十创新技术 加速构建企业专属大模型

盘古大模型 panguLM

盘古大模型:解决行业难题,释放AI生产力 盘古模型:解决行业难题,释放AI生产力 5基础模型,夯实基础能力 5基础模型,夯实基础能力 盘古NLP模型 业界首个超千亿参数的中文预训练模型 盘古CV模型 基于海量图像、视频数据和盘古独特技术构筑的视觉基础模型 盘古多模态模型 融合语言和

盘古预测大模型

盘古模型 概览 盘古NLP模型 盘古CV模型 盘古多模态模型 盘古预测模型 盘古科学计算模型 概览 盘古NLP模型 盘古CV模型 盘古多模态模型 盘古预测模型 盘古科学计算模型 盘古预测模型 盘古预测模型 AI for Industries 模型赋能千行百业

盘古NLP大模型

盘古NLP模型 盘古NLP模型 贴合行业落地的NLP模型 AI for Industries 模型重塑千行百业 专家咨询 数据清洗 预置15+丰富的清洗算子 超长序列 支持32K长序列上下文能力 高效训推 覆盖全链路的训推工具 安全防护 支持模型加密与模型混淆保护 功能介绍

盘古科学计算大模型

盘古科学计算模型 盘古科学计算模型 AI for Industries 模型赋能千行百业 AI for Industries 模型赋能千行百业 科学计算模型是面向气象、医药、水务、机械、航天航空等领域,融合AI数据建模和AI方程求解的方法;从海量的数据中提取出数理规律,

盘古多模态大模型

盘古模型 概览 盘古NLP模型 盘古CV模型 盘古多模态模型 盘古预测模型 盘古科学计算模型 概览 盘古NLP模型 盘古CV模型 盘古多模态模型 盘古预测模型 盘古科学计算模型 盘古多模态模型 盘古多模态模型 AI for Industries 模型重塑千行百业

大模型混合云十大场景

模型混合云TOP N 场景 模型混合云TOP N 场景 1对1咨询 了解华为云Stack 模型行业场景落地三要素 模型行业场景落地三要素 场景是模型行业落地的关键所在,而在场景落地过程中,数据、经验和生态是核心要素,数据的数量和质量决定模型效果上限;经验就像“名师指导”

工业智能体 - EI企业智能-华为云

盘古NLP模型 贴合行业落地的NLP模型 盘古CV模型 赋能行业客户利用少量场景数据对模型微调即可实现特定场景任务 盘古预测模型 基于神经网络Transformer架构,通过任务理解、模型推荐、模型融合技术,构建通用的预测能力

CodeArts Snap

盘古助手 基于华为云盘古研发模型智能开发助手,重塑智能化软件研发的新范式,让开发者更加聚焦业务创新,事半功倍。基于智能生成、智能问答2核心能力,覆盖代码生成、研发知识问答、单元测试用例生成、代码解释、代码注释、代码翻译、代码调试、代码检查等八研发场景,释放软件研发生产力。

[相关产品]国内ai大模型哪家最好用
AI大模型 算法备案

《互联网信息服务算法推荐管理规定》明确,具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息  方便

AI大模型专业服务

湘江鲲鹏目前在人工智能模型领域拥有算力、数据、算法三关键要素的经验积累,构建了模型三个方面的差异化竞争力,盘古模型AI专业服务覆盖从前期咨询、规划设计,到数据工程、模型训练,再到应用工程及模型运维的完整流程。基于华为盘古提供的AI专业服务包,致力于为企业提供一站式人工智能解决方案

大模型及AI应用配套服务

angChain等流行的模型开发框架,构建企业级AI应用;团队拥有成熟的软件工程技术和管理能力。6. 模型使用的技术支持,用户使用模型平台,解答用户使用过程遇到的问题;模型与应用对接集成,以及进行日常巡检、故障处理、模型升级等服务。4. 工业数据模型(CAD模型、CAE模

天尊大模型AIGC场景解决方案

太杉天尊模型AIGC场景解决方案是以AI场景解决方案为核心的全栈Maas综合方案,助力政企客户灵活部署(可公有可私有部署)。具备自研的行业模型能力,主要用于政府/公安/教育等行业的数据处理、文本处理以及多模态处理等多场景。太杉天尊模型AIGC场景解决方案,是一款专为满足政府企

人工智能AI大模型技术研发定制服务

公司集成了世界领先的底层模型,具备打通跨模型和工具链的平台,提供从需求分析、数据收集、模型设计、训练优化、评估、系统集成、用户界面设计、部署维护、合规性检查、技术支持、性能监控、扩展性设计、定制服务到持续研发一站式AI模型定制研发服务。光启慧语是一家围绕模型全栈开展技术研发和产

博匠行业AI大模型专业服务

数据质量。4. 模型训练:设计调优方案,实施模型训练,并进行模型评测。熟悉盘古模型工作流和云服务操作,确保模型效果优化。5. 应用工程:提供基于模型能力的Agent开发和应用对接服务。具备良好的软件开发和沟通能力,实现模型与应用的无缝对接。6. 模型运维: 提供技

盘古大模型专家服务

. 模型更新后,将新模型部署至相应环境。 十一、模型评测1. 设计模型评测方案,对模型各类指标进行评测。2. 能够按评测标准对模型各项能力进行打分,输出模型评测报告。 十二、Agent开发1. 基于场景,设计并开发Agent工具。2. 基于langchain等模型框架,完

天尊大模型AIGC场景解决方案配套服务

天尊模型AIGC场景解决方案配套服务是太杉AIGC解决方案的人工服务,是以AI应用解决方案为核心的全栈Maas综合方案,助力政企客户灵活部署(可公有可私有部署)。主要用于政府/公安/教育等行业的数据处理、文本处理以及多模态处理等多场景。天尊模型AIGC场景解决方案配套服务是太

序列猴子大模型

出门问问模型“序列猴子”是一款具备多模态生成能力的语言模型模型以语言为核心的能力体系涵盖“知识、对话、数学、逻辑、推理、规划”六个维度,能够同时支持文字生成、图片生成、3D内容生成、语言生成和语音识别等不同任务。出门问问模型“序列猴子”是一款具备多模态生成能力的语言模型,模

[相似文章]国内ai大模型哪家最好用
华为云盘古大模型_华为云AI大模型_盘古人工智能

华为云盘古模型 华为云盘古模型 AI for Industries 模型重塑千行百业 AI for Industries 模型重塑千行百业 盘古模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与模型能力相结合

云服务器哪家好用便宜_国内便宜的云服务器_好用的云服务器

、高效的计算环境。 立即购买 管理控制台 好用的云服务器相关文档 好用的云服务器快速入门 好用的云服务器搭建指南 好用的云服务器搭建实践 好用的云服务器快速入门 好用的云服务器搭建指南 好用的云服务器搭建实践 好用的云服务器快速入门 好用的云服务器搭建应用场景 安全可靠,满足网站

图片处理服务哪家好_好用的AI处理服务_数据分析处理平台

NAT网关概念_NAT网关优点_NAT网关如何收费 NAT网关快速入门_NAT网关用户指南_NAT网关常见问题 网关是什么_NAT网关设置_NAT网关作用 好用的NAT网关_NAT网关是什么意思_NAT网关最佳实践 云间NAT网关高速访问互联网_NAT网关_DNAT_SNAT-华为云 容器云部署_云容器引擎是什么_云容器引擎服务

ModelArts推理部署_模型_AI应用来源-华为云

ModelArts支持本地准备模型包,编写模型配置文件和模型推理代码,将准备好的模型包上传至对象存储服务OBS,从OBS导入模型创建为AI应用。 制作模型包,则需要符合一定的模型包规范。模型包里面必需包含“model”文件夹,“model”文件夹下面放置模型文件,模型配置文件,模型推理代码文件。

云主机平台租用_好用云主机_哪家云主机好

租用哪家云主机好选弹性云服务器 哪家云主机好选弹性云服务器 弹性云服务器(Elastic Cloud Server, ECS)是一种云上可随时自助获取、可弹性伸缩的计算服务,可帮助您打造安全、可靠、灵活、高效的应用环境。 弹性云服务器(Elastic Cloud Server,

国内一年免费vps云服务器_国外云服务器厂商_云服务器哪家好用便宜

国内一年免费vps云服务器 国内一年免费vps云服务器 弹性云服务器 ECS 弹性云服务器 ECS 弹性云服务器(Elastic Cloud Server, ECS)是由CPU、内存、操作系统、云硬盘组成的基础的计算组件。弹性云服务器创建成功后,您就可以像使用自己的本地PC或物理服务器一样,在云上使用弹性云服务器。

国内一年免费的云服务器推荐_云服务器哪家好用便宜_移动云服务器

国内一年免费的云服务器推荐 国内一年免费的云服务器推荐 弹性云服务器(Elastic Cloud Server, ECS)是由CPU、内存、镜像、云硬盘组成的一种可随时获取、弹性可扩展的计算服务器,同时它结合虚拟私有云、虚拟防火墙、数据多副本保存等能力,为您打造一个高效、可靠、安

ModelArts模型训练_模型训练简介_如何训练模型

ModelArts模型训练 ModelArts模型训练简介 ModelArts模型训练,俗称“建模”,指通过分析手段、方法和技巧对准备好的数据进行探索分析,从中发现因果关系、内部联系和业务规律,为商业目的提供决策参考。训练模型的结果通常是一个或多个机器学习或深度学习模型模型可以应用到新的数据中,得到预测、评价等结果。

AI智能人工名片_智能名片AI_AI名片_培训课程

此外,会销系统也是这款产品的一亮点。企业可以通过平台实现全员任务推广、问卷邀约、流量沉淀,将物料分发与商品表单链接相结合,促进成交转化。数据智能分析功能帮助企业优化推广策略,提高客户粘度和观看满意度。 中小企业在面临市场竞争时,如何提高销售效率和品牌影响力成为关键。智能名片配套服务通过创新

国内ai大模型哪家最好用

AI Gallery支持将模型进行微调,训练后得到更优模型。

场景描述

模型微调是深度学习中的一种重要技术,它是指在预训练好的模型基础上,通过调整部分参数,使其在特定任务上达到更好的性能。 在实际应用中,预训练模型是在大规模通用数据集上训练得到的,而在特定任务上,这些模型的参数可能并不都是最合适的,因此需要进行微调。

AI Gallery的模型微调,简单易用,用户只需要选择训练数据、创建微调任务,模型微调就会对数据进行训练,快速生成模型。

约束限制

  • 如果模型的“任务类型”“文本问答”“文本生成”,则支持模型微调。如果模型的“任务类型”是除“文本问答”“文本生成”之外的类型(即自定义模型),则模型文件必须满足自定义模型规范(训练)才支持模型自定义训练。
  • 当使用自定义 镜像 进行模型微调时,要确认镜像是否满足自定义镜像规范,否则无法成功完成自定义训练。

进入模型微调

  1. 登录AI Gallery
  2. 单击“模型”进入模型列表。
  3. 选择需要进行微调训练的模型,单击模型名称进入模型详情页。
  4. 在模型详情页,选择“训练 > 微调大师”进入微调工作流页面。

选择训练任务类型

选择模型微调的训练任务类型。

  • 当模型的“任务类型”“文本问答”“文本生成”时,“训练任务类型”默认和模型“任务类型”一致。“训练任务类型”支持修改,如果模型文件满足自定义模型规范(训练),则“训练任务类型”支持选择“自定义”
  • 当模型的“任务类型”是除“文本问答”“文本生成”之外的类型(即自定义模型)时,则“训练任务类型”默认为“自定义”,支持修改为“文本问答”“文本生成”
  • 当使用自定义镜像进行模型微调时,“训练任务类型”默认为“自定义”,且不支持修改。

准备数据

  • 本地上传数据需要确保数据已按照数据集要求完成编排。如果是自定义模型,此处的数据集要求即为模型文件“dataset_readme.md”里的内容。
  • 单个文件最大5GB,所有文件总大小不超过50G。
  1. 在微调工作流的“数据准备”环节选择数据集。
    • 从本地上传
      1. “从本地上传”处,单击“点击上传”,选择本地编排好的训练数据。
      2. 数据上传成功后,页面会有提示信息。

        此时AI Gallery会自动新建一个数据集,单击提示信息处的“查看”可以进入数据集详情页,也可以在“我的Gallery > 数据集 > 我创建的数据集”进入数据集详情页查看。

    • 从AI Gallery中选
      1. 单击“从AI Gallery中选择”。
      2. 在弹窗中,从“我创建的”或“我收藏的”数据集中选择所需要数据集。
      3. 选择完成后,单击“确定”。
  2. 数据准备完成后,单击“下一步”进入“作业设置”环节。

设置并启动作业

  1. 在微调工作流的“作业设置”环节配置训练作业参数。
    1. 算法配置,会显示已选模型的信息,基于已选模型选择微调方式。
      • “训练任务类型”“文本问答”“文本生成”时,AI Gallery支持的微调方式是LoRA。
      • “训练任务类型”“自定义”时,微调方式来自于模型文件“train_params.json”

      低秩适应(LoRA)是一种重参数化方法,旨在减少具有低秩表示的可训练参数的数量。权重矩阵被分解为经过训练和更新的低秩矩阵。所有预训练的模型参数保持冻结。训练后,低秩矩阵被添加回原始权重。这使得存储和训练LoRA模型更加高效,因为参数明显减少。

    2. 超参数设置,基于训练作业配置超参。超参指的是模型训练时原始数据集中实际字段和算法需要字段之间的映射关系。
      • “训练任务类型”“文本问答”“文本生成”时,则常见的超参说明请参见表1
      • “训练任务类型”“自定义”时,超参信息来自于模型文件“train_params.json” 。如果不使用可选超参,建议单击右侧的删除按钮,删除参数。
      表1 常见超参说明

      参数名称

      参数类型

      说明

      data_url

      String

      数据 OBS 存储路径。

      train_url

      String

      微调产物输出OBS路径。

      train_data_file

      String

      训练数据文件名。

      test_data_file

      String

      测试数据文件名。

      prompt_field

      String

      数据prompt列名。

      response_field

      String

      数据response列名。

      history_field

      String

      数据history列名。

      prefix

      String

      数据格式化时使用的前缀。

      instruction_template

      String

      数据格式化时使用的指令模板。

      response_template

      String

      数据格式化时使用的回答模板。

      lora_alpha

      int

      Lora scaling的alpha参数。

      lora_dropout

      float

      Lora dropout概率。

      lora_rank

      int

      Lora attention维度。

      per_device_train_batch_size

      int

      用于训练的每个GPU/TPU core/CPU的批处理大小。

      gradient_accumulation_steps

      int

      梯度累计步数。

      max_steps

      int

      训练最大步数,如果数据耗尽,训练将会在最大步数前停止。

      save_steps

      int

      checkpoint保存步数。

      logging_steps

      int

      日志输出步数。

      learning_rate

      float

      初始学习率。

      max_grad_norm

      float

      梯度裁剪最大范数。

      warmup_ratio

      float

      热身步数比。

      max_seq_length

      int

      数据最大序列长度。

      finetuned_model

      String

      前序微调产物OBS路径。

      bits

      int

      模型量化bit数,如4、8。

      max_eval_samples

      int

      最大测试数据数。

    3. 计算规格选择,按需选择计算规格。单击“选择”,在弹窗中选择资源规格,单击“确定”。
      • “所在区”选择计算规格所在的区域。默认显示全部区域的计算规格。
      • 选择计算规格不可用的资源会置灰。右侧“配置信息”区域会显示计算规格的详细数据,AI Gallery会基于资产和资源情况分析该任务是否支持设置“商品数量”,用户可以基于业务需要选择任务所需的资源卡数。

      如果选择付费资源,则请确认账号未欠费,且余额高于所选计算规格的收费标准,否则可能会导致AI Gallery工具链服务异常中断。AI Gallery的计算规格的计费说明请参见计算规格说明

  2. 作业参数配置完成后,单击“启动作业”。
  3. “订单信息确认”页面,确认服务信息和费用,单击“确定”提交模型训练任务。

    单击“返回模型训练”跳转到微调大师页面,可以查看训练作业状态。当“状态”“训练完成”时,表示微调任务完成。

    • 单击操作列的“查看模型”跳转到微调获得的新模型的详情页面。
    • 单击操作列的“任务详情”可以在弹窗中查看“训练信息”“训练日志”“指标效果”
    • 单击操作列的“更多 > 删除任务”,可以删除微调任务,但是微调获得的新模型不会被删除。

查看训练效果

启动模型微调任务后,在微调大师列表单击操作列的“任务详情”,在弹窗中选择“指标效果”页签,可以查看训练效果。

表2 训练效果的指标介绍

指标名称

指标说明

NPU/GPU利用率

在训练过程中,机器的NPU/GPU占用情况(横坐标时间,纵坐标占用率)。

显存利用率

在训练过程中,机器的显存占用情况(横坐标时间,纵坐标占用率)。

吞吐

在训练过程中,每卡处理tokens数量(tokens/s/p)。每种框架计算方式不一致,例如,ATB可通过“samples per second*seq_lenth/总卡数”得到tokens/s/p,输出给throughout字段,seq_lenth取值在训练脚本中可以查看。

单机8卡吞吐量一般为1650tokens/s/p,双机16卡吞吐量一般为1625tokens/s/p。

说明:

自定义训练或自定义镜像训练,需要提前在训练启动脚本(例如“train.py”)中定义好迭代次数、LOSS和吞吐数据的存放位置,以及存放格式(必须是“迭代次数|loss|吞吐”),才能在此处正常查看吞吐和“训练LOSS”曲线。

训练LOSS

训练阶段的LOSS变化,模型在日志里用LOSS关键词记录数据,按照训练迭代周期记录LOSS值。

微调产物说明

模型微调完成后,会得到一个新模型,即微调产物。

在微调大师页面,单击操作列的“查看模型”跳转到微调获得的新模型的详情页面。选择“模型文件”页签可以查看微调产物。各文件说明请参见表3

图1 微调产物示例
表3 微调产物说明

文件名

文件说明

gallery_train文件夹

自定义模型的模型训练文件,仅当使用自定义模型微调时才会有这个微调产物,内容和预训练模型里的gallery_train文件一致。

training_logs/user_params.json

微调配置参数信息,AI Gallery会自动将微调设置的参数信息记录在此文件下。

“README.md”

模型的基础信息。内容和预训练模型里“模型文件”页签的“README.md”一致。

其他文件

当使用自定义模型微调时,可能还会有一些其他微调产物,这是由自定义模型的训练脚本文件train.py决定的,如果训练脚本定义了归档其他训练产物,就会在此处呈现。

国内ai大模型哪家最好用常见问题

更多常见问题 >>
  • 盘古大模型致力于深耕行业,打造金融、政务、制造、矿山、气象、铁路等领域行业大模型和能力集,将行业知识know-how与大模型能力相结合,重塑千行百业,成为各组织、企业、个人的专家助手。

  • 模型转换,即将开源框架的网络模型(如Caffe、TensorFlow等),通过ATC(Ascend Tensor Compiler)模型转换工具,将其转换成昇腾AI处理器支持的离线模型。

  • 本次Serverless应用中心上线文生图应用,用户无需下载源代码、了解各种安装部署知识、安装复杂的依赖,通过华为云Serverless应用中心即可一键创建AI文生图应用,体验 “0” 构建门槛、“0” 资源闲置并具备极致弹性的Serverless AI绘图能力。

  • 在自然语言处理(NLP)领域中,使用语言模型预训练方法在多项NLP任务上都获得了不错的提升,广泛受到了各界的关注。本课程将简单介绍一下预训练的思想,几个代表性模型和它们之间的关系。

  • 华为云Serverless技术极大的优化了AI应用开发过程,一键部署AI应用、提升开发团队工作效率。让AI团队可以更关注业务实现,而无需关注底层技术细节。

  • 华为云弹性云服务器教您搭建免费服务器,包括实例类型、计费模式、登录Windows免费服务器、登录Linux免费服务器、常用操作、网络安全、免费服务器运维与监控等指导,通过丰富的镜像可以免安装快速部署操作系统与软件,完全控制,按需租用,按需调整,大大提高IT建设的时效性,