内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习训练过程

    定数据也可)分层训练各层参数,这一步可以看作是一个无监督训练过程,这也是和传统神经网络区别最大的部分,可以看作是特征学习过程。具体的,先用无标定数据训练第一层,训练时先学习第一层的参数,这层可以看作是得到一个使得输出和输入差别最小的三层神经网络的隐层,由于模型容量的限制以及稀疏性

    作者: QGS
    1054
    3
  • 深度学习训练过程

    标定数据也可)分层训练各层参数,这一步可以看作是一个无监督训练过程,这也是和传统神经网络区别最大的部分,可以看作是特征学习过程。具体的,先用无标定数据训练第一层,训练时先学习第一层的参数,这层可以看作是得到一个使得输出和输入差别最小的三层神经网络的隐层,由于模型容量的限制以及稀疏

    作者: QGS
    539
    1
  • 深度学习训练过程的随机性

    深度学习训练过程存在随机性,主要体现在以下几个方面:权重初始化神经网络的权重通常随机初始化,不同的初始值会影响模型的收敛路径和最终性能。数据 shuffling训练数据在每个 epoch 前会被随机打乱,导致每次训练时数据顺序不同,影响梯度更新。DropoutDropout 随

    作者: 黄生
    3
    1
  • AI模型的训练过程步骤

    可以降低硬件成本和维护负担。 分布式训练:通过将模型拆分为多个部分,并在多个设备上同时训练,可以显著缩短训练时间。 迁移学习:利用预训练好的模型进行微调,可以减少训练时间和成本。预训练模型在大量数据上进行了训练,因此可以在特定任务上更快地收敛。 共享资源和知识:加强业内合作和知识

    作者: i-WIFI
    发表时间: 2024-09-18 15:45:12
    52
    0
  • 【mindspore】【训练如何实现如下训练过程

    些是否占用了过多内存pytorch:mindspore:现在想问一下,为何mindspore中内存占用如此之大,当前的训练过程如何能够减少训练内存的占用,以及如何避免vgg的权重被更新?

    作者: LeMU_Haruka
    517
    3
  • 训练过程问题

    【功能模块】训练网络时出现问题【操作步骤&问题现象】1、在正常训练时,训练没有报错,但一直无法执行,卡在一个步骤,查看显存情况,显存应该是够的2、在加入pdb调试时,出现许多内存不足的错误【截图信息】正常训练时显卡的情况在pdb调试中报错信息

    作者: yd_284741687
    190
    3
  • CD-DNN-HMM训练过程

    M 的第一步就是使用训练数据训练一个GMM-HMM系统。因为DNN训练标注是由GMM-HMM系统采用维特比算法产生得到的,而且标注的质量会影响DNN系统的性能。因此,训练一个好的GMM-HMM系统作为初始模型就非常重要。 一旦训练好GMM-HMM模型hmm0,我们就可以创建一个从

    作者: 可爱又积极
    发表时间: 2021-11-22 02:01:20
    2263
    0
  • 【CANN训练营】【2022第二季】【新手班】迁移TensorFlow模型到昇腾设备实验复现

    数字识别为例,将代码迁移到昇腾设备上并跑通训练过程。该实验的主要任务有: 1、在本地跑通“基于Tensorflow1.15编写的LeNet网络的minist手写数字识别”的程序; 2、模型迁移,将原代码迁移成能在昇腾AI处理器上进行训练的代码; 3、将迁移后的代码跑在ModelArts平台上。

    作者: StarTrek
    发表时间: 2022-07-22 13:15:02
    1540
    0
  • 训练过程出错

    【功能模块】【操作步骤&问题现象】1、请问上面那个报错是什么原因?看这个报错我不能确定是哪部分出了问题,然后无从下手。求知道的大佬们帮帮忙,万分感谢~备注说明:数据是自定义的【截图信息】【日志信息】(可选,上传日志内容或者附件)[ERROR] PARSER(861664,pyth

    作者: loyolh
    2248
    9
  • 神经网络的训练过程、常见的训练算法、如何避免过拟合

    神经网络的训练是深度学习中的核心问题之一。神经网络的训练过程是指通过输入训练数据,不断调整神经网络的参数,使其输出结果更加接近于实际值的过程。本文将介绍神经网络的训练过程、常见的训练算法以及如何避免过拟合等问题。 神经网络的训练过程 神经网络的训练过程通常包括以下几个步骤:

    作者: wljslmz
    发表时间: 2023-05-09 22:18:40
    34
    0
  • 训练过程损失不变

    训练过程中损失不变,如下图,代码见附件,请问这是什么原因啊

    作者: runzeer
    1136
    4
  • 训练过程的理解

    训练过程中,通常不是对每个样本单独更新参数,而是对一个批次(batch)的样本进行操作。批次(Batch):在实际的训练过程中,通常会将数据集分成多个小批次,每个批次包含多个样本。这样做可以提高内存利用率和计算效率,并且有助于模型学习到更一般化的特征。一个批次的损失计算和优化:

    作者: 黄生
    27
    1
  • 初识 torch.Autograd:理解pytorch网络训练过程

    损失函数衡量得到的结果与目标值的不相似程度,是我们在训练过程中想要最小化的损失函数。 为了计算损失,我们使用给定数据样本的输入进行预测,并将其与真实数据标签值进行比较。 Optimizer 【 优化器】 优化是在每个训练步骤中调整模型参数以减少模型误差的过程。 优化算法定义了这个过程如何执行的(在这个例子中我们使用随机梯度下降)。

    作者: 墨理学AI
    发表时间: 2022-02-23 11:12:58
    879
    0
  • SwinIR实战:详细记录SwinIR的训练过程

    net/article/details/124517210 在写这边文章之前,我已经翻译了论文,讲解了如何使用SWinIR进行测试? 接下来,我们讲讲如何SwinIR完成训练,有于作者训练了很多任务,我只复现其中的一种任务。 下载训练代码 地址:https://github.com/cszn/KAIR 这是

    作者: AI浩
    发表时间: 2022-08-03 07:14:47
    705
    0
  • 初识 torch.Autograd | 理解pytorch网络训练过程 | 笔记

    是我们在训练过程中想要最小化的损失函数。 为了计算损失,我们使用给定数据样本的输入进行预测,并将其与真实数据标签值进行比较。 Optimizer 【 优化器】 优化是在每个训练步骤中调整模型参数以减少模型误差的过程。 优化算法定义了这个过程如何执行的(在这个例子中我们使用随机梯度下降)。

    作者: 墨理学AI
    发表时间: 2022-01-11 14:27:36
    602
    0
  • 训练过程中loss不变

    【功能模块】使用ascend芯片进行训练,使用sgd,初始学习率1e-4,第一回合训练loss正常,但是第二回合loss变得特别大,第三回合又恢复正常,之后loss就都保持和第一回合一样,也不下降,不知道要怎么去查看原因【操作步骤&问题现象】1、2、【截图信息】【日志信息】(可选,上传日志内容或者附件)

    作者: 只在底层奢华
    1132
    4
  • 如何基于ModelArts实现最快最普惠的深度学习训练

    随着过去几年的发展,以ResNet50为代表的CNN模型已经成为了深度学习在计算机视觉方面最常用的模型之一。然而深度学习模型的训练通常非常慢,例如,如果用1块P100的GPU训练一个ResNet50需要1周时间(假如训练90个Epoch)。在工业界,我们都追求极致的训练速度,以便进行快速的产品迭代。 目前,

    作者: sound
    发表时间: 2019-12-28 11:22:36
    8038
    0
  • 【Mindspore】训练过程网络参数不变

    使用MindSpore训练自定义网络时,出现了loss不下降,参数不变化的问题。【截图信息】PyNative模式,lr=1e-3. 可以看到loss函数没有,模型参数也没有变化。想请帮忙看看是什么原因。print(net_m.trainable_params())结果:[Parameter

    作者: XY_Vision
    6662
    9
  • 深度学习之对抗训练

    安全,这超出了本章的范围。然而,它们在正则化的背景下很有意思,因为我们可以通过对抗训练(adversarial training)减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络 (Szegedy et al., 2014b; Goodfellow et al

    作者: 小强鼓掌
    624
    2
  • 深度学习之对抗训练

    安全,这超出了本章的范围。然而,它们在正则化的背景下很有意思,因为我们可以通过对抗训练(adversarial training)减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络 (Szegedy et al., 2014b; Goodfellow et al

    作者: 小强鼓掌
    842
    1