内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习模型训练流程思考

    代码实现6,7,8中的设计 使用超参优化工具(NNI)寻找最优超参组合 模型初步训练 改进:根据初步训练的效果指标判断是数据集问题还是模型结构或深度问题 数据集问题,想办法进一步清洗补充数据集 模型结构问题,尝试更换或者NNI搜索更优模型;模型深度问题,尝试增加backbone的卷积通道层数或者复制增加layers

    作者: lutianfei
    发表时间: 2021-05-31 12:10:43
    1544
    0
  • 深度学习训练过程

    权重。自下上升的非监督学习就是从底层开始,一层一层地往顶层训练。采用无标定数据(有标定数据也可)分层训练各层参数,这一步可以看作是一个无监督训练过程,这也是和传统神经网络区别最大的部分,可以看作是特征学习过程。具体的,先用无标定数据训练第一层,训练时先学习第一层的参数,这层可以看

    作者: QGS
    1054
    3
  • 深度学习训练过程

    重。 自下上升的非监督学习就是从底层开始,一层一层地往顶层训练。采用无标定数据(有标定数据也可)分层训练各层参数,这一步可以看作是一个无监督训练过程,这也是和传统神经网络区别最大的部分,可以看作是特征学习过程。具体的,先用无标定数据训练第一层,训练时先学习第一层的参数,这层可以看

    作者: QGS
    539
    1
  • 深度学习之对抗训练

    安全,这超出了本章的范围。然而,它们在正则化的背景下很有意思,因为我们可以通过对抗训练(adversarial training)减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络 (Szegedy et al., 2014b; Goodfellow et al

    作者: 小强鼓掌
    842
    1
  • 深度学习之对抗训练

    安全,这超出了本章的范围。然而,它们在正则化的背景下很有意思,因为我们可以通过对抗训练(adversarial training)减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络 (Szegedy et al., 2014b; Goodfellow et al

    作者: 小强鼓掌
    624
    2
  • 深度学习之模型族训练

    我们几乎从未知晓真实数据的生成过程,所以我们永远不知道被估计的模型族是否包括生成过程。然而,深度学习算法的大多数应用都是针对这样的情况,其中真实数据的生成过程几乎肯定在模型族之外。深度学习算法通常应用于极为复杂的领域,如图像、音频序列和文本,本质上这些领域的真实生成过程涉及模拟整

    作者: 小强鼓掌
    938
    3
  • 浅谈深度学习中的混合精度训练

    浅谈深度学习中的混合精度训练 大家好,本次博客为大家介绍一下深度学习中的混合精度训练,并通过代码实战的方式为大家讲解实际应用的理论,并对模型进行测试。 1 混合精度训练 混合精度训练最初是在论文Mixed Precision Training中被提出,该论文对混合精度训练进行了

    作者: 李长安
    发表时间: 2023-03-17 12:57:28
    1095
    1
  • 【CANN训练营】【2022第二季】【新手班】迁移TensorFlow模型到昇腾设备实验复现

    述代码,可能无法正常训练训练时将一直卡在下图界面,原本我并没有用moxing接口,因为官网上说是新版本无需通过moxing接口书写下载数据、回传数据的代码,但是不做任何修改直接运行将会卡在这里,原因可能是没读取对数据集所在的位置,添加了上述代码就可以正常训练,当然官方文档中还介

    作者: StarTrek
    发表时间: 2022-07-22 13:15:02
    1540
    0
  • 深度学习训练,验证,测试集

    自同一个分布就会很好。 但由于深度学习算法需要大量的训练数据,为了获取更大规模的训练数据集,我们可以采用当前流行的各种创意策略,例如,网页抓取,代价就是训练集数据与验证集和测试集数据有可能不是来自同一分布。但只要遵循这个经验法则,你就会发现机器学习算法会变得更快。我会在后面的课程中更加详细地解释这条经验法则。

    作者: 运气男孩
    2220
    7
  • 深度学习算法中的预训练(Pretraining)

    数据上进行微调,从而加速和改善深度学习模型的训练。 预训练的原理 预训练的基本思想是,通过在无标签数据上进行训练,使深度学习模型能够学习到一些有用的特征表示。具体而言,预训练分为两个阶段:无监督预训练和监督微调。 在无监督预训练阶段,深度学习模型通过自编码器、受限玻尔兹曼机(Restricted

    作者: 皮牙子抓饭
    发表时间: 2023-09-23 14:54:31
    62
    1
  • tensorflow学习:准备训练数据和构建训练模型

    Variable来声明来创建变量,它是会变的,在训练学习到的,所以给它的初值是多少是无所谓的 然后就是怎么样来训练模型了 训练模型就是一个不断迭代不断改进的过程 首先是训练参数,也就是超参,一个是迭代次数train_epochs,这里设置为10,根据复杂情况,可能上万次都可能的。一个是学习率learning_rate,这里默认为0

    作者: 黄生
    发表时间: 2021-05-06 00:46:27
    2047
    0
  • PyTorch 深度学习实战 |用 TensorFlow 训练神经网络

    步之间,又会发生什么呢? 如果我们继续用更多的训练步数(epochs)来训练,神经网络的预测会变得更精确吗?当训练步数在 1000 到 2000 之间时,神经网络的准确率会继续提高,但提高的幅度在下降。如果用更多的训练步数(epochs)进行训练,神经网络的精准度可能还会略有改善,但在目前的网络架构下,它不会达到

    作者: TiAmoZhang
    发表时间: 2023-03-21 01:07:58
    181
    0
  • 神经网络与深度学习笔记(四)训练

    哪怕你是经验无比丰富也要慢慢调参。 所以深度学习模型的构建其实一个高度的反复迭代的过程。 训练集,开发集,测试集 train 训练集,用于训练模型 dev 开发集(交叉训练集),用于测试模型 test 测试集,用于评估模型 上个时代的机器学习 上个时代的机器学习,由于数据量不多,所以对三个集的数据划分一般是:

    作者: 沧夜
    发表时间: 2022-04-30 15:31:05
    347
    0
  • 使用Python实现深度学习模型:迁移学习与预训练模型

    迁移学习是一种将已经在一个任务上训练好的模型应用到另一个相关任务上的方法。通过使用预训练模型,迁移学习可以显著减少训练时间并提高模型性能。在本文中,我们将详细介绍如何使用Python和PyTorch进行迁移学习,并展示其在图像分类任务中的应用。 什么是迁移学习? 迁移学习的基本

    作者: Echo_Wish
    发表时间: 2024-05-21 12:46:22
    15
    0
  • DnCNN模型怎么训练

    使用测试集评估模型性能 注意事项 在训练DnCNN模型时,需要注意以下几点: 数据集选择:选择具有足够多样性和噪声情况的数据集进行训练。 超参数调整:根据实际情况调整学习率、训练轮数等超参数。 模型保存:在训练过程中定期保存模型参数,以便后续使用或继续训练。 通过合理设置数据集、模型结

    作者: 皮牙子抓饭
    发表时间: 2024-03-04 09:30:55
    17
    0
  • Python学习之For训练

    for i in range(5): print(i) print('range 5 test

    作者: 指剑
    发表时间: 2022-09-02 14:55:57
    101
    0
  • 深度学习之用于 MLP 训练的反向传播

    我们考虑一个具有单个隐藏层的非常简单的多层感知机。为了训练这个模型,我们将使用小批量随机梯度下降算法。反向传播算法用于计算单个小批量上的代价的梯度。具体来说,我们使用训练集上的一小批量实例,将其规范化为一个设计矩阵 X 以及相关联的类标签向量 y。网络计算隐藏特征层 H = max{0

    作者: 小强鼓掌
    527
    0
  • 深度学习算法中的协同训练(Co-training)

    操作。 结论 协同训练是一种有效的半监督学习方法,在深度学习算法中得到了广泛的应用。通过利用未标注数据、解决标注数据稀缺问题、多视角学习和多任务学习,协同训练可以提高模型的性能和泛化能力。在未来的研究中,我们可以进一步探索协同训练的机制和应用,以推动深度学习技术的发展和应用。

    作者: 皮牙子抓饭
    发表时间: 2023-09-24 15:09:42
    63
    1
  • 【问答官】自动学习训练训练验证比例是什么,应该怎么填呢?

    自动学习训练训练验证比例是什么,应该怎么填呢?

    作者: bjxingch
    719
    2
  • 使用Python实现深度学习模型的分布式训练

    深度学习的发展过程中,模型的规模和数据集的大小不断增加,单机训练往往已经无法满足实际需求。分布式训练成为解决这一问题的重要手段,它能够将计算任务分配到多个计算节点上并行处理,从而加速训练过程,提高模型的训练效率。本文将详细介绍如何使用Python实现深度学习模型的分布式训练,并通过具体代码示例展示其实现过程。

    作者: Echo_Wish
    发表时间: 2024-12-16 08:21:45
    0
    0