已找到以下 10000 条记录
  • 深度学习之机器学习基础

    深度学习机器学习一个特定分支。要想学好深度学习,必须对机器学习基本原理有深刻理解。本章将探讨贯穿本书其余部分一些机器学习重要原理。我们建议新手读者或是希望更全面了解读者参考一些更全面覆盖基础知识机器学习参考书,例如Murphy (2012) 或者Bishop (20

    作者: 小强鼓掌
    841
    2
  • 深度学习深度模型中优化

    深度学习算法在许多情况下都涉及到优化。例如,模型中进行推断(如 PCA)涉及到求解优化问题。我们经常使用解析优化去证明或设计算法。在深度学习涉及到诸多优化问题中,最难神经网络训练。甚至用几百台机器投入几天到几个月来解决单个神经网络训练问题,也是很常见。因为这其中优化

    作者: 小强鼓掌
    338
    1
  • 深度学习GRU

    Gated Recurrent Unit – GRU LSTM 一个变体。他保留了 LSTM 划重点,遗忘不重要信息特点,在long-term 传播时候也不会被丢失。

    作者: 我的老天鹅
    1264
    13
  • 分享深度学习笔记组件学习

    组件学习组件学习不仅使用一个模型知识,还使用多个模型知识。人们相信,通过独特信息组合或输入(包括静态和动态),深度学习可以比单一模式更深入地理解和表现。迁移学习组件学习一个非常明显例子。基于这一思想,对类似问题预先训练模型权重可用于对特定问题进行微调。为了区分不同类

    作者: 初学者7000
    628
    1
  • 深度学习现实应用

    重要成果就是词向量学习。词向量可以看作一种运用深度神经网络将词转换成隐含空间中一个向量化位置表示方法。将词向量作为循环神经网络输入,能有效利用合成式向量语法对句子和短语进行解析。合成式向量语法可以被认为由循环神经网络实施上下文无关概率语法。另一方面,以长短期

    作者: 角动量
    2054
    4
  • 机器学习深度学习区别

    深度学习由经典机器学习发展而来,两者有着相同与不同特点1.完全不同模式机器学习:使计算机能从数据中学习,并利用其学到知识来提供答案(通常为预测)。依赖于不同范式(paradigms),例如统计分析、寻找数据相似性、使用逻辑等深度学习:使用单一技术,最小化人脑劳动。使用被称为

    作者: 极客潇
    1358
    4
  • 适合新手深度学习综述(6)--深度生成模型

    GAN),用于通过对抗过程来评估生成模型。GAN 架构由一个针对对手(即一个学习模型或数据分布判别模型)生成模型组成。Mao 等人 (2016)、Kim 等人 (2017) 对 GAN 提出了更多改进。Salimans 等人 (2016) 提出了几种训练 GANs 方法。6.5.1 拉普拉斯生成对抗网络Denton

    作者: @Wu
    155
    1
  • 深度学习之Dropout

    提供了正则化一大类模型方法,计算方便但功能强大。在第一种近似下,Dropout可以被认为集成大量深层神经网络实用Bagging方法。Bagging涉及训练多个模型,并在每个测试样本上评估多个模型。当每个模型都是一个很大神经网络时,这似乎不切实际,因为训练和评估这样网络需要花费

    作者: 小强鼓掌
    1024
    2
  • 深度残差收缩网络:一种深度学习故障诊断算法

    深度残差收缩网络,以增强深度学习方法从强噪声信号中学习特征能力,并且取得较高故障诊断准确率。软阈值化作为非线性层,嵌入到深度神经网络之中,以去除不重要特征。更进一步,考虑到软阈值化阈值难以设定,本文所提出深度残差收缩网络,采用了一个子网络,来自动地设置这些阈值,

    作者: hw9826
    发表时间: 2020-08-31 11:54:08
    4310
    0
  • 深度学习深陷困境!

    年内,深度学习会有更大进步。然而,时间快进到 2022 年,我们并没有看到哪位放射科医生被取代了。相反,现在共识:机器学习在放射学中应用比看起来要困难,至少到目前为止,人和机器优势还是互补关系。深度学习最擅长获取粗略结果AI 领域充满了炒作和虚张声势。在过去几十年

    作者: 星恒
    250
    3
  • 深度学习之流形学习

    中大部分区域都是无效输入,感兴趣输入只分布在包含少量点子集构成一组流形中,而学习函数中感兴趣输出变动只位于流形中方向,或者感兴趣变动只发生在我们从一个流形移动到另一个流形时候。流形学习在连续数值数据和无监督学习设定下被引入,尽管这个概率集中想法也能够泛化到离

    作者: 小强鼓掌
    1676
    3
  • 机器学习深度学习比较

    数据依赖性性能两种算法之间主要关键区别。虽然,当数据很小时,深度学习算法表现不佳。这就是深度学习算法需要大量数据才能完美理解原因。但是,在这种情况下,我们可以看到算法使用以及他们手工制作规则。上图总结了这一事实。硬件依赖通常,深度学习依赖于高端机器,而传统学习依赖于低端机

    作者: @Wu
    541
    1
  • 深度学习深度前馈网络

    个神经元,它接收输入来源于许多其他单元,并且计算它自己激活值。使用多层向量值表示想法来源于神经科学。用于计算这些表示函数 f(i)(x) 选择,也或多或少地受到神经科学观测指引,这些观测关于生物神经元计算功能。然而,现代神经网络研究受到更多来自许多数学和工

    作者: 小强鼓掌
    1256
    4
  • 深度学习之多任务学习

    多任务学习 (Caruana, 1993) 通过合并几个任务中样例(可以视为对参数施加软约束)来提高泛化一种方式。额外训练样本以同样方式将模型参数推向泛化更好方向,当模型一部分在任务之间共享时,模型这一部分更多地被约束为良好值(假设共享合理),往往能更好

    作者: 小强鼓掌
    532
    1
  • 深度学习之流形学习

    中大部分区域都是无效输入,感兴趣输入只分布在包含少量点子集构成一组流形中,而学习函数中感兴趣输出变动只位于流形中方向,或者感兴趣变动只发生在我们从一个流形移动到另一个流形时候。流形学习在连续数值数据和无监督学习设定下被引入,尽管这个概率集中想法也能够泛化到离

    作者: 小强鼓掌
    1053
    2
  • 深度学习之流形学习

    中大部分区域都是无效输入,感兴趣输入只分布在包含少量点子集构成一组流形中,而学习函数中感兴趣输出变动只位于流形中方向,或者感兴趣变动只发生在我们从一个流形移动到另一个流形时候。流形学习在连续数值数据和无监督学习设定下被引入,尽管这个概率集中想法也能够泛化到离散

    作者: 小强鼓掌
    813
    1
  • 分享深度学习发展混合学习

      这种学习范式试图跨越监督学习和非监督学习之间界限。由于缺少标签数据和收集标签数据集高成本,它通常用于业务环境中。从本质上讲,混合学习就是这个问题答案。我们如何使用监督学习方法来解决或联系非监督学习问题?例如,半监督学习在机器学习领域正变得越来越流行,因为它可以很好地处理

    作者: 初学者7000
    931
    1
  • 深度学习初体验

    通过对课程学习,从对EI初体验到对深度学习基本理解,收获了很多,做出如下总结:深度学习用于建立、模拟人脑进行分析学习神经网络,并模仿人脑机制来解释数据一种机器学习技术。它基本特点试图模仿大脑神经元之间传递,处理信息模式。最显著应用是计算机视觉和自然语言处理

    作者: ad123445
    8090
    33
  • 深度学习在环保

    味着能源消耗正在随之增加。" 一次深度学习训练 =126 个丹麦家庭年度能源消耗 深度学习训练数学模型识别大型数据集中模式过程。这是一个能源密集型过程,需要电力密集型专用硬件,每天 24 小时连续运行。

    作者: 初学者7000
    839
    2
  • 深度学习之基于梯度学习

    我们到目前为止看到线性模型和神经网络最大区别,在于神经网络非线性导致大多数我们感兴趣损失函数都成为了非凸。这意味着神经网络训练通常使用迭代、基于梯度优化,仅仅使得代价函数达到一个非常小值;而不是像用于训练线性回归模型线性方程求解器,或者用于训练逻辑回归或SVM凸优化算

    作者: 小强鼓掌
    833
    2