内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习入门》笔记 - 16

    因此,在此基础上,隐藏层到输出层的logistic模型就可以把其分开了:从这个例子可以看到,神经网络可以先通过隐藏层学习数据的不同特征,再根据隐藏层得到的特征做出更好的预测。也就是说通过增加隐藏层,神经网络可以找到输入层和因变量之间更复杂的关系;而不通过隐藏层,这种关系无法表达。同时可以通过增加隐藏层的数量和每

    作者: 黄生
    36
    4
  • 深度学习之正切传播

    1992),还在强化学习(Thrun, 1995)中有所应用。正切传播与数据增强密切相关。在这两种情况下,该算法的用户通过指定一组不改变网络输出的转换,编码其先验知识。不同的是在数据增强的情况下,网络式地训练正确分类这些施加大量变换后产生的不同输入。正切传播不需要式访问一个新的

    作者: 小强鼓掌
    340
    1
  • 深度学习之模板匹配

    非常相似。该模型进而会赋予相对应的训练标签 y 较大的权重。总的来说,预测将会组合很多这种通过训练样本相似性加权的训练标签。支持向量机不是唯一可以使用核策略来增强的算法。许多其他的线性模型可以通过这种方式来增强。使用核策略的算法类别被称为核机器 (kernel machine) 或核方法 (kernel method)(Williams

    作者: 小强鼓掌
    464
    1
  • 深度学习的特点

    深度学习区别于传统的浅层学习深度学习的不同在于: (1)强调了模型结构的深度,通常有5层、6层,甚至10多层的隐层节点;(2)明确了特征学习的重要性。也就是说,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更容易。与人工规则构造特征的方法相比,

    作者: QGS
    578
    2
  • 深度学习之贝叶斯统计

    是未知的定值,而点估计θˆ 是考虑数据上函数(可以看作是随机的)的随机变量。        贝叶斯统计的视角完全不同。贝叶斯用概率反映知识状态的确定性程度。数据能够直接观测到,因此不是随机的。另一方面,真实参数 θ 是未知或不确定的,因此可以表示成随机变量。        在观察到数据前,我们将

    作者: 小强鼓掌
    618
    1
  • 深度学习入门》笔记 - 01

    之前学了一个深度学习应用开发,学了一段时间,后来就没学了。 确实是"靡不有初,鲜克有终",现在不愿意再继续之前的学。我又找了一本书从头开始,这本书的名字是深度学习入门与TensorFlow实践>。 `数(scalar)`是一个数字。 简直是废话。 不过这才刚开始嘛。 多个数字有序

    作者: 黄生
    280
    1
  • 深度学习笔记之特性

            深度学习是通向人工智能的途径之一。具体来说,它是机器学习的一种,一种能够使计算机系统从经验和数据中得到提高的技术。我们坚信机器学习可以构建出在复杂实际环境下运行的AI系统,并且是唯一切实可行的方法。深度学习是一种特定类型的机器学习,具有强大的能力和灵活性,它将大千

    作者: 小强鼓掌
    929
    1
  • 浅谈深度学习(非监督学习与监督学习

    学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。 深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。深度学习在搜索技术,数据挖掘,机器学习

    作者: QGS
    256
    1
  • 深度学习之浅层网络

    存在一些函数族能够在网络的深度大于某个值 d 时被高效地近似,而当深度被限制到小于或等于 d 时需要一个远远大于之前的模型。在很多情况下,浅层模型所需的隐藏单元的数量是 n 的指数级。这个结果最初被证明是在那些不与连续可微的神经网络类似的机器学习模型中出现,但现在已经扩展到了这些模型。第一个结果是关于逻辑门电路的

    作者: 小强鼓掌
    838
    1
  • 深度学习之小更新

    梯度下降和基本上所有的可以有效训练神经网络的学习算法,都是基于局部较也许能计算目标函数的一些性质,如近似的有偏梯度或正确方向估计的方差。在这些情况下,难以确定局部下降能否定义通向有效解的足够短的路径,但我们并不能真的遵循局部下降的路径。目标函数可能有诸如病态条件或不连续梯度的问题

    作者: 小强鼓掌
    419
    2
  • 深度学习框架指南

    h 的几何深度学习扩展库 3 TensorFlow TensorFlow - Google 使用数据流图进行可扩展机器学习的计算 TensorLayer - 面向研究人员和工程师的深度学习和强化学习库。 TFLearn - 深度学习库,具有更高级别的

    作者: 一颗小树x
    发表时间: 2021-06-30 10:37:00
    3186
    0
  • 深度学习之历史小计

    1847)。从 20 世纪 40 年代开始,这些函数近似技术被用于导出诸如感知机的机器学习模型。然而,最早的模型都是基于线性模型。来自包括 Marvin Minsky 的批评指出了线性模型族的几个缺陷,例如它无法学习 XOR 函数,这导致了对整个神经网络方法的抵制。

    作者: 小强鼓掌
    414
    0
  • 深度学习基本概念

    们发现从数据的原始形式直接学得数据表示这件事很难。深度学习是目前最成功的表示学习方法,因此,目前国际表示学习大会(ICLR)的绝大部分论文都是关于深度学习的。深度学习是把表示学习的任务划分成几个小目标,先从数据的原始形式中先学习比较低级的表示,再从低级表示学得比较高级的表示。这样

    作者: 运气男孩
    973
    4
  • 深度学习之计算图

    图中的每一个节点来表示一个变量。变量可以是标量、向量、矩阵、张量、或者甚至是另一类型的变量。为了形式化我们的图形,我们还需引入操作(operation)这一概念。操作是指一个或多个变量的简单函数。我们的图形语言伴随着一组被允许的操作。我们可以通过将多个操作复合在一起来描述更为复杂

    作者: 小强鼓掌
    948
    3
  • 深度学习之正则化

    没有免费午餐定理暗示我们必须在特定任务上设计性能良好的机器学习算法。我们建立一组学习算法的偏好来达到这个要求。当这些偏好和我们希望算法解决的学习问题相吻合时,性能会更好。        至此,我们具体讨论修改学习算法的方法只有,通过增加或减少学习算法可选假设空间的函数来增加或减少模型的容量。

    作者: 小强鼓掌
    832
    3
  • 深度学习神经网络

        什么是神经网络    我们常常用深度学习这个术语来指训练神经网络的过程。有时它指的是特别大规模的神经网络训练。那么神经网络究竟是什么呢?在这个文章中,我会说一些直观的基础知识。让我们从一个房价预测的例子开始说起。    假设你有一个数据,它包含了六栋房子的信息。所以,你知道

    作者: 运气男孩
    656
    2
  • 深度学习入门》笔记 - 12

    学习步长$\alpha$是一个很重要的参数。 如果太小,算法会收敛的很慢。 如果太大,容易造成算法不收敛,甚至发散。 自变量的标准化,和因变量的中心化,是建立深度学习模型常用的数据预处理方法。 他们的好处,是不仅可以让梯度下降法的数值表现的更加稳定,还有助于我们找到合适的初始值和步长。

    作者: 黄生
    252
    1
  • 深度学习之动量举例

    小但非零时,由于摩擦导致的恒力会使得粒子在达到局部极小点之前就停下来。粘性阻力避免了这两个问题——它足够弱,可以使梯度引起的运动直到达到最小,但又足够强,使得坡度不够时可以阻止运动。这解释了动量更新的基本形式,但具体什么是力呢?力正比于代价函数的负梯度 −∇θJ(θ)。该力推动粒

    作者: 小强鼓掌
    420
    2
  • 深度学习神经网络

    者目标等),再到更高层的目标、目标的行为等,即底层特征组合成了高层特征,由低到高的特征表示越来越抽象。深度学习借鉴的这个过程就是建模的过程。 深度神经网络可以分为3类,前馈深度网络(feed-forwarddeep networks, FFDN),由多个编码器层叠加而成,如多层感知机(multi-layer

    作者: 运气男孩
    670
    2
  • 深度学习训练过程

    上升的非监督学习就是从底层开始,一层一层地往顶层训练。采用无标定数据(有标定数据也可)分层训练各层参数,这一步可以看作是一个无监督训练过程,这也是和传统神经网络区别最大的部分,可以看作是特征学习过程。具体的,先用无标定数据训练第一层,训练时先学习第一层的参数,这层可以看作是得到一

    作者: QGS
    534
    1