已找到以下 10000 条记录
  • 深度学习之监督学习算法

    源自这样一个视角,教员或者老师提供目标 y 给机器学习系统,指导其应该做什么。无监督学习中,没有教员或者老师,算法必须学会在没有指导的情况下让数据有意义。尽管无监督学习和监督学习并非完全没有交集的正式概念,它们确实有助于粗略分类我们研究机器学习算法时遇到的问题。传统地,人们将回归,分类

    作者: 小强鼓掌
    865
    2
  • 深度学习之Dropout启发

    Bagging。然而,这种参数共享策略不一定要基于包括和排除。原则上,任何一种随机的修改都是可接受的。在实践中,我们必须选择让神经网络能够学习对抗的修改类型。在理想情况下,我们也应该使用可以快速近似推断的模型族。我们可以认为由向量 µ 参数化的任何形式的修改,是对 µ 所有可能的值训练

    作者: 小强鼓掌
    546
    1
  • 深度学习之权重比例

    隐藏层不包含非线性的深度网络。然而,权重比例推断规则对具有非线性的深度模型仅仅是一个近似。虽然这个近似尚未有理论上的分析,但在实践中往往效果很好。Goodfellow et al. (2013b) 实验发现,集成预测权重比例推断规则比蒙特卡罗近似的效果更好(分类精度方面)。即使允许蒙特卡罗近似采样多达

    作者: 小强鼓掌
    959
    5
  • 深度学习之正切传播

    为唯一输出)。与切面距离算法一样,我们根据切向量推导先验,通常从变换(如平移、旋转和缩放图像)的效果获得形式知识。正切传播不仅用于监督学习(Simard et al., 1992),还在强化学习(Thrun, 1995)中有所应用。正切传播与数据集增强密切相关。在这两种情况下,该算法的用户通过指定一组不

    作者: 小强鼓掌
    344
    1
  • 深度学习之任务 T

        机器学习可以让我们解决一些人为设计和实现固定程序很难解决的问题。从科学和哲学的角度来看,机器学习受到关注是因为提高我们对机器学习的认识需要提高我们对智能背后原理的理解。       如果考虑 “任务”比较正式的定义,那么学习的过程并不是任务。       相对正式的 “

    作者: 小强鼓掌
    726
    2
  • 深度学习之代价函数

            深度神经网络设计中的一个重要方面是代价函数的选择。幸运的是,神经网络的代价函数或多或少是和其他的参数模型例如线性模型的代价函数相同的。       大多数情况下,我们的参数模型定义了一个分布 p(y | x; θ) 并且我们简单地使用最大似然原理。这意味着我们使

    作者: 小强鼓掌
    741
    2
  • 深度学习笔记之表示学习

    解决这个问题的途径之一是使用机器学习来发掘表示本身,而不仅仅把表示映射到输出。这种方法我们称之为表示学习(representation learning)。学习到的表示往往比手动设计的表示表现得更好。并且它们只需最少的人工干预,就能让AI系统迅速适应新的任务。表示学习算法只需几分钟就可以为

    作者: 小强鼓掌
    856
    1
  • 深度学习之正则化

    没有免费午餐定理暗示我们必须在特定任务上设计性能良好的机器学习算法。我们建立一组学习算法的偏好来达到这个要求。当这些偏好和我们希望算法解决的学习问题相吻合时,性能会更好。        至此,我们具体讨论修改学习算法的方法只有,通过增加或减少学习算法可选假设空间的函数来增加或减少模型的容量。

    作者: 小强鼓掌
    834
    3
  • 学习笔记-如何提升深度学习性能?

    特征选择 f. 重新定义问题2. 从算法上提升性能   a. 算法的筛选 b. 从文献中学习 c. 重采样的方法3. 从算法调优上提升性能   a. 模型可诊断性 b. 权重的初始化 c. 学习率 d. 激活函数 e. 网络结构 f. batch和epoch g. 正则项 h. 优化目标

    作者: RabbitCloud
    632
    1
  • 深度学习之maxout 单元

    {(i − 1)k + 1, . . . , ik}。这提供了一种方法来学习对输入 x 空间中多个方向响应的分段线性函数。maxout 单元可以学习具有多达 k 段的分段线性的凸函数。maxout 单元因此可以视为学习激活函数本身而不仅仅是单元之间的关系。使用足够大的 k,maxout

    作者: 小强鼓掌
    1104
    1
  • 深度学习之多个概率分布

    因为这个求和包含多达指数级的项,除非该模型的结构允许某种形式的简化,否则是不可能计算的。目前为止,无法得知深度神经网络是否允许某种可行的简化。相反,我们可以通过采样近似推断,即平均许多掩码的输出。即使是 10 − 20 个掩码就足以获得不错的表现。然而,一个更好的方法能不错地近似

    作者: 小强鼓掌
    632
    4
  • 深度学习入门》笔记 - 11

    46941055 3.19188802] ``` `随机梯度下降法`中,每次迭代只使用一个观测点,计算的梯度随机性比较大,所以有时候参数的值不会朝着最小损失的方向移动。 `全数据梯度下降法`(`Full Gradient Dscent`)计算梯度时会用到所有观测点,因此算出来的梯度会比较稳定。

    作者: 黄生
    183
    2
  • 深度学习之隐藏单元

    可以接受的。不可微的隐藏单元通常只少数点上不可微。一般来说,函数 g(z) 具有左导数和右导数,左导数定义为紧邻 z 左边的函数的斜率,右导数定义为紧邻 z 右边的函数的斜率。只有当函数 z 处的左导数和右导数都有定义并且相等时,函数 z 点处才是可微的。神经网络中用到

    作者: 小强鼓掌
    638
    2
  • 深度学习入门》笔记 - 09

    因变量:0.8 权重:0.2 预测值:0.1 差值:0.245 梯度:-0.35 ``` 可以看到预测值和真实值的差值变小(0.32 > 0.245),也就是向着不断的收敛的方向。

    作者: 黄生
    422
    3
  • 深度学习之逻辑回归

      我们用于线性回归的实数正态分布是用均值参数化的。我们提供这个均值的任何值都是有效的。二元变量上的的分布稍微复杂些,因为它的均值必须始终 0 和1 之间。解决这个问题的一种方法是使用logistic sigmoid函数将线性函数的输出压缩进区间 (0, 1)。该值可以解释为概率:p(y

    作者: 小强鼓掌
    732
    3
  • 深度学习与神经科学

    的转换器。正如1995年《纽约时报》上刊登的那样,“……婴儿的大脑似乎受到所谓‘营养因素’的影响而进行着自我组织……大脑的不同区域依次相连,不同层次的脑组织依照一定的先后顺序发育成熟,直至整个大脑发育成熟。” 深度结构人类认知演化和发展中的重要性也认知神经学家的关注之中。发

    作者: 某地瓜
    1231
    1
  • 深度学习之Dropout启发

    Bagging。然而,这种参数共享策略不一定要基于包括和排除。原则上,任何一种随机的修改都是可接受的。在实践中,我们必须选择让神经网络能够学习对抗的修改类型。在理想情况下,我们也应该使用可以快速近似推断的模型族。我们可以认为由向量 µ 参数化的任何形式的修改,是对 µ 所有可能的值训练

    作者: 小强鼓掌
    831
    3
  • 深度学习之小更新

    梯度下降和基本上所有的可以有效训练神经网络的学习算法,都是基于局部较也许能计算目标函数的一些性质,如近似的有偏梯度或正确方向估计的方差。在这些情况下,难以确定局部下降能否定义通向有效解的足够短的路径,但我们并不能真的遵循局部下降的路径。目标函数可能有诸如病态条件或不连续梯度的问题

    作者: 小强鼓掌
    419
    2
  • 深度学习之验证集

    测试集可以用来估计学习过程完成之后的学习器的泛化误差。其重点在于测试样本不能以任何形式参与到模型的选择,包括设定超参数。基于这个原因,测试集中的样本不能用于验证集。因此,我们总是从训练数据中构建验证集。特别地,我们将训练数据分成两个不相交的子集。其中一个用于学习参数。另一个作为验

    作者: 小强鼓掌
    730
    1
  • 深度学习入门》笔记 - 08

    um/20227/31/1659244208189864369.png) 这个算法就是梯度下降法,更新w的过程中,加入了一个系数$\alpha$,他是一个比较小的正数,叫做`学习步长`,这样可以让w更新的速度变慢一些,使得w更容易收敛。

    作者: 黄生
    148
    3