已找到以下 10000 条记录
  • 深度学习之浅层网络

    更确切说,他们说明分段线性网络(可以通过整流非线性或 maxout 单元获得)可以表示区域数量网络深度指数级函数。图 6.5 解释了带有绝对值整流网络如何创建函数镜像图像,这些函数在某些隐藏单元顶部计算,作用于隐藏单元输入。每个隐藏单元指定在哪里折叠输入空

    作者: 小强鼓掌
    423
    0
  • 深度学习入门》笔记 - 05

    接下来就是讲线性模型了。线性模型相对比较简单,但是他学习比较复杂深度学习模型一个基础,而且线性模型本身也具有广泛用途。 这里讲了线性模型中线性回归模型和logistic模型。线性回归模型用于处理`回归问题`。logistic模型用于处理`分类问题`。 线性回归模型可以写作如下形式: ![image

    作者: 黄生
    145
    3
  • 深度学习之监督学习算法

    结构化输出问题称为监督学习。支持其他任务密度估计通常被称为无监督学习学习范式其他变种也是有可能。例如,半监督学习中,一些样本有监督目标,但其他没有。在多实例学习中,样本整个集合被标记为含有或者不含有该类样本,但是集合中单独样本是没有标记

    作者: 小强鼓掌
    865
    2
  • 深度学习之正切传播

    1992)训练带有额外惩罚神经网络分类器,使神经网络每个输出 f(x) 对已知变化因素局部不变。这些变化因素对应于沿着相同样本聚集流形移动。这里实现局部不变性方法要求 ∇xf(x) 与已知流形切向 v(i) 正交,这个正则化项当然可以通过适当超参数缩放,并且对于大多数神经网络,我们需要对许多输出求和

    作者: 小强鼓掌
    345
    1
  • 深度学习笔记之表示学习

    测照片中车。我们知道,汽车有轮子,所以我们可能会想用车轮存在与否作为特征。不幸,我们难以准确地根据像素值来描述车轮看上去像什么。虽然车轮具有简单几何形状,但它图像可能会因场景而异,如落在车轮上阴影、太阳照亮车轮金属零件、汽车挡泥板或者遮挡车轮一部分前景物体等等。 

    作者: 小强鼓掌
    856
    1
  • 深度学习与神经科学

    给出了实际神经计算模型,因而它们纯计算驱动深度学习模型技术先驱。这些理论指出,大脑中神经元组成了不同层次,这些层次相互连接,形成一个过滤体系。在这些层次中,每层神经元在其所处环境中获取一部分信息,经过处理后向更深层级传递。这与后来单纯与计算相关深度神经网络模型

    作者: 某地瓜
    1231
    1
  • 深度学习之隐藏单元

    隐藏单元设计一个非常活跃研究领域,并且还没有许多明确指导性理论原则。整流线性单元隐藏单元极好默认选择。许多其他类型隐藏单元也是可用。决定何时使用哪种类型隐藏单元困难事(尽管整流线性单元通常是一个可接受选择)。我们这里描述对于每种隐藏单元一些基本直觉。这些

    作者: 小强鼓掌
    639
    2
  • 深度学习入门》笔记 - 09

    因变量:0.8 权重:0.2 预测值:0.1 差值:0.245 梯度:-0.35 ``` 可以看到预测值和真实值差值在变小(0.32 > 0.245),也就是在向着不断收敛方向。

    作者: 黄生
    435
    3
  • 深度学习之提前终止

    储模型参数副本。当训练算法终止时,我们返回这些参数而不是最新参数。当验证集上误差在事先指定循环次数内没有进一步改善时,算法就会终止。此过程在算法中有更正式说明。这种策略被称为提前终止(early stopping)。这可能深度学习中最常用正则化形式。它流行主要是因为有效性和简单性。

    作者: 小强鼓掌
    325
    0
  • 深度学习之逻辑回归

    任何值都是有效。二元变量上分布稍微复杂些,因为它均值必须始终在 0 和1 之间。解决这个问题一种方法使用logistic sigmoid函数将线性函数输出压缩进区间 (0, 1)。该值可以解释为概率:p(y = 1 | x; θ) = σ(θ⊤x).       这个方法被称为逻辑回归

    作者: 小强鼓掌
    732
    3
  • 深度学习之Dropout启发

    Dropout启发其他以随机方法训练指数量级共享权重集成。DropConnectDropout一个特殊情况,其中一个标量权重和单个隐藏单元状态之间每个乘积被认为可以丢弃一个单元 (Wan et al., 2013)。随机池化构造卷积神经网络集成一种随机池化形式 (见第 9.3 节

    作者: 小强鼓掌
    831
    3
  • 深度学习之小更新

    梯度下降和基本上所有的可以有效训练神经网络学习算法,都是基于局部较也许能计算目标函数一些性质,如近似的有偏梯度或正确方向估计方差。在这些情况下,难以确定局部下降能否定义通向有效解足够短路径,但我们并不能真的遵循局部下降路径。目标函数可能有诸如病态条件或不连续梯度问题,使得梯度为目标函数

    作者: 小强鼓掌
    419
    2
  • 深度学习入门》笔记 - 14

    27647116229.png) 观察箭头方向,代表了处理流程。通过线性回归模型和生物神经元类比,可以将线性模型称作一个只包含一个神经元神经网络。 同样,logistic模型也可以用来进行类比,下图代表就是预估y等于1概率处理过程: ![image.png](https://bbs-img

    作者: 黄生
    60
    2
  • 深度学习入门》笔记 - 18

    Propagation)神经网络中逐层计算参数梯度方法。我早就已经开始看不懂了,这个图还没完。这个正向传播算法和反向传播算法干啥用呢?我理解用来训练神经网络模型。因为中间加了很多隐藏层,隐藏层也是需要将损失最小化呀,所以需要引入这两个算法。神经网络目的建立输入层与输出层

    作者: 黄生
    23
    1
  • 深度学习模型轻量化

    移动端模型必须满足模型尺寸小、计算复杂度低、电池耗电量低、下发更新部署灵活等条件。模型压缩和加速两个不同的话题,有时候压缩并不一定能带来加速效果,有时候又是相辅相成。压缩重点在于减少网络参数量,加速则侧重在降低计算复杂度、提升并行能力等。模型压缩和加速可以从多个角度来优化。总体来看,个人认为主要分为三个层次:1

    作者: 可爱又积极
    1259
    4
  • 深度学习神经网络

    想要得到。因此,我们说输入层和中间层被紧密连接起来了。值得注意神经网络给予了足够多关于z和y数据,给予了足够训练样本有关c和y。神经网络非常擅长计算从c到g精准映射函数。    这就是一个基础神经网络。你可能发现你自己神经网络在监督学习环境下如此有效和强

    作者: 运气男孩
    656
    2
  • 深度学习入门》笔记 - 16

    然后以这两个logistic模型结果作为输入,建立一个logistic回归模型,这个模型用于判断观测点在两条直线中所处位置。可以写代码实现上图所示神经网络,代码忽略之。而代码运行结果预测全部正确。 这里展示第2组数据各层结果: 对照着看从输入层到隐藏层两个logistic模型对应决策边界:可以看到,隐藏层把(0

    作者: 黄生
    37
    4
  • 深度学习入门》笔记 - 13

    从上图中可以看到,信用卡余额相对于每月收入来说,对还款违约影响更大。 一般模型不会直接预测某信用卡用户是否违约,而是预测其违约概率,表示为`P(Default|Balance,Income)`,因为它值在0和1之间,所以如果直接用类似线性回归模型方式不行,需要对加权和进行变换。即: ![image

    作者: 黄生
    48
    1
  • 浅谈深度学习常用术语

    例子中,我们算法对特定图像预测结果为0,而0给定标签,所以数字0就是我们预测或输出。· 目标(target)或标签(label):图像实际标注标签。· 损失值(loss value)或预测误差(prediction error):预测值与实际值之间差距。数值越小,准确率越高。·

    作者: QGS
    22
    0
  • 深度学习之函数估计

    对于简单的训练/测试或训练/验证分割而言太小难以产生泛化误差准确估计时(因为在小测试集上,L 可能具有过高方差),k-折交叉验证算法可以用于估计学习算法 A 泛化误差。数据集 D 包含元素抽象样本 z(i) (对于第 i 个样本),在监督学习情况代表(输入,目标)对 z(i) = (x(i)

    作者: 小强鼓掌
    836
    1