内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习之长期依赖

    当计算图变得极深时,神经网络优化算法会面临的另外一个难题就是长期依赖问题——由于变深的结构使模型丧失了学习到先前信息的能力,让优化变得极其困难。深层的计算图不仅存在于前馈网络,还存在于之后介绍的循环网络中(在第十章中描述)。因为循环网络要在很长时间序列的各个时刻重复应用相同操作来

    作者: 小强鼓掌
    317
    2
  • 深度学习入门》笔记 - 20

    因变量的常见数据类型有三种:定量数据、二分类定性数据和多分类定性数据。输出层激活函数的选择主要取决于因变量的数据类型。MNIST数据集是机器学习文献中常用的数据。因变量(0~9)独热码表示,比如数字8的独热码为(0 0 0 0 0 0 0 0 1 0)数字2的读热码为(0 0 1 0 0 0 0 0

    作者: 黄生
    25
    1
  • 深度学习入门》笔记 - 13

    一般模型不会直接预测某信用卡用户是否违约,而是预测其违约的概率,表示为`P(Default|Balance,Income)`,因为它的值在0和1之间,所以如果直接类似线性回归模型的方式是不行的,需要对加权和进行变换。即: ![image.png](https://bbs-img.huaweicloud

    作者: 黄生
    48
    1
  • 深度学习之隐藏单元

    一种形式,而不是对输入原始值的破坏。例如,如果模型学得通过鼻检测脸的隐藏单元 hi,那么丢失 hi 对应于擦除图像中有鼻子的信息。模型必须学习另一种 hi,要么是鼻子存在的冗余编码,要么是脸部的另一特征,如嘴。传统的噪声注入技术,在输入端加非结构化的噪声不能够随机地从脸部图像中抹

    作者: 小强鼓掌
    833
    5
  • 深度学习之噪声鲁棒性

    要用于循环神经网络 (Jim et al., 1996; Graves, 2011)。这可以被解释为关于权重的贝叶斯推断的随机实现。贝叶斯学习过程将权重视为不确定的,并且可以通过概率分布表示这种不确定性。向权重添加噪声是反映这种不确定性的一种实用的随机方法。

    作者: 小强鼓掌
    638
    1
  • 深度学习之模板匹配

    1999)。核机器的一个主要缺点是计算决策函数的成本关于训练样本的数目是线性的。因为第 i 个样本贡献 αik(x, x(i)) 到决策函数。支持向量机能够通过学习主要包含零的向量 α,以缓和这个缺点。那么判断新样本的类别仅需要计算非零 αi 对应的训练样本的核函数。这些训练样本被称为支持向量 (support

    作者: 小强鼓掌
    464
    1
  • 深度学习之贝叶斯统计

    频率派的视角是真实参数 θ 是未知的定值,而点估计θˆ 是考虑数据集上函数(可以看作是随机的)的随机变量。        贝叶斯统计的视角完全不同。贝叶斯概率反映知识状态的确定性程度。数据集能够直接观测到,因此不是随机的。另一方面,真实参数 θ 是未知或不确定的,因此可以表示成随机变量。   

    作者: 小强鼓掌
    619
    1
  • 深度学习之对抗样本

    们实现的整体函数被证明是高度线性的。这些线性函数很容易优化。不幸的是,如果一个线性函数具有许多输入,那么它的值可以非常迅速地改变。如果我们 ϵ 改变每个输入,那么权重为w 的线性函数可以改变 ϵ ∥w∥1 之多,如果 w 是高维的这会是一个非常大的数。对抗训练通过鼓励网络在训练

    作者: 小强鼓掌
    631
    3
  • 深度学习】嘿马深度学习笔记第1篇:深度学习基本概要【附代码文档】

    掌握神经网络图像相关案例 深度学习介绍 1.1 深度学习与机器学习的区别 学习目标 目标 知道深度学习与机器学习的区别 应用 无 1.1.1 区别 1.1.1.1 特征提取方面 机器学习的特征工程步骤是要靠手动完成的,而且需要大量领域专业知识 深度学习通常由多个层组成

    作者: 程序员一诺python
    发表时间: 2024-08-16 17:03:45
    22
    0
  • 深度学习之Dropout启发

    Bagging。然而,这种参数共享策略不一定要基于包括和排除。原则上,任何一种随机的修改都是可接受的。在实践中,我们必须选择让神经网络能够学习对抗的修改类型。在理想情况下,我们也应该使用可以快速近似推断的模型族。我们可以认为由向量 µ 参数化的任何形式的修改,是对 µ 所有可能的值训练

    作者: 小强鼓掌
    547
    1
  • 深度学习之权重比例

    权重比例推断规则在其他设定下也是精确的,包括条件正态输出的回归网络以及那些隐藏层不包含非线性的深度网络。然而,权重比例推断规则对具有非线性的深度模型仅仅是一个近似。虽然这个近似尚未有理论上的分析,但在实践中往往效果很好。Goodfellow et al. (2013b) 实验发现

    作者: 小强鼓掌
    961
    5
  • 深度学习之任务 T

            机器学习可以让我们解决一些人为设计和实现固定程序很难解决的问题。从科学和哲学的角度来看,机器学习受到关注是因为提高我们对机器学习的认识需要提高我们对智能背后原理的理解。       如果考虑 “任务”比较正式的定义,那么学习的过程并不是任务。       在相对正式的

    作者: 小强鼓掌
    727
    2
  • 深度学习之代价函数

            深度神经网络设计中的一个重要方面是代价函数的选择。幸运的是,神经网络的代价函数或多或少是和其他的参数模型例如线性模型的代价函数相同的。       在大多数情况下,我们的参数模型定义了一个分布 p(y | x; θ) 并且我们简单地使用最大似然原理。这意味着我们使

    作者: 小强鼓掌
    741
    2
  • 学习笔记-如何提升深度学习性能?

    特征选择 f. 重新定义问题2. 从算法上提升性能   a. 算法的筛选 b. 从文献中学习 c. 重采样的方法3. 从算法调优上提升性能   a. 模型可诊断性 b. 权重的初始化 c. 学习率 d. 激活函数 e. 网络结构 f. batch和epoch g. 正则项 h. 优化目标

    作者: RabbitCloud
    632
    1
  • 深度学习入门》笔记 - 11

    化`。 标准化后所有自变量的均值是0,方差是1。中心化后因变量的均值是0。 这样做可以让梯步下降法的数值更加稳定,更容易找到合适的初始值和学习步长。 一个标准化的方法就是让数据的每一列减去该列的均值,然后除以该列的样本标准差($sd(x)$): ![image.png](https://bbs-img

    作者: 黄生
    195
    2
  • 深度学习之正则化

    没有免费午餐定理暗示我们必须在特定任务上设计性能良好的机器学习算法。我们建立一组学习算法的偏好来达到这个要求。当这些偏好和我们希望算法解决的学习问题相吻合时,性能会更好。        至此,我们具体讨论修改学习算法的方法只有,通过增加或减少学习算法可选假设空间的函数来增加或减少模型的容量。

    作者: 小强鼓掌
    834
    3
  • 深度学习之maxout 单元

    {(i − 1)k + 1, . . . , ik}。这提供了一种方法来学习对输入 x 空间中多个方向响应的分段线性函数。maxout 单元可以学习具有多达 k 段的分段线性的凸函数。maxout 单元因此可以视为学习激活函数本身而不仅仅是单元之间的关系。使用足够大的 k,maxout

    作者: 小强鼓掌
    1104
    1
  • 深度学习之验证集

    测试集可以用来估计学习过程完成之后的学习器的泛化误差。其重点在于测试样本不能以任何形式参与到模型的选择,包括设定超参数。基于这个原因,测试集中的样本不能用于验证集。因此,我们总是从训练数据中构建验证集。特别地,我们将训练数据分成两个不相交的子集。其中一个用于学习参数。另一个作为验

    作者: 小强鼓掌
    730
    1
  • 深度学习入门》笔记 - 08

    208189864369.png) 这个算法就是梯度下降法,在更新w的过程中,加入了一个系数$\alpha$,他是一个比较小的正数,叫做`学习步长`,这样可以让w更新的速度变慢一些,使得w更容易收敛。

    作者: 黄生
    148
    3
  • 图像视频压缩:深度学习,有一套

    为编码器;qq 为量化器;GG 为解码和生成器;DD 为对抗器。 基于深度学习的视频压缩编码 基于深度学习的视频编码分为两种: • 采用深度学习替代传统视频编码中部分模块 • 端到端采用深度学习编码压缩 部分方案 采样深度神经网络可以替代传统视频编码中的模块包括:帧内/帧间预测、变换、上下采样、环路滤波、熵编码等6。

    作者: 技术火炬手
    发表时间: 2021-03-23 06:28:07
    7893
    0