内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习之性能度量P

    是输出模型在一些样本上概率对数的平均值。       通常,我们会更加关注机器学习算法在未观测数据上的性能如何,因为这将决定其在现实生活中的性能如何。因此,我们使用测试数据来评估系统性能,同训练机器学习系统的数据分开。性能度量的选择或许看上去简单且客观,但是选择一个与系统理想表现对应的性能度量通常是很难的。 

    作者: 小强鼓掌
    827
    4
  • 深度学习之提前终止作用

    对总训练时间的影响不大。提前终止是一种非常不显眼的正则化形式,它几乎不需要改变基本训练过程、目标函数或一组允许的参数值。这意味着,无需破坏学习动态就能很容易地使用提前终止。相对于权重衰减,必须小心不能使用太多的权重衰减,以防网络陷入不良局部极小点(对应于病态的小权重)。提前终止可

    作者: 小强鼓掌
    621
    1
  • 深度学习中的Attention机制

    Attention机制Attention mechanism 在序列学习任务上具有巨大的提升作用,在编码器框架内,通过编码端加入Attention模型,对源数据序列进行数据加权变换,或者在解码端引入Attention模型,对目标数据进行加权变化,可以有效提高序列对序列的自然方式下

    作者: 玉箫然
    1035
    0
  • 深度学习之决策树

    点和输入区域之间形成一一对应的关系。每个叶结点将其输入区域的每个点映射到相同的输出。决策树通常有特定的训练算法,超出了本书的范围。如果允许学习任意大小的决策树,那么可以被视作非参数算法。然而实践中通常有大小限制作为正则化项将其转变成有参模型。由于决策树通常使用坐标轴相关的拆分,并

    作者: 小强鼓掌
    634
    1
  • 深度学习之语音识别

    (Tang and Eliasmith, 2010)。改善神经网络健壮性的方法之一是简单地将随机噪声添加到输入再进行训练。输入噪声注入是一些无监督学习算法的一部分,如去噪自编码器(Vincent et al., 2008a)。向隐藏单元施加噪声也是可行的,这可以被看作在多个抽象层上进行的数据集增强。Poole

    作者: 小强鼓掌
    831
    4
  • 深度学习算法中的集成学习(Ensemble Learning)与深度学习的结合

    数据,深度学习可以从中学习到更加准确和鲁棒的模型。 适应复杂任务:深度学习模型可以适应各种复杂任务,包括计算机视觉、自然语言处理和语音识别等。 集成学习深度学习中的应用 集成学习可以与深度学习相结合,以提高深度学习算法的性能和鲁棒性。以下是一些常见的集成学习方法在深度学习中的应用:

    作者: 皮牙子抓饭
    发表时间: 2023-09-25 09:27:00
    61
    1
  • 深度学习笔记之信息论

    的信道上离散的字母表来发送消息,例如通过无线电传输来通信。在这种情况下,信息论告诉我们如何设计最优编码,以及计算从一个特定的概率分布上采样得到、使用多种不同的编码机制的消息的期望长度。在机器学习中,我们也可以把信息论应用在连续型变量上,而信息论中一些消息长度的解释不怎么使用。信

    作者: 小强鼓掌
    1044
    4
  • 深度学习之复杂化

    正如前面提到的,我们将操作的定义限制为返回单个张量的函数。大多数软件实现需要支持可以返回多个张量的操作。例如,如果我们希望计算张量中的最大值和该值的索引,则最好在单次运算中计算两者,因此将该过程实现为具有两个输出的操作效率更高。我们还没有描述如何控制反向传播的内存消耗。反向传播经

    作者: 小强鼓掌
    421
    0
  • 深度学习之反向传播算法

    我们使用反向传播作为一种策略来避免多次计算链式法则中的相同子表达式。由于这些重复子表达式的存在,简单的算法可能具有指数运行时间。现在我们已经详细说明了反向传播算法,我们可以去理解它的计算成本。如果我们假设每个操作的执行都有大致相同的开销,那么我们可以依据执行操作的数量来分析计算成

    作者: 小强鼓掌
    425
    0
  • 深度学习之符号到数值

    一些反向传播的方法采用计算图和一组用于图的输入的数值,然后返回在这些输入值处梯度的一组数值。我们将这种方法称为符号到数值的微分。这种方法用在诸如 Torch (Collobert et al., 2011b) 和 Caffe (Jia, 2013) 之类的库中。另一种方法是采用计算

    作者: 小强鼓掌
    425
    0
  • Windows系统深度学习环境配置

    orch:torchvision:1.5 本地安装接着第一步,在pytorch环境下进行安装,依次输入如下指令。然后回到虚拟环境所在目录,conda install anaconda安装环境所需的基础包1.6 测试代码1:••••from future import print_functionimport

    作者: @Wu
    449
    0
  • 深度学习笔记之约束优化

           有时候,在 x 的所有可能值下最大化或最小化一个函数 f(x) 不是我们所希望的。相反,我们可能希望在 x 的某些集合 S 中找 f(x) 的最大值或最小值。这被称为约束优化 (constrained optimization)。在约束优化术语中,集合 S 内的点 x

    作者: 小强鼓掌
    1160
    3
  • 深度学习笔记之标量、向量

          标量:一个标量就是一个单独的数,不同于线性代数中大多数概念会涉及到多个数。我们斜体表示标量。标量通常赋予小写的变量名称。当我们介绍标量时,会明确它们是哪种类型的数。比如,在定义实数标量时,我们可能会说“让s ∈ R 表示一条线的斜率”;在定义自然数标量时,我们可能会说“让n

    作者: 小强鼓掌
    842
    1
  • 深度学习笔记》一

    有监督机器学习的核心哲学: 使用“数据驱动”方法让计算机可以学习输入/输出之间的正确映射。它需要一系列“标记”记录,其中包含训练集中的输入和期望的输出,以便将输入到输出的映射学习为一种准确的行为表现。 可以下面这个图来表示: 无监督机器学习的核心哲学: 让计算机学习输入的内部

    作者: 黄生
    发表时间: 2023-08-27 19:11:55
    36
    0
  • 深度学习笔记之贝叶斯规则

            我们经常会需要在已知 P (y | x) 时计算 P (x | y)。幸运的是,如果还知道 P (x),我们可以贝叶斯规则 (Bayes’ rule) 来实现这一目的:        注意到 P (y) 出现在上面的公式中,它通常使用 P (y) = ∑x P (y

    作者: 小强鼓掌
    628
    2
  • 深度学习之病态条件数

    条件数表明函数相对于输入的微小变化而变化的快慢程度。输入被轻微扰动而迅速改变的函数对于科学计算来说是可能是有问题的,因为输入中的舍入误差可能导致输出的巨大变化。考虑函数 f(x) = A−1x。当 A ∈ Rn×n 具有特征值分解时,其条件数为:这是最大和最小特征值的模之比。当该

    作者: 小强鼓掌
    1251
    6
  • 深度学习之双反向传播

    正切传播也涉及到双反向传播(Drucker and LeCun, 1992) 和对抗训练(Szegedy et al., 2014a; Goodfellow et al., 2014b)。双反向传播正则化使Jacobian矩阵偏小,而对抗训练找到原输入附近的点,训练模型在这些点上

    作者: 小强鼓掌
    318
    1
  • 深度学习注意力机制

    Attention机制最重要的步骤是如何在每一时刻产生不同的语言编码向量 ,表示接下来输出的时候要重点关注输入序列中的哪些部分,然后根据关注的区域来产生下一个输出。

    作者: 我的老天鹅
    1436
    12
  • 深度学习之代理损失函数

    有时,我们真正关心的损失函数(比如分类误差)并不能被高效地优化。例如,即使对于线性分类器而言,精确地最小化 0 − 1 损失通常是不可解的(复杂度是输入维数的指数级别)(Marcotte and Savard, 1992)。在这种情况下,我们通常会优化代理损失函数(surrogate

    作者: 小强鼓掌
    655
    1
  • 深度学习之提前终止策略

    另一个策略是保持从第一轮训练获得的参数,然后使用全部的数据继续训练。在这个阶段,已经没有验证集指导我们需要在训练多少步后终止。相反,我们可以监控验证集的平均损失函数,并继续训练,直到它低于提前终止过程终止时的目标值。此策略避免了重新训练模型的高成本,但表现并没有那么好。例如,验证

    作者: 小强鼓掌
    518
    2