已找到以下 10000 条记录
  • 深度学习中的池化技术

    池化是一个几乎所有做深度学习的人都了解的一个技术,大家对池化如何进行前向传播也都了解,池化的作用也了解一二。然而,池化如何回传梯度呢,池化回传梯度的原则是什么呢,最大池化与平均池化的区别是什么呢,什么时候选择最大池化、什么时候选择平均池化呢。主要用的池化操作有平均池化、最大池化、

    作者: yyy7124
    935
    2
  • 深度学习之高威随机函数

    数。这类网络本质上是多个矩阵组合在一起。Saxe et al. (2013) 精确解析了这类网络中完整的学习动态,表明这些模型的学习能够捕捉到许多在训练具有非线性激活函数的深度模型时观察到的定性特征。Dauphin et al. (2014) 通过实验表明,真实的神经网络也存在包

    作者: 小强鼓掌
    521
    2
  • 深度学习之决策树

     正如我们已经看到的,最近邻预测和决策树都有很多的局限性。尽管如此,在计算资源受限制时,它们都是很有用的学习算法。通过思考复杂算法和 k-最近邻或决策树之间的相似性和差异,我们可以建立对更复杂学习算法的直觉。

    作者: 小强鼓掌
    649
    1
  • 深度学习之维数灾难

     当数据的维数很高时,很多机器学习问题变得相当困难。这种现象被称为维数灾难 (curse of dimensionality)。特别值得注意的是,一组变量不同的可能配置数量会随着变量数目的增加而指数级增长。维数灾难发生在计算机科学的许多地方,在机器学习中尤其如此。       由维数灾难带来的一个挑战是统计挑战。如图5

    作者: 小强鼓掌
    1034
    3
  • 深度学习笔记之归纳准则

    较大时,Cramér-Rao 下界(Rao, 1945; Cramér, 1946) 表明不存在均方误差低于最大似然学习的一致估计。因为这些原因(一致性和统计效率),最大似然通常是机器学习中的首选估计。当样本数目小到会过拟合时,正则化策略如权重衰减可用于获得训练数据有限时方差较小的最大似然有偏版本。

    作者: 小强鼓掌
    932
    3
  • 深度学习之非精度梯度

    大多数优化算法的先决条件都是我们知道精确的梯度或是Hessian 矩阵。在实践中,通常这些量会有噪声,甚至是有偏的估计。几乎每一个深度学习算法都需要基于采样的估计,至少使用训练样本的小批量来计算梯度。在其他情况,我们希望最小化的目标函数实际上是难以处理的。当目标函数不可解时,通常

    作者: 小强鼓掌
    418
    2
  • 深度学习之鞍点激增

    非常小。另一方面,实验中梯度下降似乎可以在许多情况下逃离鞍点。Goodfellow et al. (2015) 可视化了最新神经网络的几个学习轨迹,给了一个例子。这些可视化显示,在突出的鞍点附近,代价函数都是平坦的,权重都为零。但是他们也展示了梯度下降轨迹能够迅速逸出该区间。Goodfellow

    作者: 小强鼓掌
    424
    2
  • 《MXNet深度学习实战》—1.1.2 机器学习

    好特征提取的工作,另外整个过程还需要你具备一定的编程能力才能快速实现想法并反复试错,因此机器学习涉及多学科的知识,如果利用好了这些知识,往往就能取得理想的效果。机器学习涉及的算法非常广泛,如果按照输入数据是否有标签来区分的话可以分为3种:有监督学习、无监督学习和半监督学习。有监督

    作者: 华章计算机
    发表时间: 2019-06-16 16:18:36
    4339
    0
  • 深度学习之信息论

    通信。在这种情况下,信息论告诉我们如何设计最优编码,以及计算从一个特定的概率分布上采样得到、使用多种不同的编码机制的消息的期望长度。在机器学习中,我们也可以把信息论应用在连续型变量上,而信息论中一些消息长度的解释不怎么使用。信息论是电子工程和计算机科学的许多领域的基础。在本书中,

    作者: 小强鼓掌
    624
    3
  • 深度学习》常说的基本概念汇总

    learning,DL) 表示学习的理想很丰满,但实际中人们发现从数据的原始形式直接学得数据表示这件事很难。深度学习是目前最成功的表示学习方法,因此,目前国际表示学习大会(ICLR)的绝大部分论文都是关于深度学习的。深度学习是把表示学习的任务划分成几个小目标,先从数据的原始形式中先学习比较低级的表

    作者: 运气男孩
    743
    3
  • 深度学习之提前终止作用

    对总训练时间的影响不大。提前终止是一种非常不显眼的正则化形式,它几乎不需要改变基本训练过程、目标函数或一组允许的参数值。这意味着,无需破坏学习动态就能很容易地使用提前终止。相对于权重衰减,必须小心不能使用太多的权重衰减,以防网络陷入不良局部极小点(对应于病态的小权重)。提前终止可

    作者: 小强鼓掌
    621
    1
  • “智能基座”产教融合协同育人基地

    力。 通过课后实践、创新实践课等,把知识转化为动手能力。 学练考证一站式学习 一站式服务:课程学习、沙箱实验、考试认证。 一站式服务:课程学习、沙箱实验、考试认证。 精选课程 体系化的培训课程,快速完成学习覆盖,让您轻松上云 鲲鹏主题课程 昇腾主题课程 《数据库》课程方案 1 方案介绍

  • 深度学习入门资料整理

    深度学习基础总结,无一句废话(附完整思维导图)深度学习如何入门? - 知乎 深度学习入门基础讲义_shuzfan的博客-CSDN博客_深度学习入门 神经网络15分钟入门!足够通俗易懂了吧 - 知乎 深度学习基础知识点梳理 - 知乎

    作者: 风吹稻花香
    发表时间: 2022-05-07 14:07:59
    315
    0
  • 深度学习应用开发》学习笔记汇总

    第一讲到这里就结束了,第二讲看了一点,其中关于人工智能机器学习概念,除了公式的定义之外,用类比的方法讲的非常的简单易懂 有监督学习,无监督学习,半监督学习,强化学习。强化学习说的非常厉害,适用于下棋和游戏这一类领域,基本逻辑是正确就奖励,错误就惩罚来做一个学习。 那么无监督学习的典型应用模式是什么呢?说出来

    作者: 黄生
    发表时间: 2022-07-10 14:11:01
    332
    0
  • 深度学习服务产品介绍

    深度学习服务是基于华为云强大高性能计算提供的一站式深度学习平台服务,内置大量优化的网络模型,以便捷、高效的方式帮助用户轻松使用深度学习技术,通过灵活调度按需服务化方式提供模型训练。

    播放量  20251
  • 深度残差收缩网络:一种深度学习的故障诊断算法

    别性强的特征集,是基于机器学习的故障诊断中一个长期挑战。1598845260401021874.png【翻译】近年来,深度学习方法,即有多个非线性映射层的机器学习方法,成为了基于振动信号进行故障诊断的有力工具。深度学习方法能够自动地从原始振动数据中学习特征,以取代传统的统计特征,

    作者: hw9826
    发表时间: 2020-08-31 11:54:08
    4310
    0
  • 深度学习之复杂化

    正如前面提到的,我们将操作的定义限制为返回单个张量的函数。大多数软件实现需要支持可以返回多个张量的操作。例如,如果我们希望计算张量中的最大值和该值的索引,则最好在单次运算中计算两者,因此将该过程实现为具有两个输出的操作效率更高。我们还没有描述如何控制反向传播的内存消耗。反向传播经

    作者: 小强鼓掌
    421
    0
  • 深度学习之反向传播算法

    我们使用反向传播作为一种策略来避免多次计算链式法则中的相同子表达式。由于这些重复子表达式的存在,简单的算法可能具有指数运行时间。现在我们已经详细说明了反向传播算法,我们可以去理解它的计算成本。如果我们假设每个操作的执行都有大致相同的开销,那么我们可以依据执行操作的数量来分析计算成

    作者: 小强鼓掌
    425
    0
  • 深度学习之符号到数值

    一些反向传播的方法采用计算图和一组用于图的输入的数值,然后返回在这些输入值处梯度的一组数值。我们将这种方法称为符号到数值的微分。这种方法用在诸如 Torch (Collobert et al., 2011b) 和 Caffe (Jia, 2013) 之类的库中。另一种方法是采用计算

    作者: 小强鼓掌
    425
    0
  • 深度学习笔记之约束优化

           有时候,在 x 的所有可能值下最大化或最小化一个函数 f(x) 不是我们所希望的。相反,我们可能希望在 x 的某些集合 S 中找 f(x) 的最大值或最小值。这被称为约束优化 (constrained optimization)。在约束优化术语中,集合 S 内的点 x

    作者: 小强鼓掌
    1160
    3
提示

您即将访问非华为云网站,请注意账号财产安全