已找到以下 10000 条记录
  • 浅谈深度学习背后的数学

    其他因素而发生变化。1601360632858081629.png可以看出,深度神经网络是建立在微积分和一些统计学的基础之上的。评估这些过程背后的数学非常有用,因为它可以帮助人们了解模型内部真正发生的事情,这可以导致开发更好的整体模型。但是,即使这些概念不容易理解,大多数程序都附带了自动微分等工具,所以不用担心。

    作者: HWCloudAI
    发表时间: 2020-09-29 14:24:47
    3026
    0
  • 《MXNet深度学习实战》—3.2 Symbol

    rative programming),计算过程可以逐步来步实现。其实在你了解了NDArray之后,你完全可以仅仅通过NDArray来定义和使用网络,那么为什么还要提供Symbol呢?主要是为了提高效率。在定义好计算图之后,就可以对整个计算图的显存占用做优化处理,这样就能大大降低

    作者: 华章计算机
    发表时间: 2019-06-16 17:01:28
    4004
    0
  • 关于深度学习量化的操作

    0. 简介 深度学习中做量化提升运行速度是最常用的方法,尤其是大模型这类非常吃GPU显存的方法。一般是高精度浮点数表示的网络权值以及激活值用低精度(例如8比特定点)来近似表示达到模型轻量化,加速深度学习模型推理,目前8比特推理已经比较成熟。比如int8量化,就是让原来32bit

    作者: 二哈侠
    发表时间: 2024-09-18 21:29:04
    140
    0
  • 深度学习-通用模型调试技巧

    优值附近震荡,此时可以手动改成1e-5,逐步下降到最优点5正则化如果发现在训练集上loss较低,但验证集上loss较高时,则可以表明模型的方差可能是偏大了,可以使用dropout6batch norm归一化隐藏层的激活值,并不对所有网络都适用,但当适用时,可以使深层的网络学习更容

    作者: 山海之光
    发表时间: 2019-08-08 21:26:02
    11278
    1
  • 深度学习随机取样、学习率

    偏移太多。以下是两种随机取样的思路:在语音处理任务中,若所有样本都可以被载入内存中,那可以通过对样本索引进行相应的处理抽样就可以达到样本抽样的效果。在语音处理任务中,若无法将所有样本载入内存进行计算,可以采用滚动窗的方法每次加载一块数据进内存,然后再窗内随机取样。batch

    作者: 运气男孩
    1444
    5
  • 深度学习拟合,欠拟合笔记

    a+b*x+c*x²,于是我们得到二阶多项式,一个稍好的拟合。 最后我们直接用五阶多项式去拟合,发现对于训练样本可以很好的拟合,但是这样的模型对预测往往效果不是非常好,这叫做过拟合(overfitting)。 在这里我们可以发现,原来过拟合和欠拟合和模型复杂度是相关的,具体描述如下图 也就是说,在模型相对复

    作者: 运气男孩
    发表时间: 2021-01-31 23:37:00
    3162
    1
  • 读书笔记:深度学习(1)

    欢迎来到深度学习的新世界本篇文章开始写一个关于深度学习的系列笔记,主要围绕《深度学习》这本书展开1.《深度学习》这本书为什么值得读?原因之一:作者是科技大咖,跨界牛人是深度学习发展的亲历者。名字叫做Terrence J. Sejnowski ,1947年出生,是普林斯顿大学的博士

    作者: 技术火炬手
    发表时间: 2019-02-26 17:48:04
    10155
    0
  • 神经网络和深度学习

    语言处理等。 二、深度学习 定义:深度学习(Deep Learning, DL)是机器学习(Machine Learning, ML)中的一个子领域,利用多层次(深层)神经网络来自动从数据中提取特征和规律,模仿人脑的神经系统来进行信息处理。 核心思想:深度学习的核心思想是通过深层

    作者: 林欣
    发表时间: 2024-12-31 20:41:28
    118
    0
  • 深度学习之维数灾难

    题,我们假设输入空间如图所示被分成网格。低维时我们可以用由数据占据的少量网格去描述这个空间。泛化到新数据点时,通过检测和新输入在相同网格中的训练样本,我们可以判断如何处理新数据点。例如,如果要估计某点 x 处的概率密度,我们可以返回 x 处单位体积内训练样本的数目除以训练样本的总

    作者: 小强鼓掌
    1034
    3
  • 深度学习之稀疏激活

    说明,在深度整流网络中的学习比在激活函数具有曲率或两侧饱和的深度网络中的学习更容易。整流线性单元还具有历史意义,因为它们表明神经科学继续对深度学习算法的发展产生影响。Glorot et al. (2011a) 从生物学考虑整流线性单元的导出。半整流非线性旨在描述生物神经元的这些性质:(1)

    作者: 小强鼓掌
    935
    1
  • 深度学习框架有哪些?

    深度学习框架有哪些?各有什么优势?

    作者: 可爱又积极
    759
    6
  • 深度学习之代价函数

            深度神经网络设计中的一个重要方面是代价函数的选择。幸运的是,神经网络的代价函数或多或少是和其他的参数模型例如线性模型的代价函数相同的。       在大多数情况下,我们的参数模型定义了一个分布 p(y | x; θ) 并且我们简单地使用最大似然原理。这意味着我们使

    作者: 小强鼓掌
    741
    2
  • 深度学习之稀疏激活

    说明,在深度整流网络中的学习比在激活函数具有曲率或两侧饱和的深度网络中的学习更容易。整流线性单元还具有历史意义,因为它们表明神经科学继续对深度学习算法的发展产生影响。Glorot et al. (2011a) 从生物学考虑整流线性单元的导出。半整流非线性旨在描述生物神经元的这些性质:(1)

    作者: 小强鼓掌
    653
    1
  • 深度学习入门》笔记 - 23

    在实际中训练误差常常偏小, 不是模型真实误差的好的估计值。这是因为如果考试题目是我们做过的作业题,那么我们更容易得高分。所以我们要有一些测试数据是不要参加模型训练的,需要搁置在一旁,直到模型完全建立好,再用来计算模型的测试误差。模型的预测效果较差,经常是由于两类问题导致的。那就是

    作者: 黄生
    30
    2
  • 深度学习:主流框架和编程实战》——1.1.2 传统机器学习与深度学习的对比

    加而增强。如果数据很少,深度学习算法性能并不好,这是因为深度学习算法需要通过大量数据才能很好地理解其中蕴含的模式。在这种情况下,使用人工指定规则的传统机器学习占据上风。硬件支持:深度学习算法严重依赖于高端机,而传统机器学习在低端机上就可以运行。因为深度学习需要进行大量矩阵乘法操作

    作者: 华章计算机
    发表时间: 2019-06-04 19:00:16
    3678
    0
  • 《MXNet深度学习实战》—1.2.4 TensorFlow

    开源以来,在GitHub上的火热程度非同一般,也是目前使用最广泛的深度学习框架之一。TensorFlow为用户提供了丰富的接口、完善的社区、可视化工具TensorBord等。尤其是可视化工具TensorBord可以让用户查看和记录模型训练过程中的参数变化情况,从而方便对模型进行调

    作者: 华章计算机
    发表时间: 2019-06-16 16:28:11
    3173
    0
  • 深度学习-名词解释

    = 数据结构 + 算法。算法的主要目的在于为人们提供阅读了解所执行的工作流程与步骤。数据结构与算法要通过程序的实现,才能由计算机系统来执行。可以这样理解,数据结构和算法形成了可执行的程序。    2.数据集的类型当前ModelArts支持如下9种类型的数据集。包含图片、音频、文本和其他类别。●

    作者: WD互联
    发表时间: 2020-07-17 11:39:45
    8016
    0
  • 深度学习之机器学习基础

    深度学习是机器学习的一个特定分支。要想学好深度学习,必须对机器学习的基本原理有深刻的理解。本章将探讨贯穿本书其余部分的一些机器学习重要原理。我们建议新手读者或是希望更全面了解的读者参考一些更全面覆盖基础知识的机器学习参考书,例如Murphy (2012) 或者Bishop (20

    作者: 小强鼓掌
    842
    2
  • 基于深度学习的解决思路

    在目前基于深度学习的语言模型结构主要包括三个类别:基于RNN的语言模型,基于CNN的语言模型和基于Transformer的语言模型。接下来我会对它们进行依次介绍,并且逐一分析他们的优缺点。 1.通过RNN的语言模型结构 图1 基于RNN的语言模型结构 随着深度学习的发展,在受到NLP(Natural

    作者: 缺水的鱼
    发表时间: 2020-12-04 20:24:08
    7987
    1
  • 深度学习之提前终止作用

    集,这意味着某些训练数据不能被馈送到模型。为了更好地利用这一额外的数据,我们可以在完成提前终止的首次训练之后,进行额外的训练。在第二轮额外的训练步骤中,所有的训练数据都被包括在内。有两个基本的策略都可以用于第二轮训练过程。

    作者: 小强鼓掌
    621
    1