已找到以下 10000 条记录
  • 深度学习笔记之离散型变量概率分布律函数

    来表示概率分布律函数。通常每一个随机变量都会有一个不同的概率分布律函数,并且读者必须根据随机变量来推断所使用的PMF,而不是根据函数的名称来推断;例如,P (x) 通常 P (y) 不一样。       概率分布律函数将随机变量能够取得的每个状态映射到随机变量取得该状态的概率。x = x 的概率用 P (x)

    作者: 小强鼓掌
    547
    1
  • 深度学习之代理损失函数

    − 1 损失,它能够从训练数据中抽取更多信息。一般的优化和我们用于训练算法的优化有一个重要不同:训练算法通常不会停止在局部极小点。反之,机器学习通常优化代理损失函数,但是在基于提前终止(第 7.8 节)的收敛条件满足时停止。通常,提前终止使用真实潜在损失函数,如验证集上的 0 − 1

    作者: 小强鼓掌
    660
    1
  • 【转载】深度学习简介

    手段。 作为机器学习的一类,表征学习关注如何自动找出表示数据的合适方式。 深度学习是具有多级表示的表征学习方法。它可以逐级表示越来越抽象的概念或模式。 深度学习所基于的神经网络模型用数据编程的核心思想实际上已经被研究了数百年。 深度学习已经逐渐演变成一个工程师科学家皆可使用的普适工具。

    作者: Tianyi_Li
    发表时间: 2020-12-15 09:58:16
    6090
    0
  • 深度学习之基于梯度的优化方法

    function)。虽然有些机器学习著作赋予这些名称特殊的意义。我们通常使用一个上标 ∗ 表示最小化或最大化函数的 x 值。如我们记 x∗ = arg min f(x)。我们假设读者已经熟悉微积分,这里简要回顾微积分概念如何与优化联系。假设我们有一个函数 y = f(x),其中 x y 是实数。这个函数的导数

    作者: 小强鼓掌
    837
    1
  • 深度学习迁移能力有限性

    " 深度学习 " 中的 " 深 ",指的是技术上、架构上的性质,也就是堆叠了很多隐藏层。这种 " 深 ",并不是说它对抽象的概念有深刻的理解,但是呢,一旦任务场景改变,就需要重新找数据训练,比如说检测人脸的模型在不相关的应用程序中可能是无用的,比如诈骗检测,目前还是无法像人脑一样

    作者: 初学者7000
    827
    2
  • 深度学习笔记(三):BatchNorm(BN)层

    Shift六、BN层实现 学习记录:   深度学习笔记(一):卷积层+激活函数+池化层+全连接层   深度学习笔记(二):激活函数总结   深度学习笔记(三):BatchNorm(BN)层   深度学习笔记(四):梯度下降法与局部最优解   深度学习笔记(五):欠拟合、过拟合

    作者: AI 菌
    发表时间: 2021-08-04 16:37:44
    1128
    0
  • 深度学习模型轻量化

    MNN等。主要包括编译优化、缓存优化、稀疏存储计算、NEON指令应用、算子优化等3. 硬件层加速。这个维度主要在AI硬件芯片层,目前有GPU、FPGA、ASIC等多种方案,各种TPU、NPU就是ASIC这种方案,通过专门为深度学习进行芯片定制,大大加速模型运行速度。

    作者: 可爱又积极
    1259
    4
  • 大数据分析学习与微认证

    大数据分析学习与微认证 通过系列大数据分析与应用的在线课程学习,加上对大数据应用学习的在线动手实验环境提供,一站式在线学练考,零基础学习前沿技术,考取权威证书。 大数据分析学习课程与认证 课程结合实践,借助配套的实验环境,一站式学练考,轻松Get新知识 随着大数据、云计算的发展,

  • Ubuntu深度学习环境配置

    Ubuntu深度学习环境配置安装组合:Anaconda+PyTorch(CPU版)或PyTorch(GPU版)开源贡献:陈信达,华北电力大学3.1 Anacond安装AnacondaPython版本是对应的,所以需要选择安装对应Python2.7版本的还是Python3.7版本

    作者: @Wu
    665
    0
  • 深度学习之最近邻回归

    入对应不同的输出,那么训练误差可能会大于零)。最后,我们也可以将参数学习算法嵌入另一个依所需增加参数数目的算法来创建非参数学习算法。例如,我们可以想象一个算法,外层循环调整多项式的次数,内存循环通过线性回归学习模型。理想模型假设我们能够预先知道生成数据的真实概率分布。然而这样的模

    作者: 小强鼓掌
    827
    2
  • 深度学习之鞍点激增

    非常小。另一方面,实验中梯度下降似乎可以在许多情况下逃离鞍点。Goodfellow et al. (2015) 可视化了最新神经网络的几个学习轨迹,给了一个例子。这些可视化显示,在突出的鞍点附近,代价函数都是平坦的,权重都为零。但是他们也展示了梯度下降轨迹能够迅速逸出该区间。Goodfellow

    作者: 小强鼓掌
    424
    2
  • 深度学习》拟合,欠拟合笔记

    过拟合,欠拟合过拟合(overfitting):学习能力过强,以至于把训练样本所包含的不太一般的特性都学到了。欠拟合(underfitting):学习能太差,训练样本的一般性质尚未学好。下面是直观解释:                                       

    作者: 运气男孩
    730
    1
  • 深度学习之提前终止作用

    对总训练时间的影响不大。提前终止是一种非常不显眼的正则化形式,它几乎不需要改变基本训练过程、目标函数或一组允许的参数值。这意味着,无需破坏学习动态就能很容易地使用提前终止。相对于权重衰减,必须小心不能使用太多的权重衰减,以防网络陷入不良局部极小点(对应于病态的小权重)。提前终止可

    作者: 小强鼓掌
    621
    1
  • 深度学习之虚拟对抗样本

    ual adversarial example)(Miyato et al., 2015)。我们可以训练分类器为 x x′ 分配相同的标签。这鼓励分类器学习一个沿着未标签数据所在流形上任意微小变化都很鲁棒的函数。驱动这种方法的假设是,不同的类通常位于分离的流形上,并且小扰动不

    作者: 小强鼓掌
    730
    3
  • 深度学习】嘿马深度学习笔记第4篇:TensorFlow介绍,学习目标【附代码文档】

    本教程的知识点为:深度学习介绍 1.1 深度学习与机器学习的区别 TensorFlow介绍 2.4 张量 2.4.1 张量(Tensor) 2.4.1.1 张量的类型 TensorFlow介绍 1.2 神经网络基础 1.2.1 Logistic回归

    作者: 程序员一诺python
    发表时间: 2024-08-24 21:47:08
    23
    0
  • 深度学习之多个概率分布

    因为这个求和包含多达指数级的项,除非该模型的结构允许某种形式的简化,否则是不可能计算的。目前为止,无法得知深度神经网络是否允许某种可行的简化。相反,我们可以通过采样近似推断,即平均许多掩码的输出。即使是 10 − 20 个掩码就足以获得不错的表现。然而,一个更好的方法能不错地近似

    作者: 小强鼓掌
    632
    4
  • 适合新手的深度学习综述(5)--深度神经网络

    在本节中,我们将简要地讨论深度神经网络 (DNN),以及它们最近的改进突破。神经网络的功能与人脑相似。它们主要由神经元连接组成。当我们说深度神经网络时,我们可以假设有相当多的隐藏层,可以用来从输入中提取特征计算复杂的函数。Bengio(2009) 解释了深度结构的神经网络,如卷积神经网络

    作者: @Wu
    179
    1
  • 深度学习之支持向量机

     支持向量机的一个重要创新是核技巧 (kernel trick)。核策略观察到许多机器学习算法都可以写成样本间点积的形式。例如,支持向量机中的线性函数可以重写为:              其中,x(i) 是训练样本,α 是系数向量。学习算法重写为这种形式允许我们将 x替换为特征函数 φ(x) 的输出,点积替换为被称为核函数

    作者: 小强鼓掌
    956
    4
  • 深度学习的跨模态检索综述

    态的数据。例如,用户可以用文本检索图像或/视频。由于查询及其检索结果模态表征的差异,如何度量不同模态之间的相似性是跨模态检索的主要挑战。随着深度学习技术的推广以及其在计算机视觉、自然语言处理等领域的显著成果,研究者提出了一系列以深度学习为基础的跨模态检索方法,极大地缓解了不同模

    作者: 运气男孩
    1176
    1
  • 一文看懂深度学习AutoMLNAS

    每次训练新模型是都进行迁移学习,收敛速度也更快。 深度学习新方法AutoML 很多人将AutoML称为深度学习的新方式,认为它改变了整个系统。有了AutoML,我们就不再需要设计复杂的深度学习网络,只需运行一个预先设置好的NAS算法。 最近,Google提供的Cloud A

    作者: 风吹稻花香
    发表时间: 2021-06-04 14:51:12
    2474
    0