已找到以下 10000 条记录
  • 深度学习笔记》的笔记(二)

    神经网络的结构从普通的全连接神经网络,发展到卷积神经网络、循环神经网络、自编码器、生成式对抗网络图神经网络等各种结构, 但BP算法一直是神经网络的一个经典高效的寻优工具。附神经网络早期一些发展历程1943年,WarrenMcCullochWalterPitts于《神经元与行为》中首次引入网络术语来模拟人

    作者: 黄生
    48
    3
  • 深度学习历史

    Some sources point out that Frank Rosenblatt developed and explored all of the basic ingredients of the deep learning systems of today

    作者: liupanccsu
    发表时间: 2022-08-04 01:52:38
    166
    0
  • ArrayList 深度学习

    ArrayList LinkedList 都是不同步的,也就是不保证线程安全; 底层数据结构: Arraylist 底层使用的是 Object 数组;LinkedList 底层使用的是 双向链表 数据结构(JDK1.6 之前为循环链表,JDK1.7 取消了循环。注意双向链表双向循环链表的区别,下面有介绍到!)

    作者: 木字楠
    发表时间: 2022-12-24 09:10:26
    170
    0
  • β的深度学习笔记(二)机器学习神经网络

    html#first 一、机器学习: 依据数据所做的判断跟机器学习的思想根本上是一致的。 机器学习方法是计算机利用已有的数据(经验),得出了某种模型(迟到的规律),并利用此模型预测未来(是否迟到)的一种方法。 机器学习的方法: 回归算法:线性回归逻辑回归。线性回归处理的是数值问题,逻辑回归预测结果是离散的分类。

    作者: AAAI
    发表时间: 2020-12-27 23:54:04
    4324
    0
  • 深度学习之随机梯度下降

    几乎所有的深度学习算法都用到了一个非常重要的算法:随机梯度下降 (stochastic gradient descent, SGD)。随机梯度下降是第4.3节介绍的梯度下降算法的一个扩展。机器学习中的一个循环问题是大的数据集是好的泛化所必要的,但大的训练集的计算代价也更大。机器学

    作者: 小强鼓掌
    652
    1
  • 线性代数“深度学习”笔记

    线性代数作为数学的一个分支,广泛应用于科学工程中。然而,因为线性代数是主要面向连续数学,而非离散数学。掌握好线性代数对于理解从事机器学习算法相关工作是很有必要的,尤其是深度学习算法而言。线性代数提供了被称为矩阵逆(matrix inversion)的强大工具。对于大多数矩阵A,我们都能通过矩阵逆解析地求解式(2

    作者: QGS
    717
    2
  • 深度学习之Dropout优点

    不出意外的话,使用Dropout时最佳验证集的误差会低很多,但这是以更大的模型更多训练算法的迭代次数为代价换来的。对于非常大的数据集,正则化带来的泛化误差减少得很小。在这些情况下,使用Dropout更大模型的计算代价可能超过正则化带来的好处。只有极少的训练样本可用时,Dropout不会很有效。在只有不到

    作者: 小强鼓掌
    640
    1
  • 深度学习之高威随机函数

    数。这类网络本质上是多个矩阵组合在一起。Saxe et al. (2013) 精确解析了这类网络中完整的学习动态,表明这些模型的学习能够捕捉到许多在训练具有非线性激活函数的深度模型时观察到的定性特征。Dauphin et al. (2014) 通过实验表明,真实的神经网络也存在包

    作者: 小强鼓掌
    521
    2
  • 深度学习之局部全局结构间的弱对应

    f(θ), β−1) 的负对数似然会趋向于负无穷——如果 f(θ) 能够正确预测所有训练集中的目标 y,学习算法会无限制地增加 β。给出了一个失败的例子,即使没有局部极小值鞍点,该例还是不能从局部优化中找到一个良好的代价函数值。

    作者: 小强鼓掌
    459
    2
  • 深度学习之局部全局结构间的弱对应

    f(θ), β−1) 的负对数似然会趋向于负无穷——如果 f(θ) 能够正确预测所有训练集中的目标 y,学习算法会无限制地增加 β。给出了一个失败的例子,即使没有局部极小值鞍点,该例还是不能从局部优化中找到一个良好的代价函数值。

    作者: 小强鼓掌
    333
    1
  • 深度学习之输入缺失分类

    当输入向量的每个度量不被保证的时候,分类问题将会变得有挑战性。为了解决分类任务,学习算法只需要定义一个从输入向量映射到输出类别的函数。当一些输入可能丢失时,学习算法必须学习一组函数,而不是单个分类函数。每个函数对应着分类具有不同缺失输入子集的 x。这种情况在医疗诊断中经常出现,因

    作者: 小强鼓掌
    1045
    5
  • 深度学习入门资料整理

    深度学习基础总结,无一句废话(附完整思维导图)深度学习如何入门? - 知乎 深度学习入门基础讲义_shuzfan的博客-CSDN博客_深度学习入门 神经网络15分钟入门!足够通俗易懂了吧 - 知乎 深度学习基础知识点梳理 - 知乎

    作者: 风吹稻花香
    发表时间: 2022-05-07 14:07:59
    315
    0
  • 深度学习之代理损失函数

    − 1 损失,它能够从训练数据中抽取更多信息。一般的优化和我们用于训练算法的优化有一个重要不同:训练算法通常不会停止在局部极小点。反之,机器学习通常优化代理损失函数,但是在基于提前终止(第 7.8 节)的收敛条件满足时停止。通常,提前终止使用真实潜在损失函数,如验证集上的 0 − 1

    作者: 小强鼓掌
    660
    1
  • 华为云SCM服务-关于SCM服务整改的通知

    尊敬的华为云客户:因为产品整改原因,华为云SCM服务预计在5月16日~26日暂停销售。在此期间,您仍然可以正常使用已签发的证书(包括下载、推送、吊销等)。预计中国区域5月27日重新开放部分品牌证书购买,国际站时间待定。如您有任何问题,可随时通过工单或者服务热线(950808)与我们联系。感谢您对华为云的支持!

    作者: 建赟
    4800
    1
  • 深度学习之泛化误差

    机器学习的主要挑战是我们的算法必须能够在先前未观测的新输入上表现良好,而不只是在训练集上效果好。在先前未观测到的输入上表现良好的能力被称为泛化 (generalization)。通常情况下,当我们训练机器学习模型时,我们可以访问训练集,在训练集上计算一些度量误差,被称为训练误差 (training

    作者: 小强鼓掌
    931
    2
  • 深度学习迁移能力有限性

    " 深度学习 " 中的 " 深 ",指的是技术上、架构上的性质,也就是堆叠了很多隐藏层。这种 " 深 ",并不是说它对抽象的概念有深刻的理解,但是呢,一旦任务场景改变,就需要重新找数据训练,比如说检测人脸的模型在不相关的应用程序中可能是无用的,比如诈骗检测,目前还是无法像人脑一样

    作者: 初学者7000
    827
    2
  • 深度学习之临界点

    取得绝对的最小值(相对所有其他值)的点是全局最小点 (globalminimum)。函数可能只有一个全局最小点或存在多个全局最小点,还可能存在不是全局最优的局部极小点。在深度学习的背景下,我们优化的函数可能含有许多不是最优的局部极小点,或许多被非常平坦的区域包围的鞍点。尤其是当输入是多维的时候,所有这些都将使优化变得困难。因此,我们通常寻找

    作者: 小强鼓掌
    1127
    2
  • 深度学习之决策树

    正的决策函数。       正如我们已经看到的,最近邻预测决策树都有很多的局限性。尽管如此,在计算资源受限制时,它们都是很有用的学习算法。通过思考复杂算法 k-最近邻或决策树之间的相似性差异,我们可以建立对更复杂学习算法的直觉。

    作者: 小强鼓掌
    649
    1
  • 深度学习笔记之归纳准则

    较大时,Cramér-Rao 下界(Rao, 1945; Cramér, 1946) 表明不存在均方误差低于最大似然学习的一致估计。因为这些原因(一致性统计效率),最大似然通常是机器学习中的首选估计。当样本数目小到会过拟合时,正则化策略如权重衰减可用于获得训练数据有限时方差较小的最大似然有偏版本。

    作者: 小强鼓掌
    931
    3
  • 深度学习之非精度梯度

    大多数优化算法的先决条件都是我们知道精确的梯度或是Hessian 矩阵。在实践中,通常这些量会有噪声,甚至是有偏的估计。几乎每一个深度学习算法都需要基于采样的估计,至少使用训练样本的小批量来计算梯度。在其他情况,我们希望最小化的目标函数实际上是难以处理的。当目标函数不可解时,通常

    作者: 小强鼓掌
    418
    2