内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习》拟合,欠拟合笔记

    过拟合,欠拟合过拟合(overfitting):学习能力过强,以至于把训练样本所包含的不太一般的特性都学到了。欠拟合(underfitting):学习能太差,训练样本的一般性质尚未学好。下面是直观解释:                                       

    作者: 运气男孩
    730
    1
  • 深度学习模型结构

    者目标等),再到更高层的目标、目标的行为等,即底层特征组合成了高层特征,由低到高的特征表示越来越抽象。深度学习借鉴的这个过程就是建模的过程。 深度神经网络可以分为3类,前馈深度网络(feed-forwarddeep networks, FFDN),由多个编码器层叠加而成,如多层感知机(multi-layer

    作者: QGS
    646
    2
  • 深度学习笔记之贝叶斯规则

    (x),我们可以用贝叶斯规则 (Bayes’ rule) 来实现这一目的:        注意到 P (y) 出现在上面的公式中,它通常使用 P (y) = ∑x P (y | x)P (x) 来计算,所以我们并不需要事先知道 P (y) 的信息。        贝叶斯规则可以从条件概

    作者: 小强鼓掌
    628
    2
  • 深度学习VGG网络

    核,因为多层非线性层可以增加网络深度来保证学习更复杂的模式,而且代价还比较小(参数更少)。简单来说,在VGG中,使用了3个3x3卷积核来代替7x7卷积核,使用了2个3x3卷积核来代替5*5卷积核,这样做的主要目的是在保证具有相同感知野的条件下,提升了网络的深度,在一定程度上提升了

    作者: 我的老天鹅
    579
    16
  • PyTorch深度学习实战 | 深度学习框架(PyTorch)

    PyTorch可以看作是加入了GPU支持的Numpy。而TensorFlow与Caffe都是命令式的编程语言,而且它们是静态的,即首先必须构建一个神经网络,然后一次又一次使用同样的结构;如果想要改变网络的结构,就必须从头开始。但是PyTorch通过一种反向自动求导的技术,可以让用户零延

    作者: TiAmoZhang
    发表时间: 2023-03-16 07:53:51
    749
    0
  • 《MXNet深度学习实战》—1.1.3 深度学习

    1.1.3 深度学习在介绍深度学习之前首先需要了解下神经网络,神经网络是机器学习算法中的一个重要分支,通过叠加网络层模拟人类大脑对输入信号的特征提取,根据标签和损失函数的不同,既可以做分类任务,又可以做回归任务。我们知道在机器学习的大部分算法中,特征提取一般都是手动构造的,这部分

    作者: 华章计算机
    发表时间: 2019-06-16 16:21:27
    3404
    0
  • 深度学习-语义分割

    建一个输出通道。因为上图有5个类别,所以网络输出的通道数也为5,如下图所示:如上图所示,预测的结果可以通过对每个像素在深度上求argmax的方式被整合到一张分割图中。进而,我们可以轻松地通过重叠的方式观察到每个目标。argmax的方式也很好理解。如上图所示,每个通道只有0或1,以

    作者: @Wu
    642
    0
  • 深度学习之动量

    虽然随机梯度下降仍然是非常受欢迎的优化方法,但其学习过程有时会很慢。动量方法 (Polyak, 1964) 旨在加速学习,特别是处理高曲率、小但一致的梯度,或是带噪声的梯度。动量算法积累了之前梯度指数级衰减的移动平均,并且继续沿该方向移动。动量的效果。动量的主要目的是解决两个问题:Hessian

    作者: 小强鼓掌
    530
    3
  • 深度学习笔记之逻辑回归

    我们可以使用最大似然估计找到对于有参分布族 p(y | x; θ) 最好的参数向量 θ。我们已经看到,线性回归对应于分布族p(y | x; θ) = N (y; θ⊤x, I).通过定义一族不同的概率分布,我们可以将线性回归扩展到分类情况中。如果我们有两个类,类 0 和类 1,那么我们只需要指定这两类之一的概率。类

    作者: 小强鼓掌
    729
    2
  • 部署深度学习模型

    虽然modelarts能够帮助我们在线上完成深度学习的模型,但是训练好的深度学习模型是怎么部署的

    作者: 初学者7000
    878
    3
  • 线性代数“深度学习”笔记

    线性代数作为数学的一个分支,广泛应用于科学和工程中。然而,因为线性代数是主要面向连续数学,而非离散数学。掌握好线性代数对于理解和从事机器学习算法相关工作是很有必要的,尤其是深度学习算法而言。线性代数提供了被称为矩阵逆(matrix inversion)的强大工具。对于大多数矩阵A,我们都能通过矩阵逆解析地求解式(2

    作者: QGS
    717
    2
  • 深度学习笔记之评估方差

    对于如何处理估计不确定性的这个问题,贝叶斯派的答案是积分,这往往会防止过拟合。积分当然是概率法则的应用,使贝叶斯方法容易验证,而频率派机器学习基于相当特别的决定构建了一个估计,将数据集里的所有信息归纳到一个单独的点估计。贝叶斯方法和最大似然方法的第二个最大区别是由贝叶斯先验分布造

    作者: 小强鼓掌
    724
    2
  • 深度学习笔记之归纳准则

    较大时,Cramér-Rao 下界(Rao, 1945; Cramér, 1946) 表明不存在均方误差低于最大似然学习的一致估计。因为这些原因(一致性和统计效率),最大似然通常是机器学习中的首选估计。当样本数目小到会过拟合时,正则化策略如权重衰减可用于获得训练数据有限时方差较小的最大似然有偏版本。

    作者: 小强鼓掌
    931
    3
  • 深度学习和机器学习的区别

    )领域。显然,“深度学习”是与机器学习中的“神经网络”是强相关,“神经网络”也是其主要的算法和手段;或者我们可以将“深度学习”称之为“改良版的神经网络”算法。深度学习又分为卷积神经网络(Convolutional neural networks,简称CNN)和深度置信网(Deep

    作者: 运气男孩
    685
    2
  • 深度学习笔记之Multinoulli 分布

    分布和Multinoulli 分布足够用来描述在它们领域内的任意分布。它们能够描述这些分布,不是因为它们特别强大,而是因为它们的领域很简单;它们可以对那些,能够将所有的状态进行标号的离散型随机变量,进行建模。当处理的是连续型随机变量时,会有不可数无限多的状态,所以任何通过少量参数描述的概率分布都必须在分布上采用严格的极限。

    作者: 小强鼓掌
    1823
    3
  • 深度学习之过拟合

    化算法是基于梯度下降的,但是很多有用的损失函数,如 0 − 1 损失,没有有效的导数(导数要么为零,要么处处未定义)。这两个问题说明,在深度学习中我们很少使用经验风险最小化。反之,我们会使用一个稍有不同的方法,我们真正优化的目标会更加不同于我们希望优化的目标。

    作者: 小强鼓掌
    335
    1
  • 什么是AI、机器学习深度学习

    )领域。显然,“深度学习”是与机器学习中的“神经网络”是强相关,“神经网络”也是其主要的算法和手段;或者我们可以将“深度学习”称之为“改良版的神经网络”算法。深度学习又分为卷积神经网络(Convolutional neural networks,简称CNN)和深度置信网(Deep

    作者: Amber
    11520
    6
  • 深度学习之Dropout

    Dropout(Dropout)(Srivastava et al., 2014) 提供了正则化一大类模型的方法,计算方便但功能强大。在第一种近似下,Dropout可以被认为是集成大量深层神经网络的实用Bagging方法。Bagging涉及训练多个模型,并在每个测试样本上评估多个模型。当每个模型都是一个很

    作者: 小强鼓掌
    1024
    2
  • 深度学习的概念

    深度学习(DL, Deep Learning)是机器学习(ML, Machine Learning)领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标——人工智能(AI, Artificial Intelligence)。 深度学习学习样本数据的内在规律和表示层次,

    作者: 某地瓜
    1859
    1
  • 深度学习之构建机器学习算法

    等。组合模型,损失函数和优化算法来构建学习算法的配方同时适用于监督学习和无监督学习。线性回归实例说明了如何适用于监督学习的。无监督学习时,我们需要定义一个只包含 X 的数据集,一个合适的无监督损失函数和一个模型。例如,通过指定如下损失函数可以得到PCA的第一个主向量:J(w) =

    作者: 小强鼓掌
    830
    3