已找到以下 10000 条记录
  • 深度学习入门》笔记 - 26

    欠拟合、过拟合总结如下:接下来TensorFlow框架部分,之前有个帖子 基于TensorFlow 2建立深度学习模型 - 快速入门 cid:link_0然后会使用它来建立线性回归模型和神经网络分类模型敬请期待

    作者: 黄生
    49
    2
  • 深度学习之经验E

    1936) 统计学家和机器学习研究者使用很久数据集。它是150 个鸢尾花卉植物不同部分测量结果集合。每个单独植物对应一个样本。每个样本特征该植物不同部分测量结果:萼片长度,萼片宽度,花瓣长度和花瓣宽度。这个数据集记录了每个植物属于什么品种,其**有三个不同品种。   

    作者: 小强鼓掌
    1060
    4
  • 深度学习之正则化

    机器学习一个核心问题设计不仅在训练数据上表现好,并且能在新输入上泛化好算法。在机器学习中,许多策略显式地被设计为减少测试误差(可能会以增大训练误差为代价)。这些策略被统称为正则化。我们将在后文看到,深度学习工作者可以使用许多不同形式正则化策略。事实上,开发更有效正则化

    作者: 小强鼓掌
    527
    0
  • 深度学习框架有哪些?

    深度学习框架有哪些?各有什么优势?

    作者: 可爱又积极
    759
    6
  • 深度学习会逐步取代传统机器学习吗?

    近几年媒体大肆针对深度学习宣传及报道,而深度学习被证明为最先进性能最好技术之一,那它会不会逐步取代传统机器学习了?

    作者: 建赟
    1454
    6
  • 深度学习之经验风险

    最有效现代优化算法基于梯度下降,但是很多有用损失函数,如 0 − 1 损失,没有有效导数(导数要么为零,要么处处未定义)。这两个问题说明,在深度学习中我们很少使用经验风险最小化。反之,我们会使用一个稍有不同方法,我们真正优化目标会更加不同于我们希望优化目标。

    作者: 小强鼓掌
    628
    2
  • 深度学习入门》笔记 - 21

    Linear Unit)函数出现和流行时间都比较晚,但却是深度学习常用激活函数。它非常简单: ReLU(x)=max(x,0) 一个折线函数,所有负输入值都变换成0,所有非负输入值,函数值都等于输入值本身。ReLU函数在正值区域没有梯度消失问题。最后,总结如下:

    作者: 黄生
    29
    1
  • 深度学习入门》笔记 - 12

    学习步长$\alpha$一个很重要参数。 如果太小,算法会收敛很慢。 如果太大,容易造成算法不收敛,甚至发散。 自变量标准化,和因变量中心化,建立深度学习模型常用数据预处理方法。 他们好处,不仅可以让梯度下降法数值表现更加稳定,还有助于我们找到合适初始值和步长。

    作者: 黄生
    272
    1
  • 深度学习入门》笔记 - 01

    png) 这是一个三维张量,维度3x4x2。 TensorFlow里`Tensor`就是张量。 如果把维度对应到现实世界,那么我们所处物质世界明显一个三维世界。再加上不断流淌时间,可以视为四维。我能够理解到最大维数就是四维了。在一些学习中,好像可以简单抽象推到为五维、六维

    作者: 黄生
    283
    1
  • 深度学习之浅层网络

    更确切说,他们说明分段线性网络(可以通过整流非线性或 maxout 单元获得)可以表示区域数量网络深度指数级函数。图 6.5 解释了带有绝对值整流网络如何创建函数镜像图像,这些函数在某些隐藏单元顶部计算,作用于隐藏单元输入。每个隐藏单元指定在哪里折叠输入空

    作者: 小强鼓掌
    423
    0
  • 深度学习入门》笔记 - 05

    接下来就是讲线性模型了。线性模型相对比较简单,但是他学习比较复杂深度学习模型一个基础,而且线性模型本身也具有广泛用途。 这里讲了线性模型中线性回归模型和logistic模型。线性回归模型用于处理`回归问题`。logistic模型用于处理`分类问题`。 线性回归模型可以写作如下形式: ![image

    作者: 黄生
    145
    3
  • 浅谈深度学习Backbone

    度和输出维度不同,输出维度比输入小了许多,就像脖子一样,变细了。经常设置参数 bottle_num=256,指的是网络输出数据维度256 ,可是输入进来可能1024维度。GAP:在设计网络中经常能够看到gap这个层,我之前不知道干啥,后了解了,就是Global

    作者: QGS
    82
    2
  • 深度学习之半监督学习

    深度学习背景下,半监督学习通常指的是学习一个表示 h = f(x)。学习表示目的使相同类中样本有类似的表示。无监督学习可以为如何在表示空间聚集样本提供有用线索。在输入空间紧密聚集样本应该被映射到类似的表示。在许多情况下,新空间上线性分类器可以达到较好泛化 (Belkin

    作者: 小强鼓掌
    750
    10
  • 动手学深度学习:优化与深度学习关系

    出十分有效深度学习模型。小结由于优化算法目标函数通常是一个基于训练数据集损失函数,优化目标在于降低训练误差。由于深度学习模型参数通常都是高维,目标函数鞍点通常比局部最小值更常见。练习对于深度学习优化问题,你还能想到哪些其他挑战?本文摘自《动手学深度学习》动手学深度学习作者:阿斯顿·张(Aston

    作者: 且听风吟
    发表时间: 2019-09-04 09:40:07
    6962
    0
  • 深度学习之提前终止

    储模型参数副本。当训练算法终止时,我们返回这些参数而不是最新参数。当验证集上误差在事先指定循环次数内没有进一步改善时,算法就会终止。此过程在算法中有更正式说明。这种策略被称为提前终止(early stopping)。这可能深度学习中最常用正则化形式。它流行主要是因为有效性和简单性。

    作者: 小强鼓掌
    325
    0
  • 分享深度学习算法——MetaHIN 模型

    测用户对物品偏好,从而向用户提供其感兴趣商品,为用户解决信息过载问题。为了缓解推荐系统中异质信息网络“冷启动”问题,作者提出MetaHIN模型。MetaHIN在模型层面探索了元学习能力,同时在数据层面研究了异质信息网络表达能力。在MetaHIN中,作者提出使用多方面的语

    作者: 初学者7000
    1738
    2
  • 深度学习神经网络

    想要得到。因此,我们说输入层和中间层被紧密连接起来了。值得注意神经网络给予了足够多关于z和y数据,给予了足够训练样本有关c和y。神经网络非常擅长计算从c到g精准映射函数。    这就是一个基础神经网络。你可能发现你自己神经网络在监督学习环境下如此有效和强

    作者: 运气男孩
    656
    2
  • 深度学习入门》笔记 - 14

    27647116229.png) 观察箭头方向,代表了处理流程。通过线性回归模型和生物神经元类比,可以将线性模型称作一个只包含一个神经元神经网络。 同样,logistic模型也可以用来进行类比,下图代表就是预估y等于1概率处理过程: ![image.png](https://bbs-img

    作者: 黄生
    60
    2
  • 深度学习入门》笔记 - 18

    Propagation)神经网络中逐层计算参数梯度方法。我早就已经开始看不懂了,这个图还没完。这个正向传播算法和反向传播算法干啥用呢?我理解用来训练神经网络模型。因为中间加了很多隐藏层,隐藏层也是需要将损失最小化呀,所以需要引入这两个算法。神经网络目的建立输入层与输出层

    作者: 黄生
    23
    1
  • 深度学习模型轻量化

    移动端模型必须满足模型尺寸小、计算复杂度低、电池耗电量低、下发更新部署灵活等条件。模型压缩和加速两个不同的话题,有时候压缩并不一定能带来加速效果,有时候又是相辅相成。压缩重点在于减少网络参数量,加速则侧重在降低计算复杂度、提升并行能力等。模型压缩和加速可以从多个角度来优化。总体来看,个人认为主要分为三个层次:1

    作者: 可爱又积极
    1259
    4