已找到以下 10000 条记录
  • 深度学习概览

    HCIA-AI V3.0系列课程。本课程主要讲述深度学习相关基本知识,其中包括深度学习发展历程、深度学习神经 网络部件、深度学习神经网络不同类型以及深度学习工程中常见问题。

  • 深度学习之隐藏单元

    隐藏单元设计是一个非常活跃研究领域,并且还没有许多明确指导性理论原则。整流线性单元是隐藏单元极好默认选择。许多其他类型隐藏单元也是可用。决定何时使用哪种类型隐藏单元是困难事(尽管整流线性单元通常是一个可接受选择)。我们这里描述对于每种隐藏单元一些基本直觉。这些

    作者: 小强鼓掌
    638
    2
  • 深度学习-语义分割

    而,我们可以轻松地通过重叠方式观察到每个目标。argmax方式也很好理解。如上图所示,每个通道只有0或1,以Person通道为例,红色1表示为Person像素,其他像素均为0。其他通道也是如此,并且不存在同一个像素点在两个以上通道均为1情况。因此,通过argmax就

    作者: @Wu
    642
    0
  • 什么是AI、机器学习深度学习

    也造就了深度学习蓬勃发展,“深度学习”才一下子火热起来。击败李世石Alpha go即是深度学习一个很好示例。GoogleTensorFlow是开源深度学习系统一个比较好实现,支持CNN、RNN和LSTM算法,是目前在图像识别、自然语言处理方面最流行深度神经网络模型

    作者: Amber
    11520
    6
  • 深度学习数据收集

    深度学习需要大量数据集,但是现实是只有零星数据,大家有什么收集数据经验和经历,还有什么收集数据好办法

    作者: 初学者7000
    745
    3
  • 深度学习库 JAX

    ow优势深度学习框架。 JAX 是 Google Research 开发机器学习库,被称为“在 GPU/TPU上运行具有自动微分功能Numpy”,该库核心是类似 Numpy 向量和矩阵运算。我个人认为,与Numpy和PyTorch/TensorFlow最大不同在于J

    作者: QGS
    7165
    3
  • 深度学习入门》笔记 - 12

    学习步长$\alpha$是一个很重要参数。 如果太小,算法会收敛很慢。 如果太大,容易造成算法不收敛,甚至发散。 自变量标准化,和因变量中心化,是建立深度学习模型常用数据预处理方法。 他们好处,是不仅可以让梯度下降法数值表现更加稳定,还有助于我们找到合适初始值和步长。

    作者: 黄生
    264
    1
  • 深度学习之Dropout启发

    除。原则上,任何一种随机修改都是可接受。在实践中,我们必须选择让神经网络能够学习对抗修改类型。在理想情况下,我们也应该使用可以快速近似推断模型族。我们可以认为由向量 µ 参数化任何形式修改,是对 µ 所有可能值训练 p(y | x, µ) 集成。注意,这里不要求 µ

    作者: 小强鼓掌
    831
    3
  • 深度学习入门》笔记 - 25

    L2惩罚法也是一个经典正则化方法。 它是在原有损失函数基础上,在构造一个新损失函数。(带有惩罚项 是一个超参数)模型集成(model ensemble)可以提供模型预测准确度,思想就是, 先训练大量结构不同模型,通过平均、或投票方式综合所有模型结构,得到最终预测。在实际中,有较大限制,原因很简单,

    作者: 黄生
    20
    1
  • 深度学习识别滑动验证码

    本节我们就来了解下使用深度学习识别滑动验证码方法。 1. 准备工作 我们这次主要侧重于完成利用深度学习模型来识别验证码缺口过程,所以不会侧重于讲解深度学习模型算法,另外由于整个模型实现较为复杂,本

    作者: 崔庆才丨静觅
    发表时间: 2021-12-31 16:52:28
    945
    0
  • 深度学习之动量

    虽然随机梯度下降仍然是非常受欢迎优化方法,但其学习过程有时会很慢。动量方法 (Polyak, 1964) 旨在加速学习,特别是处理高曲率、小但一致梯度,或是带噪声梯度。动量算法积累了之前梯度指数级衰减移动平均,并且继续沿该方向移动。动量效果。动量主要目的是解决两个问题:Hessian

    作者: 小强鼓掌
    530
    3
  • 深度学习应用开发》学习笔记-01

    之前好像有听人介绍说吴明辉课程很不错,最近刚好在中国大学APP上看到他一个人工智能相关课程,看了一下确实很不错。课程名称叫做《深度学习应用开发 基于tensorflow实践》。是一个入门级别的课程,不需要人工智能基础,不需要太多数学知识,也不需要什么编程经验。我觉得很

    作者: 黄生
    1139
    5
  • 学习深度学习是否要先学习机器学习

    学习深度学习是否要先学习完机器学习,对于学习顺序不太了解

    作者: 飞奔的野马
    5969
    23
  • 深度学习特点

    深度学习区别于传统浅层学习深度学习不同在于: (1)强调了模型结构深度,通常有5层、6层,甚至10多层隐层节点;(2)明确了特征学习重要性。也就是说,通过逐层特征变换,将样本在原空间特征表示变换到一个新特征空间,从而使分类或预测更容易。与人工规则构造特征方法相比,

    作者: QGS
    594
    2
  • 深度学习之PCA

    PCA这种将数据变换为元素之间彼此不相关表示能力是PCA一个重要性质。它是消除数据中未知变动因素简单表示实例。在PCA中,这个消除是通过寻找输入空间一个旋转(由 W 确定),使得方差主坐标和 z 相关新表示空间基对齐。虽然相关性是数据元素间依赖关系一个重要范畴,但我们对于能够消

    作者: 小强鼓掌
    541
    1
  • 机器学习深度学习区别是什么?

    深度学习是机器学习算法子类,其特殊性是有更高复杂度。因此,深度学习属于机器学习,但它们绝对不是相反概念。我们将浅层学习称为不是深层那些机器学习技术。让我们开始将它们放到我们世界中:这种高度复杂性基于什么?在实践中,深度学习由神经网络中多个隐藏层组成。我们在《从神经元到

    作者: @Wu
    1169
    3
  • 深度学习训练过程

    入差别最小三层神经网络隐层,由于模型容量限制以及稀疏性约束,使得得到模型能够学习到数据本身结构,从而得到比输入更具有表示能力特征;在学习得到n-l层后,将n-l层输出作为第n层输入,训练第n层,由此分别得到各层参数。自顶向下监督学习就是通过带标签数据去训练,

    作者: QGS
    1054
    3
  • 机器学习深度学习未来趋势

    机器学习深度学习未来蕴含着无穷可能!越来越多机器人不仅用在制造业,而且在一些其他方面可以改善我们日常生活方式。医疗行业也可能会发生变化,因为深度学习有助于医生更早地预测或发现癌症,从而挽救生命。在金融领域,机器学习深度学习可以帮助公司甚至个人节省资金,更聪明地投资,更

    作者: @Wu
    1240
    2
  • 深度学习之推断

    在Bagging情况下,每一个模型在其相应训练集上训练到收敛。在Dropout情况下,通常大部分模型都没有显式地被训练,因为通常父神经网络会很大,以致于到宇宙毁灭都不可能采样完所有的子网络。取而代之是,在单个步骤中我们训练一小部分子网络,参数共享会使得剩余子网络也能有好参数设定

    作者: 小强鼓掌
    426
    4
  • 深度学习之Dropout

    处理。Dropout提供了一种廉价Bagging集成近似,能够训练和评估指数级数量神经网络。具体而言,Dropout训练集成包括所有从基础网络除去非输出单元后形成子网络。最先进神经网络基于一系列仿射变换和非线性变换,我们只需将一些单元输出乘零就能有效地删除一个单元。这

    作者: 小强鼓掌
    1023
    2