已找到以下 10000 条记录
  • 深度学习简介

    本课程由台湾大学李宏毅教授2022年开发课程,主要介绍机器学习基本概念简介、深度学习基本概念简介。

  • 分享深度学习算法

    种架构所有方法之间异同。其分析角度包括训练数据集、网络结构设计、它们在重建性能、训练策略和泛化能力上效果。对于一些关键方法,作者还使用了公开数据集和私有数据进行总结和比较,采用私有数据目的测试各类方法在全新场景下泛化性能。这篇论文能够为研究深度立体匹配研究人

    作者: 初学者7000
    951
    3
  • 分享深度学习笔记

    限速。负责任简化学习不仅使模型足够轻,可以使用,而且还确保它能够适应数据集中未出现拐角情况。在深度学习研究中,简化学习可能最不受关注,因为“我们通过一个可行架构尺寸实现了良好性能”不如“我们通过一个由成千上万个参数组成架构实现了最先进性能”。不可避免地,当高分成

    作者: 初学者7000
    636
    1
  • 深度学习模型结构

    对信息处理分级。从低级提取边缘特征到形状(或者目标等),再到更高层目标、目标的行为等,即底层特征组合成了高层特征,由低到高特征表示越来越抽象。深度学习借鉴这个过程就是建模过程。 深度神经网络可以分为3类,前馈深度网络(feed-forwarddeep networks

    作者: QGS
    644
    2
  • 什么AI、机器学习深度学习

    上,提出深度学习”概念Hinton教授加入了google,而Alpha go也是google家。在一个新兴行业,领军人才是多么重要啊! 总结:人工智能一个很老概念,机器学习人工智能一个子集,深度学习又是机器学习一个子集。机器学习深度学习都是需

    作者: Amber
    发表时间: 2019-01-21 02:50:40
    4420
    0
  • 深度学习之基于梯度学习

    我们到目前为止看到线性模型和神经网络最大区别,在于神经网络非线性导致大多数我们感兴趣损失函数都成为了非凸。这意味着神经网络训练通常使用迭代、基于梯度优化,仅仅使得代价函数达到一个非常小值;而不是像用于训练线性回归模型线性方程求解器,或者用于训练逻辑回归或SVM凸优化算

    作者: 小强鼓掌
    830
    2
  • 深度学习之流形学习

    中大部分区域都是无效输入,感兴趣输入只分布在包含少量点子集构成一组流形中,而学习函数中感兴趣输出变动只位于流形中方向,或者感兴趣变动只发生在我们从一个流形移动到另一个流形时候。流形学习在连续数值数据和无监督学习设定下被引入,尽管这个概率集中想法也能够泛化到离

    作者: 小强鼓掌
    1053
    2
  • 深度学习之过拟合

    然而,经验风险最小化很容易导致过拟合。高容量模型会简单地记住训练集。在很多情况下,经验风险最小化并非真的可行。最有效现代优化算法基于梯度下降,但是很多有用损失函数,如 0 − 1 损失,没有有效导数(导数要么为零,要么处处未定义)。这两个问题说明,在深度学习中我们很少使用经验风险最小化

    作者: 小强鼓掌
    334
    1
  • 深度学习之流形学习

    中大部分区域都是无效输入,感兴趣输入只分布在包含少量点子集构成一组流形中,而学习函数中感兴趣输出变动只位于流形中方向,或者感兴趣变动只发生在我们从一个流形移动到另一个流形时候。流形学习在连续数值数据和无监督学习设定下被引入,尽管这个概率集中想法也能够泛化到离散

    作者: 小强鼓掌
    811
    1
  • 深度学习表示学习经典代表(浅谈什么深度学习

    目录   先来看机器学习: 什么特征? 深度学习表示学习经典代表: 深度学习过程: 深度学习与传统机器学习差别: 深度学习代表算法: 先来看机器学习: 机器学习利用经验experience来改善 计算机系统自身性能,通过经验获取知识knowledge。

    作者: 王博Kings
    发表时间: 2020-12-29 15:39:26
    2243
    0
  • 人工智能、机器学习深度学习关系

    数据一种机器学习技术。它基本特点,试图模仿大脑神经元之间传递,处理信息模式。最显著应用是计算机视觉和自然语言处理(NLP)领域。显然,“深度学习与机器学习“神经网络”强相关,“神经网络”也是其主要算法和手段;或者我们可以将“深度学习”称之为“改良版神经网

    作者: 我的老天鹅
    1923
    23
  • 深度学习VGG网络

    VGG原理VGG16相比AlexNet一个改进采用连续几个3x3卷积核代替AlexNet中较大卷积核(11x11,7x7,5x5)。对于给定感受野(与输出有关输入图片局部大小),采用堆积小卷积核优于采用大卷积核,因为多层非线性层可以增加网络深度来保证学习更复杂模式,而且代价还比

    作者: 我的老天鹅
    579
    16
  • 分享深度学习发展混合学习

      这种学习范式试图跨越监督学习和非监督学习之间界限。由于缺少标签数据和收集标签数据集高成本,它通常用于业务环境中。从本质上讲,混合学习就是这个问题答案。我们如何使用监督学习方法来解决或联系非监督学习问题?例如,半监督学习在机器学习领域正变得越来越流行,因为它可以很好地处理

    作者: 初学者7000
    929
    1
  • 深度学习Normalization模型

    很快被作为深度学习标准工具应用在了各种场合。BN**虽然好,但是也存在一些局限和问题,诸如当BatchSize太小时效果不佳、对RNN等**络无法有效应用BN等。针对BN问题,最近两年又陆续有基于BN思想很多改进Normalization模型被提出。BN深度学习进展中里程

    作者: 可爱又积极
    840
    3
  • 深度学习模型介绍

    深度神经网络:深度学习模型有很多,目前开发者最常用深度学习模型与架构包括卷积神经网络 (CNN)、深度置信网络 (DBN)、受限玻尔兹曼机 (RBM)、递归神经网络 (RNN & LSTM & GRU)、递归张量神经网络 (RNTN)、自动编码器 (AutoEncoder)、生成对抗网络

    作者: 极客潇
    1758
    2
  • 深度学习特点

    深度学习区别于传统浅层学习深度学习不同在于: (1)强调了模型结构深度,通常有5层、6层,甚至10多层隐层节点;(2)明确了特征学习重要性。也就是说,通过逐层特征变换,将样本在原空间特征表示变换到一个新特征空间,从而使分类或预测更容易。与人工规则构造特征方法相比,

    作者: QGS
    667
    2
  • 深度学习之机器学习挑战

            机器学习主要挑战我们算法必须能够在先前未观测新输入上表现良好,而不只是在训练集上效果好。在先前未观测到输入上表现良好能力被称为泛化(generalization)。通常情况下,当我们训练机器学习模型时,我们可以访问训练集,在训练集上计算一些度量误差,被称为训练误差(training

    作者: 小强鼓掌
    821
    3
  • 深度学习之机器学习挑战

            机器学习主要挑战我们算法必须能够在先前未观测新输入上表现良好,而不只是在训练集上效果好。在先前未观测到输入上表现良好能力被称为泛化(generalization)。通常情况下,当我们训练机器学习模型时,我们可以访问训练集,在训练集上计算一些度量误差,被称为训练误差(training

    作者: 小强鼓掌
    516
    2
  • 适合新手深度学习综述(5)--深度神经网络

    等人 (2017) 提出了胶囊网络 (CapsNet),即一个包含两个卷积层和一个全连接层架构。CapsNet 通常包含多个卷积层,胶囊层位于末端。CapsNet 被认为深度学习最新突破之一,因为据说这是基于卷积神经网络局限性而提出。它使用一层又一层胶囊,而不是神经元

    作者: @Wu
    179
    1
  • 部署深度学习模型

    虽然modelarts能够帮助我们在线上完成深度学习模型,但是训练好深度学习模型怎么部署

    作者: 初学者7000
    870
    3