内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 分享深度学习发展学习范式——混合学习

    为生成图像,而且输出样本类别(多输出学习)。这是基于这样一个想法,通过判别器学习区分真实和生成图像, 能够在没有标签情况下学得具体结构。通过从少量标记数据中进行额外增强,半监督模型可以在最少监督数据量下获得最佳性能。    GAN也涉及了其他混合学习领域——自监督学习,

    作者: 初学者7000
    741
    1
  • 分享深度学习发展学习范式——混合学习

    为生成图像,而且输出样本类别(多输出学习)。这是基于这样一个想法,通过判别器学习区分真实和生成图像, 能够在没有标签情况下学得具体结构。通过从少量标记数据中进行额外增强,半监督模型可以在最少监督数据量下获得最佳性能。    GAN也涉及了其他混合学习领域——自监督学习,

    作者: 初学者7000
    830
    3
  • 深度学习概念

    这些学习过程中获得信息对诸如文字,图像和声音等数据解释有很大帮助。它最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。 深度学习是一个复杂机器学习算法,在语音和图像识别方面取得效果,远远超过先前相关技术。 深度学习在搜索技术,数据挖掘,机器

    作者: 某地瓜
    1859
    1
  • 深度学习应用

    计算机视觉香港中文大学多媒体实验室是最早应用深度学习进行计算机视觉研究华人团队。在世界级人工智能竞赛LFW(大规模人脸识别竞赛)上,该实验室曾力压FaceBook夺得冠军,使得人工智能在该领域识别能力首次超越真人。语音识别微软研究人员通过与hinton合作,首先将RBM和D

    作者: QGS
    657
    1
  • 深度学习应用

    计算机视觉香港中文大学多媒体实验室是最早应用深度学习进行计算机视觉研究华人团队。在世界级人工智能竞赛LFW(大规模人脸识别竞赛)上,该实验室曾力压FaceBook夺得冠军,使得人工智能在该领域识别能力首次超越真人。语音识别微软研究人员通过与hinton合作,首先将RBM和D

    作者: QGS
    1525
    2
  • 深度学习LSTM模型

    长短期记忆(Long short-term memory, LSTM)是一种特殊RNN,主要是为了解决长序列训练过程中梯度消失和梯度爆炸问题。简单来说,就是相比普通RNN,LSTM能够在更长序列中有更好表现

    作者: 我的老天鹅
    1892
    10
  • 深度学习之机器学习基础

    深度学习是机器学习一个特定分支。要想学好深度学习,必须对机器学习基本原理有深刻理解。本章将探讨贯穿本书其余部分一些机器学习重要原理。我们建议新手读者或是希望更全面了解读者参考一些更全面覆盖基础知识机器学习参考书,例如Murphy (2012) 或者Bishop (20

    作者: 小强鼓掌
    841
    2
  • 机器学习深度学习区别

    深度学习由经典机器学习发展而来,两者有着相同与不同特点1.完全不同模式机器学习:使计算机能从数据中学习,并利用其学到知识来提供答案(通常为预测)。依赖于不同范式(paradigms),例如统计分析、寻找数据相似性、使用逻辑等深度学习:使用单一技术,最小化人脑劳动。使用被称为

    作者: 极客潇
    1358
    4
  • 深度学习和机器学习区别

    入了解同学可以自行google)。神经网络计算量非常大,事实上在很长时间里由于基础设施技术限制进展并不大。而GPU出现让人看到了曙光,也造就了深度学习蓬勃发展,“深度学习”才一下子火热起来。击败李世石Alpha go即是深度学习一个很好示例。GoogleTens

    作者: 运气男孩
    685
    2
  • 深度学习深度模型中优化

    深度学习算法在许多情况下都涉及到优化。例如,模型中进行推断(如 PCA)涉及到求解优化问题。我们经常使用解析优化去证明或设计算法。在深度学习涉及到诸多优化问题中,最难是神经网络训练。甚至是用几百台机器投入几天到几个月来解决单个神经网络训练问题,也是很常见。因为这其中优化

    作者: 小强鼓掌
    338
    1
  • 深度学习GRU

    Gated Recurrent Unit – GRU 是 LSTM 一个变体。他保留了 LSTM 划重点,遗忘不重要信息特点,在long-term 传播时候也不会被丢失。

    作者: 我的老天鹅
    1264
    13
  • 深度学习应用开发》学习笔记-09

    n阶张量/n维数组流,表示张量数据流动/计算过程。每一个张量有一个唯一类型,运算类型不匹配会报错,比如int和float32运算就不行,这个是比较严格,可以先通过tf.cast()做类型转换常量定义时候是可以按需求做类型自动转换、reshape但是变量定义中,类型还是根据初值来定,而设定需求类型并没有生效:v2=tf

    作者: 黄生
    1745
    3
  • 深度学习

    深度学习是实现机器学习一种技术。早期机器学习研究者中还开发了一种叫人工神经网络算法,但是发明之后数十年都默默无闻。神经网络是受人类大脑启发而来:神经元之间相互连接关系。但是,人类大脑中神经元可以与特定范围内任意神经元连接,而人工神经网络中数据传播要经历不同层,传播

    作者: feichaiyu
    发表时间: 2019-12-16 00:07:41
    3780
    0
  • 深度学习之正则化

    机器学习一个核心问题是设计不仅在训练数据上表现好,并且能在新输入上泛化好算法。在机器学习中,许多策略显式地被设计为减少测试误差(可能会以增大训练误差为代价)。这些策略被统称为正则化。我们将在后文看到,深度学习工作者可以使用许多不同形式正则化策略。事实上,开发更有效正则化

    作者: 小强鼓掌
    527
    0
  • 深度学习之流形学习

    中大部分区域都是无效输入,感兴趣输入只分布在包含少量点子集构成一组流形中,而学习函数中感兴趣输出变动只位于流形中方向,或者感兴趣变动只发生在我们从一个流形移动到另一个流形时候。流形学习是在连续数值数据和无监督学习设定下被引入,尽管这个概率集中想法也能够泛化到离

    作者: 小强鼓掌
    1676
    3
  • 深度学习之流形学习

    中大部分区域都是无效输入,感兴趣输入只分布在包含少量点子集构成一组流形中,而学习函数中感兴趣输出变动只位于流形中方向,或者感兴趣变动只发生在我们从一个流形移动到另一个流形时候。流形学习是在连续数值数据和无监督学习设定下被引入,尽管这个概率集中想法也能够泛化到离

    作者: 小强鼓掌
    1053
    2
  • 深度学习之流形学习

    中大部分区域都是无效输入,感兴趣输入只分布在包含少量点子集构成一组流形中,而学习函数中感兴趣输出变动只位于流形中方向,或者感兴趣变动只发生在我们从一个流形移动到另一个流形时候。流形学习是在连续数值数据和无监督学习设定下被引入,尽管这个概率集中想法也能够泛化到离散

    作者: 小强鼓掌
    813
    1
  • 分享深度学习发展混合学习

      这种学习范式试图跨越监督学习和非监督学习之间界限。由于缺少标签数据和收集标签数据集高成本,它通常用于业务环境中。从本质上讲,混合学习就是这个问题答案。我们如何使用监督学习方法来解决或联系非监督学习问题?例如,半监督学习在机器学习领域正变得越来越流行,因为它可以很好地处理

    作者: 初学者7000
    931
    1
  • 深度学习深度前馈网络

    个神经元,它接收输入来源于许多其他单元,并且计算它自己激活值。使用多层向量值表示想法来源于神经科学。用于计算这些表示函数 f(i)(x) 选择,也或多或少地受到神经科学观测指引,这些观测是关于生物神经元计算功能。然而,现代神经网络研究受到更多是来自许多数学和工

    作者: 小强鼓掌
    1256
    4
  • 深度学习之多任务学习

    多任务学习 (Caruana, 1993) 是通过合并几个任务中样例(可以视为对参数施加软约束)来提高泛化一种方式。额外训练样本以同样方式将模型参数推向泛化更好方向,当模型一部分在任务之间共享时,模型这一部分更多地被约束为良好值(假设共享是合理),往往能更好

    作者: 小强鼓掌
    532
    1