内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习GRU

    Gated Recurrent Unit – GRU 是 LSTM 的一个变体。他保留了 LSTM 划重点,遗忘不重要信息的特点,在long-term 传播的时候也不会被丢失。

    作者: 我的老天鹅
    1264
    13
  • 深度学习之流形学习

    字“8” 形状的流形在大多数位置只有一维,但在中心的相交处有两维。      如果我们希望机器学习算法学习 Rn 上的所有感兴趣的函数,那么很多机器学习问题看上去都是不可解的。流形学习 (manifold learning) 算法通过一个假设来克服这个障碍,该假设认为 Rn 中大

    作者: 小强鼓掌
    1676
    3
  • 机器学习深度学习区别

    深度学习由经典机器学习发展而来,两者有着相同与不同特点1.完全不同的模式机器学习:使计算机能从数据中学习,并利用其学到的知识来提供答案(通常为预测)。依赖于不同的范式(paradigms),例如统计分析、寻找数据相似性、使用逻辑等深度学习:使用单一技术,最小化人脑劳动。使用被称为

    作者: 极客潇
    1358
    4
  • 昇腾学院深度学习直播笔记

    跃,打破桎梏,真正进入了深度学习的时代。 · 更深还是更宽?:变深比较重要,变宽没那么重要。增宽的学习效率是线性增长,而加深的学习效率是几何式增长。有论文论证了深度的重要作用。 · 新手入门的推荐方法:网上找来代码去通。先熟悉/找感觉,再进行更多的学习。 · 训练方法的变化:随机梯度下降/设置学习率。

    作者: 某地瓜
    1141
    1
  • 深度学习之流形学习

    字“8” 形状的流形在大多数位置只有一维,但在中心的相交处有两维。      如果我们希望机器学习算法学习 Rn 上的所有感兴趣的函数,那么很多机器学习问题看上去都是不可解的。流形学习 (manifold learning) 算法通过一个假设来克服这个障碍,该假设认为 Rn 中大

    作者: 小强鼓掌
    1053
    2
  • 深度学习之流形学习

    例如,数字 “8’’ 形状的流形在大多数位置只有一维,但在中心的相交处有两维。如果我们希望机器学习算法学习 Rn 上的所有感兴趣的函数,那么很多机器学习问题看上去都是不可解的。流形学习 (manifold learning) 算法通过一个假设来克服这个障碍,该假设认为 Rn 中大

    作者: 小强鼓掌
    813
    1
  • 深度学习的挑战

    PC)系统,这些系统尤其擅长深度学习所需的计算类型。在过去,这种水平的硬件对于大多数组织来说成本费用太高。然而,基于云计算的机器学习服务的增长意味着组织可以在没有高昂的前期基础设施成本的情况下访问具有深度学习功能的系统。 •数据挑战:深度学习也会受到妨碍其他大数据项目的数据质量和

    作者: 建赟
    1653
    2
  • 深度学习初体验

    (NLP)领域。显然,“深度学习”是与机器学习中的“神经网络”是强相关,“神经网络”也是其主要的算法和手段;或者可以将“深度学习”称之为“改良版的神经网络”算法。目前主流的深度学习的框架有:TensorFlow、MOA、Caffe、Apache SINGA、PyTorch、Puppet、MXNet、Nervana

    作者: ad123445
    8090
    33
  • 深度学习在环保

    Anthony 如是说:" 这一领域的开发获得了高速发展。深度学习模型在规模上不断扩大,越来越先进, 目前呈指数级增长。令大多数人意想不到的是:这意味着能源消耗正在随之增加。" 一次深度学习训练 =126 个丹麦家庭的年度能源消耗 深度学习训练是数学模型识别大型数据集中的模式的过程。这是一

    作者: 初学者7000
    839
    2
  • 深度学习笔记》的笔记(一)

    最近在看这本书,记一下笔记。感知机模型(perceptron model)的计算执行方向如下。感觉和线性回归很像呀。 但据说感知机模型不能用于线性回归问题,因为它只关注分类问题,而线性回归问题涉及到回归问题?对于线性不可分的情况,在感知机基础上一般有两个解决方向。 线性不可分是指

    作者: 黄生
    42
    4
  • 深度学习笔记之约束优化

    1。约束优化的一个简单方法是将约束考虑在内后简单地对梯度下降进行修改。如果我们使用一个小的恒定步长 ϵ,我们可以先取梯度下降的单步结果,然后将结果投影回 S。如果我们使用线搜索,我们只能在步长为 ϵ 范围内搜索可行的新 x 点,或者我们可以将线上的每个点投影到约束区域。如果可能的话,在梯度下降或线搜索前将梯度投影到可行域的切空间会更高效

    作者: 小强鼓掌
    1160
    3
  • 分享深度学习算法

    GR推荐原因这是第一篇关于基于深度学习的立体匹配任务的综述文章,以往关于立体匹配的综述文章多基于传统方法,或者年代已久。这篇综述文章主要总结了过去6年发表在主要会议和期刊上的150多篇深度立体匹配论文,可以称得上方法最新,分类最全,概括最广。在论文中,作者首先介绍了深度立体匹配网络的常用架

    作者: 初学者7000
    953
    3
  • 深度学习》拟合,欠拟合笔记

    过拟合,欠拟合过拟合(overfitting):学习能力过强,以至于把训练样本所包含的不太一般的特性都学到了。欠拟合(underfitting):学习能太差,训练样本的一般性质尚未学好。下面是直观解释:                                       

    作者: 运气男孩
    730
    1
  • 什么是深度学习深度学习与Mindspore实践》今天你读书了吗?

    深度学习是支持人工智能发展的核心技术,云服务则是深度学生的主要业务之一。深度学习的模型有很多,目前开发者最常用的深度学习模型与架构包括卷积神经网络 (CNN)、深度置信网络 (DBN)、受限玻尔兹曼机 (RBM)、递归神经网络 (RNN & LSTM & GRU)、递归张量神经网络

    作者: QGS
    946
    0
  • 深度学习深陷困境!

    年多伦多举行的一场人工智能会议上,深度学习“教父” Geoffrey Hinton 曾说过,“如果你是一名放射科医生,那么你的处境就像一只已身在悬崖边缘却毫不自知的郊狼。”他认为,深度学习非常适合读取核磁共振(MRIs)和 CT 扫描图像,因此我们应该“停止培训放射科医生”,而且在五年内,深度学习会有更大的进步。然而,时间快进到

    作者: 星恒
    250
    3
  • 深度学习笔记之标量、向量

    表示元素的数目”。      向量(vector):一个向量是一列数。这些数是有序排列的。通过次序中的索引,我们可以确定每个单独的数。通常我们赋予向量粗体的小写变量名称,比如x。向量中的元素可以通过带脚标的斜体表示。向量x 的第一个元素是x1,第二个元素是x2,等等。我们也会注明存储在向量中的

    作者: 小强鼓掌
    842
    1
  • 深度学习模型结构

    者目标等),再到更高层的目标、目标的行为等,即底层特征组合成了高层特征,由低到高的特征表示越来越抽象。深度学习借鉴的这个过程就是建模的过程。 深度神经网络可以分为3类,前馈深度网络(feed-forwarddeep networks, FFDN),由多个编码器层叠加而成,如多层感知机(multi-layer

    作者: QGS
    646
    2
  • 深度学习笔记之贝叶斯规则

    (x),我们可以用贝叶斯规则 (Bayes’ rule) 来实现这一目的:        注意到 P (y) 出现在上面的公式中,它通常使用 P (y) = ∑x P (y | x)P (x) 来计算,所以我们并不需要事先知道 P (y) 的信息。        贝叶斯规则可以从条件概

    作者: 小强鼓掌
    628
    2
  • 深度学习之噪声

    Dropout的另一个重要方面是噪声是乘性的。如果是固定规模的加性噪声,那么加了噪声 ϵ 的整流线性隐藏单元可以简单地学会使 hi 变得很大(使增加的噪声 ϵ 变得不显著)。乘性噪声不允许这样病态地解决噪声鲁棒性问题。另一种深度学习算法——批标准化,在训练时向隐藏单元引入加性和乘性噪声重新参数化模型。批标准化

    作者: 小强鼓掌
    1045
    3
  • 深度学习模型结构

    目标等),再到更高层的目标、目标的行为等,即底层特征组合成了高层特征,由低到高的特征表示越来越抽象。深度学习借鉴的这个过程就是建模的过程。 深度神经网络可以分为3类:1.前馈深度网络(feed-forwarddeep networks, FFDN),由多个编码器层叠加而成,如多层感知机(multi-layer

    作者: 运气男孩
    1146
    2