内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习概览

    HCIA-AI V3.0系列课程。本课程主要讲述深度学习相关基本知识,其中包括深度学习发展历程、深度学习神经 网络部件、深度学习神经网络不同类型以及深度学习工程中常见问题。

  • 深度学习应用开发》学习笔记-12

    数据不是收集,是自己生成,好吧~一个简单例子学习没关系%matplotlib inline这个是为了让在jupyter在浏览器里能够显示图像。生成y=2x+1随机数据,数据加背景噪声限值0.4生成等差数列,100个x_data=np.linspace(-1,1,100)y_data=2*x_data+1

    作者: 黄生
    1024
    2
  • 大V讲堂——双向深度学习

    以当今研究趋势由前馈学习重新转入双向对偶系统为出发点,从解码与编码、识别与重建、归纳与演绎、认知与求解等角度,我们将概括地介绍双向深度学习历史、发展现状、应用场景,着重介绍双向深度学习理论、算法和应用示例。

  • 深度学习VGG网络

    VGG原理VGG16相比AlexNet一个改进是采用连续几个3x3卷积核代替AlexNet中较大卷积核(11x11,7x7,5x5)。对于给定感受野(与输出有关输入图片局部大小),采用堆积小卷积核是优于采用大卷积核,因为多层非线性层可以增加网络深度来保证学习更复杂模式,而且代价还比

    作者: 我的老天鹅
    579
    16
  • 深度学习笔记》笔记(二)

    神经网络结构从普通全连接神经网络,发展到卷积神经网络、循环神经网络、自编码器、生成式对抗网络和图神经网络等各种结构, 但BP算法一直是神经网络一个经典和高效寻优工具。附神经网络早期一些发展历程1943年,WarrenMcCulloch和WalterPitts于《神经元与行

    作者: 黄生
    48
    3
  • 深度学习之无监督学习算法

    监督算法之间区别没有规范,严格定义,因为没有客观判断来区分监督者提供值是特征还是目标。通俗地说,无监督学习是指从不需要人为注释样本分布中抽取信息大多数尝试。该术语通常与密度估计相关,学习从分布中采样,学习从分布中去噪,需要数据分布流形,或是将数据中相关样本聚类。 

    作者: 小强鼓掌
    950
    1
  • 深度学习应用开发》学习笔记-09

    n阶张量/n维数组流,表示张量数据流动/计算过程。每一个张量有一个唯一类型,运算类型不匹配会报错,比如int和float32运算就不行,这个是比较严格,可以先通过tf.cast()做类型转换常量定义时候是可以按需求做类型自动转换、reshape但是变量定义中,类型还是根据初值来定,而设定需求类型并没有生效:v2=tf

    作者: 黄生
    1745
    3
  • 深度学习模型结构

    对信息处理是分级。从低级提取边缘特征到形状(或者目标等),再到更高层目标、目标的行为等,即底层特征组合成了高层特征,由低到高特征表示越来越抽象。深度学习借鉴这个过程就是建模过程。 深度神经网络可以分为3类:1.前馈深度网络(feed-forwarddeep networks

    作者: 运气男孩
    1146
    2
  • 深度学习之经验E

    algorithm) 训练含有很多特征数据集,然后学习出这个数据集上有用结构性质。在深度学习中,我们通常要学习生成数据集整个概率分布,显式地,比如密度估计,或是隐式地,比如合成或去噪。还有一些其他类型无监督学习任务,例如聚类,将数据集分成相似样本集合。

    作者: 小强鼓掌
    1164
    3
  • 深度学习之噪声

    Dropout另一个重要方面是噪声是乘性。如果是固定规模加性噪声,那么加了噪声 ϵ 整流线性隐藏单元可以简单地学会使 hi 变得很大(使增加噪声 ϵ 变得不显著)。乘性噪声不允许这样病态地解决噪声鲁棒性问题。另一种深度学习算法——批标准化,在训练时向隐藏单元引入加性和乘

    作者: 小强鼓掌
    1045
    3
  • 深度学习应用开发》学习笔记-26

    这样是不好,因为就像学习训练时将考试题都让你做过一遍,再让你考试就不公平了,类似于作弊了。 应该是考你运用学到知识,来做没做过题。 那比较好做法呢,是有一些数据,把这些数据分一分, 大部分做训练、一小部分做验证、再分一小部分做测试。 下面是模型应用,也就是预测代码 ```python

    作者: 黄生
    826
    3
  • 深度学习随机取样、学习

    得到更好性能。学习率,即参数到达最优值过程速度快慢,当你学习率过大,即下降快,很容易在某一步跨过最优值,当你学习率过小时,长时间无法收敛。因此,学习率直接决定着学习算法性能表现。可以根据数据集大小来选择合适学习率,当使用平方误差和作为成本函数时,随着数据量增多,学

    作者: 运气男孩
    717
    0
  • 深度学习随机取样、学习

    得到更好性能。学习率,即参数到达最优值过程速度快慢,当你学习率过大,即下降快,很容易在某一步跨过最优值,当你学习率过小时,长时间无法收敛。因此,学习率直接决定着学习算法性能表现。可以根据数据集大小来选择合适学习率,当使用平方误差和作为成本函数时,随着数据量增多,学

    作者: 运气男孩
    1444
    5
  • 深度学习应用开发》学习笔记-31

    先探索一下tf2里读取出数据。 每张图片数据化表示是28*28=784个数值,每个数值类型是numpy.uint8,uint8取值范围是0-255, 这个可能就是所谓256位图吧? 每张图片会有自己标签,就是表示这张图片是数字0-9中哪个。 另外用reshape重整了一下图像,比较有趣

    作者: 黄生
    520
    0
  • 深度学习应用开发》学习笔记-13

    先定义训练数据占位符,定义了2个,1个是特征值x,1个是标签值y然后定义模型函数,这个函数有3个参数,1个就是上面说x,还有2个是参数,分别是w和b,就是2个参数斜率和位移而上面的2个参数,要用tf.Variable来声明来创建变量,它是会变,在训练中学习,所以给它初值是多

    作者: 黄生
    457
    0
  • 深度学习之隐藏单元

    hi,要么是鼻子存在冗余编码,要么是脸部另一特征,如嘴。传统噪声注入技术,在输入端加非结构化噪声不能够随机地从脸部图像中抹去关于鼻子信息,除非噪声幅度大到几乎能抹去图像中所有的信息。破坏提取特征而不是原始值,让破坏过程充分利用该模型迄今获得关于输入分布所有知识。

    作者: 小强鼓掌
    833
    5
  • 深度学习时序图网络

    一个通用,有效框架,用于深度学习动态图表示为时间事件序列。由于内存模块和基于图运算符新组合,TGNs能够显著优于以前方法,同时在计算效率上也更高。此外,我们还展示了之前几个用于学习动态图模型可以转换为我们框架具体实例。我们对框架不同组件进行了详细消歧研究,并设计

    作者: QGS
    763
    1
  • 深度学习数据收集

    深度学习需要大量数据集,但是现实是只有零星数据,大家有什么收集数据经验和经历,还有什么收集数据好办法

    作者: 初学者7000
    745
    3
  • 深度学习之动量

    虽然随机梯度下降仍然是非常受欢迎优化方法,但其学习过程有时会很慢。动量方法 (Polyak, 1964) 旨在加速学习,特别是处理高曲率、小但一致梯度,或是带噪声梯度。动量算法积累了之前梯度指数级衰减移动平均,并且继续沿该方向移动。动量效果。动量主要目的是解决两个问题:Hessian

    作者: 小强鼓掌
    530
    3
  • 《MXNet深度学习实战》—1.1.3 深度学习

    搭建起来一样,稍有不同是,在神经网络中层类型更多样,而且层与层之间联系复杂多变。深度学习深度主要就是来描述神经网络中层数量,目前神经网络可以达到成百上千层,整个网络参数量从万到亿不等,所以深度学习并不是非常深奥概念,其本质上就是神经网络。神经网络并不是最近几年才

    作者: 华章计算机
    发表时间: 2019-06-16 16:21:27
    3404
    0