内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习入门》笔记 - 01

    png) 这是一个三维张量,维度是3x4x2。 TensorFlow里`Tensor`就是张量。 如果把维度对应到现实世界,那么我们所处物质世界明显是一个三维世界。再加上不断流淌时间,可以视为四维。我能够理解到最大维数就是四维了。在一些学习中,好像可以简单抽象推到为五维、六维

    作者: 黄生
    283
    1
  • 深度学习训练过程

    区别最大部分,可以看作是特征学习过程。具体,先用无标定数据训练第一层,训练时先学习第一层参数,这层可以看作是得到一个使得输出和输入差别最小三层神经网络隐层,由于模型容量限制以及稀疏性约束,使得得到模型能够学习到数据本身结构,从而得到比输入更具有表示能力特征;在学

    作者: QGS
    539
    1
  • 深度学习之逻辑回归

    任何值都是有效。二元变量上分布稍微复杂些,因为它均值必须始终在 0 和1 之间。解决这个问题一种方法是使用logistic sigmoid函数将线性函数输出压缩进区间 (0, 1)。该值可以解释为概率:p(y = 1 | x; θ) = σ(θ⊤x).       这个方法被称为逻辑回归

    作者: 小强鼓掌
    732
    3
  • 深度学习项目代码阅读建议

    算法进行实现过程,是一种需要你思维时刻在线过程。又因为我们读深度学习项目代码,不是像Linux内核代码那样鸿篇巨制,所以在代码性质上多少又有些不同。      笔者这里说一份深度学习项目代码,小到几百行测试demo,大到成千万行开源项目,读起来方法肯定各有不同。如下图Mask

    作者: @Wu
    967
    1
  • Ubuntu深度学习环境配置

    7版本或其他版本,根据自己需要下载合适安装包。下载链接:https://www.anaconda.com/download/#linux点击下面的64-Bit (x86) Installer (522 MB),下载64位版本。下载完后文件名是:Anaconda3-2020.02-Linux-x86_64

    作者: @Wu
    665
    0
  • 深度学习典型模型

    络受视觉系统结构启发而产生。第一个卷积神经网络计算模型是在Fukushima(D神经认知机中提出,基于神经元之间局部连接和分层组织图像转换,将有相同参数神经元应用于前一层神经网络不同位置,得到一种平移不变神经网络结构形式。后来,Le Cun等人在该思想基础上,用误差

    作者: 某地瓜
    1673
    1
  • 深度学习之泛化误差

    当然,这个解释只能用于样本没有重复使用情况。然而,除非训练集特别大,通常最好是多次遍历训练集。当多次遍历数据集更新时,只有第一遍满足泛化误差梯度无偏估计。但是,额外遍历更新当然会由于减小训练误差而得到足够好处,以抵消其带来训练误差和测试误差间差距增加。随着数据集规模迅速增长,超越了计算能力增速,

    作者: 小强鼓掌
    545
    1
  • 深度学习入门》笔记 - 14

    27647116229.png) 观察箭头方向,代表了处理流程。通过线性回归模型和生物神经元类比,可以将线性模型称作一个只包含一个神经元神经网络。 同样,logistic模型也可以用来进行类比,下图代表就是预估y等于1概率处理过程: ![image.png](https://bbs-img

    作者: 黄生
    61
    2
  • 深度学习之参数范数惩罚

    相对贡献超参数。将 α 设为 0 表示没有正则化。α 越大,对应正则化惩罚越大。当我们训练算法最小化正则化后目标函数 J˜ 时,它会降低原始目标 J 关于训练数据误差并同时减小参数 θ 规模(或在某些衡量下参数子集规模)。选择不同参数范数 Ω 会偏好不同解法。我们

    作者: 小强鼓掌
    841
    0
  • 深度学习之权重比例

    权重比例推断规则在其他设定下也是精确,包括条件正态输出回归网络以及那些隐藏层不包含非线性深度网络。然而,权重比例推断规则对具有非线性深度模型仅仅是一个近似。虽然这个近似尚未有理论上分析,但在实践中往往效果很好。Goodfellow et al. (2013b) 实验发现

    作者: 小强鼓掌
    953
    2
  • 深度学习入门》笔记 - 11

    先要对自变量进行`标准化`,对因变量进行`中心化`。 标准化后所有自变量均值是0,方差是1。中心化后因变量均值是0。 这样做可以让梯步下降法数值更加稳定,更容易找到合适初始值和学习步长。 一个标准化方法就是让数据每一列减去该列均值,然后除以该列样本标准差($sd(x)$): ![image

    作者: 黄生
    199
    2
  • 基于深度学习 智能社会媒体挖掘-节选

         基于深度学习 智能社会媒体挖掘-节选     社会媒体重要性众所周知。全球 人口中,一半人是网民,网民中三分之 二是社会媒体用户。常见社会媒体包括 Facebook,twitter,国内微信和微博也是 常用社会媒体。我们在社会媒体能够做 各种各样事情,包括和亲友交流沟通、

    作者: andyleung
    1339
    2
  • 深度学习入门》笔记 - 13

    从上图中可以看到,信用卡余额相对于每月收入来说,对还款违约影响更大。 一般模型不会直接预测某信用卡用户是否违约,而是预测其违约概率,表示为`P(Default|Balance,Income)`,因为它值在0和1之间,所以如果直接用类似线性回归模型方式是不行,需要对加权和进行变换。即: ![image

    作者: 黄生
    48
    1
  • 分享深度学习在经济学中应用

    Economics)中,德累斯顿理工大学和牛津布鲁克斯大学研究员们细数了强化学习在经济学中表现。通过对股票定价、拍卖机制、宏观经济等12个领域调查,发现深度学习算法比传统经济、统计学算法在精确度和稳健性发现要更加优秀。1、深度学习股票定价股票价格有着极强不确定性和风险性,如果能有模型攻克股

    作者: 初学者7000
    1665
    2
  • 深度学习之提前终止

    储模型参数副本。当训练算法终止时,我们返回这些参数而不是最新参数。当验证集上误差在事先指定循环次数内没有进一步改善时,算法就会终止。此过程在算法中有更正式说明。这种策略被称为提前终止(early stopping)。这可能是深度学习中最常用正则化形式。它流行主要是因为有效性和简单性。

    作者: 小强鼓掌
    325
    0
  • 深度学习之高威随机函数

    从理论上证明,不具非线性浅层自编码器只有全局极小值和鞍点,没有代价比全局极小值更大局部极小值。他们还发现这些结果能够扩展到不具非线性更深网络上,不过没有证明。这类网络输出是其输入线性函数,但它们仍然有助于分析非线性神经网络模型,因为它们损失函数是关于参数非凸函数。这类网络本质上是多个矩阵组合在一起。Saxe

    作者: 小强鼓掌
    521
    2
  • 分享深度学习在经济学中应用

    深度学习拍卖机制拍卖机制核心是:投标人需要规划出最大化利润最优策略。最新研究成果如下表所示:等人在预算约束和贝叶斯兼容性方面对[82](增广拉格朗日法)中结果进行了扩展。他们方法证明了神经网络能够通过关注不同估值分布多重设置问题,有效地设计出新颖最优收益拍卖。等

    作者: 初学者7000
    1665
    2
  • 深度学习入门》笔记 - 16

    然后以这两个logistic模型结果作为输入,建立一个logistic回归模型,这个模型用于判断观测点在两条直线中所处位置。可以写代码实现上图所示神经网络,代码忽略之。而代码运行结果是预测全部正确。 这里展示第2组数据各层结果: 对照着看从输入层到隐藏层两个logistic模型对应决策边界:可以看到,隐藏层把(0

    作者: 黄生
    37
    4
  • 深度学习:主流框架和编程实战》——1.3 本书涉及深度学习框架

    1.3 本书涉及深度学习框架随着深度学习技术不断发展,越来越多深度学习框架得到开发。目前,最受研究人员青睐深度学习框架有TensorFlow、Caffe、Torch和MXNet。TensorFlow框架作为一个用于机器智能开源软件库,以其高度灵活性、强大可移植性等特点

    作者: 华章计算机
    发表时间: 2019-06-04 19:30:09
    3048
    0
  • 深度学习入门》笔记 - 18

    参数梯度方法。我早就已经开始看不懂了,这个图还没完。这个正向传播算法和反向传播算法干啥用呢?我理解是用来训练神经网络模型。因为中间加了很多隐藏层,隐藏层也是需要将损失最小化呀,所以需要引入这两个算法。神经网络目的是建立输入层与输出层之间关系,进而利用建立关系得到预

    作者: 黄生
    23
    1