内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习入门》笔记 - 07

    也叫做目标函数或者损失函数,它值叫做预测误差或者模型误差。求它最小值方法有很多,最常见方法是`求偏导数`,然后令这些偏导数等于零,解方程得到b和w估计值。但是这个方法只适合少数结构比较简单模型(比如线性回归模型),不能求解深度学习这类复杂模型参数。 所以下面介绍深度学习中常用优化算法:`梯度下降法`

    作者: 黄生
    156
    2
  • 深度学习之正切传播

    1992)训练带有额外惩罚神经网络分类器,使神经网络每个输出 f(x) 对已知变化因素是局部不变。这些变化因素对应于沿着相同样本聚集流形移动。这里实现局部不变性方法是要求 ∇xf(x) 与已知流形切向 v(i) 正交,这个正则化项当然可以通过适当超参数缩放,并且对于大多数神经网络,我们需要对许多输出求和

    作者: 小强鼓掌
    345
    1
  • Deep Learning(深度学习) CNN结构

    其他特征位置被近似地保留下来,它精确位置就变得没有那么重要了。2 、特征映射。网络每一个计算层都是由多个特征映射组成,每个特征映射都是平面形式。平面中单独神经元在约束下共享 相同突触权值集,这种结构形式具有如下有益效果:a.平移不变性。b.自由参数数量缩减(通过

    作者: 倪平宇
    2673
    2
  • 深度学习之Bagging集成模型

    al. (2012c) 由生物学想法受到启发:有性繁殖涉及到两个不同生物体之间交换基因,进化产生压力使得基因不仅是良好而且要准备好不同有机体之间交换。这样基因和这些特点对环境变化是非常稳健,因为它们一定会正确适应任何一个有机体或模型不寻常特性。因此Dropout正则化

    作者: 小强鼓掌
    2180
    6
  • 深度学习替代职业

    科技公司通过基于GAN深度学习开发了一种名为“自动全身模型生成人工智能”技术,他们完全是由人工智能虚拟而成,时尚品牌或广告代理商因而可以不用支付模特酬劳,也不用负担拍摄相关的人员、场地、灯光、设备、甚至是餐饮等成本,这意味着人工智能已经完全可以取代人类模特拍摄时尚宣传广告了。

    作者: 初学者7000
    959
    5
  • 华为云深度学习

    全托管基于容器serverless服务,您无需关心升级与维护,安心搞业务简单易用预置多种网络模型、向导式开发界面、一键开启模型训练与部署开发工作量少自研MoXing分布式框架,让您分布式训练代码开发量缩短近10倍训练速度快1000块GPU集群和0.8线性加速比,原先一个月模型训练

    作者: 斑馬斑馬
    331
    0
  • 深度学习之随机梯度下降

       几乎所有的深度学习算法都用到了一个非常重要算法:随机梯度下降 (stochastic gradient descent, SGD)。随机梯度下降是第4.3节介绍梯度下降算法一个扩展。机器学习一个循环问题是大数据集是好泛化所必要,但大训练集计算代价也更大。

    作者: 小强鼓掌
    1324
    1
  • 深度学习之提前终止

    储模型参数副本。当训练算法终止时,我们返回这些参数而不是最新参数。当验证集上误差在事先指定循环次数内没有进一步改善时,算法就会终止。此过程在算法中有更正式说明。这种策略被称为提前终止(early stopping)。这可能是深度学习中最常用正则化形式。它流行主要是因为有效性和简单性。

    作者: 小强鼓掌
    325
    0
  • 分享深度学习在经济学中应用

    Economics)中,德累斯顿理工大学和牛津布鲁克斯大学研究员们细数了强化学习在经济学中表现。通过对股票定价、拍卖机制、宏观经济等12个领域调查,发现深度学习算法比传统经济、统计学算法在精确度和稳健性发现要更加优秀。1、深度学习股票定价股票价格有着极强不确定性和风险性,如果能有模型攻克股

    作者: 初学者7000
    1665
    2
  • 深度学习之高威随机函数

    从理论上证明,不具非线性浅层自编码器只有全局极小值和鞍点,没有代价比全局极小值更大局部极小值。他们还发现这些结果能够扩展到不具非线性更深网络上,不过没有证明。这类网络输出是其输入线性函数,但它们仍然有助于分析非线性神经网络模型,因为它们损失函数是关于参数非凸函数。这类网络本质上是多个矩阵组合在一起。Saxe

    作者: 小强鼓掌
    521
    2
  • 深度学习入门》笔记 - 16

    然后以这两个logistic模型结果作为输入,建立一个logistic回归模型,这个模型用于判断观测点在两条直线中所处位置。可以写代码实现上图所示神经网络,代码忽略之。而代码运行结果是预测全部正确。 这里展示第2组数据各层结果: 对照着看从输入层到隐藏层两个logistic模型对应决策边界:可以看到,隐藏层把(0

    作者: 黄生
    37
    4
  • 深度学习入门》笔记 - 09

    因变量:0.8 权重:0.2 预测值:0.1 差值:0.245 梯度:-0.35 ``` 可以看到预测值和真实值差值在变小(0.32 > 0.245),也就是在向着不断收敛方向。

    作者: 黄生
    441
    3
  • 深度学习:主流框架和编程实战》——1.4 优化深度学习方法

    1.4 优化深度学习方法目前,深度学习在多种目标分类和识别任务中取得优于传统算法结果,并产生大量优秀模型,使用迁移学习方法将优秀模型应用在其他任务中,可以达到在减少深度学习训练时间前提下,提升分类任务性能,同时降低对训练集规模依赖,关于迁移学习及其实例分析将在第6章进

    作者: 华章计算机
    发表时间: 2019-06-04 19:31:15
    2948
    0
  • 分享深度学习在经济学中应用

    深度学习拍卖机制拍卖机制核心是:投标人需要规划出最大化利润最优策略。最新研究成果如下表所示:等人在预算约束和贝叶斯兼容性方面对[82](增广拉格朗日法)中结果进行了扩展。他们方法证明了神经网络能够通过关注不同估值分布多重设置问题,有效地设计出新颖最优收益拍卖。等

    作者: 初学者7000
    1665
    2
  • 深度学习之逻辑回归

    任何值都是有效。二元变量上分布稍微复杂些,因为它均值必须始终在 0 和1 之间。解决这个问题一种方法是使用logistic sigmoid函数将线性函数输出压缩进区间 (0, 1)。该值可以解释为概率:p(y = 1 | x; θ) = σ(θ⊤x).       这个方法被称为逻辑回归

    作者: 小强鼓掌
    732
    3
  • 深度学习入门》笔记 - 18

    参数梯度方法。我早就已经开始看不懂了,这个图还没完。这个正向传播算法和反向传播算法干啥用呢?我理解是用来训练神经网络模型。因为中间加了很多隐藏层,隐藏层也是需要将损失最小化呀,所以需要引入这两个算法。神经网络目的是建立输入层与输出层之间关系,进而利用建立关系得到预

    作者: 黄生
    23
    1
  • 深度学习模型轻量化

    并不一定能带来加速效果,有时候又是相辅相成。压缩重点在于减少网络参数量,加速则侧重在降低计算复杂度、提升并行能力等。模型压缩和加速可以从多个角度来优化。总体来看,个人认为主要分为三个层次:1. 算法层压缩加速。这个维度主要在算法应用层,也是大多数算法工程师工作范畴。主要包括

    作者: 可爱又积极
    1259
    4
  • 深度学习11种卷积

    Convolution / Atrous Convolution)空间可分卷积(Spatially Separable Convolution)深度可分卷积(Depthwise Separable Convolution)平展卷积(Flattened Convolution)分组卷积(Grouped

    作者: yyy7124
    923
    2
  • 深度学习:主流框架和编程实战》——1.3 本书涉及深度学习框架

    1.3 本书涉及深度学习框架随着深度学习技术不断发展,越来越多深度学习框架得到开发。目前,最受研究人员青睐深度学习框架有TensorFlow、Caffe、Torch和MXNet。TensorFlow框架作为一个用于机器智能开源软件库,以其高度灵活性、强大可移植性等特点

    作者: 华章计算机
    发表时间: 2019-06-04 19:30:09
    3048
    0
  • 深度学习之泛化误差

    当然,这个解释只能用于样本没有重复使用情况。然而,除非训练集特别大,通常最好是多次遍历训练集。当多次遍历数据集更新时,只有第一遍满足泛化误差梯度无偏估计。但是,额外遍历更新当然会由于减小训练误差而得到足够好处,以抵消其带来训练误差和测试误差间差距增加。随着数据集规模迅速增长,超越了计算能力增速,

    作者: 小强鼓掌
    545
    1