内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习之灾难遗忘

    maxout单元通常比整流线性单元需要更多正则化。如果训练集很大并且每个单元块数保持很低的话,它们可以在没有正则化情况下工作得不错 (Cai et al., 2013)。maxout 单元还有一些其他优点。在某些情况下,要求更少参数可以获得一些统计和计算上优点。具体来说,如果由 n 个不同线性过滤器

    作者: 小强鼓掌
    418
    0
  • 深度学习之贝叶斯统计

    在有限区间中均匀分布。许多先验偏好于“更简单” 解决方法(如小幅度系数,或是接近常数函数)。        贝叶斯估计通常使用情况下,先验开始是相对均匀分布或高熵高斯分布,观测数据通常会使后验熵下降,并集中在参数几个可能性很高值。

    作者: 小强鼓掌
    619
    1
  • 深度学习之长期依赖

    当计算图变得极深时,神经网络优化算法会面临另外一个难题就是长期依赖问题——由于变深结构使模型丧失了学习到先前信息能力,让优化变得极其困难。深层计算图不仅存在于前馈网络,还存在于之后介绍循环网络中(在第十章中描述)。因为循环网络要在很长时间序列各个时刻重复应用相同操作来构建非常深计算图,并且模型

    作者: 小强鼓掌
    317
    2
  • 深度学习之函数估计

    对于简单的训练/测试或训练/验证分割而言太小难以产生泛化误差准确估计时(因为在小测试集上,L 可能具有过高方差),k-折交叉验证算法可以用于估计学习算法 A 泛化误差。数据集 D 包含元素是抽象样本 z(i) (对于第 i 个样本),在监督学习情况代表(输入,目标)对 z(i) = (x(i)

    作者: 小强鼓掌
    836
    1
  • 深度学习之对抗样本

    表明,这些对抗样本主要原因之一是过度线性。神经网络主要是基于线性块构建。因此在一些实验中,它们实现整体函数被证明是高度线性。这些线性函数很容易优化。不幸是,如果一个线性函数具有许多输入,那么它值可以非常迅速地改变。如果我们用 ϵ 改变每个输入,那么权重为w 线性函数可以改变

    作者: 小强鼓掌
    631
    3
  • 深度学习之模型平均

    aggregating)是通过结合几个模型降低泛化误差技术(Breiman, 1994)。主要想法是分别训练几个不同模型,然后让所有模型表决测试样例输出。这是机器学习中常规策略一个例子,被称为模型平均(model averaging)。采用这种策略技术被称为集成方法。模型平均(model

    作者: 小强鼓掌
    735
    2
  • 深度学习入门》笔记 - 27

    下面用之前广告数据,来建立线性回归模型,看看tensorflow2一般建模过程。import numpy as np #1. 数据预处理:装载广告数据 def loadDataSet(): x=[];y=[] f=open('./Ad.csv')

    作者: 黄生
    22
    2
  • 深度学习之快速 Dropout

    使用Dropout训练时随机性不是这个方法成功必要条件。它仅仅是近似所有子模型总和一个方法。Wang and Manning (2013) 导出了近似这种边缘分布解析解。他们近似被称为快速 Dropout(fast dropout),减小梯度计算中随机性而获得更快收敛速度。这种

    作者: 小强鼓掌
    541
    1
  • 深度学习之任务分类

    作者: 小强鼓掌
    723
    0
  • 深度学习之噪声鲁棒性

    其加到权重。这项技术主要用于循环神经网络 (Jim et al., 1996; Graves, 2011)。这可以被解释为关于权重贝叶斯推断随机实现。贝叶斯学习过程将权重视为不确定,并且可以通过概率分布表示这种不确定性。向权重添加噪声是反映这种不确定性一种实用随机方法。

    作者: 小强鼓掌
    638
    1
  • 深度学习入门》笔记 - 28

    keras.models.Sequential()构建模型使用 model.compile() 设置优化方法、损失函数、评价指标 (损失函数值即 训练误差;评价指标的值即 测试误差)使用 model.fit() 带入训练数据,训练模型import tensorflow as tf

    作者: 黄生
    33
    5
  • 深度学习入门》笔记 - 04

    然后就是Python介绍。包括常见数据类型,基本算术运算,比较和布尔运算,如何载入额外模块和包。 基本数据结构有列表、元组、字典和集合。控制结构,内建函数和自定义函数。 然后介绍numpy库,他可以实现快速算数运算,特别是矩阵运算,运算内部是通过C语言实现,所以比较快。他包

    作者: 黄生
    41
    1
  • 深度学习入门》笔记 - 17

    Propagation FP)算法指输入值通过神经网络得到输出值方法。正向传播算法计算图如下:$sigma$表示sigmoid函数,也就是激活函数。包含损失函数计算图如下:得到$l_2$,通过$l$计算损失函数L,其中$l$表示求解损失函数运算。

    作者: 黄生
    35
    3
  • 深度学习之参数绑定

    参数添加约束或惩罚时,一直是相对于固定区域或点。例如,L2正则化(或权重衰减)对参数偏离零固定值进行惩罚。然而,有时我们可能需要其他方式来表达我们对模型参数适当值先验知识。有时候,我们可能无法准确地知道应该使用什么样参数,但我们根据领域和模型结构方面的知识得知模型参数之

    作者: 小强鼓掌
    834
    2
  • 深度学习之虚拟对抗

    1998)。它是一种非参数最近邻算法,其中使用度量不是通用欧几里德距离,而是根据邻近流形关于聚集概率知识导出。这个算法假设我们尝试分类样本和同一流形上样本具有相同类别。由于分类器应该对局部因素(对应于流形上移动)变化保持不变,一种合理度量是将点 x1 和 x2

    作者: 小强鼓掌
    679
    1
  • 深度学习图卷积

    作者: 我的老天鹅
    825
    6
  • 深度学习入门》笔记 - 22

    神经网络模型建立好了之后,必然要进行模型评估来了解神经网络表现。 神经网络因变量通常有两种数据类型,定量数据和定性数据。不同因变量数据类型对应模型误差定义也不一样。当因变量为定性数据时,模型误差可以进一步分为两个类型: 假阳性率, FPR False Positive Rate

    作者: 黄生
    38
    3
  • 深度学习入门》笔记 - 08

    20227/31/1659239540190972017.png) 这个切线斜率看上去不是0.35样子啊,明显要更陡一下。这是因为x轴和y轴比例不一致而导致视觉效果,如果轴比例之后显示是这样,这样看上去就对了 ![image.png](https://bbs-img.huaweicloud

    作者: 黄生
    148
    3
  • 深度学习入门》笔记 - 24

    解决欠拟合问题方法比较简单,增加模型复杂度就可以了。常见方法是增加隐藏层数量或者增加隐藏层节点数,或者二者同时增加。如果训练误差持续下降,接近于0。而测试误差在下降后变得平稳,甚至略有上升。训练误差和测试误差差距较大。这就是典型过拟合情况。在建立神经网络模型初始阶段,在

    作者: 黄生
    38
    2
  • 深度学习之聚类问题

    关于聚类一个问题是聚类问题本身是病态。这是说没有单一标准去度量聚类数据对应真实世界有多好。我们可以度量聚类性质,例如每个聚类元素到该类中心点平均欧几里得距离。这使我们可以判断能够多好地从聚类分配中重建训练数据。然而我们不知道聚类性质多好地对应于真实世界性质。此外

    作者: 小强鼓掌
    536
    1