已找到以下 10000 条记录
  • 深度学习入门》笔记 - 24

    解决欠拟合问题的方法比较简单,增加模型复杂度就可以了。常见的方法是增加隐藏层的数量或者增加隐藏层的节点数,或者二者同时增加。如果训练误差持续下降,接近于0。而测试误差在下降后变得平稳,甚至略有上升。训练误差和测试误差的差距较大。这就是典型的过拟合情况。在建立神经网络模型的初始阶段

    作者: 黄生
    38
    2
  • 深度学习之任务分类

    作者: 小强鼓掌
    723
    0
  • 深度学习入门》笔记 - 28

    线性回归模型相当于下面的简单神经网络模型,它没有隐藏层、输出层只有1个节点,激活函数是线性函数。使用 tf.keras.models.Sequential()构建模型使用 model.compile() 设置优化方法、损失函数、评价指标 (损失函数的值即 训练误差;评价指标的值即

    作者: 黄生
    33
    5
  • 深度学习之Dropout启发

    Dropout启发其他以随机方法训练指数量级的共享权重的集成。DropConnect是Dropout的一个特殊情况,其中一个标量权重和单个隐藏单元状态之间的每个乘积被认为是可以丢弃的一个单元 (Wan et al., 2013)。随机池化是构造卷积神经网络集成的一种随机池化的形式

    作者: 小强鼓掌
    546
    1
  • 深度学习入门》笔记 - 04

    然后就是Python的介绍。包括常见的数据类型,基本算术运算,比较和布尔运算,如何载入额外的模块和包。 基本数据结构有列表、元组、字典和集合。控制结构,内建函数和自定义函数。 然后介绍numpy库,他可以实现快速的算数运算,特别是矩阵运算,运算内部是通过C语言实现的,所以比较快。

    作者: 黄生
    41
    1
  • 深度学习之快速 Dropout

    使用Dropout训练时的随机性不是这个方法成功的必要条件。它仅仅是近似所有子模型总和的一个方法。Wang and Manning (2013) 导出了近似这种边缘分布的解析解。他们的近似被称为快速 Dropout(fast dropout),减小梯度计算中的随机性而获得更快的收

    作者: 小强鼓掌
    541
    1
  • 深度学习入门》笔记 - 17

    正向传播(Forward Propagation FP)算法指输入值通过神经网络得到输出值的方法。正向传播算法的计算图如下:$sigma$表示sigmoid函数,也就是激活函数。包含损失函数的计算图如下:得到$l_2$,通过$l$计算损失函数L,其中$l$表示求解损失函数的运算。

    作者: 黄生
    35
    3
  • 深度学习之噪声鲁棒性

    作为数据集增强策略。对于某些模型而言,向输入添加方差极小的噪声等价于对权重施加范数惩罚 (Bishop, 1995a,b)。在一般情况下,噪声注入远比简单地收缩参数强大,特别是噪声被添加到隐藏单元时会更加强大。向隐藏单元添加噪声是值得单独讨论重要的话题; Dropout 算法是这

    作者: 小强鼓掌
    638
    1
  • 深度学习之批量算法

    促使我们从小数目样本中获得梯度的统计估计的动机是训练集的冗余。在最坏的情况下,训练集中所有的 m 个样本都是彼此相同的拷贝。基于采样的梯度估计可以使用单个样本计算出正确的梯度,而比原来的做法少花了 m 倍时间。实践中,我们不太可能真的遇到这种最坏情况,但我们可能会发现大量样本都对

    作者: 小强鼓掌
    317
    1
  • 深度学习图卷积

    作者: 我的老天鹅
    825
    6
  • 深度学习之参数绑定

    参数添加约束或惩罚时,一直是相对于固定的区域或点。例如,L2正则化(或权重衰减)对参数偏离零的固定值进行惩罚。然而,有时我们可能需要其他的方式来表达我们对模型参数适当值的先验知识。有时候,我们可能无法准确地知道应该使用什么样的参数,但我们根据领域和模型结构方面的知识得知模型参数之

    作者: 小强鼓掌
    834
    2
  • 深度学习之虚拟对抗

    对抗训练有助于体现积极正则化与大型函数族结合的力量。纯粹的线性模型,如逻辑回归,由于它们被限制为线性而无法抵抗对抗样本。神经网络能够将函数从接近线性转化为局部近似恒定,从而可以灵活地捕获到训练数据中的线性趋势同时学习抵抗局部扰动。对抗样本也提供了一种实现半监督学习的方法。在与数据集中的标签不相关联的点

    作者: 小强鼓掌
    679
    1
  • 深度学习之梯度下降

    对于牛顿法而言,鞍点显然是一个问题。梯度下降旨在朝“下坡”移动,而非明确寻求临界点。而牛顿法的目标是寻求梯度为零的点。如果没有适当的修改,牛顿法就会跳进一个鞍点。高维空间中鞍点的激增或许解释了在神经网络训练中为什么二阶方法无法成功取代梯度下降。Dauphin et al. (2014)

    作者: 小强鼓掌
    331
    2
  • 深度学习入门》笔记 - 11

    继续随机梯度下降法, 回到广告数据,以TV,radio为自变量,以sales为因变量,没有截距,所有观测点作为训练数据。 先要对自变量进行`标准化`,对因变量进行`中心化`。 标准化后所有自变量的均值是0,方差是1。中心化后因变量的均值是0。 这样做可以让梯步下降法的数值更加稳定,更容易找到合适的初始值和学习步长。

    作者: 黄生
    188
    2
  • 深度学习入门》笔记 - 15

    ```python #定义sigmoid函数 def sigmoid(input): return 1.0/(1+np.exp(-input)) #通过随机梯度下降法估计参数 def logit_model(x,y,w,b,lr=0.1): for iter in range(60):

    作者: 黄生
    203
    2
  • 【HCSD】深度体验OpenHarmony对接华为云IoT

  • 深度学习笔记》六

    在图像处理中将其译为掩码,如Mask RCNN中的Mask。 Mask可以理解为将预测结果叠加到单个通道时得到的该分类所在区域。所以,语义分割的任务就是输入图像经过深度学习算法处理得到带有语义标签的同样尺寸的输出图像。 想把Transformer结构用于视觉任务,就需要一种调整所切图片大小的方法。 于是,

    作者: 黄生
    发表时间: 2023-12-19 22:49:13
    0
    0
  • 神经网络和深度学习

    然语言处理等。 二、深度学习 定义:深度学习(Deep Learning, DL)是机器学习(Machine Learning, ML)中的一个子领域,利用多层次(深层)神经网络来自动从数据中提取特征和规律,模仿人脑的神经系统来进行信息处理。 核心思想:深度学习的核心思想是通过深

    作者: 林欣
    发表时间: 2024-12-31 20:41:28
    0
    0
  • 目标跟踪算法之sort&deep sort

    coupled)的跟踪框架;Simple Online and Realtime Tracking With a Deep Association Metric——deep sort论文及代码理解:https://blog.csdn.net/cdknight_happy/articl

    作者: 深奥的呢
    4827
    33
  • 论文阅读 Road Extraction by Deep Residual U-Net

    Road Extraction by Deep Residual U-NetU-Net与残差单元结合的优势:残差单元可以简化深层网络的训练,大量的skip connections促进了信息的传播,可以设计出参数更好性能更好的网络。在语义分割中,为了得到更好的分割结果,在保留高层语

    作者: 玉箫然
    1034
    0