已找到以下 10000 条记录
  • 深度学习之机器学习的算法效果

            当我们使用机器学习算法时,我们不会提前固定参数,然后从数据集中采样。我们会在训练集上采样,然后挑选参数去降低训练集误差,然后再在测试集上采样。在这个过程中,测试误差期望会大于或等于训练误差期望。以下是决定机器学习算法效果是否好的因素:        1. 降低训练误差 

    作者: 小强鼓掌
    726
    3
  • 深度学习: 学习率 (learning rate)

             深度学习: 学习率 (learning rate)    作者:liulina603        致敬 原文:https://blog.csdn.net/liulina603/article/details/80604385   深度学习: 学习率 (learning

    作者: 一颗小树x
    发表时间: 2020-12-03 23:53:24
    3956
    0
  • 深度学习之梯度下降

    坡”移动,而非明确寻求临界点。而牛顿法的目标是寻求梯度为零的点。如果没有适当的修改,牛顿法就会跳进一个鞍点。高维空间中鞍点的激增或许解释了神经网络训练中为什么二阶方法无法成功取代梯度下降。Dauphin et al. (2014) 介绍了二阶优化的无鞍牛顿法(saddle-free

    作者: 小强鼓掌
    330
    2
  • 深度学习之快速 Dropout

    Dropout(fast dropout),减小梯度计算中的随机性而获得更快的收敛速度。这种方法也可以测试时应用,能够比权重比例推断规则更合理地(但计算也更昂贵)近似所有子网络的平均。快速 Dropout小神经网络上的性能几乎与标准的Dropout相当,但在大问题上尚未产生显著改善或尚未应用

    作者: 小强鼓掌
    1197
    4
  • 深度学习之灾难遗忘

    的块数保持很低的话,它们可以没有正则化的情况下工作得不错 (Cai et al., 2013)。maxout 单元还有一些其他的优点。某些情况下,要求更少的参数可以获得一些统计和计算上的优点。具体来说,如果由 n 个不同的线性过滤器描述的特征可以不损失信息的情况下,用每一组

    作者: 小强鼓掌
    418
    0
  • 深度学习入门》笔记 - 22

    如果银行希望扩大业务而适当放宽风险控制,那么银行可以让真实违约,但被(错误)预测为不违约的稍微多些。从上表可以看出该模型可以很好的控制假阳性率, 也就是说, 真实不违约的人中,绝大部分都正确预测为不违约;只有2人错误预测为违约。 但是假阴性率很大。

    作者: 黄生
    38
    3
  • 深度学习入门》笔记 - 24

    解决欠拟合问题的方法比较简单,增加模型复杂度就可以了。常见的方法是增加隐藏层的数量或者增加隐藏层的节点数,或者二者同时增加。如果训练误差持续下降,接近于0。而测试误差在下降后变得平稳,甚至略有上升。训练误差和测试误差的差距较大。这就是典型的过拟合情况。在建立神经网络模型的初始阶段

    作者: 黄生
    38
    2
  • 深度学习之聚类问题

    红色卡车,红色汽车,灰色卡车和灰色汽车。现在这个新的聚类至少抓住了属性的信息,但是损失掉了相似性信息。红色汽车和灰色汽车不同的类中,正如红色汽车和灰色卡车也不同的类中。该聚类算法没有告诉我们灰色汽车比灰色卡车和红色汽车更相似。我们只知道它们是不同的。

    作者: 小强鼓掌
    536
    1
  • 深度学习入门》笔记 - 25

    L2惩罚法也是一个经典的正则化方法。 它是原有损失函数的基础上,构造一个新的损失函数。(带有惩罚项 是一个超参数)模型集成(model ensemble)可以提供模型的预测准确度,思想就是, 先训练大量结构不同的模型,通过平均、或投票方式综合所有模型的结构,得到最终预测。实际中,有较大限制,原因很简单,

    作者: 黄生
    20
    1
  • 深度学习入门》笔记 - 15

    ```python #定义sigmoid函数 def sigmoid(input): return 1.0/(1+np.exp(-input)) #通过随机梯度下降法估计参数 def logit_model(x,y,w,b,lr=0.1): for iter in range(60):

    作者: 黄生
    200
    2
  • 深度学习之批量算法

    促使我们从小数目样本中获得梯度的统计估计的动机是训练集的冗余。最坏的情况下,训练集中所有的 m 个样本都是彼此相同的拷贝。基于采样的梯度估计可以使用单个样本计算出正确的梯度,而比原来的做法少花了 m 倍时间。实践中,我们不太可能真的遇到这种最坏情况,但我们可能会发现大量样本都对

    作者: 小强鼓掌
    317
    1
  • 深度学习入门》笔记 - 27

    下面用之前的广告数据,来建立线性回归模型,看看tensorflow2的一般建模过程。import numpy as np #1. 数据预处理:装载广告数据 def loadDataSet(): x=[];y=[] f=open('./Ad.csv')

    作者: 黄生
    22
    2
  • 深度学习之快速 Dropout

    Dropout(fast dropout),减小梯度计算中的随机性而获得更快的收敛速度。这种方法也可以测试时应用,能够比权重比例推断规则更合理地(但计算也更昂贵)近似所有子网络的平均。快速 Dropout小神经网络上的性能几乎与标准的Dropout相当,但在大问题上尚未产生显著改善或尚未应用

    作者: 小强鼓掌
    541
    1
  • 深度学习之任务分类

    作者: 小强鼓掌
    723
    0
  • 深度学习入门》笔记 - 28

    线性回归模型相当于下面的简单神经网络模型,它没有隐藏层、输出层只有1个节点,激活函数是线性函数。使用 tf.keras.models.Sequential()构建模型使用 model.compile() 设置优化方法、损失函数、评价指标 (损失函数的值即 训练误差;评价指标的值即

    作者: 黄生
    33
    5
  • 深度学习入门》笔记 - 04

    数据清理和数据准备。他的数据结构主要有两种:`序列(series)`和`数据表(dataframe)`。 画图工具mathplotlib是Python中最流行的,可以很方便的实现数据的图形化展示。使用前要载入mathplotlib的`pyplot`。 其实这些知识在华为云的AI

    作者: 黄生
    41
    1
  • 深度学习入门》笔记 - 17

    正向传播(Forward Propagation FP)算法指输入值通过神经网络得到输出值的方法。正向传播算法的计算图如下:$sigma$表示sigmoid函数,也就是激活函数。包含损失函数的计算图如下:得到$l_2$,通过$l$计算损失函数L,其中$l$表示求解损失函数的运算。

    作者: 黄生
    35
    3
  • 深度学习图卷积

    作者: 我的老天鹅
    825
    6
  • 深度学习之参数绑定

    参数添加约束或惩罚时,一直是相对于固定的区域或点。例如,L2正则化(或权重衰减)对参数偏离零的固定值进行惩罚。然而,有时我们可能需要其他的方式来表达我们对模型参数适当值的先验知识。有时候,我们可能无法准确地知道应该使用什么样的参数,但我们根据领域和模型结构方面的知识得知模型参数之

    作者: 小强鼓掌
    834
    2
  • 什么是深度学习

    同的特征置于哪一层。也就是说,相比于传统机器学习算法需要提供人工定义的特征,深度学习可以自己学习如何提取特征。因此,相比于传统的机器学习算法,深度学习并不依赖复杂且耗时的手动特征工程。 深度学习中的“深度”体现在将数据转换为所需要数据的层数之深。给定模型进行数据输入,可以将描述模

    作者: HWCloudAI
    发表时间: 2020-12-15 14:55:46
    3574
    0