已找到以下 10000 条记录
  • 深度学习之maxout 单元

    maxout 层可以学习实现传统层相同的输入 x 的函数,这些传统层可以使用整流线性激活函数、绝对值整流、渗漏整流线性单元 或参数化整流线性单元,或者可以学习实现与这些都不同的函数。maxout 层的参数化当然也将与这些层不同,所以即使是 maxout 学习去实现其他种类的层相同的

    作者: 小强鼓掌
    1104
    1
  • 分享深度学习的BERT微调NLP模型

    BERT微调NLP模型    预训练指的是事先训练一个模型来执行特定任务,然后将训练过程中学到的参数作为初始值以继续学习其他相关任务。直观来说,就是如果一个模型已经学会进行图像分类、区分猫猫狗狗,也应当大概了解图像毛茸动物的一般特征。当我们对这个能够区分猫猫狗狗的模型进行微

    作者: 初学者7000
    847
    1
  • 机器学习——深度学习(Deep Learning)

    Learning是机器学习中一个非常接近AI的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,最近研究了机器学习中一些深度学习的相关知识,本文给出一些很有用的资料心得。 Key Words:有监督学习与无监督学习,分类、回归,密度估计、聚类,深度学习,Sparse DBN,

    作者: 格图洛书
    发表时间: 2021-12-29 16:20:46
    631
    0
  • 深度学习之正则化

    没有免费午餐定理暗示我们必须在特定任务上设计性能良好的机器学习算法。我们建立一组学习算法的偏好来达到这个要求。当这些偏好和我们希望算法解决的学习问题相吻合时,性能会更好。        至此,我们具体讨论修改学习算法的方法只有,通过增加或减少学习算法可选假设空间的函数来增加或减少模型的容量。

    作者: 小强鼓掌
    836
    3
  • 深度学习之聚类问题

    可能希望找到一个特征相关的聚类,但是得到了一个任务无关的不同的,同样是合理的聚类。例如,假设我们在包含红色卡车图片,红色汽车图片,灰色卡车图片灰色汽车图片的数据集上运行两个聚类算法。如果每个聚类算法聚两类,那么可能一个算法将汽车卡车各聚一类,另一个根据红色灰色各聚一类。

    作者: 小强鼓掌
    536
    1
  • 深度学习将无所不能”

    来,辛顿一直致力于深度学习的研究工作,由于缺乏数据计算能力,其有效性受到了限制,一直到2012年才取得成果。辛顿对这项技术的坚定信念最终带来了巨大的回报:在第四年的图像网比赛(ImageNet competition)中,几乎所有参赛队都在使用深度学习,并获得了神奇的准确性。很

    作者: 运气男孩
    721
    1
  • 深度学习入门》笔记 - 02

    26687508822.png) 矩阵的基本运算就是加减乘除。加减法如果这两个矩阵的维度是一样的,就非常好理解。矩阵也可以行向量进行加减,要求行向量的列数矩阵的列数是一样的。 矩阵的乘法,如果两个矩阵的维度一样,也非常好理解,这种叫做`逐点相乘`(element-wise product)。

    作者: 黄生
    54
    0
  • 深度学习之参数绑定

    参数,但我们根据领域模型结构方面的知识得知模型参数之间应该存在一些相关性。我们经常想要表达的一种常见依赖是某些参数应当彼此接近。考虑以下情形:我们有两个模型执行相同的分类任务(具有相同类别),但输入分布稍有不同。形式地,我们有参数为 w(A) 的模型 A 参数为 w(B) 的模型

    作者: 小强鼓掌
    835
    2
  • 深度学习之梯度下降

    method),并表明传统算法相比有显著改进。二阶方法仍然难以扩展到大型神经网络,但是如果这类无鞍算法能够扩展的话,还是很有希望的。除了极小值鞍点,还存在其他梯度为零的点。例如从优化的角度看与鞍点很相似的极大值,很多算法不会被吸引到极大值,除了未经修改的牛顿法。极小值一样,许多种

    作者: 小强鼓掌
    331
    2
  • 深度学习之验证集

    早先我们讨论过训练数据相同分布的样本组成的测试集可以用来估计学习过程完成之后的学习器的泛化误差。其重点在于测试样本不能以任何形式参与到模型的选择,包括设定超参数。基于这个原因,测试集中的样本不能用于验证集。因此,我们总是从训练数据中构建验证集。特别地,我们将训练数据分成两个不相

    作者: 小强鼓掌
    730
    1
  • 深度学习之交叉验证

    数据集分成固定的训练集固定的测试集后,若测试集的误差很小,这将是有问题的。一个小规模的测试集意味着平均测试误差估计的统计不确定性,使得很难判断算法 A 是否比算法 B 在给定的任务上做得更好。当数据集有十万计或者更多的样本时,这不会是一个严重的问题。当数据集太小时,也有替代方法

    作者: 小强鼓掌
    935
    3
  • 深度学习入门》笔记 - 22

    现。 神经网络的因变量通常有两种数据类型,定量数据定性数据。不同因变量数据类型对应的模型误差的定义也不一样。当因变量为定性数据时,模型误差可以进一步分为两个类型: 假阳性率, FPR False Positive Rate 假阴性率。 FNR False Negative Rate

    作者: 黄生
    38
    3
  • 深度学习之交叉验证

            将数据集分成固定的训练集固定的测试集后,若测试集的误差很小,这将是有问题的。一个小规模的测试集意味着平均测试误差估计的统计不确定性,使得很难判断算法 A 是否比算法 B 在给定的任务上做得更好。        当数据集有十万计或者更多的样本时,这不会是一个严重的

    作者: 小强鼓掌
    828
    3
  • 深度学习——常用评价指标

    负样本;  (3)每次选取一个不同的threshold,我们就可以得到一组FPRTPR,即ROC曲线上的一点。    当我们将threshold设置为10时,分别可以得到ROC曲线上的(0,0)(1,1)两个点。将这些(FPR,TPR)对连接起来,就得到了ROC曲线。当th

    作者: QGS
    784
    3
  • 通过多任务学习改进证据深度学习

    L损失的不确定性估计。MT-ENet提高了ENet的预测精度,同时在合成数据集现实基准上,包括药物-目标亲和(DTA)回归,不丧失不确定性估计能力。此外,MT-ENet在DTA基准上具有显著的校准非分布检测能力。https://www.zhuanzhi.ai/paper/c9

    作者: 可爱又积极
    1761
    3
  • 浅谈深度学习模型压缩

    teacher-student模型是迁移学习的一种,迁移学习也就是将一个模型的性能迁移到另一个模型上,对于教师网络往往是一个更加复杂的网络,具有非常好的性能泛化能力,可以用这个网络来作为一个soft target来指导另外一个更加简单的学生网络来学习,使得更加简单、参数运算量更少的学生模型也能够具有教师网络相近的性能  

    作者: QGS
    37
    1
  • 深度学习入门》笔记 - 24

    加隐藏层的数量或者增加隐藏层的节点数,或者二者同时增加。如果训练误差持续下降,接近于0。而测试误差在下降后变得平稳,甚至略有上升。训练误差测试误差的差距较大。这就是典型的过拟合情况。在建立神经网络模型的初始阶段,在实践中,通常先构建一个复杂的神经网络模型。这个模型通常会拟合,然

    作者: 黄生
    38
    2
  • 深度学习入门》笔记 - 27

    of y:' + str(y.shape))shape of x:(200, 3) shape of y:(200, 1)#把数据分为:训练测试 np.random.seed(1) train_x,train_y=x[:100],y[:100] test_x,test_y=x[-100:]

    作者: 黄生
    22
    2
  • 深度学习之快速 Dropout

    Boosting训练整个集成以最大化训练集上的似然。从传统Dropout类似于Bagging的角度来看,这种方式类似于Boosting。如预期一样,单一模型训练整个网络相比,Dropout Boosting几乎没有正则化效果。这表明,使用Bagging解释Dropout比使用稳健性噪声解

    作者: 小强鼓掌
    541
    1
  • 深度学习之快速 Dropout

    Boosting训练整个集成以最大化训练集上的似然。从传统Dropout类似于Bagging的角度来看,这种方式类似于Boosting。如预期一样,单一模型训练整个网络相比,Dropout Boosting几乎没有正则化效果。这表明,使用Bagging解释Dropout比使用稳健性噪声解

    作者: 小强鼓掌
    1198
    4