内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习之任务 T

    “任务”定义学习过程本身并不是任务。学习是我们所谓的获取完成任务的能力。例如,我们的目标是使机器人能够行走,那么行走便是任务。我们可以编程让机器人学会如何行走,或者可以编写特定的指令,人工指导机器人如何行走。        通常机器学习任务定义为机器学习系统该如何处理样本 (ex

    作者: 小强鼓掌
    727
    2
  • 深度学习之批量算法

    促使我们从小数目样本获得梯度的统计估计的动机是训练集的冗余。在最坏的情况下,训练集中所有的 m 个样本都是彼此相同的拷贝。基于采样的梯度估计可以使用单个样本计算出正确的梯度,而比原来的做法少花了 m 倍时间。实践,我们不太可能真的遇到这种最坏情况,但我们可能会发现大量样本都对梯度做

    作者: 小强鼓掌
    317
    1
  • 深度学习应用开发》学习笔记-23

    11.9] ,shape= (506,) ```python #数据就已经读进来了 #None代表未知,因为我们可以一次带入一行样本,也可以一次带入多行样本 x=tf.placeholder(tf.float32,[None,12],name="X") y=tf.placeholder(tf

    作者: 黄生
    1471
    4
  • 深度学习之函数估计

    可能具有过高的方差),k-折交叉验证算法可以用于估计学习算法 A 的泛化误差。数据集 D 包含的元素是抽象的样本 z(i) (对于第 i 个样本),在监督学习的情况代表(输入,目标)对 z(i) = (x(i), y(i)) ,或者无监督学习的情况下仅用于输入 z(i) = x(i)。该算法返回 D 每个示例的误差向量

    作者: 小强鼓掌
    836
    1
  • 深度学习之流形学习

    的一维流形。在机器学习,我们允许流形的维数从一个点到另一个点有所变化。这经常发生于流形和自身相交的情况。例如,数字“8” 形状的流形在大多数位置只有一维,但在中心的相交处有两维。      如果我们希望机器学习算法学习 Rn 上的所有感兴趣的函数,那么很多机器学习问题看上去都是不可解的。流形学习

    作者: 小强鼓掌
    1053
    2
  • 深度学习之流形学习

    间中的一维流形。在机器学习,我们允许流形的维数从一个点到另一个点有所变化。这经常发生于流形和自身相交的情况。例如,数字 “8’’ 形状的流形在大多数位置只有一维,但在中心的相交处有两维。如果我们希望机器学习算法学习 Rn 上的所有感兴趣的函数,那么很多机器学习问题看上去都是不可解的。流形学习

    作者: 小强鼓掌
    813
    1
  • 深度学习笔记之应用

    这种复杂性日益增加的趋势已将其推向逻辑结论,即神经图灵机 (Graves et al., 2014) 的引入,它能学习读取存储单元和向存储单元写入任意内容。这样的神经网络可以从期望行为的样本学习简单的程序。例如,从杂乱和排好序的样本学习对一系列数进行排序。这种自我编程技术正处于起步阶段,但原则上未来可以适用于几乎所有的任务。

    作者: 小强鼓掌
    624
    0
  • 深度学习概述

    合往往能较好地学习训练集数据的性质,而在测试集上的性能较差。在神经网络训练的过程,欠拟合主要表现为输出结果的高偏差,而过拟合主要表现为输出结果的高方差。机器学习的目标:是使学得的模型能够很好的适用于新的样本,而不是仅仅在训练样本上工作的很好,学得的模型适用于新样本的能力称为泛化能力,也称为鲁棒性。

    作者: 大鹏爱学习
    发表时间: 2022-10-17 10:07:38
    961
    0
  • 深度学习的Attention机制

    计Attention机制:通过保留LSTM编码器对输入序列的中间输出结果,然后训练一个模型对这些输入进行选择性的学习并且在模型输出时将输出序列与之进行关联,即输出序列的每一项的生成概率取决于在输入序列中选择的项。Attention机制广泛应用于序列预测任务上,包括文本翻译、语音识别等。

    作者: 玉箫然
    1035
    0
  • 深度学习之验证集

    早先我们讨论过和训练数据相同分布的样本组成的测试集可以用来估计学习过程完成之后的学习器的泛化误差。其重点在于测试样本不能以任何形式参与到模型的选择,包括设定超参数。基于这个原因,测试集中的样本不能用于验证集。因此,我们总是从训练数据构建验证集。特别地,我们将训练数据分成两个不相

    作者: 小强鼓掌
    730
    1
  • 样本回归loss

    从decode看,如果系数(loc[2:] 为宽高)是1,那么就是priors[:,2:],就是候选框。 def decode(loc, priors, variances): """Decode locations from

    作者: 风吹稻花香
    发表时间: 2022-01-22 16:49:42
    284
    0
  • 学习深度学习是否要先学习机器学习

    学习深度学习是否要先学习完机器学习,对于学习顺序不太了解

    作者: 飞奔的野马
    5983
    23
  • 深度学习多层复合函数

    从数学上来看,深度神经网络仅仅是一种函数的表达形式,是复杂的多层复合函数。由于它有大量的可调参数,而且近年来随着大数据、优化算法和并行计算GPU硬件的发展,使得用大规模的神经网络来逼近和拟合大数据成为可能。

    作者: 我的老天鹅
    875
    22
  • 适合新手的深度学习综述(4)--深度学习方法

    本文转载自机器之心。深度神经网络在监督学习取得了巨大的成功。此外,深度学习模型在无监督、混合和强化学习方面也非常成功。4.1 深度监督学习监督学习应用在当数据标记、分类器分类或数值预测的情况。LeCun 等人 (2015) 对监督学习方法以及深层结构的形成给出了一个精简的解释。Deng

    作者: @Wu
    177
    1
  • 深度学习的特点

    深度学习区别于传统的浅层学习深度学习的不同在于: (1)强调了模型结构的深度,通常有5层、6层,甚至10多层的隐层节点;(2)明确了特征学习的重要性。也就是说,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更容易。与人工规则构造特征的方法相比,

    作者: QGS
    667
    2
  • 浅谈深度学习常用术语

    深度学习常用术语· 样本(sample)或输入(input)或数据点(data point):训练集中特定的实例。我们在上一章中看到的图像分类问题,每个图像都可以被称为样本、输入或数据点。· 预测(prediction)或输出(output):由算法生成的值称为输出。例如,在先前

    作者: QGS
    22
    0
  • 深度学习之流形假设

    的概率分布不足以说明数据位于一个相当小的流形。我们还必须确定,我们遇到的样本和其他样本相互连接,每个样本被其他高度相似的样本包围,可以通过变换来遍历该流形。支持流形假设的第二个论点是,我们至少能够非正式地想象这些邻域和变换。在图像,我们当然会认为有很多可能的变换允许我们描绘出

    作者: 小强鼓掌
    1142
    1
  • 深度学习之对抗训练

    x 非常不同。在许多情况下,x′ 与 x 非常近似,人类观察者不会察觉原始样本和对抗样本(adversarial example)之间的差异,但是网络会作出非常不同的预测。见图 7.8 的例子。对抗样本在很多领域有很多影响,例如计算机安全,这超出了本章的范围。然而,它们在正则化

    作者: 小强鼓掌
    844
    1
  • 深度学习GRU

    Gated Recurrent Unit – GRU 是 LSTM 的一个变体。他保留了 LSTM 划重点,遗忘不重要信息的特点,在long-term 传播的时候也不会被丢失。

    作者: 我的老天鹅
    1264
    13
  • 深度学习之对抗训练

    的输出与附近的数据点 x 非常不同。在许多情况下,x′ 与 x 非常近似,人类观察者不会察觉原始样本和对抗样本(adversarial example)之间的差异,但是网络会作出非常不同的预测。对抗样本在很多领域有很多影响,例如计算机安全,这超出了本章的范围。然而,它们在正则化的背景下很有

    作者: 小强鼓掌
    624
    2