内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习之最近邻回归

    同的输入对应不同的输出,那么训练误差可能会大于零)。最后,我们也可以将参数学习算法嵌入另一个依所需增加参数数目的算法来创建非参数学习算法。例如,我们可以想象一个算法,外层循环调整多项式的次数,内存循环通过线性回归学习模型。理想模型假设我们能够预先知道生成数据的真实概率分布。然而这

    作者: 小强鼓掌
    824
    2
  • 深度学习介绍

    学习目标 目标 知道深度学习与机器学习的区别了解神经网络的结构组成知道深度学习效果特点 应用 无 1.1.1 区别   1.1.1.1 特征提取方面 机器学习的特征工程步骤是要靠手动完成的,而且需要大量领域专业知识深度学习通常由多个层

    作者: Lansonli
    发表时间: 2021-09-28 15:18:45
    1023
    0
  • 深度学习之维数灾难

    题,我们假设输入空间如图所示被分成网格。低维时我们可以用由数据占据的少量网格去描述这个空间。泛化到新数据点时,通过检测和新输入在相同网格中的训练样本,我们可以判断如何处理新数据点。例如,如果要估计某点 x 处的概率密度,我们可以返回 x 处单位体积内训练样本的数目除以训练样本的总

    作者: 小强鼓掌
    746
    1
  • 深度学习之提前终止作用

    好泛化也是非常罕见的。提前终止需要验证,这意味着某些训练数据不能被馈送到模型。为了更好地利用这一额外的数据,我们可以在完成提前终止的首次训练之后,进行额外的训练。在第二轮额外的训练步骤中,所有的训练数据都被包括在内。有两个基本的策略都可以用于第二轮训练过程。

    作者: 小强鼓掌
    620
    1
  • 深度学习之双反向传播

    在这些点上产生与原来输入相同的输出。正切传播和手动指定转换的数据增强都要求模型在输入变化的某些特定的方向上保持不变。双反向传播和对抗训练都要求模型对输入所有方向中的变化(只要该变化较小)都应当保持不变。正如数据增强是正切传播非无限小的版本,对抗训练是双反向传播非无限小的版本。流形正切分类器

    作者: 小强鼓掌
    746
    4
  • 深度学习笔记》的笔记(二)

    术语来模拟人类大脑。1956年,FrankRosenblatt发明了最早的神经网络-权重加权感知机Perceptron,它可以通过权值调整输出,模拟人类学习过程。1960年,MinskyandPapert的“Perceptrons”认为此类神经网络有许多限制(如无法解决复杂分类任

    作者: 黄生
    47
    3
  • 深度学习之泛化误差

    机器学习的主要挑战是我们的算法必须能够在先前未观测的新输入上表现良好,而不只是在训练上效果好。在先前未观测到的输入上表现良好的能力被称为泛化 (generalization)。通常情况下,当我们训练机器学习模型时,我们可以访问训练,在训练上计算一些度量误差,被称为训练误差 (training

    作者: 小强鼓掌
    930
    2
  • 机器学习——深度学习(Deep Learning)

    Learning是机器学习中一个非常接近AI的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,最近研究了机器学习中一些深度学习的相关知识,本文给出一些很有用的资料和心得。 Key Words:有监督学习与无监督学习,分类、回归,密度估计、聚类,深度学习,Sparse DBN,

    作者: 格图洛书
    发表时间: 2021-12-29 16:20:46
    631
    0
  • 机器学习深度学习简介

    深度学习 1. 深度学习介绍 2. 深度学习原理 3. 深度学习实现 深度学习 1. 深度学习介绍 深度学习(Deep learning)是机器学习的一个分支领域,其源于人工 神经网络的研究。 深度学习广泛应用在计算机视觉,音频处理,自然语言处理等诸多领 域。 人工神经网络(Artificial

    作者: 南蓬幽
    发表时间: 2022-06-28 07:19:06
    363
    0
  • 深度学习之支持向量机

     支持向量机的一个重要创新是核技巧 (kernel trick)。核策略观察到许多机器学习算法都可以写成样本间点积的形式。例如,支持向量机中的线性函数可以重写为:              其中,x(i) 是训练样本,α 是系数向量。学习算法重写为这种形式允许我们将 x替换为特征函数 φ(x) 的输出,点积替换为被称为核函数

    作者: 小强鼓掌
    952
    4
  • 深度学习: 学习率 (learning rate)

           深度学习: 学习率 (learning rate)    作者:liulina603        致敬 原文:https://blog.csdn.net/liulina603/article/details/80604385   深度学习: 学习率 (learning

    作者: 一颗小树x
    发表时间: 2020-12-03 15:53:24
    2517
    0
  • 深度学习之虚拟对抗样本

    对抗样本也提供了一种实现半监督学习的方法。在与数据集中的标签不相关联的点 x 处,模型本身为其分配一些标签 yˆ。模型的标记 yˆ 未必是真正的标签,但如果模型是高品质的,那么 yˆ 提供正确标签的可能性很大。我们可以搜索一个对抗样本 x′,导致分类器输出一个标签 y′ 且 y′

    作者: 小强鼓掌
    728
    3
  • 深度学习视觉语音分析

    自从深度神经网络(DNNs)[25]在图像分类任务中取得重大突破以来,大多数计算机视觉和自然语言问题都明确地集中在深度学习方法上,包括VSA。2016年,基于深度学习的VSA方法[26,27]的表现大大超过了传统方法,使VSA进入了深度学习时代。同时,大规模VSA数据的出现[27

    作者: 可爱又积极
    308
    2
  • 深度学习之参数范数惩罚

    正则化在深度学习的出现前就已经被使用了数十年。线性模型,如线性回归和逻辑回归可以使用简单、直接、有效的正则化策略。许多正则化方法通过对目标函数 J 添加一个参数范数惩罚 Ω(θ),限制模型(如神经网络、线性回归或逻辑回归)的学习能力。我们将正则化后的目标函数记为˜(θ; X, y)

    作者: 小强鼓掌
    838
    0
  • 深度学习之Dropout优点

    的有效容量。为了抵消这种影响,我们必须增大模型规模。不出意外的话,使用Dropout时最佳验证的误差会低很多,但这是以更大的模型和更多训练算法的迭代次数为代价换来的。对于非常大的数据,正则化带来的泛化误差减少得很小。在这些情况下,使用Dropout和更大模型的计算代价可能超过

    作者: 小强鼓掌
    639
    1
  • 深度学习项目代码阅读建议

    我相信能在深度学习领域精进的人都不会是普通人。   诚然,无论是读教材、读论文还是本篇所说的读代码,这些本身都是一个个人学习能力提升和知识汲取的过程。对于从事深度学习工作的我们而言,arxiv上的论文和GitHub上的代码都无穷尽,关键在于保持学习的劲头,做一名终身学习者。

    作者: @Wu
    966
    1
  • 深度学习之反向传播算法

    于这些重复子表达式的存在,简单的算法可能具有指数运行时间。现在我们已经详细说明了反向传播算法,我们可以去理解它的计算成本。如果我们假设每个操作的执行都有大致相同的开销,那么我们可以依据执行操作的数量来分析计算成本。注意这里我们将一个操作记为计算图的基本单位,它实际可能包含许多算术

    作者: 小强鼓掌
    425
    0
  • 分享关于深度学习Python库

    深度学习1. TensorFlow星标:149000,提交数:97741,贡献者:754TensorFlow是针对机器学习的端对端开源平台。它具备综合灵活的工具、库和社区资源,可以帮助研究者推动先进的机器学习技术的发展以及开发者更轻松地开发和发布由机器学习支持的应用。2. Ker

    作者: 初学者7000
    1070
    2
  • 深度学习之符号到数值

    子。这种方法的主要优点是导数可以使用与原始表达式相同的语言来描述。因为导数只是另外一张计算图,我们可以再次运行反向传播,对导数再进行求导就能得到更高阶的导数。我们将使用后一种方法,并且使用构造导数的计算图的方法来描述反向传播算法。图的任意子集之后都可以使用特定的数值来求值。这允许

    作者: 小强鼓掌
    424
    0
  • 自动学习

    自动学习 使用自动学习0代码开发图像分类AI模型 父主题: 使用场景