已找到以下 10000 条记录
  • 深度学习之非精度梯度

    大多数优化算法的先决条件都是我们知道精确的梯度或是Hessian 矩阵。在实践中,通常这些量会有噪声,甚至是有偏的估计。几乎每一个深度学习算法都需要基于采样的估计,至少使用训练样本的小批量来计算梯度。在其他情况,我们希望最小化的目标函数实际上是难以处理的。当目标函数不可解时,通常

    作者: 小强鼓掌
    418
    2
  • 分享深度学习算法——MetaHIN 模型

    索了元学习的能力,同时在数据层面研究了异质信息网络的表达能力。在MetaHIN中,作者提出使用多方面的语义上下文来增强每个用户的任务,因此设计了一种新颖的语义增强型任务构建器,用于在元学习场景中捕获异质信息网络中的语义信息。进一步地,我们构建了一个协同适应元学习器。该学习器既具有

    作者: 初学者7000
    1737
    2
  • 深度学习之信息论

    通信。在这种情况下,信息论告诉我们如何设计最优编码,以及计算从一个特定的概率分布上采样得到、使用多种不同的编码机制的消息的期望长度。在机器学习中,我们也可以把信息论应用在连续型变量上,而信息论中一些消息长度的解释不怎么使用。信息论是电子工程和计算机科学的许多领域的基础。在本书中,

    作者: 小强鼓掌
    624
    3
  • 深度学习之提前终止作用

    对总训练时间的影响不大。提前终止是一种非常不显眼的正则化形式,它几乎不需要改变基本训练过程、目标函数或一组允许的参数值。这意味着,无需破坏学习动态就能很容易地使用提前终止。相对于权重衰减,必须小心不能使用太多的权重衰减,以防网络陷入不良局部极小点(对应于病态的小权重)。提前终止可

    作者: 小强鼓掌
    620
    1
  • 深度学习之双反向传播

    持不变,还必须掌握对特定对象(如移动身体的部分)保持不变的因素。因此根据流形正切分类器提出的算法相当简单:(1)使用自编码器通过无监督学习学习流形的结构,以及(2)如正切传播(式 (7.67) )一样使用这些切面正则化神经网络分类器。

    作者: 小强鼓掌
    746
    4
  • 《MXNet深度学习实战》

    后盾!谨以此书献给众多热爱深度学习算法及MXNet的朋友们! 魏凯峰 CONTENTS目  录前言第1章 全面认识MXNet11.1 人工智能、机器学习深度学习21.1.1 人工智能21.1.2 机器学习21.1.3 深度学习41.2 深度学习框架41.2.1 MXNet61

    作者: 华章计算机
    发表时间: 2019-06-16 08:07:19
    2542
    0
  • 深度学习之泛化误差

    当然会由于减小训练误差而得到足够的好处,以抵消其带来的训练误差和测试误差间差距的增加。随着数据集的规模迅速增长,超越了计算能力的增速,机器学习应用每个样本只使用一次的情况变得越来越常见,甚至是不完整地使用训练集。在使用一个非常大的训练集时,过拟合不再是问题,而欠拟合和计算效率变成了主要的顾虑。读者也可以参考

    作者: 小强鼓掌
    544
    1
  • 深度学习笔记》六

    ©为UGNet生成的分割效果,其中白色为前景部分,即海拉细胞,黑色为背景部分; (d)是对损失函数改进后使UGNet能够更好地学习细胞间的边界像素。 基于深度学习的图像分割在医疗领域中的应用越来越广泛,U-Net似乎就是其中的体现之一,U-Net在大量医学影像分割上的效果使得这种语义

    作者: 黄生
    发表时间: 2023-12-19 22:49:13
    0
    0
  • 深度学习笔记》的笔记(二)

    大脑。1956年,FrankRosenblatt发明了最早的神经网络-权重加权感知机Perceptron,它可以通过权值调整输出,模拟人类学习过程。1960年,MinskyandPapert的“Perceptrons”认为此类神经网络有许多限制(如无法解决复杂分类任务和把线性不可

    作者: 黄生
    47
    3
  • 深度学习笔记之评估方差

    对于如何处理估计不确定性的这个问题,贝叶斯派的答案是积分,这往往会防止过拟合。积分当然是概率法则的应用,使贝叶斯方法容易验证,而频率派机器学习基于相当特别的决定构建了一个估计,将数据集里的所有信息归纳到一个单独的点估计。贝叶斯方法和最大似然方法的第二个最大区别是由贝叶斯先验分布造

    作者: 小强鼓掌
    724
    2
  • 深度学习之Dropout优点

    (Neal, 1996)比Dropout表现得更好 (Srivastava et al., 2014)。当有其他未分类的数据可用时,无监督特征学习也比Dropout更有优势。

    作者: 小强鼓掌
    639
    1
  • 深度学习之代理损失函数

    − 1 损失,它能够从训练数据中抽取更多信息。一般的优化和我们用于训练算法的优化有一个重要不同:训练算法通常不会停止在局部极小点。反之,机器学习通常优化代理损失函数,但是在基于提前终止(第 7.8 节)的收敛条件满足时停止。通常,提前终止使用真实潜在损失函数,如验证集上的 0 − 1

    作者: 小强鼓掌
    658
    1
  • 深度学习服务_访问服务

    本视频分2部分介绍如何访问华为云深度学习服务,包括获取访问密钥和登录管理控制台。

    播放量  16210
  • [深度学习]CNN网络架构

    系列内容深度学习CNN 文章目录 CNN网络架构图展示的卷积神经网络:卷积神经网络的层结构和全连接神经网络的层结构不同:卷积计算池化全连接 CNN网络架构 一个卷积神经网络由若干卷积层、Pooling层、全连接层组成。你可以构建各种不同的卷积神经网络,它的常用架构模式

    作者: 内核笔记
    发表时间: 2021-06-08 16:47:35
    1413
    0
  • 深度学习是表示学习的经典代表(浅谈什么是深度学习

    目录   先来看机器学习: 什么是特征? 深度学习是表示学习的经典代表: 深度学习的过程: 深度学习与传统机器学习差别: 深度学习代表算法: 先来看机器学习: 机器学习是利用经验experience来改善 计算机系统自身的性能,通过经验获取知识knowledge。

    作者: 王博Kings
    发表时间: 2020-12-29 15:39:26
    2243
    0
  • 深度学习中多层复合函数

    从数学上来看,深度神经网络仅仅是一种函数的表达形式,是复杂的多层复合函数。由于它有大量的可调参数,而且近年来随着大数据、优化算法和并行计算GPU硬件的发展,使得用大规模的神经网络来逼近和拟合大数据成为可能。

    作者: 我的老天鹅
    871
    22
  • 深度学习的发展历程

    Learning) 深度学习是机器学习的一种,而机器学习是实现人工智能的必经路径。深度学习的概念源于人工神经网络的研究,含多个隐藏层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。研究深度学习的动机在于建立模

    作者: 星恒
    发表时间: 2022-01-02 12:45:42
    1605
    0
  • 深度学习与图像检索介绍

    随着深度学习的引入,基于深度学习的图像检索技术,主要是将深度学习方法应用在图像检索中的特征提取模块,利用卷积神经网络提取图片特征。主要步骤即给定一张图片,通过卷积神经网络对图片进行特征提取得到表征图片的特征,利用度量学习方法如欧式距离对图片特征进行计算距离,对图片距离进行排序,得

    作者: 极客潇
    5619
    30
  • 深度学习》常说的基本概念汇总

    learning,DL) 表示学习的理想很丰满,但实际中人们发现从数据的原始形式直接学得数据表示这件事很难。深度学习是目前最成功的表示学习方法,因此,目前国际表示学习大会(ICLR)的绝大部分论文都是关于深度学习的。深度学习是把表示学习的任务划分成几个小目标,先从数据的原始形式中先学习比较低级的表

    作者: 运气男孩
    741
    3