内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 【转载】深度学习简介

    智能机理探究也在情理之中。最早算法之一是由唐纳德·赫布(1904--1985)正式提出。在他开创性著作《行为组织》中,他提出神经是通过正向强化来学习,即赫布理论 [2]。赫布理论是感知机学习算法原型,并成为支撑今日深度学习随机梯度下降算法基石:强化合意行为、惩

    作者: Tianyi_Li
    发表时间: 2020-12-15 09:58:16
    6090
    0
  • 浅谈深度学习常用术语

    例子中,我们算法对特定图像预测结果为0,而0是给定标签,所以数字0就是我们预测或输出。· 目标(target)或标签(label):图像实际标注标签。· 损失值(loss value)或预测误差(prediction error):预测值与实际值之间差距。数值越小,准确率越高。·

    作者: QGS
    22
    0
  • Ubuntu深度学习环境配置

    7版本或其他版本,根据自己需要下载合适安装包。下载链接:https://www.anaconda.com/download/#linux点击下面的64-Bit (x86) Installer (522 MB),下载64位版本。下载完后文件名是:Anaconda3-2020.02-Linux-x86_64

    作者: @Wu
    664
    0
  • 深度学习之机器学习基础

    深度学习是机器学习一个特定分支。要想学好深度学习,必须对机器学习基本原理有深刻理解。本章将探讨贯穿本书其余部分一些机器学习重要原理。我们建议新手读者或是希望更全面了解读者参考一些更全面覆盖基础知识机器学习参考书,例如Murphy (2012) 或者Bishop (20

    作者: 小强鼓掌
    840
    2
  • **Mac深度学习环境配置**

    看到自己下载好应用程序,左上角“Applications on”应该指向是“base (root)”,左边点击“Environments”就可以看到自己建立虚拟环境和对应包了。点击左下角Create 即可创建一个新虚拟环境。输入环境名称和python 版本,点击create

    作者: @Wu
    591
    0
  • 深度学习训练过程

    区别最大部分,可以看作是特征学习过程。具体,先用无标定数据训练第一层,训练时先学习第一层参数,这层可以看作是得到一个使得输出和输入差别最小三层神经网络隐层,由于模型容量限制以及稀疏性约束,使得得到模型能够学习到数据本身结构,从而得到比输入更具有表示能力特征;在学

    作者: QGS
    539
    1
  • 深度学习笔记》笔记(一)

    model)计算执行方向如下。感觉和线性回归很像呀。 但据说感知机模型不能用于线性回归问题,因为它只关注分类问题,而线性回归问题涉及到回归问题?对于线性不可分情况,在感知机基础上一般有两个解决方向。 线性不可分是指一组线性数据点,这些数据点上无法划分一条直线来分开类别内所有数据

    作者: 黄生
    42
    4
  • 深度学习中Attention机制

    Attention,即Attention输出向量分布是一种one-hot独热分布或是soft软分布,直接影响上下文信息选择。加入Attention原因:1、当输入序列非常长时,模型难以学到合理向量表示2、序列输入时,随着序列不断增长,原始根据时间步方式表现越来越差,由于原始时间步模型设计结构有缺

    作者: 玉箫然
    1035
    0
  • 深度学习笔记》笔记(二)

    神经网络结构从普通全连接神经网络,发展到卷积神经网络、循环神经网络、自编码器、生成式对抗网络和图神经网络等各种结构, 但BP算法一直是神经网络一个经典和高效寻优工具。附神经网络早期一些发展历程1943年,WarrenMcCulloch和WalterPitts于《神经元与行

    作者: 黄生
    48
    3
  • 由线性回归来理解深度学习理论基础(4)

    层),如果我们添加更多隐藏层,则可以拓展处更复杂功能,即我们接下来要介绍多层感知器(深度学习)。我们回顾一下:1)感知器是生物神经元简化模型。2)感知器是用于学习二元分类器算法:将其输入映射到输出值函数。3)在神经网络背景下,感知器是使用Heaviside阶跃函数作为

    作者: @Wu
    1446
    3
  • 深度学习项目代码阅读建议

    算法进行实现过程,是一种需要你思维时刻在线过程。又因为我们读深度学习项目代码,不是像Linux内核代码那样鸿篇巨制,所以在代码性质上多少又有些不同。      笔者这里说一份深度学习项目代码,小到几百行测试demo,大到成千万行开源项目,读起来方法肯定各有不同。如下图Mask

    作者: @Wu
    966
    1
  • 深度学习之多任务学习

    是通过合并几个任务中样例(可以视为对参数施加软约束)来提高泛化一种方式。额外训练样本以同样方式将模型参数推向泛化更好方向,当模型一部分在任务之间共享时,模型这一部分更多地被约束为良好值(假设共享是合理),往往能更好地泛化。展示了多任务学习中非常普遍一种形式,其中不同的监督任务(给定

    作者: 小强鼓掌
    532
    1
  • AI、机器学习、深度学习关系

    作者: andyleung
    1559
    1
  • 分享深度学习发展混合学习

    模型可以在监督数据最少情况下获得最佳性能。  Gan涉及混合学习其他领域——自我监督学习。在自监督学习中,无监督问题被明确定义为有监督问题。Gans通过引入生成器手动创建监控数据;创建标记用于识别真实/生成图像。在无监督前提下,创建一个有监督任务。此外,考虑使用编码

    作者: 初学者7000
    930
    1
  • 分享深度学习笔记组件学习

    组件学习组件学习不仅使用一个模型知识,使用多个模型知识。人们相信,通过独特信息组合或输入(包括静态和动态),深度学习可以比单一模式更深入地理解和表现。迁移学习是组件学习一个非常明显例子。基于这一思想,对类似问题预先训练模型权重可用于对特定问题进行微调。为了区分不同类型图像,构建了一

    作者: 初学者7000
    628
    1
  • 深度学习算法中集成学习(Ensemble Learning)与深度学习结合

    深度学习相结合方法。本文将介绍集成学习基本概念和深度学习优势,然后讨论集成学习在深度学习中应用,并总结结合集成学习深度学习算法优势和挑战。 什么是集成学习 集成学习是一种通过将多个模型预测结果进行组合来提高模型性能方法。常见集成学习方法包括投票法、平均法和堆叠法

    作者: 皮牙子抓饭
    发表时间: 2023-09-25 09:27:00
    61
    1
  • 深度学习之历史小计

    前馈网络可以被视为一种高效非线性函数近似器,它以使用梯度下降来最小化函数近似误差为基础。从这个角度来看,现代前馈网络是一般函数近似任务几个世纪进步结晶。处于反向传播算法底层链式法则是 17 世纪发明 (Leibniz, 1676; L’Hôpital, 1696)。微积

    作者: 小强鼓掌
    414
    0
  • 深度学习之隐藏单元

    hi,要么是鼻子存在冗余编码,要么是脸部另一特征,如嘴。传统噪声注入技术,在输入端加非结构化噪声不能够随机地从脸部图像中抹去关于鼻子信息,除非噪声幅度大到几乎能抹去图像中所有的信息。破坏提取特征而不是原始值,让破坏过程充分利用该模型迄今获得关于输入分布所有知识。

    作者: 小强鼓掌
    833
    5
  • 深度学习之梯度下降

    经网络,但是如果这类无鞍算法能够扩展的话,还是很有希望。除了极小值和鞍点,存在其他梯度为零点。例如从优化角度看与鞍点很相似的极大值,很多算法不会被吸引到极大值,除了未经修改牛顿法。和极小值一样,许多种类随机函数极大值在高维空间中也是指数级稀少。

    作者: 小强鼓掌
    330
    2
  • 深度学习图卷积

    作者: 我的老天鹅
    823
    6