内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习框架MindSpore介绍

    动微分技术实现自动求导,解决这个复杂、关键过程。深度学习框架自动微分技术根据实现原理不同,分为以GoogleTensorFlow为代表图方法,以FacebookPyTorch为代表运算符重载,以及以MindSpore为代表源码转换方法(Source to Source,S2S自动微分技术),如图1

    作者: 运气男孩
    883
    2
  • 深度学习训练过程

    区别最大部分,可以看作是特征学习过程。具体,先用无标定数据训练第一层,训练时先学习第一层参数,这层可以看作是得到一个使得输出和输入差别最小三层神经网络隐层,由于模型容量限制以及稀疏性约束,使得得到模型能够学习到数据本身结构,从而得到比输入更具有表示能力特征;在学

    作者: QGS
    1054
    3
  • 深度学习之经验E

    是统计学家和机器学习研究者使用很久数据集。它是150 个鸢尾花卉植物不同部分测量结果集合。每个单独植物对应一个样本。每个样本特征是该植物不同部分测量结果:萼片长度,萼片宽度,花瓣长度和花瓣宽度。这个数据集记录了每个植物属于什么品种,其**有三个不同品种。        无监督学习算法(unsupervised

    作者: 小强鼓掌
    1060
    4
  • 深度学习之经验E

    是统计学家和机器学习研究者使用很久数据集。它是 150 个鸢尾花卉植物不同部分测量结果集合。每个单独植物对应一个样本。每个样本特征是该植物不同部分测量结果:萼片长度,萼片宽度,花瓣长度和花瓣宽度。这个数据集记录了每个植物属于什么品种,其**有三个不同品种。无监督学习算法 (unsupervised

    作者: 小强鼓掌
    1164
    3
  • 深度学习之经验风险

    最有效现代优化算法是基于梯度下降,但是很多有用损失函数,如 0 − 1 损失,没有有效导数(导数要么为零,要么处处未定义)。这两个问题说明,在深度学习中我们很少使用经验风险最小化。反之,我们会使用一个稍有不同方法,我们真正优化目标会更加不同于我们希望优化目标。

    作者: 小强鼓掌
    628
    2
  • 【转载】深度学习简介

    著作《行为组织》中,他提出神经是通过正向强化来学习,即赫布理论 [2]。赫布理论是感知机学习算法原型,并成为支撑今日深度学习随机梯度下降算法基石:强化合意行为、惩罚不合意行为,最终获得优良神经网络参数。 来源于生物学灵感是神经网络名字由来。这类研究者可以追溯

    作者: Tianyi_Li
    发表时间: 2020-12-15 01:58:16
    3099
    0
  • 学习笔记 - 深度学习理论最新进展研究

    下:深度学习通常被描述为一个实验驱动领域,并且不断被指责缺乏相应理论基础。这个问题已被目前大量尚未整理好文献部分地解决。本文回顾和整理了深度学习理论最新进展。这些理论文献被分为六类:(1)分析深度学习泛化复杂性和能力方法;(2)用于建模随机梯度下降及其变量随机微分方

    作者: RabbitCloud
    959
    3
  • 深度学习入门》笔记 - 01

    png) 这是一个三维张量,维度是3x4x2。 TensorFlow里`Tensor`就是张量。 如果把维度对应到现实世界,那么我们所处物质世界明显是一个三维世界。再加上不断流淌时间,可以视为四维。我能够理解到最大维数就是四维了。在一些学习中,好像可以简单抽象推到为五维、六维

    作者: 黄生
    282
    1
  • 深度学习入门》笔记 - 05

    接下来就是讲线性模型了。线性模型相对比较简单,但是他是学习比较复杂深度学习模型一个基础,而且线性模型本身也具有广泛用途。 这里讲了线性模型中线性回归模型和logistic模型。线性回归模型用于处理`回归问题`。logistic模型用于处理`分类问题`。 线性回归模型可以写作如下形式: ![image.png](https://bbs-img

    作者: 黄生
    145
    3
  • 深度学习之提前终止

    当训练有足够表示能力甚至会过拟合大模型时,我们经常观察到,训练误差会随着时间推移逐渐降低但验证集误差会再次上升。这些现象一个例子,这种现象几乎一定会出现。这意味着如果我们返回使验证集误差最低参数设置,就可以获得更好模型(因此,有希望获得更好测试误差)。在每次验证集

    作者: 小强鼓掌
    325
    0
  • 深度学习之机器学习基础

    深度学习是机器学习一个特定分支。要想学好深度学习,必须对机器学习基本原理有深刻理解。本章将探讨贯穿本书其余部分一些机器学习重要原理。我们建议新手读者或是希望更全面了解读者参考一些更全面覆盖基础知识机器学习参考书,例如Murphy (2012) 或者Bishop (20

    作者: 小强鼓掌
    840
    2
  • 深度学习之基于梯度学习

    我们到目前为止看到线性模型和神经网络最大区别,在于神经网络非线性导致大多数我们感兴趣损失函数都成为了非凸。这意味着神经网络训练通常使用迭代、基于梯度优化,仅仅使得代价函数达到一个非常小值;而不是像用于训练线性回归模型线性方程求解器,或者用于训练逻辑回归或SVM凸优化算

    作者: 小强鼓掌
    832
    2
  • **Mac深度学习环境配置**

    看到自己下载好应用程序,左上角“Applications on”应该指向是“base (root)”,左边点击“Environments”就可以看到自己建立虚拟环境和对应包了。点击左下角Create 即可创建一个新虚拟环境。输入环境名称和python 版本,点击create

    作者: @Wu
    591
    0
  • 深度学习模型轻量化

    并不一定能带来加速效果,有时候又是相辅相成。压缩重点在于减少网络参数量,加速则侧重在降低计算复杂度、提升并行能力等。模型压缩和加速可以从多个角度来优化。总体来看,个人认为主要分为三个层次:1. 算法层压缩加速。这个维度主要在算法应用层,也是大多数算法工程师工作范畴。主要包括

    作者: 可爱又积极
    1257
    4
  • 深度学习入门》笔记 - 18

    参数梯度方法。我早就已经开始看不懂了,这个图还没完。这个正向传播算法和反向传播算法干啥用呢?我理解是用来训练神经网络模型。因为中间加了很多隐藏层,隐藏层也是需要将损失最小化呀,所以需要引入这两个算法。神经网络目的是建立输入层与输出层之间关系,进而利用建立关系得到预

    作者: 黄生
    22
    1
  • 深度学习入门》笔记 - 12

    学习步长$\alpha$是一个很重要参数。 如果太小,算法会收敛很慢。 如果太大,容易造成算法不收敛,甚至发散。 自变量标准化,和因变量中心化,是建立深度学习模型常用数据预处理方法。 他们好处,是不仅可以让梯度下降法数值表现更加稳定,还有助于我们找到合适初始值和步长。 ![image

    作者: 黄生
    261
    1
  • 由线性回归来理解深度学习理论基础(4)

    层),如果我们添加更多隐藏层,则可以拓展处更复杂功能,即我们接下来要介绍多层感知器(深度学习)。我们回顾一下:1)感知器是生物神经元简化模型。2)感知器是用于学习二元分类器算法:将其输入映射到输出值函数。3)在神经网络背景下,感知器是使用Heaviside阶跃函数作为

    作者: @Wu
    1446
    3
  • 深度学习笔记》笔记(二)

    神经网络结构从普通全连接神经网络,发展到卷积神经网络、循环神经网络、自编码器、生成式对抗网络和图神经网络等各种结构, 但BP算法一直是神经网络一个经典和高效寻优工具。附神经网络早期一些发展历程1943年,WarrenMcCulloch和WalterPitts于《神经元与行

    作者: 黄生
    48
    3
  • 12本深度学习书籍推荐:有入门,有深度

    Beginners本书不涉及太多深度学习数学知识,而是使用图表来帮助理解深度学习基本概念和算法。作者使用简单例子来显示深度学习算法工作原理。通过这些例子一步一步组合来逐渐介绍算法更复杂部分。这本书适合读者面很广,从计算机初学者,到数据科学专家,到希望使用简单方式向学生解释深度学习教师。本

    作者: 开发者学堂小助
    发表时间: 2018-04-09 09:59:59
    14046
    0
  • 机器学习与深度学习区别

    神经元计算单元处理数据,这些计算单元被安排成有序部分,称为层。(神经网络)(neural network)2.灵活架构机器学习:提供许多超参(调整)来优化从数据中学习算法深度学习:也使用超参,不过也使用多个用户配置层(用户指定数量个类型)3.自治(自动调节)特征定义机

    作者: 极客潇
    1358
    4