已找到以下 10000 条记录
  • 华为云深度学习服务试水笔记

    最近接了一个图像识别的项目,公司配的笔记本电脑只是GT840M 2G显存,只能跑跑LeNet、MobileNet v2、NASNet Mobile这些小模型。效果虽然过得去,但是每个EPOCH几十分钟,真的让人心急死,都懒得去调参数。干脆用华为云深度学习服务,测试一下。华为云DLS的版本:keras

    作者: motozilog
    发表时间: 2019-04-20 14:09:30
    7926
    1
  • 使用模型 - CodeArts IDE Online

    鲲鹏镜像暂时无法安装TensorFlow,敬请期待后续更新。 父主题: 基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型

  • 准备工作 - CodeArts IDE Online

    Notebook(文件后缀名为“ipynb”),打开该文件后会出现一个Notebook Editor,可以在里面编辑和运行cell。 父主题: 基于CodeArts IDE Online、TensorFlow和Jupyter Notebook开发深度学习模型

  • 《MXNet深度学习实战》—1.1.3 深度学习

    1.1.3 深度学习在介绍深度学习之前首先需要了解下神经网络,神经网络是机器学习算法中的一个重要分支,通过叠加网络层模拟人类大脑对输入信号的特征提取,根据标签和损失函数的不同,既可以做分类任务,又可以做回归任务。我们知道在机器学习的大部分算法中,特征提取一般都是手动构造的,这部分

    作者: 华章计算机
    发表时间: 2019-06-16 16:21:27
    3404
    0
  • 深度学习入门》笔记 - 14

    7116229.png) 观察箭头的方向,代表了处理的流程。通过线性回归模型和生物神经元的类比,可以将线性模型称作一个只包含一个神经元的神经网络。 同样的,logistic模型也可以用来进行类比,下图代表的就是预估y等于1的概率的处理过程: ![image.png](https://bbs-img

    作者: 黄生
    59
    2
  • 深度学习入门》笔记 - 04

    自定义函数。 然后介绍numpy库,他可以实现快速的算数运算,特别是矩阵运算,运算内部是通过C语言实现的,所以比较快。他包含两种基本数据类型:`数组(array)`和`矩阵(matrix)`。 然后介绍基于numpy库的pandas库,可以用于数据分析,数据清理和数据准备。他的数

    作者: 黄生
    40
    1
  • 深度学习入门》笔记 - 24

    解决欠拟合问题的方法比较简单,增加模型复杂度就可以了。常见的方法是增加隐藏层的数量或者增加隐藏层的节点数,或者二者同时增加。如果训练误差持续下降,接近于0。而测试误差在下降后变得平稳,甚至略有上升。训练误差和测试误差的差距较大。这就是典型的过拟合情况。在建立神经网络模型的初始阶段

    作者: 黄生
    37
    2
  • 深度学习

    深度学习是实现机器学习的一种技术。早期机器学习研究者中还开发了一种叫人工神经网络的算法,但是发明之后数十年都默默无闻。神经网络是受人类大脑的启发而来的:神经元之间的相互连接关系。但是,人类大脑中的神经元可以与特定范围内的任意神经元连接,而人工神经网络中数据传播要经历不同的层,传播

    作者: feichaiyu
    发表时间: 2019-12-16 00:07:41
    3780
    0
  • 深度学习笔记之应用

          深度学习对语音识别产生了巨大影响。语音识别在 20 世纪 90 年代得到提高后,直到约 2000 年都停滞不前。深度学习的引入 (Dahl et al., 2010; Deng et al.,2010b; Seide et al., 2011; Hinton et al

    作者: 小强鼓掌
    623
    0
  • 深度学习入门》笔记 - 07

    些偏导数等于零,解方程得到b和w的估计值。但是这个方法只适合少数结构比较简单的模型(比如线性回归模型),不能求解深度学习这类复杂模型的参数。 所以下面介绍的是深度学习中常用的优化算法:`梯度下降法`。其中有三个不同的变体:随机梯度下降法、全数据梯度下降法、和批量随机梯度下降法。

    作者: 黄生
    155
    2
  • 深度学习入门》笔记 - 08

    一个负的梯度呗。就是w+(-grad),巧了,也是w-grad。 所以无论w的初始值是在哪边,$w=w-\nabla_wRSS(w)$ 都可以让w朝着RSS变小的方向移动。RSS最小的地方,就是我们寻找的地方,因为在这个地方预测值和真实值的差异最小,也就是说预测值最接近真实值。

    作者: 黄生
    147
    3
  • 深度学习入门》笔记 - 15

    1659794730122414008.png) 可以看到logistic模型找到的线,有一个右下角的原点预测错误。4个当中1个错误。这个是情理之中,别说机器,让你只画一条决策线,能进行正确的预测划分,你也画不出来。 但是如果可以让你画2条线,那就没什么问题。那么对机器来说,又应该怎么做呢?

    作者: 黄生
    196
    2
  • 深度学习入门》笔记 - 11

    练数据。 先要对自变量进行`标准化`,对因变量进行`中心化`。 标准化后所有自变量的均值是0,方差是1。中心化后因变量的均值是0。 这样做可以让梯步下降法的数值更加稳定,更容易找到合适的初始值和学习步长。 一个标准化的方法就是让数据的每一列减去该列的均值,然后除以该列的样本标准差($sd(x)$):

    作者: 黄生
    180
    2
  • 分享深度学习笔记组件学习

    预训练嵌入(如手套)可以放入神经网络中,从有效地将单词映射到值的有意义实体开始。不太明显的是,竞争也可以刺激知识增长。首先,生成性对抗网络借用复合学习范式,从根本上使两个神经网络相互对立。生成器的目标是欺骗鉴别器,而鉴别器的目标不是被欺骗。对抗性学习可以刺激模型,通常是不同类型

    作者: 初学者7000
    627
    1
  • 深度学习入门》笔记 - 02

    7/1658883526687508822.png) 矩阵的基本运算就是加减乘除。加减法如果这两个矩阵的维度是一样的,就非常好理解。矩阵也可以和行向量进行加减,要求行向量的列数和矩阵的列数是一样的。 矩阵的乘法,如果两个矩阵的维度一样,也非常好理解,这种叫做`逐点相乘`(element-wise

    作者: 黄生
    50
    0
  • 深度学习入门》笔记 - 09

    ad,ndigits=3))) 自变量:0.5 因变量:0.8 权重:0.2 预测值:0.1 差值:0.245 梯度:-0.35 ``` 可以看到预测值和真实值的差值在变小(0.32 > 0.245),也就是在向着不断的收敛的方向。

    作者: 黄生
    419
    3
  • 深度学习入门》笔记 - 01

    之前学了一个深度学习应用开发,学了一段时间,后来就没学了。 确实是"靡不有初,鲜克有终",现在不愿意再继续之前的学。我又找了一本书从头开始,这本书的名字是深度学习入门与TensorFlow实践>。 `数(scalar)`是一个数字。 简直是废话。 不过这才刚开始嘛。 多个数字有序

    作者: 黄生
    282
    1
  • 深度学习入门》笔记 - 18

    引入这两个算法。神经网络的目的是建立输入层与输出层之间的关系,进而利用建立的关系得到预测值。通过增加隐藏层,神经网络可以找到输入层与输出层之间较复杂的关系。深度学习是拥有多个隐藏层的神经网络,在神经网络中,我们通过正向传播算法得到预测值,并通过反向传播算法得到参数梯度,然后利用梯

    作者: 黄生
    22
    1
  • 深度学习入门》笔记 - 12

    如果太小,算法会收敛的很慢。 如果太大,容易造成算法不收敛,甚至发散。 自变量的标准化,和因变量的中心化,是建立深度学习模型常用的数据预处理方法。 他们的好处,是不仅可以让梯度下降法的数值表现的更加稳定,还有助于我们找到合适的初始值和步长。 ![image.png](https://bbs-img

    作者: 黄生
    258
    1
  • 《MXNet深度学习实战》—1.2 深度学习框架

    主要通过深度学习框架MXNet来介绍如何实战深度学习算法,该框架融合了命令式编程和符号式编程,在灵活和高效之间取得了非常好的平衡。正如前文所述,各深度学习框架之间有很多相似性,当你深入了解其中一种深度学习框架之后基本上就能举一反三,因此如果你现在还在犹豫学习哪个深度学习框架,那么

    作者: 华章计算机
    发表时间: 2019-06-16 16:24:22
    3395
    0