已找到以下 10000 条记录
  • 深度学习入门》笔记 - 15

    1659794730122414008.png) 可以看到logistic模型找到的线,有一个右下角的原点预测错误。4个当中1个错误。这个是情理之中,别说机器,让你只画一条决策线,能进行正确的预测划分,你也画不出来。 但是如果可以让你画2条线,那就没什么问题。那么对机器来说,又应该怎么做呢?

    作者: 黄生
    196
    2
  • 深度学习入门》笔记 - 01

    之前学了一个深度学习应用开发,学了一段时间,后来就没学了。 确实是"靡不有初,鲜克有终",现在不愿意再继续之前的学。我又找了一本书从头开始,这本书的名字是深度学习入门与TensorFlow实践>。 `数(scalar)`是一个数字。 简直是废话。 不过这才刚开始嘛。 多个数字有序

    作者: 黄生
    282
    1
  • 深度学习应用开发》学习笔记-21

    说道:矩阵运算,是机器学习的基本手段,必须要掌握。 所以后面有线性代数、矩阵运算的基本介绍。 标量是一个特殊的向量(行向量、列向量),向量是一个特殊的矩阵;这样说来,标量,也是一个特殊的矩阵,一行一列的矩阵。 看代码吧 ```python import numpy as np ```

    作者: 黄生
    1037
    2
  • 深度学习学习

    1%。主要问题是如何设置 ϵ0。若 ϵ0 太大,学习曲线将会剧烈振荡,代价函数值通常会明显增加。温和的振荡是良好的,容易在训练随机代价函数(例如使用 Dropout 的代价函数)时出现。如果学习率太小,那么学习过程会很缓慢。如果初始学习率太低,那么学习可能会卡在一个相当高的代价值。通常,就

    作者: 小强鼓掌
    452
    2
  • 深度学习入门》笔记 - 16

    因此,在此基础上,隐藏层到输出层的logistic模型就可以把其分开了:从这个例子可以看到,神经网络可以先通过隐藏层学习数据的不同特征,再根据隐藏层得到的特征做出更好的预测。也就是说通过增加隐藏层,神经网络可以找到输入层和因变量之间更复杂的关系;而不通过隐藏层,这种关系无法表达。同时可以通过增加隐藏层的数量和每

    作者: 黄生
    36
    4
  • 深度学习应用开发》学习笔记-29

    float32) x_test=tf.cast(scale(x_test),dtype=tf.float32) #None代表未知,因为我们可以一次带入一行样本,也可以一次带入多行样本 #x=tf.placeholder(tf.float32,[None,12],name="X") #y=tf

    作者: 黄生
    767
    3
  • 深度学习笔记之贡献

            深度学习的另一个最大的成就是其在强化学习 (reinforcement learning) 领域的扩展。在强化学习中,一个自主的智能体必须在没有人类操作者指导的情况下,通过试错来学习执行任务。DeepMind 表明,基于深度学习的强化学习系统能够学会玩Atari 视频游戏,并在多种任务中可与人类匹敌

    作者: 小强鼓掌
    855
    2
  • 深度学习入门》笔记 - 12

    学习步长$\alpha$是一个很重要的参数。 如果太小,算法会收敛的很慢。 如果太大,容易造成算法不收敛,甚至发散。 自变量的标准化,和因变量的中心化,是建立深度学习模型常用的数据预处理方法。 他们的好处,是不仅可以让梯度下降法的数值表现的更加稳定,还有助于我们找到合适的初始值和步长。

    作者: 黄生
    258
    1
  • 【mindSpore】【深度学习】求指路站内的深度学习教程

    老师给了我们个任务,用mindSpore完成一个深度学习,求大佬指路,站内有什么方便的教程。要求不能是花卉识别、手写体数字识别、猫狗识别,因为这些按教程已经做过了(然而我还是不会mindSpore)。尽量简单,我们只要是个深度学习就能完成任务。

    作者: abcd咸鱼
    1443
    1
  • 深度学习入门》笔记 - 18

    引入这两个算法。神经网络的目的是建立输入层与输出层之间的关系,进而利用建立的关系得到预测值。通过增加隐藏层,神经网络可以找到输入层与输出层之间较复杂的关系。深度学习是拥有多个隐藏层的神经网络,在神经网络中,我们通过正向传播算法得到预测值,并通过反向传播算法得到参数梯度,然后利用梯

    作者: 黄生
    22
    1
  • 深度学习入门》笔记 - 05

    接下来就是讲线性模型了。线性模型相对比较简单,但是他是学习比较复杂的深度学习模型的一个基础,而且线性模型本身也具有广泛的用途。 这里讲了线性模型中的线性回归模型和logistic模型。线性回归模型用于处理`回归问题`。logistic模型用于处理`分类问题`。 线性回归模型可以写作如下的形式: ![image

    作者: 黄生
    143
    3
  • 深度学习入门》笔记 - 20

    因变量的常见数据类型有三种:定量数据、二分类定性数据和多分类定性数据。输出层激活函数的选择主要取决于因变量的数据类型。MNIST数据集是机器学习文献中常用的数据。因变量(0~9)用独热码表示,比如数字8的独热码为(0 0 0 0 0 0 0 0 1 0)数字2的读热码为(0 0 1

    作者: 黄生
    24
    1
  • 深度学习应用开发》学习笔记-13

    Variable来声明来创建变量,它是会变的,在训练中学习到的,所以给它的初值是多少是无所谓的然后就是怎么样来训练模型了训练模型就是一个不断迭代不断改进的过程首先是训练参数,也就是超参,一个是迭代次数train_epochs,这里设置为10,根据复杂情况,可能上万次都可能的。一个是学习率learning_rate,这里默认为0

    作者: 黄生
    456
    0
  • 深度学习笔记》的笔记(二)

    术语来模拟人类大脑。1956年,FrankRosenblatt发明了最早的神经网络-权重加权感知机Perceptron,它可以通过权值调整输出,模拟人类学习过程。1960年,MinskyandPapert的“Perceptrons”认为此类神经网络有许多限制(如无法解决复杂分类任

    作者: 黄生
    47
    3
  • 深度学习导论

    Network)的扩展和应用为基础,这次浪潮的出现标志着深度学习时代的来临。这一阶段的研究主要集中在如何提高深度神经网络的性能和泛化能力上。SVM作为一种经典的机器学习算法,在分类问题上表现出了良好的性能。随着深度学习的不断发展,其应用领域也在不断扩大。深度学习已经成为了许多领域的重要工具,例如自然

    作者: 林欣
    41
    1
  • 深度学习释义

    深度学习是机器学习的一种,而机器学习是实现人工智能的必经路径。深度学习的概念源于人工神经网络的研究,含多个隐藏层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。研究深度学习的动机在于建立模拟人脑进行分析学

    作者: 某地瓜
    1961
    1
  • 深度学习之机器学习基础

    深度学习是机器学习的一个特定分支。要想学好深度学习,必须对机器学习的基本原理有深刻的理解。本章将探讨贯穿本书其余部分的一些机器学习重要原理。我们建议新手读者或是希望更全面了解的读者参考一些更全面覆盖基础知识的机器学习参考书,例如Murphy (2012) 或者Bishop (20

    作者: 小强鼓掌
    837
    2
  • 深度学习入门》笔记 - 27

    下面用之前的广告数据,来建立线性回归模型,看看tensorflow2的一般建模过程。import numpy as np #1. 数据预处理:装载广告数据 def loadDataSet(): x=[];y=[] f=open('./Ad.csv')

    作者: 黄生
    21
    2
  • 深度学习入门》笔记 - 28

    线性回归模型相当于下面的简单神经网络模型,它没有隐藏层、输出层只有1个节点,激活函数是线性函数。使用 tf.keras.models.Sequential()构建模型使用 model.compile() 设置优化方法、损失函数、评价指标 (损失函数的值即 训练误差;评价指标的值即

    作者: 黄生
    32
    5
  • 深度学习入门》笔记 - 17

    正向传播(Forward Propagation FP)算法指输入值通过神经网络得到输出值的方法。正向传播算法的计算图如下:$sigma$表示sigmoid函数,也就是激活函数。包含损失函数的计算图如下:得到$l_2$,通过$l$计算损失函数L,其中$l$表示求解损失函数的运算。

    作者: 黄生
    34
    3