已找到以下 10000 条记录
  • 深度学习笔记之度量模型深度方式(一)

    第一个观点是基于评估架构所需执行顺序指令数目。假设我们将模型表示为给定输入后,计算对应输出流程图,则可以将这张流程图中最长路径视为模型深度。正如两个使用不同语言编写等价程序将具有不同长度;相同函数可以被绘制为具有不同深度流程图,其深度取决于我们可以用来作为一个步骤函数。图1.3

    作者: 小强鼓掌
    742
    1
  • 深度学习神经网络

    对信息处理是分级。从低级提取边缘特征到形状(或者目标等),再到更高层目标、目标的行为等,即底层特征组合成了高层特征,由低到高特征表示越来越抽象。深度学习借鉴这个过程就是建模过程。 深度神经网络可以分为3类,前馈深度网络(feed-forwarddeep networks

    作者: 运气男孩
    673
    2
  • 人工智能、机器学习深度学习关系

    数据一种机器学习技术。它基本特点,是试图模仿大脑神经元之间传递,处理信息模式。最显著应用是计算机视觉自然语言处理(NLP)领域。显然,“深度学习”是与机器学习“神经网络”是强相关,“神经网络”也是其主要算法手段;或者我们可以将“深度学习”称之为“改良版神经网

    作者: 我的老天鹅
    1925
    23
  • 深度学习入门》笔记 - 26

    欠拟合、过拟合总结如下:接下来是TensorFlow框架部分,之前有个帖子 基于TensorFlow 2建立深度学习模型 - 快速入门 cid:link_0然后会使用它来建立线性回归模型神经网络分类模型敬请期待

    作者: 黄生
    49
    2
  • 深度学习之经验E

      无监督学习算法(unsupervised learning algorithm) 训练含有很多特征数据集,然后学习出这个数据集上有用结构性质。在深度学习中,我们通常要学习生成数据集整个概率分布,显式地,比如密度估计,或是隐式地,比如合成或去噪。还有一些其他类型无监督学习

    作者: 小强鼓掌
    1060
    4
  • 深度学习之正则化

    机器学习一个核心问题是设计不仅在训练数据上表现好,并且能在新输入上泛化好算法。在机器学习中,许多策略显式地被设计为减少测试误差(可能会以增大训练误差为代价)。这些策略被统称为正则化。我们将在后文看到,深度学习工作者可以使用许多不同形式正则化策略。事实上,开发更有效正则化

    作者: 小强鼓掌
    527
    0
  • 深度学习应用开发》学习笔记-25

    特征值最小者)/(特征值最大值 - 特征值最小者) 这样归一化后值,范围在 [0,1]之间。 标签值是不需要做归一化哦 放一下有修改代码,以及训练结果: ```python #做归一化,对列index是0到11特征值做归一化 #列index是12是标签值,不需要做归一化哦 for i in

    作者: 黄生
    857
    3
  • 深度学习应用开发》学习笔记-14

    函数得到值;y是标签值然后是定义优化器,采用梯度下降优化器,优化目标是什么?由损失函数评估损失最小,就是目标。这样写:optimizer=tf.train.GradiantDescentOptimizer().minimize(loss_function)好了,后面就是创建会话和变量初始化tf

    作者: 黄生
    626
    2
  • 深度学习应用开发》学习笔记-08

    execution静态图执行机制,前者比较灵活,可以python代码混写,后者比较死板,因为门槛高而被初学者所诟病。这个有点像敏捷瀑布式开发区别。原来1.x课件会保留,因为有助于底层原理理解,而2.0课件也会更新。这样处理非常好,与时俱进,很负责任。并且建议先看2.0编程基础那一节。

    作者: 黄生
    1134
    3
  • 深度学习应用开发》学习笔记-29

    房价tf2版本,有一些变化。 1是直接使用sklearn.preprocessing里scale来做归一化,更简单便捷 2不是一股脑将数据全用于训练,划分了分别用于训练、验证、测试数据 3损失函数,优化器方面,代码有变化,头疼~ 4对训练数据没有做打散操作 代码如下: 最

    作者: 黄生
    769
    3
  • 深度学习之经验风险

    最有效现代优化算法是基于梯度下降,但是很多有用损失函数,如 0 − 1 损失,没有有效导数(导数要么为零,要么处处未定义)。这两个问题说明,在深度学习中我们很少使用经验风险最小化。反之,我们会使用一个稍有不同方法,我们真正优化目标会更加不同于我们希望优化目标。

    作者: 小强鼓掌
    628
    2
  • 深度学习入门》笔记 - 21

    Linear Unit)函数出现流行时间都比较晚,但却是深度学习常用激活函数。它非常简单: ReLU(x)=max(x,0) 是一个折线函数,所有负输入值都变换成0,所有非负输入值,函数值都等于输入值本身。ReLU函数在正值区域没有梯度消失问题。最后,总结如下:

    作者: 黄生
    29
    1
  • PyTorch深度学习技术生态

    Runtime是一种跨平台深度学习训练推理机加速器,与深度学习框架,可以兼容TensorFlow、KerasPyTorch等多种深度学习框架。ONNX (Open Neural Network Exchange) 是一种用于表示深度学习模型开放格式,ONNX定义了一组通用运算符、机器学

    作者: 可爱又积极
    1288
    0
  • 【转载】深度学习与人脑

    深度学习是机器学习一个子集,它通过接收大量数据并试图从中学习来模拟人脑。在IBM对该术语定义中,深度学习使系统能够“聚集数据,并以令人难以置信准确性做出预测。” 然而,尽管深度学习令人难以置信,但IBM尖锐地指出,它无法触及人脑处理学习信息能力。深度学习 DNN(深度

    作者: 乔天伊
    19
    3
  • 浅谈深度学习Backbone

    bonehead之间,是为了更好利用backbone提取特征。Bottleneck:瓶颈意思,通常指的是网网络输入数据维度输出维度不同,输出维度比输入小了许多,就像脖子一样,变细了。经常设置参数 bottle_num=256,指的是网络输出数据维度是256

    作者: QGS
    82
    2
  • 深度学习笔记之理解

    我们今天知道一些最早学习算法,是旨在模拟生物学习计算模型,即大脑怎样学习或为什么能学习模型。其结果是深度学习以人工神经网络 (artificial neural network, ANN) 之名而淡去。彼时,深度学习模型被认为是受生物大脑(无论人类大脑或其他动物大脑)所启发

    作者: 小强鼓掌
    826
    2
  • 深度学习已经取得进展

    是机器学习历史上非常困难领域:接近人类水平图像分类接近人类水平语音识别接近人类水平手写文字转录更好机器翻译更好文本到语音转换数字助理接近人类水平自动驾驶更好广告定向投放更好网络搜索结果能够回答用自然语言提出问题在围棋上战胜人类我们仍然在探索深度学习能力边界。

    作者: ypr189
    827
    1
  • 深度学习之半监督学习

    深度学习背景下,半监督学习通常指的是学习一个表示 h = f(x)。学习表示目的是使相同类中样本有类似的表示。无监督学习可以为如何在表示空间聚集样本提供有用线索。在输入空间紧密聚集样本应该被映射到类似的表示。在许多情况下,新空间上线性分类器可以达到较好泛化 (Belkin

    作者: 小强鼓掌
    750
    10
  • 深度学习笔记之度量模型深度方式(二)

     由于并不总是清楚计算图深度或概率模型图深度哪一个是最有意义,并且由于不同的人选择不同最小元素集来构建相应图,因此就像计算机程序长度不存在单一正确值一样,架构深度也不存在单一正确值。另外,也不存在模型多么深才能被修饰为 “深”共识。但相比传统机器学习深度学习研究模型涉及更

    作者: 小强鼓掌
    629
    2
  • 深度学习:主流框架编程实战》——1.5 深度学习展望

    研究成果都依赖于大规模数据集强大计算能力,如果没有大量真实数据集,没有相关工程专业知识,探索新算法将会变得异常困难。4)超参数合理取值。深度神经网络以及相关深度学习模型应用需要足够能力经验来合理地选择超参数取值,如学习速率、正则项强度以及层数每层单元个数等

    作者: 华章计算机
    发表时间: 2019-06-04 19:32:31
    6790
    0