内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习应用开发》学习笔记-27

    可视化还是比较重要的,因为数据能在图形上看到,会更直观,更符合人的认知思维。 这里先来展示一下loss的可视化。 用matplot将列表值画出来,调用非常简单 plt.plot(loss_list) 横坐标是列表中的索引,纵坐标是列表值,也就是loss值。 可以看到,曲线在收敛了

    作者: 黄生
    827
    2
  • 深度学习之动量

    虽然随机梯度下降仍然是非常受欢迎的优化方法,但其学习过程有时会很慢。动量方法 (Polyak, 1964) 旨在加速学习,特别是处理高曲率、小但一致的梯度,或是带噪声的梯度。动量算法积累了之前梯度指数级衰减的移动平均,并且继续沿该方向移动。动量的效果。动量的主要目的是解决两个问题:Hessian

    作者: 小强鼓掌
    530
    3
  • 何恺明团队最新研究:定义ViT检测迁移学习基线

    本文是FAIR的何恺明团队关于ViT在COCO检测任务上的迁移学习性能研究。它以Mask R-CNN作为基线框架,以ViT作为骨干网络,探索了不同初始化策略对于模型性能的影响。实验表明:masking机制的无监督学习机制(如MAE、BEiT)首次在COCO检测任务迁移学习中取得了令人信服的性能提升 。论文链接:https://arxiv

    作者: @Wu
    752
    5
  • 深度学习-语义分割

    本质上即为每个类别创建一个输出通道。因为上图有5个类别,所以网络输出的通道数也为5,如下图所示:如上图所示,预测的结果可以通过对每个像素在深度上求argmax的方式被整合到一张分割图中。进而,我们可以轻松地通过重叠的方式观察到每个目标。argmax的方式也很好理解。如上图所示,每

    作者: @Wu
    642
    0
  • 深度学习之PCA

    确定),使得方差的主坐标和 z 相关的新表示空间的基对齐。虽然相关性是数据元素间依赖关系的一个重要范畴,但我们对于能够消除特征依赖更复杂形式的表示学习也很有兴趣。对此,我们需要比简单线性变换能做到更多的工具。

    作者: 小强鼓掌
    541
    1
  • 深度学习应用开发》学习笔记-21

    说道:矩阵运算,是机器学习的基本手段,必须要掌握。 所以后面有线性代数、矩阵运算的基本介绍。 标量是一个特殊的向量(行向量、列向量),向量是一个特殊的矩阵;这样说来,标量,也是一个特殊的矩阵,一行一列的矩阵。 看代码吧 ```python import numpy as np ```

    作者: 黄生
    1038
    2
  • 深度学习之小更新

    梯度下降和基本上所有的可以有效训练神经网络的学习算法,都是基于局部较也许能计算目标函数的一些性质,如近似的有偏梯度或正确方向估计的方差。在这些情况下,难以确定局部下降能否定义通向有效解的足够短的路径,但我们并不能真的遵循局部下降的路径。目标函数可能有诸如病态条件或不连续梯度的问题

    作者: 小强鼓掌
    419
    2
  • 深度学习修炼(一)——从机器学习转向深度学习

    于颜料来说,各种深度学习框架已经提供了我们所需的各种颜料。我们要做的,就是利用不同的颜料,在空白的纸上,一笔一划画出我们所需的网络。 深度学习改变了传统互联网业务。第一次听到这个名词时可能大家都会对这方面的知识感到一头雾水,到底什么是深度学习?实际上,深度学习已经应用到生活中的

    作者: ArimaMisaki
    发表时间: 2022-08-08 16:45:09
    244
    0
  • 深度学习之平滑先验

    用于度量测试样本 x 和每个训练样本 x(i) 有多么相似。近年来深度学习的很多推动力源自研究局部模版匹配的局限性,以及深度学习如何克服这些局限性 (Bengio et al., 2006a)。决策树也有平滑学习的局限性,因为它将输入空间分成和叶节点一样多的区间,并在每个区间使用

    作者: 小强鼓掌
    1195
    1
  • 强化学习深度学习的结合

    从整个机器学习的任务划分上来看,机器学习可以分为有监督学习、无监督学习和半监督学习及强化学习。图像、文本等深度学习的应用都属于有监督学习范畴。自编码器和生成式对抗网络可以算在无监督深度学习范畴内。最后就剩下强化学习了。强化学习发展到现在,早已结合了神经网络迸发出新的活力,强化学习结合深度学习已经形成了深度强化学习(Deep

    作者: 黄生
    48
    2
  • 深度学习应用开发》学习笔记-28

    这个房价预测的例子基本就结束了,下面是用TensorBoard来将算法,和模型训练过程的一些信息进行可视化。可视化是一件有意见的工作,有助于信息的理解和推广。可视化在modelarts的老版的训练作业下,是收费的,但这个服务在新版的训练作业里已经没有了,也行是因为这个可视化服务的

    作者: 黄生
    837
    3
  • 深度学习应用开发》学习笔记-23

    从人的角度来看,12个特征比1个特征要复杂了很多, 但对计算机来说,无所谓。 在tf里,12元的线性回归方程的实现,比1元的线性方程的实现,代码上也只是多了一点点复杂度而已。 这就是计算机的优势。 只是最后训练的结果,为什么都是nan,像老师说的,脸都黑了哦~ 这次先到这里,请听下回分解~

    作者: 黄生
    1471
    4
  • 深度学习应用开发》学习笔记-20

    落了很长时间没学,捡起来继续。编号也忘了从哪里接上,就从20开始吧。 前面弄完了一元线性回归,现在是波士顿房价预测-多元线性回归。 数据方面,12+1共13个指标,506行数据。 前面12个是多个维度的数据,维度还是比较全面的,是输入值/特征。 比如:城镇人均犯罪率、师生比例、住宅比例、边界是否为河流等

    作者: 黄生
    934
    3
  • AI、机器学习深度学习的关系

    作者: andyleung
    1560
    1
  • 深度学习卷积操作

    卷积操作就是filter矩阵跟filter覆盖的图片局部区域矩阵对应的每个元素相乘后累加求和。

    作者: 我的老天鹅
    630
    8
  • 深度学习之Dropout

    Dropout(Dropout)(Srivastava et al., 2014) 提供了正则化一大类模型的方法,计算方便但功能强大。在第一种近似下,Dropout可以被认为是集成大量深层神经网络的实用Bagging方法。Bagging涉及训练多个模型,并在每个测试样本上评估多个

    作者: 小强鼓掌
    1024
    2
  • 深度学习之推断

    在Bagging的情况下,每一个模型在其相应训练集上训练到收敛。在Dropout的情况下,通常大部分模型都没有显式地被训练,因为通常父神经网络会很大,以致于到宇宙毁灭都不可能采样完所有的子网络。取而代之的是,在单个步骤中我们训练一小部分的子网络,参数共享会使得剩余的子网络也能有好

    作者: 小强鼓掌
    427
    4
  • 深度学习之半监督学习

    深度学习的背景下,半监督学习通常指的是学习一个表示 h = f(x)。学习表示的目的是使相同类中的样本有类似的表示。无监督学习可以为如何在表示空间聚集样本提供有用线索。在输入空间紧密聚集的样本应该被映射到类似的表示。在许多情况下,新空间上的线性分类器可以达到较好的泛化 (Belkin

    作者: 小强鼓掌
    750
    10
  • 适合新手的深度学习综述(1)

    息处理和抽象,用于有监督或无监督的特征学习、表示、分类和模式识别。深度学习即表征学习是机器学习的一个分支或子领域,大多数人认为近代深度学习方法是从 2006 开始发展起来的。本文是关于最新的深度学习技术的综述,主要推荐给即将涉足该领域的研究者。本文包括 DL 的基本思想、主要方法

    作者: @Wu
    151
    1
  • 机器学习深度学习的区别是什么?

    深度学习是机器学习算法的子类,其特殊性是有更高的复杂度。因此,深度学习属于机器学习,但它们绝对不是相反的概念。我们将浅层学习称为不是深层的那些机器学习技术。让我们开始将它们放到我们的世界中:这种高度复杂性基于什么?在实践中,深度学习由神经网络中的多个隐藏层组成。我们在《从神经元到

    作者: @Wu
    1169
    3