内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习数据收集

    深度学习需要大量的数据集,但是现实是只有零星的数据,大家有什么收集数据的经验和经历,还有什么收集数据的好办法

    作者: 初学者7000
    743
    3
  • 深度学习库 JAX

        JAX是一个似乎同时具备Pytorch和Tensorflow优势的深度学习框架。 JAX 是 Google Research 开发的机器学习库,被称为“在 GPU/TPU上运行的具有自动微分功能的Numpy”,该库的核心是类似 Numpy 的向量和矩阵运算。我个人认为,与

    作者: QGS
    7162
    3
  • 什么是深度学习

    深度学习是使用多层结构从原始数据中自动学习提取高层次特征的一类机器学习算法。通常,从原始数据中提取高层次、抽象的特征是非常困难的。深度学习将原始的数据表示成一个嵌套的特征层级,这样一来,每层特征均可以由更简单的特征来定义和计算。尤为重要的是,深度学习可以自动地学习如何最优地将不

    作者: HWCloudAI
    发表时间: 2020-12-15 06:55:46
    2341
    0
  • 深度学习之稀疏激活

    观察到,使用整流非线性甚至比学习隐藏层的权重值更加重要。随机的权重足以通过整流网络传播有用的信息,允许在顶部的分类器层学习如何将不同的特征向量映射到类标识。当有更多数据可用时,学习开始提取足够的有用知识来超越随机选择参数的性能。Glorot et al. (2011a) 说明,在深度整流网络中的

    作者: 小强鼓掌
    651
    1
  • 深度学习之稀疏激活

    观察到,使用整流非线性甚至比学习隐藏层的权重值更加重要。随机的权重足以通过整流网络传播有用的信息,允许在顶部的分类器层学习如何将不同的特征向量映射到类标识。当有更多数据可用时,学习开始提取足够的有用知识来超越随机选择参数的性能。Glorot et al. (2011a) 说明,在深度整流网络中的

    作者: 小强鼓掌
    933
    1
  • 深度学习-语义分割

    本质上即为每个类别创建一个输出通道。因为上图有5个类别,所以网络输出的通道数也为5,如下图所示:如上图所示,预测的结果可以通过对每个像素在深度上求argmax的方式被整合到一张分割图中。进而,我们可以轻松地通过重叠的方式观察到每个目标。argmax的方式也很好理解。如上图所示,每

    作者: @Wu
    640
    0
  • 深度学习修炼(一)——从机器学习转向深度学习

    于颜料来说,各种深度学习框架已经提供了我们所需的各种颜料。我们要做的,就是利用不同的颜料,在空白的纸上,一笔一划画出我们所需的网络。 深度学习改变了传统互联网业务。第一次听到这个名词时可能大家都会对这方面的知识感到一头雾水,到底什么是深度学习?实际上,深度学习已经应用到生活中的

    作者: ArimaMisaki
    发表时间: 2022-08-08 16:45:09
    244
    0
  • 分享深度学习发展的学习范式——混合学习

     这种学习范式试图去跨越监督学习与无监督学习边界。由于标签数据的匮乏和收集有标注数据集的高昂成本,它经常被用于商业环境中。从本质上讲,混合学习是这个问题的答案。我们如何才能使用监督学习方法来解决或者链接无监督学习问题?例如这样一个例子,半监督学习在机器学习领域正日益流行,因为它能

    作者: 初学者7000
    739
    1
  • 分享深度学习发展的学习范式——混合学习

        这种学习范式试图去跨越监督学习与无监督学习边界。由于标签数据的匮乏和收集有标注数据集的高昂成本,它经常被用于商业环境中。从本质上讲,混合学习是这个问题的答案。我们如何才能使用监督学习方法来解决或者链接无监督学习问题?例如这样一个例子,半监督学习在机器学习领域正日益流行,因

    作者: 初学者7000
    828
    3
  • 深度学习应用开发》学习笔记-01

    人工智能相关的课程,看了一下确实很不错。课程名称叫做《深度学习应用开发 基于tensorflow的实践》。是一个入门级别的课程,不需要人工智能的基础,不需要太多的数学知识,也不需要什么编程经验。我觉得很友好呀,所以现在开始学习并记录一下第一讲:导论第二讲:环境搭建和Python快

    作者: 黄生
    1137
    5
  • 深度学习之动量

    虽然随机梯度下降仍然是非常受欢迎的优化方法,但其学习过程有时会很慢。动量方法 (Polyak, 1964) 旨在加速学习,特别是处理高曲率、小但一致的梯度,或是带噪声的梯度。动量算法积累了之前梯度指数级衰减的移动平均,并且继续沿该方向移动。动量的效果。动量的主要目的是解决两个问题:Hessian

    作者: 小强鼓掌
    530
    3
  • 深度学习之PCA

    确定),使得方差的主坐标和 z 相关的新表示空间的基对齐。虽然相关性是数据元素间依赖关系的一个重要范畴,但我们对于能够消除特征依赖更复杂形式的表示学习也很有兴趣。对此,我们需要比简单线性变换能做到更多的工具。

    作者: 小强鼓掌
    539
    1
  • 深度学习笔记之表示学习

    解决这个问题的途径之一是使用机器学习来发掘表示本身,而不仅仅把表示映射到输出。这种方法我们称之为表示学习(representation learning)。学习到的表示往往比手动设计的表示表现得更好。并且它们只需最少的人工干预,就能让AI系统迅速适应新的任务。表示学习算法只需几分钟就可以为

    作者: 小强鼓掌
    852
    1
  • 学习深度学习是否要先学习机器学习

    学习深度学习是否要先学习完机器学习,对于学习顺序不太了解

    作者: 飞奔的野马
    5955
    23
  • 深度学习卷积操作

    卷积操作就是filter矩阵跟filter覆盖的图片局部区域矩阵对应的每个元素相乘后累加求和。

    作者: 我的老天鹅
    629
    8
  • 深度学习之推断

    在Bagging的情况下,每一个模型在其相应训练集上训练到收敛。在Dropout的情况下,通常大部分模型都没有显式地被训练,因为通常父神经网络会很大,以致于到宇宙毁灭都不可能采样完所有的子网络。取而代之的是,在单个步骤中我们训练一小部分的子网络,参数共享会使得剩余的子网络也能有好

    作者: 小强鼓掌
    425
    4
  • 深度学习之Dropout

    Dropout(Dropout)(Srivastava et al., 2014) 提供了正则化一大类模型的方法,计算方便但功能强大。在第一种近似下,Dropout可以被认为是集成大量深层神经网络的实用Bagging方法。Bagging涉及训练多个模型,并在每个测试样本上评估多个

    作者: 小强鼓掌
    1021
    2
  • 深度学习之隐藏单元

    对应于擦除图像中有鼻子的信息。模型必须学习另一种 hi,要么是鼻子存在的冗余编码,要么是脸部的另一特征,如嘴。传统的噪声注入技术,在输入端加非结构化的噪声不能够随机地从脸部图像中抹去关于鼻子的信息,除非噪声的幅度大到几乎能抹去图像中所有的信息。破坏提取的特征而不是原始值,让破坏过程充分

    作者: 小强鼓掌
    833
    5
  • 资料学习 - 开源深度学习框架tinygrad

    深度学习时代,谷歌、Facebook、百度等科技巨头开源了多款框架来帮助开发者更轻松地学习、构建和训练不同类型的神经网络。而这些大公司也花费了很大的精力来维护 TensorFlow、PyTorch 这样庞大的深度学习框架。除了这类主流框架之外,开发者们也会开源一些小而精的框架或者库。比如今年

    作者: RabbitCloud
    728
    5
  • PyTorch深度学习技术生态

    orFlow、Keras和PyTorch等多种深度学习框架。ONNX (Open Neural Network Exchange) 是一种用于表示深度学习模型的开放格式,ONNX定义了一组通用的运算符、机器学习深度学习模型的构建块以及一种通用的文件格式,使AI开发人员可以将模型

    作者: 可爱又积极
    1284
    0