内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习的应用

    计算机视觉香港中文大学的多媒体实验室是最早应用深度学习进行计算机视觉研究的华人团队。在世界级人工智能竞赛LFW(大规模人脸识别竞赛)上,该实验室曾力压FaceBook夺得冠军,使得人工智能在该领域的识别能力首次超越真人。语音识别微软研究人员通过与hinton合作,首先将RBM和D

    作者: QGS
    1523
    2
  • 深度学习的应用

    计算机视觉香港中文大学的多媒体实验室是最早应用深度学习进行计算机视觉研究的华人团队。在世界级人工智能竞赛LFW(大规模人脸识别竞赛)上,该实验室曾力压FaceBook夺得冠军,使得人工智能在该领域的识别能力首次超越真人。语音识别微软研究人员通过与hinton合作,首先将RBM和D

    作者: QGS
    657
    1
  • 深度学习数据收集

    深度学习需要大量的数据集,但是现实是只有零星的数据,大家有什么收集数据的经验和经历,还有什么收集数据的好办法

    作者: 初学者7000
    744
    3
  • 《MXNet深度学习实战》—1.2.5 其他

    1.2.5 其他除了前面提到的几个深度学习框架之外,还有一些深度学习框架也非常受欢迎。Keras,一个基于TensorFlow和Theano且提供简洁的Python接口的深度学习框架,上手非常快,受欢迎程度非常高。Theano,老牌的深度学习框架之一,由蒙特利尔大学的机器学习团队

    作者: 华章计算机
    发表时间: 2019-06-16 16:29:56
    4130
    0
  • 深度学习库 JAX

        JAX是一个似乎同时具备Pytorch和Tensorflow优势的深度学习框架。 JAX 是 Google Research 开发的机器学习库,被称为“在 GPU/TPU上运行的具有自动微分功能的Numpy”,该库的核心是类似 Numpy 的向量和矩阵运算。我个人认为,与

    作者: QGS
    7164
    3
  • 你真正了解深度学习了吗?

    书要重点探讨的深度学习是具有多级表示的表征学习方法。在每一级(从原始数据开始),深度学习通过简单的函数将该级的表示变换为更高级的表示。因此,深度学习模型也可以看作是由许多简单函数复合而成的函数。当这些复合的函数足够多时,深度学习模型就可以表达非常复杂的变换。深度学习可以逐级表示越

    作者: 竹叶青
    发表时间: 2019-09-02 22:44:27
    17419
    0
  • 《Keras深度学习实战》—2.4 MNIST数据集

    2.4 MNIST数据集MNIST是一个包含60 000个0~9这十个数字的28×28像素灰度图像的数据集。MNIST也包括10 000个测试集图像。数据集包含以下四个文件:train-images-idx3-ubyte.gz:训练集图像(9 912 422字节),见http://yann

    作者: 华章计算机
    发表时间: 2019-06-15 12:20:24
    7582
    0
  • 深度学习TensorBoard错误

    No dashboards are active for the current data set. 特地重新训练了,记下来日志目录,都是创建TensorBoard还是错误,不知道怎么回事,求解

    作者: timo
    4075
    2
  • 深度学习之PCA

    PCA这种将数据变换为元素之间彼此不相关表示的能力是PCA的一个重要性质。它是消除数据中未知变动因素的简单表示实例。在PCA中,这个消除是通过寻找输入空间的一个旋转(由 W 确定),使得方差的主坐标和 z 相关的新表示空间的基对齐。虽然相关性是数据元素间依赖关系的一个重要范畴,但

    作者: 小强鼓掌
    541
    1
  • 《智能系统与技术丛书 深度学习实践:基于Caffe的解析》—1深度学习简介

    CHAPTER?1第1章深度学习简介1.1 深度学习的历史讲解深度学习,不得不提到人工神经网络,本书就先从神经网络的历史讲起,我们首先来看一下第一代的神经网络。1. 第一代神经网络 神经网络的思想最早起源于1943年的MCP人工神经元模型,当时是希望能够用计算机来模拟人的神经元反

    作者: 华章计算机
    发表时间: 2019-05-31 00:36:03
    3206
    0
  • 《MXNet深度学习实战》—1.4.2 NumPy

    y可以是多维的,比如0维的array就是标量,1维的array就是向量,2维的array就是矩阵等。为什么要了解NumPy呢?因为大多数深度学习框架的基础数据结构都参考了NumPy中的array,比如MXNet框架中的NDArray、TensorFlow和PyTorch框架中的Tensor等。那么既然有NumPy

    作者: 华章计算机
    发表时间: 2019-06-16 16:35:28
    3703
    0
  • 关于深度学习量化的操作

    0. 简介 深度学习中做量化提升运行速度是最常用的方法,尤其是大模型这类非常吃GPU显存的方法。一般是高精度浮点数表示的网络权值以及激活值用低精度(例如8比特定点)来近似表示达到模型轻量化,加速深度学习模型推理,目前8比特推理已经比较成熟。比如int8量化,就是让原来32bit

    作者: 二哈侠
    发表时间: 2024-09-18 21:29:04
    140
    0
  • 浅谈深度学习背后的数学

    直接从系统的输入和输出中观察到。神经网络的深度越深,网络能从数据中识别的信息就越多。然而,尽管从数据中学习尽可能多的信息是我们的目标,但深度学习模型可能会受到过拟合的影响。当模型从训练数据中学习了太多的信息,包括随机噪声时,就会出现这种情况。模型能够确定数据中非常复杂的模式,但这

    作者: HWCloudAI
    发表时间: 2020-09-29 14:24:47
    3026
    0
  • 《MXNet深度学习实战》—3.2 Symbol

    t.symbol.Convolution()接口定义一个卷积核尺寸为3*3,卷积核数量为128的卷积层,卷积层是深度学习算法提取特征的主要网络层,该层将是你在深度学习算法(尤其是图像领域)中使用最为频繁的网络层。3)用 mxnet.symbol.BatchNorm()接口定义一个批标准化(batch

    作者: 华章计算机
    发表时间: 2019-06-16 17:01:28
    4004
    0
  • 深度学习:主流框架和编程实战》——1.1.2 传统机器学习与深度学习的对比

    并结果的求解策略。而深度学习主张端到端的模型,即输入训练数据,直接输出最终结果,让网络自己学习如何提取关键特征。如图1-1所示为传统机器学习和深度学习对比流程图。图1-1 传统机器学习和深度学习对比流程图执行时间:深度学习需要进行很长时间的训练,因为深度学习中很多参数都需要进行远

    作者: 华章计算机
    发表时间: 2019-06-04 19:00:16
    3678
    0
  • 深度学习之推断

    在Bagging的情况下,每一个模型在其相应训练集上训练到收敛。在Dropout的情况下,通常大部分模型都没有显式地被训练,因为通常父神经网络会很大,以致于到宇宙毁灭都不可能采样完所有的子网络。取而代之的是,在单个步骤中我们训练一小部分的子网络,参数共享会使得剩余的子网络也能有好

    作者: 小强鼓掌
    426
    4
  • PyTorch深度学习技术生态

    runtimeONNX Runtime是一种跨平台深度学习训练和推理机加速器,与深度学习框架,可以兼容TensorFlow、Keras和PyTorch等多种深度学习框架。ONNX (Open Neural Network Exchange) 是一种用于表示深度学习模型的开放格式,ONNX定义了一组

    作者: 可爱又积极
    1286
    0
  • 【转载】深度学习与人脑

    深度学习是机器学习的一个子集,它通过接收大量数据并试图从中学习来模拟人脑。在IBM对该术语的定义中,深度学习使系统能够“聚集数据,并以令人难以置信的准确性做出预测。” 然而,尽管深度学习令人难以置信,但IBM尖锐地指出,它无法触及人脑处理和学习信息的能力。深度学习和 DNN(深度

    作者: 乔天伊
    18
    3
  • 深度学习入门》笔记 - 07

    些偏导数等于零,解方程得到b和w的估计值。但是这个方法只适合少数结构比较简单的模型(比如线性回归模型),不能求解深度学习这类复杂模型的参数。 所以下面介绍的是深度学习中常用的优化算法:`梯度下降法`。其中有三个不同的变体:随机梯度下降法、全数据梯度下降法、和批量随机梯度下降法。

    作者: 黄生
    155
    2
  • 深度学习之平滑先验

    距离拉大时而减小。局部核可以看作是执行模版匹配的相似函数,用于度量测试样本 x 和每个训练样本 x(i) 有多么相似。近年来深度学习的很多推动力源自研究局部模版匹配的局限性,以及深度学习如何克服这些局限性 (Bengio et al., 2006a)。决策树也有平滑学习的局限性,因为它将输入空间

    作者: 小强鼓掌
    1195
    1