已找到以下 10000 条记录。
  • 深度学习的特点

    深度学习区别于传统的浅层学习深度学习的不同在于: (1)强调了模型结构的深度,通常有5层、6层,甚至10多层的隐层节点;(2)明确了特征学习的重要性。也就是说,通过逐层特征变换,将样本在原空间的特征表示变换到一个新特征空间,从而使分类或预测更容易。与人工规则构造特征的方法相比,

    作者: QGS
    667
    2
  • 深度学习LSTM模型

    长短期记忆(Long short-term memory, LSTM)是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。简单来说,就是相比普通的RNN,LSTM能够在更长的序列中有更好的表现。

    作者: 我的老天鹅
    1887
    10
  • 深度学习之正则化

    机器学习中的一个核心问题是设计不仅在训练数据上表现好,并且能在新输入上泛化好的算法。在机器学习中,许多策略显式地被设计为减少测试误差(可能会以增大训练误差为代价)。这些策略被统称为正则化。我们将在后文看到,深度学习工作者可以使用许多不同形式的正则化策略。事实上,开发更有效的正则化

    作者: 小强鼓掌
    527
    0
  • 关于Intel CPU MDS侧信道漏洞的预警

    化防护措施。参考链接:https://www.intel.com/content/www/us/en/security-center/advisory/intel-sa-00233.htmlhttps://software.intel.com/security-software-

    作者: aprioy
    5269
    1
  • 深度学习之经验E

    *有三个不同的品种。        无监督学习算法(unsupervised learning algorithm) 训练含有很多特征的数据,然后学习出这个数据上有用的结构性质。在深度学习中,我们通常要学习生成数据的整个概率分布,式地,比如密度估计,或是隐式地,比如合成或

    作者: 小强鼓掌
    1060
    4
  • 深度学习之逻辑回归

    困难些。其最佳权重没有闭解。反之,我们必须最大化对数似然来搜索最优解。我们可以通过梯度下降最小化负对数似然达到这一点。通过确定正确的输入和输出变量上的有参条件概率分布族,相同的策略基本上可以用于任何监督学习问题。

    作者: 小强鼓掌
    731
    3
  • 深度学习之Dropout启发

    须选择让神经网络能够学习对抗的修改类型。在理想情况下,我们也应该使用可以快速近似推断的模型族。我们可以认为由向量 µ 参数化的任何形式的修改,是对 µ 所有可能的值训练 p(y | x, µ) 的集成。注意,这里不要求 µ 具有有限数量的值。例如, µ 可以是实值。Srivastava

    作者: 小强鼓掌
    831
    3
  • 深度学习之经验风险

    机器学习算法的目标是降低式 (8.2) 所示的期望泛化误差。这个数据量被称为风险(risk)。在这里,我们强调该期望取自真实的潜在分布 pdata。如果我们知道了真实分布 pdata(x, y),那么最小化风险变成了一个可以被优化算法解决的优化问题。然而,我们遇到的机器学习问题,通常是不知道

    作者: 小强鼓掌
    627
    2
  • 深度学习的模型介绍

    深度神经网络:深度学习的模型有很多,目前开发者最常用的深度学习模型与架构包括卷积神经网络 (CNN)、深度置信网络 (DBN)、受限玻尔兹曼机 (RBM)、递归神经网络 (RNN & LSTM & GRU)、递归张量神经网络 (RNTN)、自动编码器 (AutoEncoder)、生成对抗网络

    作者: 极客潇
    1756
    2
  • PyTorch深度学习技术生态

    runtimeONNX Runtime是一种跨平台深度学习训练和推理机加速器,与深度学习框架,可以兼容TensorFlow、Keras和PyTorch等多种深度学习框架。ONNX (Open Neural Network Exchange) 是一种用于表示深度学习模型的开放格式,ONNX定义了一组

    作者: 可爱又积极
    1284
    0
  • 深度学习之隐藏单元

    这里描述对于每种隐藏单元的一些基本直觉。这些直觉可以用来建议我们何时来尝试一些单元。通常不可能预先预测出哪种隐藏单元工作得最好。设计过程充满了试验和错误,先直觉认为某种隐藏单元可能表现良好,然后用它组成神经网络进行训练,最后用验证来评估它的性能。这里列出的一些隐藏单元可能并不是

    作者: 小强鼓掌
    636
    2
  • 深度学习修炼(一)——从机器学习转向深度学习

    在大部分的学习框架中实际上都有属于自己的方法来创建张量,这是因为深度学习一般用来处理大量的数据,而仅仅用电脑的CPU硬件已经不能满足我们深度学习的算力了,为此,我们需要使用GPU来加速我们的算法,而Numpy是不支持GPU加速的,而深度学习框架的张量可以。 换而言之,在深度学习框架

    作者: ArimaMisaki
    发表时间: 2022-08-08 16:45:09
    244
    0
  • 深度学习之设计矩阵

    的大部分学习算法都是讲述它们是如何运行在设计矩阵数据上的。当然,将一个数据表示成设计矩阵,必须是可以将每一个样本表示成向量,并且这些向量的大小相同。这一点并非永远可能。例如,你有不同宽度和高度的照片的集合,那么不同的照片将会包含不同数量的像素。因此不是所有的照片都可以表示成相同长度的向量。第9

    作者: 小强鼓掌
    1662
    1
  • 什么是自动学习? - AI开发平台ModelArts

    什么是自动学习? 自动学习功能可以根据标注的数据自动设计模型、自动调参、自动训练、自动压缩和部署模型,不需要代码编写和模型开发经验。 自动学习功能主要面向无编码能力的用户,其可以通过页面的标注操作,一站式训练、部署,完成AI模型构建。 父主题: 功能咨询

  • 深度学习之maxout 单元

    G(i) 是组 i 的输入索引 {(i − 1)k + 1, . . . , ik}。这提供了一种方法来学习对输入 x 空间中多个方向响应的分段线性函数。maxout 单元可以学习具有多达 k 段的分段线性的凸函数。maxout 单元因此可以视为学习激活函数本身而不仅仅是单元之间的关系。使用足够大的

    作者: 小强鼓掌
    1102
    1
  • **Mac深度学习环境配置**

    Mac深度学习环境配置安装组合:Anaconda+PyTorch(GPU版)开源贡献:马曾欧,伦敦大学2.1 安装AnacondaAnaconda 的安装有两种方式,这里仅介绍一种最直观的- macOS graphical install。https://www.anaconda

    作者: @Wu
    590
    0
  • 深度学习框架MindSpore介绍

    些端云联合学习方法和框架被提出来,旨在联合多个端侧设备共同训练一个全局模型,并实现端侧隐私保护。Google率先于2016年提出了联邦学习方法和框架。杨强等又提出了横向联邦学习、纵向联邦学习、联邦迁移学习以及联邦强化学习等方法及对应的框架。端侧推理、迁移学习和联邦学习属于端云协同

    作者: 运气男孩
    871
    2
  • 深度学习之经验E

    什么品种,其**有三个不同的品种。无监督学习算法 (unsupervised learning algorithm) 训练含有很多特征的数据,然后学习出这个数据上有用的结构性质。在深度学习中,我们通常要学习生成数据的整个概率分布,式地,比如密度估计,或是隐式地,比如合成或

    作者: 小强鼓掌
    1163
    3
  • 深度学习之任务 T

     在相对正式的 “任务”定义中,学习过程本身并不是任务。学习是我们所谓的获取完成任务的能力。例如,我们的目标是使机器人能够行走,那么行走便是任务。我们可以编程让机器人学会如何行走,或者可以编写特定的指令,人工指导机器人如何行走。        通常机器学习任务定义为机器学习系统该如何处理样本

    作者: 小强鼓掌
    725
    2
  • 浅谈深度学习模型压缩

    teacher-student模型是迁移学习的一种,迁移学习也就是将一个模型的性能迁移到另一个模型上,对于教师网络往往是一个更加复杂的网络,具有非常好的性能和泛化能力,可以用这个网络来作为一个soft target来指导另外一个更加简单的学生网络来学习,使得更加简单、参数运算量更少的学

    作者: QGS
    34
    1