已找到以下 10000 条记录
  • 深度学习之高威随机函数

    数。这类网络本质上是多个矩阵组合在一起。Saxe et al. (2013) 精确解析了这类网络中完整的学习动态,表明这些模型的学习能够捕捉到许多在训练具有非线性激活函数的深度模型时观察到的定性特征。Dauphin et al. (2014) 通过实验表明,真实的神经网络也存在包

    作者: 小强鼓掌
    521
    2
  • 深度学习之非精度梯度

    大多数优化算法的先决条件都是我们知道精确的梯度或是Hessian 矩阵。在实践中,通常这些量会有噪声,甚至是有偏的估计。几乎每一个深度学习算法都需要基于采样的估计,至少使用训练样本的小批量来计算梯度。在其他情况,我们希望最小化的目标函数实际上是难以处理的。当目标函数不可解时,通常

    作者: 小强鼓掌
    418
    2
  • ArrayList 深度学习

    ArrayList 简介 ArrayList 的底层是数组队列,相当于动态数组。与 Java 中的数组相比,它的容量能动态增长。在添加大量元素前,应用程序可以使用ensureCapacity操作来增加 ArrayList 实例的容量。这可以减少递增式再分配的数量。 ArrayList继承于

    作者: 木字楠
    发表时间: 2022-12-24 09:10:26
    170
    0
  • “智能基座”产教融合协同育人基地

    力。 通过课后实践、创新实践课等,把知识转化为动手能力。 学练考证一站式学习 一站式服务:课程学习、沙箱实验、考试认证。 一站式服务:课程学习、沙箱实验、考试认证。 精选课程 体系化的培训课程,快速完成学习覆盖,让您轻松上云 鲲鹏主题课程 昇腾主题课程 《数据库》课程方案 1 方案介绍

  • 人工智能与机器学习深度学习区别

    多个领域取得了突破性的进展综上所述,人工智能是一个广义的概念,涵盖了机器学习深度学习等多个子领域。机器学习是人工智能的一个重要分支,专注于使用数据和算法使计算机能够模仿人类的学习方式。深度学习则是机器学习的一个子集,通过利用复杂算法处理大量数据来训练特定模型,在某些特定任务上取

    作者: Jack20
    13
    1
  • 深度学习历史

    Some sources point out that Frank Rosenblatt developed and explored all of the basic ingredients of the deep learning systems of today

    作者: liupanccsu
    发表时间: 2022-08-04 01:52:38
    166
    0
  • 深度学习之泛化误差

    机器学习的主要挑战是我们的算法必须能够在先前未观测的新输入上表现良好,而不只是在训练集上效果好。在先前未观测到的输入上表现良好的能力被称为泛化 (generalization)。通常情况下,当我们训练机器学习模型时,我们可以访问训练集,在训练集上计算一些度量误差,被称为训练误差 (training

    作者: 小强鼓掌
    931
    2
  • 深度学习之复杂化

    正如前面提到的,我们将操作的定义限制为返回单个张量的函数。大多数软件实现需要支持可以返回多个张量的操作。例如,如果我们希望计算张量中的最大值和该值的索引,则最好在单次运算中计算两者,因此将该过程实现为具有两个输出的操作效率更高。我们还没有描述如何控制反向传播的内存消耗。反向传播经

    作者: 小强鼓掌
    421
    0
  • 深度学习之反向传播算法

    我们使用反向传播作为一种策略来避免多次计算链式法则中的相同子表达式。由于这些重复子表达式的存在,简单的算法可能具有指数运行时间。现在我们已经详细说明了反向传播算法,我们可以去理解它的计算成本。如果我们假设每个操作的执行都有大致相同的开销,那么我们可以依据执行操作的数量来分析计算成

    作者: 小强鼓掌
    425
    0
  • 深度学习之符号到数值

    一些反向传播的方法采用计算图和一组用于图的输入的数值,然后返回在这些输入值处梯度的一组数值。我们将这种方法称为符号到数值的微分。这种方法用在诸如 Torch (Collobert et al., 2011b) 和 Caffe (Jia, 2013) 之类的库中。另一种方法是采用计算

    作者: 小强鼓掌
    425
    0
  • 深度学习笔记之约束优化

           有时候,在 x 的所有可能值下最大化或最小化一个函数 f(x) 不是我们所希望的。相反,我们可能希望在 x 的某些集合 S 中找 f(x) 的最大值或最小值。这被称为约束优化 (constrained optimization)。在约束优化术语中,集合 S 内的点 x

    作者: 小强鼓掌
    1160
    3
  • 深度学习笔记之标量、向量

          标量:一个标量就是一个单独的数,不同于线性代数中大多数概念会涉及到多个数。我们用斜体表示标量。标量通常赋予小写的变量名称。当我们介绍标量时,会明确它们是哪种类型的数。比如,在定义实数标量时,我们可能会说“让s ∈ R 表示一条线的斜率”;在定义自然数标量时,我们可能会说“让n

    作者: 小强鼓掌
    842
    1
  • Windows系统深度学习环境配置

    1.1 打开Anaconda Prompt1、conda create -n pytorch python=3.7.0:创建名为pytorch的虚拟环境,并为该环境安装python=3.7。2、activate pytorch:激活名为pytorch的环境1.2 确定硬件支持的C

    作者: @Wu
    450
    0
  • 深度学习之决策树

     正如我们已经看到的,最近邻预测和决策树都有很多的局限性。尽管如此,在计算资源受限制时,它们都是很有用的学习算法。通过思考复杂算法和 k-最近邻或决策树之间的相似性和差异,我们可以建立对更复杂学习算法的直觉。

    作者: 小强鼓掌
    649
    1
  • 深度学习之维数灾难

     当数据的维数很高时,很多机器学习问题变得相当困难。这种现象被称为维数灾难 (curse of dimensionality)。特别值得注意的是,一组变量不同的可能配置数量会随着变量数目的增加而指数级增长。维数灾难发生在计算机科学的许多地方,在机器学习中尤其如此。       由维数灾难带来的一个挑战是统计挑战。如图5

    作者: 小强鼓掌
    1034
    3
  • 深度学习之多个概率分布

    因为这个求和包含多达指数级的项,除非该模型的结构允许某种形式的简化,否则是不可能计算的。目前为止,无法得知深度神经网络是否允许某种可行的简化。相反,我们可以通过采样近似推断,即平均许多掩码的输出。即使是 10 − 20 个掩码就足以获得不错的表现。然而,一个更好的方法能不错地近似

    作者: 小强鼓掌
    632
    4
  • 深度学习笔记之归纳准则

    较大时,Cramér-Rao 下界(Rao, 1945; Cramér, 1946) 表明不存在均方误差低于最大似然学习的一致估计。因为这些原因(一致性和统计效率),最大似然通常是机器学习中的首选估计。当样本数目小到会过拟合时,正则化策略如权重衰减可用于获得训练数据有限时方差较小的最大似然有偏版本。

    作者: 小强鼓掌
    932
    3
  • 深度学习中多层复合函数

    从数学上来看,深度神经网络仅仅是一种函数的表达形式,是复杂的多层复合函数。由于它有大量的可调参数,而且近年来随着大数据、优化算法和并行计算GPU硬件的发展,使得用大规模的神经网络来逼近和拟合大数据成为可能。

    作者: 我的老天鹅
    875
    22
  • 深度学习之鞍点激增

    非常小。另一方面,实验中梯度下降似乎可以在许多情况下逃离鞍点。Goodfellow et al. (2015) 可视化了最新神经网络的几个学习轨迹,给了一个例子。这些可视化显示,在突出的鞍点附近,代价函数都是平坦的,权重都为零。但是他们也展示了梯度下降轨迹能够迅速逸出该区间。Goodfellow

    作者: 小强鼓掌
    424
    2
  • 现代深度学习算法的扩展

    补充特征库,解决数据静态性问题。4. 算法的“元能力”:自我优化与进化• 自动化机器学习(AutoML):◦ 算法可以优化自身结构(如神经架构搜索NAS),甚至设计更好的特征提取器。• 自监督学习:◦ 通过设计代理任务(如掩码语言建模),算法从未标注数据中自动发现有用的特征表示。5

    作者: 黄生
    2
    0
提示

您即将访问非华为云网站,请注意账号财产安全