已找到以下 10000 条记录
  • 矩阵向量相乘“深度学习”笔记

    矩阵向量相乘矩阵乘法是矩阵运算中最重要的操作之一。两个矩阵AB的矩阵相乘是第三个矩阵C。为了使乘法可被定义,矩阵A的列数必须矩阵B的行数相等。如果矩阵A的形状是m x n,矩阵B的形状是n x p,那么矩阵C的形状是m x p。我们可以通过将两个或多个矩阵并列放置以书写矩阵乘法,列如

    作者: QGS
    731
    2
  • 【mindSpore】【深度学习】求指路站内的深度学习教程

    老师给了我们个任务,用mindSpore完成一个深度学习,求大佬指路,站内有什么方便的教程。要求不能是花卉识别、手写体数字识别、猫狗识别,因为这些按教程已经做过了(然而我还是不会mindSpore)。尽量简单,我们只要是个深度学习就能完成任务。

    作者: abcd咸鱼
    1443
    1
  • 机器学习深度学习区别

    深度学习由经典机器学习发展而来,两者有着相同与不同特点1.完全不同的模式机器学习:使计算机能从数据中学习,并利用其学到的知识来提供答案(通常为预测)。依赖于不同的范式(paradigms),例如统计分析、寻找数据相似性、使用逻辑等深度学习:使用单一技术,最小化人脑劳动。使用被称为

    作者: 极客潇
    1358
    4
  • 分享深度学习笔记组件学习

    组件学习组件学习不仅使用一个模型的知识,还使用多个模型的知识。人们相信,通过独特的信息组合或输入(包括静态动态),深度学习可以比单一模式更深入地理解表现。迁移学习是组件学习的一个非常明显的例子。基于这一思想,对类似问题预先训练的模型权重可用于对特定问题进行微调。为了区分不同类

    作者: 初学者7000
    627
    1
  • 深度学习之悬崖梯度爆炸

    多层神经网络通常存在像悬崖一样的斜率较大区域,如图8.3所示。这是由于几个较大的权重相乘导致的。遇到斜率极大的悬崖结构时,梯度更新会很大程度地改变参数值,通常会完全跳过这类悬崖结构。不管我们是从上还是从下接近悬崖,情况都很糟糕,但幸运的是我们可以用使用介绍的启发式梯度截断(gradient

    作者: 小强鼓掌
    445
    2
  • 深度学习之上溢下溢

    在数字计算机上实现连续数学的根本困难是,我们需要通过有限数量的位模式来表示无限多的实数。这意味着我们在计算机中表示实数时,几乎总会引入一些近似误差。在许多情况下,这仅仅是舍入误差。如果在理论上可行的算法没有被设计为最小化舍入误差的累积,可能就会在实践中失效,因此舍入误差会导致一些问题。一种特别的毁灭性舍入误差是下溢

    作者: 小强鼓掌
    1051
    4
  • 深度学习发展的学习范式——成分学习

    成分学习    成分学习不仅使用一个模型的知识,而且使用多个模型的知识。人们相信,通过独特的信息组合或投入(包括静态动态的),深度学习可以比单一的模型在理解性能上不断深入。    迁移学习是一个非常明显的成分学习的例子, 基于这样的一个想法, 在相似问题上预训练的模型权重可以

    作者: 初学者7000
    716
    5
  • 深度学习应用开发》学习笔记-06

    什么是深度深度就是简单的量变。神经网络到深度神经网络,就是每一层的节点搞多一点,层数也搞多一点。但是如果说网络越深,节点越多,表现能力就越好,这个我看未必,过犹未及嘛深度神经网络本身没再多讲,讲的是卷积神经网络就是CNN。这个是在60年代的时候,在研究猫的神经元时发现的,199

    作者: 黄生
    1126
    3
  • 如何理解深度学习中损失函数的作用呢?

    学习AI之前,就非常好奇深度学习模型怎么就能学习到知识呢?好神奇啊,感觉它跟人一样,给它素材就能学好在学习了一段时间的AI理论基础之后,发现深度学习模型的学习跟人是不一样的,一句话来说,深度学习就是拟合数据的过程,给定数据、标签损失函数(有时也称目标函数),然后根据损失值lo

    作者: 天桥调参师
    5803
    15
  • 深度学习释义

    深度学习是机器学习的一种,而机器学习是实现人工智能的必经路径。深度学习的概念源于人工神经网络的研究,含多个隐藏层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。研究深度学习的动机在于建立模拟人脑进行分析学

    作者: 某地瓜
    1961
    1
  • 深度学习之流形学习

    少量点的子集构成的一组流形中,而学习函数中感兴趣输出的变动只位于流形中的方向,或者感兴趣的变动只发生在我们从一个流形移动到另一个流形的时候。流形学习是在连续数值数据无监督学习的设定下被引入的,尽管这个概率集中的想法也能够泛化到离散数据监督学习的设定下:关键假设仍然是概率质量高度集中。

    作者: 小强鼓掌
    1053
    2
  • 深度学习之流形学习

    少量点的子集构成的一组流形中,而学习函数中感兴趣输出的变动只位于流形中的方向,或者感兴趣的变动只发生在我们从一个流形移动到另一个流形的时候。流形学习是在连续数值数据无监督学习的设定下被引入的,尽管这个概率集中的想法也能够泛化到离散数据监督学习的设定下:关键假设仍然是概率质量高度集中。

    作者: 小强鼓掌
    1676
    3
  • 深度学习之流形学习

    少量点的子集构成的一组流形中,而学习函数中感兴趣输出的变动只位于流形中的方向,或者感兴趣的变动只发生在我们从一个流形移动到另一个流形的时候。流形学习是在连续数值数据无监督学习的设定下被引入的,尽管这个概率集中的想法也能够泛化到离散数据监督学习的设定下:关键假设仍然是概率质量高

    作者: 小强鼓掌
    811
    1
  • 图的二种遍历-广度优先遍历深度优先遍历

    图的深度优先遍历 1.树的深度优先遍历 树的深度优先遍历有点类似于先根遍历 首先遍历 1 2 5 6 3  4 7 8 ,它的遍历更趋向于先深层的遍历树。 ​ 编辑 2.图的深度优先遍历 首先我们可以先看一下2,2相邻的是1号结点6号结点。2相邻的第

    作者: 莫浅子
    发表时间: 2022-12-09 03:04:48
    100
    0
  • 深度学习概览

    HCIA-AI V3.0系列课程。本课程主要讲述深度学习相关的基本知识,其中包括深度学习的发展历程、深度学习神经 网络的部件、深度学习神经网络不同的类型以及深度学习工程中常见的问题。

  • 华为云SCM服务-关于SCM服务整改的通知

    尊敬的华为云客户:因为产品整改原因,华为云SCM服务预计在5月16日~26日暂停销售。在此期间,您仍然可以正常使用已签发的证书(包括下载、推送、吊销等)。预计中国区域5月27日重新开发部分品牌证书购买,国际站时间待定。如您有任何问题,可随时通过工单或者服务热线(950808)与我们联系。感谢您对华为云的支持!

    作者: 华为云客户服务中心
    发表时间: 2019-05-21 15:01:39
    5158
    0
  • 学习深度学习是否要先学习机器学习

    学习深度学习是否要先学习完机器学习,对于学习顺序不太了解

    作者: 飞奔的野马
    5965
    23
  • 深度学习之方差标准误差

    (standard error),记作 SE(θˆ)。        估计量的方差或标准误差告诉我们,当独立地从潜在的数据生成过程中重采样数据集时,如何期望估计的变化。正如我们希望估计的偏差较小,我们也希望其方差较小。        当我们使用有限的样本计算任何统计量时,真实参数的估计都是

    作者: 小强鼓掌
    944
    0
  • 自动学习项目中,如何进行增量训练? - AI开发平台ModelArts

    自动学习项目中,如何进行增量训练? 在自动学习项目中,每训练一次,将自动产生一个训练版本。当前一次的训练结果不满意时(如对训练精度不满意),您可以适当增加高质量的数据,或者增减标签,然后再次进行训练。 增量训练目前仅支持“图像分类”、“物体检测”、“声音分类”类型的自动学习项目。

  • 深度学习之多任务学习

    地泛化。展示了多任务学习中非常普遍的一种形式,其中不同的监督任务(给定 x预测 y(i))共享相同的输入 x 以及一些中间层表示 h(share),能学习共同的因素池。该模型通常可以分为两类相关的参数:多任务学习深度学习框架中可以以多种方式进行,该图说明了任务共享相同输入但涉及

    作者: 小强鼓掌
    532
    1