内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 分享深度学习笔记组件学习

    预训练嵌入(如手套)可以放入神经网络中,从有效地将单词映射到值的有意义实体开始。不太明显的是,竞争也可以刺激知识增长。首先,生成性对抗网络借用复合学习范式,从根本上使两个神经网络相互对立。生成器的目标是欺骗鉴别器,而鉴别器的目标不是被欺骗。对抗性学习可以刺激模型,通常是不同类型

    作者: 初学者7000
    627
    1
  • 深度学习入门》笔记 - 02

    7/1658883526687508822.png) 矩阵的基本运算就是加减乘除。加减法如果这两个矩阵的维度是一样的,就非常好理解。矩阵也可以和行向量进行加减,要求行向量的列数和矩阵的列数是一样的。 矩阵的乘法,如果两个矩阵的维度一样,也非常好理解,这种叫做`逐点相乘`(element-wise

    作者: 黄生
    50
    0
  • 深度学习入门》笔记 - 09

    ad,ndigits=3))) 自变量:0.5 因变量:0.8 权重:0.2 预测值:0.1 差值:0.245 梯度:-0.35 ``` 可以看到预测值和真实值的差值在变小(0.32 > 0.245),也就是在向着不断的收敛的方向。

    作者: 黄生
    419
    3
  • 深度学习入门》笔记 - 01

    之前学了一个深度学习应用开发,学了一段时间,后来就没学了。 确实是"靡不有初,鲜克有终",现在不愿意再继续之前的学。我又找了一本书从头开始,这本书的名字是深度学习入门与TensorFlow实践>。 `数(scalar)`是一个数字。 简直是废话。 不过这才刚开始嘛。 多个数字有序

    作者: 黄生
    282
    1
  • 深度学习

    深度学习是实现机器学习的一种技术。早期机器学习研究者中还开发了一种叫人工神经网络的算法,但是发明之后数十年都默默无闻。神经网络是受人类大脑的启发而来的:神经元之间的相互连接关系。但是,人类大脑中的神经元可以与特定范围内的任意神经元连接,而人工神经网络中数据传播要经历不同的层,传播

    作者: feichaiyu
    发表时间: 2019-12-16 00:07:41
    3780
    0
  • 深度学习入门》笔记 - 18

    引入这两个算法。神经网络的目的是建立输入层与输出层之间的关系,进而利用建立的关系得到预测值。通过增加隐藏层,神经网络可以找到输入层与输出层之间较复杂的关系。深度学习是拥有多个隐藏层的神经网络,在神经网络中,我们通过正向传播算法得到预测值,并通过反向传播算法得到参数梯度,然后利用梯

    作者: 黄生
    22
    1
  • 深度学习入门》笔记 - 12

    如果太小,算法会收敛的很慢。 如果太大,容易造成算法不收敛,甚至发散。 自变量的标准化,和因变量的中心化,是建立深度学习模型常用的数据预处理方法。 他们的好处,是不仅可以让梯度下降法的数值表现的更加稳定,还有助于我们找到合适的初始值和步长。 ![image.png](https://bbs-img

    作者: 黄生
    258
    1
  • PyTorch深度学习技术生态

    runtimeONNX Runtime是一种跨平台深度学习训练和推理机加速器,与深度学习框架,可以兼容TensorFlow、Keras和PyTorch等多种深度学习框架。ONNX (Open Neural Network Exchange) 是一种用于表示深度学习模型的开放格式,ONNX定义了一组

    作者: 可爱又积极
    1286
    0
  • 深度学习入门》笔记 - 05

    接下来就是讲线性模型了。线性模型相对比较简单,但是他是学习比较复杂的深度学习模型的一个基础,而且线性模型本身也具有广泛的用途。 这里讲了线性模型中的线性回归模型和logistic模型。线性回归模型用于处理`回归问题`。logistic模型用于处理`分类问题`。 线性回归模型可以写作如下的形式: ![image.png](https://bbs-img

    作者: 黄生
    143
    3
  • 深度残差收缩网络:一种深度学习的故障诊断算法

    然而,设计这样的滤波器需要大量的信号处理方面的专业知识,经常是非常困难的。深度学习提供了一种解决这个问题的新思路。这些滤波器可以通过反向传播算法自动优化得到,而不是由专家进行设计。因此,软阈值化和深度学习的结合是一种有效地消除噪声信息和构建高判别性特征的方式。软阈值化将接近于零的

    作者: hw9826
    发表时间: 2020-08-31 11:54:08
    4310
    0
  • 深度学习入门》笔记 - 20

    因变量的常见数据类型有三种:定量数据、二分类定性数据和多分类定性数据。输出层激活函数的选择主要取决于因变量的数据类型。MNIST数据集是机器学习文献中常用的数据。因变量(0~9)用独热码表示,比如数字8的独热码为(0 0 0 0 0 0 0 0 1 0)数字2的读热码为(0 0 1

    作者: 黄生
    24
    1
  • 深度学习笔记之贡献

    al., 2015) 都能支持重要的研究项目或商业产品。       深度学习也为其他科学做出了贡献。用于对象识别的现代卷积网络为神经科学家们提供了可以研究的视觉处理模型 (DiCarlo, 2013)。深度学习也为处理海量数据以及在科学领域作出有效的预测提供了非常有用的工具。它已

    作者: 小强鼓掌
    855
    2
  • 深度学习入门》笔记 - 06

    238646.png) 前一节已经讲过线性回归模型的数学公式的表达,这里我们先假设给定截距项b和自变量权重w,至于误差这里不管,那么我们就可以写出预测函数了。 ```python def linear_mode(input,weight,b): prediction=np.sum(input*weight)+b

    作者: 黄生
    45
    2
  • 《MXNet深度学习实战》—1.2 深度学习框架

    主要通过深度学习框架MXNet来介绍如何实战深度学习算法,该框架融合了命令式编程和符号式编程,在灵活和高效之间取得了非常好的平衡。正如前文所述,各深度学习框架之间有很多相似性,当你深入了解其中一种深度学习框架之后基本上就能举一反三,因此如果你现在还在犹豫学习哪个深度学习框架,那么

    作者: 华章计算机
    发表时间: 2019-06-16 16:24:22
    3395
    0
  • 深度学习入门》笔记 - 10

    数据会包含多个自变量,多个权重,很多个观测点。 用 $L(w)=L(w_1,w_2,...,w_p)$ 表示包含p个权重或参数的损失函数,它的梯度可以表示为: ![image.png](https://bbs-img.huaweicloud.com/data/forums/attachm

    作者: 黄生
    186
    1
  • 深度学习入门》笔记 - 26

    欠拟合、过拟合的总结如下:接下来是TensorFlow框架部分,之前有个帖子 基于TensorFlow 2建立深度学习的模型 - 快速入门 cid:link_0然后会使用它来建立线性回归模型和神经网络分类模型敬请期待

    作者: 黄生
    48
    2
  • 深度学习笔记之贝叶斯规则

    (x),我们可以用贝叶斯规则 (Bayes’ rule) 来实现这一目的:        注意到 P (y) 出现在上面的公式中,它通常使用 P (y) = ∑x P (y | x)P (x) 来计算,所以我们并不需要事先知道 P (y) 的信息。        贝叶斯规则可以从条件概

    作者: 小强鼓掌
    628
    2
  • 深度学习

    并使计算机比以往任何时候都更加智能。借助深度学习,我们可以制造出具有自动驾驶能力的汽车和能够理解人类语音的电话。由于深度学习的出现,机器翻译、人脸识别、预测分析、机器作曲以及无数的人工智能任务都成为可能,或相比以往有了显著改进。虽然深度学习背后的数学概念几十年前便提出,但致力于创

    作者: G-washington
    2441
    1
  • 深度学习入门》笔记 - 23

    在实际中训练误差常常偏小, 不是模型真实误差的好的估计值。这是因为如果考试题目是我们做过的作业题,那么我们更容易得高分。所以我们要有一些测试数据是不要参加模型训练的,需要搁置在一旁,直到模型完全建立好,再用来计算模型的测试误差。模型的预测效果较差,经常是由于两类问题导致的。那就是

    作者: 黄生
    29
    2
  • 深度学习笔记之约束优化

    1。约束优化的一个简单方法是将约束考虑在内后简单地对梯度下降进行修改。如果我们使用一个小的恒定步长 ϵ,我们可以先取梯度下降的单步结果,然后将结果投影回 S。如果我们使用线搜索,我们只能在步长为 ϵ 范围内搜索可行的新 x 点,或者我们可以将线上的每个点投影到约束区域。如果可能的话,在梯度下降或线搜索前将梯度投影到可行域的切空间会更高效

    作者: 小强鼓掌
    1159
    3