已找到以下 10000 条记录
  • 深度学习入门》笔记 - 16

    层,这种关系无法表达。同时可以通过增加隐藏层的数量和每个隐藏层的节点数,来处理更加复杂的问题。拥有多个隐藏层的神经网络就可以实现深度学习。而数量越多,就需要更多的技巧来训练并发挥这些隐藏层的作用。

    作者: 黄生
    36
    4
  • 深度学习之隐藏单元

    微的。例如,整流线性单元 g(z) = max{0, z} 在 z = 0 处不可微。这似乎使得 g 对于基于梯度的学习算法无效。在实践中,梯度下降对这些机器学习模型仍然表现得足够好。部分原因是神经网络训练算法通常不会达到代价函数的局部最小值,而是仅仅显著地减小它的值,如图 4.

    作者: 小强鼓掌
    636
    2
  • 深度学习入门》笔记 - 09

    现在我们来尝试迭代多次,看看效果。 从w=0开始 ```python #w初始值给0 x,y=0.5,0.8 w=0;lr=0.5 #lr学习率=0.5 pred=x*w loss=((pred-y)**2)/2 grad=(pred-y)*x print('自变量:'+str(x))

    作者: 黄生
    418
    3
  • 深度学习入门》笔记 - 14

    6253.png) 接下来实在是看不下去了,还有求偏导数的主要技巧用到了链式法则,还有其他的太难看了。所以这一小部分跳过。 接下来的内容是深度神经网络。 ![image.png](https://bbs-img.huaweicloud.com/data/forums/attach

    作者: 黄生
    59
    2
  • 深度学习之逻辑回归

    优解。我们可以通过梯度下降最小化负对数似然达到这一点。通过确定正确的输入和输出变量上的有参条件概率分布族,相同的策略基本上可以用于任何监督学习问题。

    作者: 小强鼓掌
    731
    3
  • 深度学习神经网络

        什么是神经网络    我们常常用深度学习这个术语来指训练神经网络的过程。有时它指的是特别大规模的神经网络训练。那么神经网络究竟是什么呢?在这个文章中,我会说一些直观的基础知识。让我们从一个房价预测的例子开始说起。    假设你有一个数据集,它包含了六栋房子的信息。所以,你

    作者: 运气男孩
    656
    2
  • 深度学习之Dropout启发

    Bagging。然而,这种参数共享策略不一定要基于包括和排除。原则上,任何一种随机的修改都是可接受的。在实践中,我们必须选择让神经网络能够学习对抗的修改类型。在理想情况下,我们也应该使用可以快速近似推断的模型族。我们可以认为由向量 µ 参数化的任何形式的修改,是对 µ 所有可能的值训练

    作者: 小强鼓掌
    831
    3
  • 浅谈深度学习常用术语

    深度学习常用术语· 样本(sample)或输入(input)或数据点(data point):训练集中特定的实例。我们在上一章中看到的图像分类问题,每个图像都可以被称为样本、输入或数据点。· 预测(prediction)或输出(output):由算法生成的值称为输出。例如,在先前

    作者: QGS
    21
    0
  • 深度学习之小更新

    梯度下降和基本上所有的可以有效训练神经网络的学习算法,都是基于局部较也许能计算目标函数的一些性质,如近似的有偏梯度或正确方向估计的方差。在这些情况下,难以确定局部下降能否定义通向有效解的足够短的路径,但我们并不能真的遵循局部下降的路径。目标函数可能有诸如病态条件或不连续梯度的问题

    作者: 小强鼓掌
    419
    2
  • 深度学习入门》笔记 - 13

    52137365917.png) $f(x)=\frac{1}{1+e^{-x}}$函数在统计学文献中称为`logistic函数`,在机器学习文献中称为`sigmoid函数`。 ```python a=np.linspace(-10,10,100) plt.plot(a,1/(1+np

    作者: 黄生
    48
    1
  • 深度学习之无监督学习算法

    供的值是特征还是目标。通俗地说,无监督学习是指从不需要人为注释样本的分布中抽取信息的大多数尝试。该术语通常与密度估计相关,学习从分布中采样,学习从分布中去噪,需要数据分布的流形,或是将数据中相关的样本聚类。        一个经典的无监督学习任务是找到数据的 “最佳”表示。“最佳

    作者: 小强鼓掌
    948
    1
  • 深度学习之函数估计

    可能具有过高的方差),k-折交叉验证算法可以用于估计学习算法 A 的泛化误差。数据集 D 包含的元素是抽象的样本 z(i) (对于第 i 个样本),在监督学习的情况代表(输入,目标)对 z(i) = (x(i), y(i)) ,或者无监督学习的情况下仅用于输入 z(i) = x(i)。该算法返回

    作者: 小强鼓掌
    835
    1
  • 深度学习之历史小计

    1847)。从 20 世纪 40 年代开始,这些函数近似技术被用于导出诸如感知机的机器学习模型。然而,最早的模型都是基于线性模型。来自包括 Marvin Minsky 的批评指出了线性模型族的几个缺陷,例如它无法学习 XOR 函数,这导致了对整个神经网络方法的抵制。

    作者: 小强鼓掌
    414
    0
  • 深度学习中的Attention机制

    Attention机制Attention mechanism 在序列学习任务上具有巨大的提升作用,在编码器框架内,通过编码端加入Attention模型,对源数据序列进行数据加权变换,或者在解码端引入Attention模型,对目标数据进行加权变化,可以有效提高序列对序列的自然方式下

    作者: 玉箫然
    1034
    0
  • 深度学习笔记》二

    旨在为机器学习算法提供一个常见的基准测试。 MNIST数据集包含手写数字的图像,它是一个非常流行的数据集,被广泛用于图像识别和深度学习的模型评估。该数据集共有60,000个训练图像和10,000个测试图像,每个图像都是28x28像素的灰度图像。这个数据集已经成为深度学习领域中的一

    作者: 黄生
    发表时间: 2023-08-27 19:55:43
    28
    0
  • 深度学习之虚拟对抗

    性而无法抵抗对抗样本。神经网络能够将函数从接近线性转化为局部近似恒定,从而可以灵活地捕获到训练数据中的线性趋势同时学习抵抗局部扰动。对抗样本也提供了一种实现半监督学习的方法。在与数据集中的标签不相关联的点 x 处,模型本身为其分配一些标签 yˆ。模型的标记 yˆ 未必是真正的标签,但如果模型是高品质的,那么

    作者: 小强鼓掌
    677
    1
  • 深度学习的现实应用

    Transformers)模型,采用迁移学习和微调的方法,进一步刷新了深度学习方法在自然语言处理任务上的技术前沿。到目前为止,面向自然语言处理任务的深度学习架构仍在不断进化,与强化学习、无监督学习等的结合应该会带来效果更优的模型。 1.3.4 其他领域深度学习在其他领域(如生物学、医疗和金

    作者: HWCloudAI
    发表时间: 2020-12-15 07:22:32
    2400
    0
  • 深度学习之正切传播

    为唯一输出)。与切面距离算法一样,我们根据切向量推导先验,通常从变换(如平移、旋转和缩放图像)的效果获得形式知识。正切传播不仅用于监督学习(Simard et al., 1992),还在强化学习(Thrun, 1995)中有所应用。正切传播与数据集增强密切相关。在这两种情况下,该算法的用户通过指定一组不

    作者: 小强鼓掌
    660
    1
  • Ubuntu深度学习环境配置

    Ubuntu深度学习环境配置安装组合:Anaconda+PyTorch(CPU版)或PyTorch(GPU版)开源贡献:陈信达,华北电力大学3.1 Anacond安装Anaconda和Python版本是对应的,所以需要选择安装对应Python2.7版本的还是Python3.7版本

    作者: @Wu
    663
    0
  • 深度学习之权重比例

    权重比例推断规则在其他设定下也是精确的,包括条件正态输出的回归网络以及那些隐藏层不包含非线性的深度网络。然而,权重比例推断规则对具有非线性的深度模型仅仅是一个近似。虽然这个近似尚未有理论上的分析,但在实践中往往效果很好。Goodfellow et al. (2013b) 实验发现

    作者: 小强鼓掌
    958
    5