内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习之学习算法

    衡量的性能有所提升。” 经验 E,任务 T 性能度量 P 定义范围非常宽广,在本书中我们并不会去试图解释这些定义具体意义。相反,我们会在接下来章节中提供直观解释示例来介绍不同任务、性能度量经验,这些将被用来构建机器学习算法。

    作者: 小强鼓掌
    737
    1
  • 深度学习已经取得进展

    历史上非常困难领域:接近人类水平图像分类接近人类水平语音识别接近人类水平手写文字转录更好机器翻译更好文本到语音转换数字助理接近人类水平自动驾驶更好广告定向投放更好网络搜索结果能够回答用自然语言提出问题在围棋上战胜人类我们仍然在探索深度学习能力边界。我们已经开

    作者: ypr189
    827
    1
  • 深度学习中Normalization模型

    很快被作为深度学习标准工具应用在了各种场合。BN**虽然好,但是也存在一些局限问题,诸如当BatchSize太小时效果不佳、对RNN等**络无法有效应用BN等。针对BN问题,最近两年又陆续有基于BN思想很多改进Normalization模型被提出。BN是深度学习进展中里

    作者: 可爱又积极
    841
    3
  • 深度学习】嘿马深度学习笔记第1篇:深度学习基本概要【附代码文档】

    数据量 机器学习需要执行时间远少于深度学习,深度学习参数往往很庞大,需要通过大量数据多次优化来训练参数。 第一、它们需要大量训练数据集 第二、是训练深度神经网络需要大量算力 可能要花费数天、甚至数周时间,才能使用数百万张图像数据集训练出一个深度网络。所以以后 需要强大对的GPU服务器来进行计算

    作者: 程序员一诺python
    发表时间: 2024-08-16 17:03:45
    22
    0
  • 深度学习之维数灾难

    处单位体积内训练样本数目除以训练样本总数。如果我们希望对一个样本进行分类,我们可以返回相同网格中训练样本最多类别。如果我们是做回归分析,我们可以平均该网格中样本对应目标值。但是,如果该网格中没有样本,该怎么办呢?因为在高维空间中参数配置数目远大于样本数目,大部分配置没有相关样本。我

    作者: 小强鼓掌
    747
    1
  • 深度学习:主流框架编程实战》——2TensorFlow深度学习框

    第2章TensorFlow深度学习框架构建方法与图像分类实现Google公司不仅是大数据云计算领导者,在机器学习深度学习领域也有很好实践积累,其内部使用深度学习框架TensorFlow使深度学习爱好者学习门槛越来越低。TensorFlow作为一个用于机器智能开源软件库,是目

    作者: 华章计算机
    发表时间: 2019-06-04 19:35:14
    6226
    0
  • 【MindSpore易点通】深度学习系列:深度神经网络

    求极小值过程就是反向传播算法。在进行DNN反向传播算法前,需要选择一个损失函数,来度量训练样本计算出输出真实训练样本输出之间损失。这里选用最常见均方差来度量损失。即对于每个样本,期望最小化:y均为向量,而为SL2范数。那么便可以用梯度下降法迭代求解每一层W,b啦

    作者: Skytier
    6695
    2
  • 矩阵向量相乘“深度学习”笔记

    矩阵向量相乘矩阵乘法是矩阵运算中最重要操作之一。两个矩阵AB矩阵相乘是第三个矩阵C。为了使乘法可被定义,矩阵A列数必须矩阵B行数相等。如果矩阵A形状是m x n,矩阵B形状是n x p,那么矩阵C形状是m x p。我们可以通过将两个或多个矩阵并列放置以书写矩阵乘法,列如

    作者: QGS
    731
    2
  • 深度学习之上溢下溢

    (underflow)。当接近零数被四舍五入为零时发生下溢。许多函数在其参数为零而不是一个很小正数时才会表现出质不同。例如,我们通常要避免被零除(一些软件环境将在这种情况下抛出异常,有些会返回一个非数字 (not-a-number) 占位符)或避免取零对数(这通常被视为 −∞,进一步算术运算

    作者: 小强鼓掌
    1053
    4
  • 深度学习之悬崖梯度爆炸

    多层神经网络通常存在像悬崖一样斜率较大区域,如图8.3所示。这是由于几个较大权重相乘导致。遇到斜率极大悬崖结构时,梯度更新会很大程度地改变参数值,通常会完全跳过这类悬崖结构。不管我们是从上还是从下接近悬崖,情况都很糟糕,但幸运是我们可以用使用介绍启发式梯度截断(gradient

    作者: 小强鼓掌
    446
    2
  • 深度学习神经网络

    对信息处理是分级。从低级提取边缘特征到形状(或者目标等),再到更高层目标、目标的行为等,即底层特征组合成了高层特征,由低到高特征表示越来越抽象。深度学习借鉴这个过程就是建模过程。 深度神经网络可以分为3类,前馈深度网络(feed-forwarddeep networks

    作者: 运气男孩
    672
    2
  • 深度学习之学习 XOR

    W , c) 计算得到隐藏单元向量 h。这些隐藏单元值随后被用作第二层输入。第二层就是这个网络输出层。输出层仍然只是一个线性回归模型,只不过现在它作用于 h 而不是 x。网络现在包含链接在一起两个函数:h = f(1)(x; W , c) y = f(2)(h; w

    作者: 小强鼓掌
    949
    3
  • 深度学习之Bagging学习

    所有输入隐藏单元不同二值掩码。对于每个单元,掩码是独立采样。掩码值为 1 采样概率(导致包含一个单元)是训练开始前一个固定超参数。它不是模型当前参数值或输入样本函数。通常在每一个小批量训练神经网络中,一个输入单元被包括概率为 0.8,一个隐藏单元被包括概率为 0

    作者: 小强鼓掌
    1254
    2
  • 深度学习历史

    Some sources point out that Frank Rosenblatt developed and explored all of the basic ingredients of the deep learning systems of today

    作者: liupanccsu
    发表时间: 2022-08-04 01:52:38
    166
    0
  • 深度学习基本概念

    learning,DL) 表示学习理想很丰满,但实际中人们发现从数据原始形式直接学得数据表示这件事很难。深度学习是目前最成功表示学习方法,因此,目前国际表示学习大会(ICLR)绝大部分论文都是关于深度学习深度学习是把表示学习任务划分成几个小目标,先从数据原始形式中先学习比较低级表示,再从

    作者: 运气男孩
    973
    4
  • 简述深度学习几种算法

    平滑估计。2、基于实例算法基于实例算法常常用来对决策问题建立模型,这样模型常常先选取一批样本数据,然后根据某些近似性把新数据与样本数据进行比较。通过这种方式来寻找最佳匹配。因此,基于实例算法常常也被称为“赢家通吃”学习或者“基于记忆学习”。常见算法包括 k-Nearest

    作者: 运气男孩
    841
    3
  • 深度学习笔记之应用

    2015)。      这种复杂性日益增加趋势已将其推向逻辑结论,即神经图灵机 (Graves et al., 2014) 引入,它能学习读取存储单元向存储单元写入任意内容。这样神经网络可以从期望行为样本中学习简单程序。例如,从杂乱排好序样本中学习对一系列数进行排序。这种

    作者: 小强鼓掌
    624
    0
  • 深度学习之权重比例

    权重比例推断规则在其他设定下也是精确,包括条件正态输出回归网络以及那些隐藏层不包含非线性深度网络。然而,权重比例推断规则对具有非线性深度模型仅仅是一个近似。虽然这个近似尚未有理论上分析,但在实践中往往效果很好。Goodfellow et al. (2013b) 实验发现

    作者: 小强鼓掌
    952
    2
  • PyTorch深度学习技术生态

    PyTorch将深度学习与3D进行结合研究框架。3D数据比2D图像更为复杂,在处理诸如Mesh R-CNNC3DPO之类项目时,需要用3D数据进行表示,在批处理速度方面的诸多挑战。 PyTorch3D开发出许多用于3D深度学习有用运算符抽象,并希望与社区共享以推动这

    作者: 可爱又积极
    1287
    0
  • ArrayList 深度学习

    取消了循环。注意双向链表和双向循环链表区别,下面有介绍到!) 插入删除是否受元素位置影响: ① ArrayList 采用数组存储,所以插入删除元素时间复杂度受元素位置影响。 比如:执行add(E e)方法时候, ArrayList 会默认在将指定元素追加到此列表末尾,这种情况时间复杂度就是 O(1)。但是如果要在指定位置

    作者: 木字楠
    发表时间: 2022-12-24 09:10:26
    170
    0