内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习之权重比例

    权重比例推断规则在其他设定下也是精确的,包括条件正态输出的回归网络以及那些隐藏层不包含非线性的深度网络。然而,权重比例推断规则对具有非线性的深度模型仅仅是一个近似。虽然这个近似尚未有理论上的分析,但在实践中往往效果很好。Goodfellow et al. (2013b) 实验发现,

    作者: 小强鼓掌
    952
    2
  • 深度学习入门》笔记 - 09

    继续线性回归模型,前面说了如何更新模型参数w,让预测值接近于真实值。现在我们来尝试迭代多次,看看效果。 从w=0开始 ```python #w初始值给0 x,y=0.5,0.8 w=0;lr=0.5 #lr学习率=0.5 pred=x*w loss=((pred-y)**2)/2

    作者: 黄生
    424
    3
  • 深度学习——常用评价指标

    准确率 (Accuracy),混淆矩阵 (Confusion Matrix),精确率(Precision),召回率(Recall),平均正确率(AP),mean Average Precision(mAP),交除并(IoU),ROC + AUC,非极大值抑制(NMS)。1、准确率

    作者: QGS
    784
    3
  • 深度学习】嘿马深度学习笔记第10篇:卷积神经网络,学习目标【附代码文档】

    本教程的知识点为:深度学习介绍 1.1 深度学习与机器学习的区别 TensorFlow介绍 2.4 张量 2.4.1 张量(Tensor) 2.4.1.1 张量的类型 TensorFlow介绍 1.2 神经网络基础 1.2.1 Logistic回归 1.2.1.1 Logistic

    作者: 程序员一诺python
    发表时间: 2024-12-24 18:31:39
    0
    0
  • 什么是AI、机器学习与深度学习

    而GPU的出现让人看到了曙光,也造就了深度学习的蓬勃发展,“深度学习”才一下子火热起来。击败李世石的Alpha go即是深度学习的一个很好的示例。

    作者: Amber
    发表时间: 2019-01-21 10:50:40
    5904
    0
  • 深度学习】嘿马深度学习笔记第8篇:卷积神经网络,学习目标【附代码文档】

    本教程的知识点为:深度学习介绍 1.1 深度学习与机器学习的区别 TensorFlow介绍 2.4 张量 2.4.1 张量(Tensor) 2.4.1.1 张量的类型 TensorFlow介绍 1.2 神经网络基础 1.2.1 Logistic

    作者: 程序员一诺python
    发表时间: 2024-09-08 21:34:37
    328
    0
  • 《智能系统与技术丛书 深度学习实践:基于Caffe的解析》—1.3深度学习的未来趋势

    1.3 深度学习的未来趋势 在健康医疗领域,人工智能可用于查看医学影像数据等。典型的企业有大数医达和康夫子等,它们就是专注于医疗健康类的专用虚拟助理研发企业。

    作者: 华章计算机
    发表时间: 2019-05-31 19:51:57
    17926
    0
  • 分享深度学习笔记组件学习

    人们相信,通过独特的信息组合或输入(包括静态和动态),深度学习可以比单一模式更深入地理解和表现。迁移学习是组件学习的一个非常明显的例子。基于这一思想,对类似问题预先训练的模型权重可用于对特定问题进行微调。

    作者: 初学者7000
    628
    1
  • 故障诊断为什么要用深度学习

    深度学习提供了一种思路。顺便推荐一种专门针对强噪声情况下故障诊断的深度学习方法——深度残差收缩网络。深度残差收缩网络在其内部采用了软阈值函数,类似于小波阈值降噪,在深度学习模型的内部,自动消除噪声信息,从而获得更准确的故障特征。1598844786788007006.jpgM.

    作者: hw9826
    发表时间: 2020-08-31 11:34:30
    3488
    0
  • 深度学习算法:从基础到实践

    简介 深度学习作为人工智能领域的一个重要分支,近年来在多个领域取得了显著的成就。本文将从基础概念出发,探讨深度学习算法的核心原理,并介绍一些实际应用案例。 深度学习算法的核心概念 深度学习算法基于人工神经网络,通过构建深层的网络结构来学习数据的复杂表示。

    作者: 是Dream呀
    发表时间: 2024-12-21 13:23:31
    0
    0
  • 针对深度学习框架版本的讨论

    目录 一、前言 二、深度学习版本匹配 三、各种深度学习必要组件的下载地址和截图 一、前言 最近几天,由于需要安装新的深度学习环境,我对当前的版本匹配和安装方式进行了记录。 由于安装环境需要版本匹配,因此在不知道各种环境的匹配情况就下载CUDA等组件会出现浪费时间和流量的行为。

    作者: 悲恋花丶无心之人
    发表时间: 2021-02-02 22:23:46
    2361
    0
  • 深度学习之批量算法

    机器学习算法和一般优化算法不同的一点是,机器学习算法的目标函数通常可以分解为训练样本上的求和。机器学习中的优化算法在计算参数的每一次更新时通常仅使用整个代价函数中一部分项来估计代价函数的期望值。另一个促使我们从小数目样本中获得梯度的统计估计的动机是训练集的冗余。在最坏的情况下,训练集中所有的

    作者: 小强鼓掌
    972
    3
  • 深度学习之模板匹配

    训练标签 y 相关的训练样本 x 变成了类别 y 的模版。当测试点 x′ 到 x 的欧几里得距离很小时,对应的高斯核很大,表明 x′ 和模版 x 非常相似。该模型进而会赋予相对应的训练标签 y 较大的权重。总的来说,预测将会组合很多这种通过训练样本相似性加权的训练标签。支持向量机不是唯一可以使用核策略来增强的算法

    作者: 小强鼓掌
    550
    1
  • 深度学习之贝叶斯统计

            频率派的视角是真实参数 θ 是未知的定值,而点估计θˆ 是考虑数据集上函数(可以看作是随机的)的随机变量。        贝叶斯统计的视角完全不同。贝叶斯用概率反映知识状态的确定性程度。数据集能够直接观测到,因此不是随机的。另一方面,真实参数 θ 是未知或不确定的,

    作者: 小强鼓掌
    720
    4
  • 深度学习之验证集

    早先我们讨论过和训练数据相同分布的样本组成的测试集可以用来估计学习过程完成之后的学习器的泛化误差。其重点在于测试样本不能以任何形式参与到模型的选择,包括设定超参数。基于这个原因,测试集中的样本不能用于验证集。因此,我们总是从训练数据中构建验证集。特别地,我们将训练数据分成两个不相交的子集

    作者: 小强鼓掌
    730
    1
  • 深度学习之约束优化

    有时候,在 x 的所有可能值下最大化或最小化一个函数 f(x) 不是我们所希望的。相反,我们可能希望在 x 的某些集合 S 中找 f(x) 的最大值或最小值。这被称为约束优化 (constrained optimization)。在约束优化术语中,集合 S 内的点 x 被称为可行

    作者: 小强鼓掌
    834
    5
  • 深度学习之浅层网络

    存在一些函数族能够在网络的深度大于某个值 d 时被高效地近似,而当深度被限制到小于或等于 d 时需要一个远远大于之前的模型。在很多情况下,浅层模型所需的隐藏单元的数量是 n 的指数级。这个结果最初被证明是在那些不与连续可微的神经网络类似的机器学习模型中出现,但现在已经扩展到了这些模型

    作者: 小强鼓掌
    423
    0
  • 深度学习之对抗训练

    在许多情况下,神经网络在独立同分布的测试集上进行评估已经达到了人类表现。因此,我们自然要怀疑这些模型在这些任务上是否获得了真正的人类层次的理解。为了探索网络对底层任务的理解层次,我们可以探索这个模型错误分类的例子。 Szegedy et al. (2014b) 发现,在精度达到人类水平的神经网络上通过优化过程故意构造数据点

    作者: 小强鼓掌
    842
    1
  • 深度学习之正则化

            没有免费午餐定理暗示我们必须在特定任务上设计性能良好的机器学习算法。我们建立一组学习算法的偏好来达到这个要求。当这些偏好和我们希望算法解决的学习问题相吻合时,性能会更好。        至此,我们具体讨论修改学习算法的方法只有,通过增加或减少学习算法可选假设空间的函数来增加或减少模型的容量

    作者: 小强鼓掌
    834
    3
  • 深度学习之代价函数

            深度神经网络设计中的一个重要方面是代价函数的选择。幸运的是,神经网络的代价函数或多或少是和其他的参数模型例如线性模型的代价函数相同的。       在大多数情况下,我们的参数模型定义了一个分布 p(y | x; θ) 并且我们简单地使用最大似然原理。这意味着我们使用训练数据和模型预测间的交叉熵作为代价函数

    作者: 小强鼓掌
    741
    2