已找到以下 10000 条记录
  • 深度学习之贝叶斯统计

          频率派的视角是真实参数 θ 是未知的值,而点估计θˆ 是考虑数据集上函数(可以看作是随机的)的随机变量。        贝叶斯统计的视角完全不同。贝叶斯用概率反映知识状态的确定性程度。数据集能够直接观测到,因此不是随机的。另一方面,真实参数 θ 是未知或不确定的,因此可以表示成随机变量。 

    作者: 小强鼓掌
    720
    4
  • 深度学习入门》笔记 - 18

    较复杂的关系。深度学习是拥有多个隐藏层的神经网络,在神经网络中,我们通过正向传播算法得到预测值,并通过反向传播算法得到参数梯度,然后利用梯度下降法更新参数,使得模型误差变小,最终得到一个训练好的神经网络模型。在神经网络中,只要知道神经网络的结构,就可以自动的计算参数梯度,进而训练

    作者: 黄生
    23
    1
  • PyTorch深度学习实战 | 深度学习框架(PyTorch)

    640.png 1、PyTorch简介 2017年1月,Facebook人工智能研究院(FAIR)团队在GitHub上开源了PyTorch,并迅速占领GitHub热度榜榜首。 作为具有先进设计理念的框架,PyTorch的历史可追溯到Torch。Torch于2002年诞生于纽约大学

    作者: TiAmoZhang
    发表时间: 2023-03-16 07:53:51
    749
    0
  • 部署深度学习模型

    虽然modelarts能够帮助我们在线上完成深度学习的模型,但是训练好的深度学习模型是怎么部署的

    作者: 初学者7000
    877
    3
  • 深度学习深陷困境!

    年多伦多举行的一场人工智能会议上,深度学习“教父” Geoffrey Hinton 曾说过,“如果你是一名放射科医生,那么你的处境就像一只已身在悬崖边缘却毫不自知的郊狼。”他认为,深度学习非常适合读取核磁共振(MRIs)和 CT 扫描图像,因此我们应该“停止培训放射科医生”,而且在五年内,深度学习会有更大的进步。然而,时间快进到

    作者: 星恒
    250
    3
  • 深度学习之半监督学习

    深度学习的背景下,半监督学习通常指的是学习一个表示 h = f(x)。学习表示的目的是使相同类中的样本有类似的表示。无监督学习可以为如何在表示空间聚集样本提供有用线索。在输入空间紧密聚集的样本应该被映射到类似的表示。在许多情况下,新空间上的线性分类器可以达到较好的泛化 (Belkin

    作者: 小强鼓掌
    749
    10
  • 深度学习之Dropout启发

    进行预测,实现了一种参数共享的Bagging形式。早些时候,我们将Dropout描述为通过包括或排除单元形成模型集成的Bagging。然而,这种参数共享策略不一定要基于包括和排除。原则上,任何一种随机的修改都是可接受的。在实践中,我们必须选择让神经网络能够学习对抗的修改类型。在理

    作者: 小强鼓掌
    831
    3
  • 深度残差收缩网络:一种深度学习的故障诊断算法

    别性强的特征集,是基于机器学习的故障诊断中一个长期挑战。1598845260401021874.png【翻译】近年来,深度学习方法,即有多个非线性映射层的机器学习方法,成为了基于振动信号进行故障诊断的有力工具。深度学习方法能够自动地从原始振动数据中学习特征,以取代传统的统计特征,

    作者: hw9826
    发表时间: 2020-08-31 11:54:08
    4310
    0
  • 深度学习之过拟合

    化算法是基于梯度下降的,但是很多有用的损失函数,如 0 − 1 损失,没有有效的导数(导数要么为零,要么处处未定义)。这两个问题说明,在深度学习中我们很少使用经验风险最小化。反之,我们会使用一个稍有不同的方法,我们真正优化的目标会更加不同于我们希望优化的目标。

    作者: 小强鼓掌
    335
    1
  • 参数共享

    mindspore上有没有像tensorflow一样tf.variable_scope实现参数共享的功能呀

    作者: zerobug
    3451
    1
  • 获取参数

    插件cpp文件中如何获取层中定义的repeated参数,如下图中的pad以下方式错误,请问需要如何修改。

    作者: lhmin
    1564
    1
  • 深度学习之验证集

    试集可以用来估计学习过程完成之后的学习器的泛化误差。其重点在于测试样本不能以任何形式参与到模型的选择,包括设定超参数。基于这个原因,测试集中的样本不能用于验证集。因此,我们总是从训练数据中构建验证集。特别地,我们将训练数据分成两个不相交的子集。其中一个用于学习参数。另一个作为验证

    作者: 小强鼓掌
    730
    1
  • 深度学习模型结构

    目标等),再到更高层的目标、目标的行为等,即底层特征组合成了高层特征,由低到高的特征表示越来越抽象。深度学习借鉴的这个过程就是建模的过程。 深度神经网络可以分为3类:1.前馈深度网络(feed-forwarddeep networks, FFDN),由多个编码器层叠加而成,如多层感知机(multi-layer

    作者: 运气男孩
    1146
    2
  • 深度学习训练过程

    自下上升的非监督学习就是从底层开始,一层一层地往顶层训练。采用无标定数据(有标定数据也可)分层训练各层参数,这一步可以看作是一个无监督训练过程,这也是和传统神经网络区别最大的部分,可以看作是特征学习过程。具体的,先用无标定数据训练第一层,训练时先学习第一层的参数,这层可以看作是得

    作者: QGS
    539
    1
  • 深度学习之长期依赖

    问题——由于变深的结构使模型丧失了学习到先前信息的能力,让优化变得极其困难。深层的计算图不仅存在于前馈网络,还存在于之后介绍的循环网络中(在第十章中描述)。因为循环网络要在很长时间序列的各个时刻重复应用相同操作来构建非常深的计算图,并且模型参数共享,这使问题更加凸显。例如,假设某个计算图中包含一条反复与矩阵

    作者: 小强鼓掌
    317
    2
  • 深度学习之Dropout启发

    进行预测,实现了一种参数共享的Bagging形式。早些时候,我们将Dropout描述为通过包括或排除单元形成模型集成的Bagging。然而,这种参数共享策略不一定要基于包括和排除。原则上,任何一种随机的修改都是可接受的。在实践中,我们必须选择让神经网络能够学习对抗的修改类型。在理

    作者: 小强鼓掌
    546
    1
  • tensorflow 1.0 学习参数和特征的提取

    tensorflow 1.0 学习参数和特征的提取 在tf中,参与训练的参数可用 tf.trainable_variables()提取出来,如: #取出所有参与训练的参数 params=tf.trainable_variables() print("Trainable

    作者: 风吹稻花香
    发表时间: 2021-06-04 16:32:58
    1336
    0
  • 浅谈深度学习模型压缩

       剪枝 Pruning,去掉模型中作用比较小的连接    参数共享,共享网络中部分参数,降低模型参数数量    teacher-student模型    teacher-student模型是迁移学习的一种,迁移学习也就是将一个模型的性能迁移到另一个模型上,对于教师网络往往是一

    作者: QGS
    37
    1
  • 深度学习识别滑动验证码

    本节我们就来了解下使用深度学习识别滑动验证码的方法。 1. 准备工作 我们这次主要侧重于完成利用深度学习模型来识别验证码缺口的过程,所以不会侧重于讲解深度学习模型的算法,另外由于整个模型实现较为复杂

    作者: 崔庆才丨静觅
    发表时间: 2021-12-31 16:52:28
    945
    0
  • 讲解nginx.pid" failed (2: The system cannot find the file specifie

    Nginx配置文件错误 检查Nginx配置文件中的"pid"指令是否正确设置。在配置文件(通常是nginx.conf)中,你应该找到以下行: plaintextCopy code pid /path/to/nginx.pid; 确保"/path/to/nginx.pid"是正确的路径。如果该路径错误或

    作者: 皮牙子抓饭
    发表时间: 2023-12-18 09:25:54
    9
    0