内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 《MXNet深度学习实战》—3.4 本章小结

    rray中对应名称的网络层查看具体的计算过程。Module是MXNet框架中封装了训练模型所需的大部分操作的高级接口,用户可以通过Module模块执行bind操作、参数初始化、优化器初始化、模型的前向计算、损失函数的反向传播、网络参数更新、评价指标计算等,同时,Module模块还

    作者: 华章计算机
    发表时间: 2019-06-16 17:07:13
    2810
    0
  • 《智能系统与技术丛书 深度学习实践:基于Caffe的解析》—3.6使用训练好的模型进行预测

    3.6 使用训练好的模型进行预测 训练好模型之后,我们来做一个预测,首先在Caffe的classfication.cpp的基础上进行一些修改,将模型加载以及均值文件都加入到main函数里面,然后该函数读取一个图片列表,运行程序,即可实现将预测结果既输出到命令行窗口中,又写在图片上

    作者: 华章计算机
    发表时间: 2019-06-02 16:44:42
    3484
    0
  • 深度神经网络--4.1 深度学习系统面临的主要挑战

    灵活性这六个方面来简要说明深度学习系统所面临的挑战。 4.1.1 大数据集需求在深度学习系统中,人们往往需要大型的数据集去训练一个有效的深度学习模型。一般来说,越多的数据就越有可能使深度学习模型变得更强大。例如,在语音识别领域中,为了学习一种语言,模型往往需要大量各种口音、各种时

    作者: HWCloudAI
    发表时间: 2020-12-24 14:47:28
    4180
    0
  • 深度学习之对抗样本

    局部线性行为。这可以被看作是一种明确地向监督神经网络引入局部恒定先验的方法。对抗训练有助于体现积极正则化与大型函数族结合的力量。纯粹的线性模型,如逻辑回归,由于它们被限制为线性而无法抵抗对抗样本。神经网络能够将函数从接近线性转化为局部近似恒定,从而可以灵活地捕获到训练数据中的线性趋势同时学习抵抗局部扰动。

    作者: 小强鼓掌
    631
    3
  • 深度学习之正则化和欠约束问题

    的大小,理论上永远不会停止。在实践中,数值实现的梯度下降最终会达到导致数值溢出的超大权重,此时的行为将取决于程序员如何处理这些不是真正数字的值。大多数形式的正则化能够保证应用于欠定问题的迭代方法收敛。例如,当似然的斜率等于权重衰减的系数时,权重衰减将阻止梯度下降继续增加权重的大小。使用正则化解决

    作者: 小强鼓掌
    429
    1
  • 机器学习--模型评估、过拟合和欠拟合、模型验证

    bsp; 一、模型评估 模型指标 在监督学习中,我们常会使用最小化损失函数来训练模型,所以损失(loss value)是用来衡量模型质量的指标; 模型的质量要由多个指标来衡量 如分类时的 模型精度、目标检测时的mAP、部署到产品时的商业指标(模型对营收的增长、模型反馈的效率(inference

    作者: Lingxw_w
    发表时间: 2023-04-27 12:23:22
    68
    0
  • 深度学习之虚拟对抗样本

    联的点 x 处,模型本身为其分配一些标签 yˆ。模型的标记 yˆ 未必是真正的标签,但如果模型是高品质的,那么 yˆ 提供正确标签的可能性很大。我们可以搜索一个对抗样本 x′,导致分类器输出一个标签 y′ 且 y′ ̸= yˆ。不使用真正的标签,而是由训练好的模型提供标签产生的对

    作者: 小强鼓掌
    730
    3
  • 深度学习入门》笔记 - 27

    下面用之前的广告数据,来建立线性回归模型,看看tensorflow2的一般建模过程。import numpy as np #1. 数据预处理:装载广告数据 def loadDataSet(): x=[];y=[] f=open('./Ad.csv')

    作者: 黄生
    22
    2
  • 模型训练】字体识别数据集在训练时不收敛的问题

    据集的制作和训练,发现训练几轮后,完全没有收敛的迹象。loss值基本不变。【解决过程】因为模型可以正常进行训练,但是loss不收敛,所以对训练的参数进行调整,发现依然没有收敛的迹象。先排除训练脚本的错误。因为使用这个脚本可以正常的产出模型,只是正确率基本为零。推测是数据集制作错误

    作者: zhangxin
    846
    0
  • 深度学习》拟合,欠拟合笔记

    发现对于训练样本可以很好的拟合,但是这样的模型对预测往往效果不是非常好,这叫做过拟合(overfitting)。在这里我们可以发现,原来过拟合和欠拟合和模型复杂度是相关的,具体描述如下图也就是说,在模型相对复杂时,更容易发生过拟合,当模型过于简单时,更容易发生欠拟合。

    作者: 运气男孩
    730
    1
  • 【AI理论】ResNet模型解析

    上的战绩。残差学习人们在探索深度学习网络的过程中,发现了“网络越深,效果越好”这一规律,从Alexnet的7层发展到了VGG的16乃至19层。然而在继续加深网络的时候遇到了问题:网络越深,模型训练难度越大,收敛速度变得很慢;当网络深度达到一定深度的时候,模型的效果很难再提升;甚至在继

    作者: HWCloudAI
    发表时间: 2019-07-30 16:52:06
    4835
    2
  • 深度学习之函数估计

    之间的近似关系。例如,我们可能假设 y = f(x) + ϵ,其中 ϵ 是 y 中未能从 x 预测的一部分。在函数估计中,我们感兴趣的是用模型估计去近似 f,或者估计 fˆ。函数估计和估计参数 θ 是一样的。k-折交叉验证算法。当给定数据集 D 对于简单的训练/测试或训练/验证分

    作者: 小强鼓掌
    836
    1
  • 深度学习之逻辑回归

    1 | x; θ) = σ(θ⊤x).       这个方法被称为逻辑回归 (logistic regression),名字有点奇怪,因为该模型用于分类,而非回归。       线性回归中,我们能够通过求解正规方程以找到最佳权重。相比而言,逻辑回归会更困难些。其最佳权重没有闭解。反

    作者: 小强鼓掌
    732
    3
  • 【问答官】在深度学习模型训练中,界常用的学习率策略有哪几种?

    深度学习模型训练中,界常用的学习率策略有哪几种?

    作者: bjxingch
    626
    1
  • 数学建模学习(47):灰色预测模型案例一(代码模板+模型建立)

    将数据分为训练组和试验组,尝试使用不同的模型对训练组进行建模,并利用试验组的数据判断哪种模型的预测效果最好 选择上一步骤中得到的预测误差最小的那个模型,并利用全部数据来重新建模,并对未来的数据进行预测。(比如我们可以使用SSE这个指标来挑选模型,常见的模型有指数平滑、ARIMA、灰色预测、神经网络等)

    作者: 川川菜鸟
    发表时间: 2022-04-13 19:08:53
    288
    0
  • 深度学习中的池化技术

    池化是一个几乎所有做深度学习的人都了解的一个技术,大家对池化如何进行前向传播也都了解,池化的作用也了解一二。然而,池化如何回传梯度呢,池化回传梯度的原则是什么呢,最大池化与平均池化的区别是什么呢,什么时候选择最大池化、什么时候选择平均池化呢。主要用的池化操作有平均池化、最大池化、

    作者: yyy7124
    935
    2
  • 《MXNet深度学习实战》—1.3 关于MXNet

    io/。官方文档中还提供了预训练模型的下载链接、复现代码的下载链接、各种接口介绍和教学的例子,非常便于读者学习。2018年10月,MXNet推出GluonCV 0.3.0版本,新版本不仅添加了图像分类、目标检测、图像分割等领域新的算法模型,而且对已有的复现模型也做了优化,使得算法模型在效果上有了进

    作者: 华章计算机
    发表时间: 2019-06-16 16:31:19
    3688
    0
  • 资产模型

    资产模型

  • 深度学习之TensorFlow入门、原理与进阶实战》—1.4 其他深度学习框架特点及介绍

    Hadoop和Spark系统之上的深度学习软件。* Caffe:当年深度学习的老大。最初是一个强大的图像分类框架,是最容易测试评估性能的标准深度学习框架,并且提供很多预训练模型,尤其该模型的复用价值在其他框架的学习中都会出现,大大提升了现有模型的训练时间。但是现在的Caffe似乎

    作者: 华章计算机
    发表时间: 2019-05-30 23:09:50
    5542
    0
  • 深度学习之高威随机函数

    仍然有助于分析非线性神经网络模型,因为它们的损失函数是关于参数的非凸函数。这类网络本质上是多个矩阵组合在一起。Saxe et al. (2013) 精确解析了这类网络中完整的学习动态,表明这些模型的学习能够捕捉到许多在训练具有非线性激活函数的深度模型时观察到的定性特征。Dauphin

    作者: 小强鼓掌
    521
    2