内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 浅谈深度学习Backbone

    深度学习中常用的backbone有resnet系列(resnet的各种变体)、NAS网络系列(RegNet)、Mobilenet系列、Darknet系列、HRNet系列、Transformer系列和ConvNeXt。Backbone结构分类主要分成三类:CNNs结构, Trans

    作者: QGS
    82
    2
  • query参数如何传递数组参数

    CSE支持如下几种方式编码的数组格式: // query array   @GetMapping("queryArr")   public String queryArr(@RequestParam("queryArr") String[] queryArr) {     return Arrays

    作者: liubao68
    4609
    0
  • 深度学习之贝叶斯统计

          频率派的视角是真实参数 θ 是未知的值,而点估计θˆ 是考虑数据集上函数(可以看作是随机的)的随机变量。        贝叶斯统计的视角完全不同。贝叶斯用概率反映知识状态的确定性程度。数据集能够直接观测到,因此不是随机的。另一方面,真实参数 θ 是未知或不确定的,因此可以表示成随机变量。 

    作者: 小强鼓掌
    619
    1
  • 深度学习的挑战

    施成本的情况下访问具有深度学习功能的系统。 •数据挑战:深度学习也会受到妨碍其他大数据项目的数据质量和数据治理挑战的阻碍。用不良数据训练深度学习模型会引发创建具有内在偏见和不正确或令人反感的结果的系统的真实可能性。数据科学家需要注意他们用来训练模型的数据一尽可能地准确和公正。

    作者: 建赟
    1653
    2
  • 深度学习初体验

    通过对课程的学习,从对EI的初体验到对深度学习的基本理解,收获了很多,做出如下总结:深度学习是用于建立、模拟人脑进行分析学习的神经网络,并模仿人脑的机制来解释数据的一种机器学习技术。它的基本特点是试图模仿大脑的神经元之间传递,处理信息的模式。最显著的应用是计算机视觉和自然语言处理

    作者: ad123445
    8089
    33
  • 深度学习入门》笔记 - 12

    8/4/1659621510931174824.png) 在梯度下降法中,`学习步长`和`batch size`需要事先给定,而不像`参数w`一样通过最小化损失函数得到,这类参数在机器学习中叫做`超参数`。 接下来是介绍线性分类模型,logistic模型。`回归模型`和`分类模型

    作者: 黄生
    263
    1
  • 深度学习训练过程

    自下上升的非监督学习就是从底层开始,一层一层地往顶层训练。采用无标定数据(有标定数据也可)分层训练各层参数,这一步可以看作是一个无监督训练过程,这也是和传统神经网络区别最大的部分,可以看作是特征学习过程。具体的,先用无标定数据训练第一层,训练时先学习第一层的参数,这层可以看作是得

    作者: QGS
    1054
    3
  • 深度学习在环保

    Anthony 如是说:" 这一领域的开发获得了高速发展。深度学习模型在规模上不断扩大,越来越先进, 目前呈指数级增长。令大多数人意想不到的是:这意味着能源消耗正在随之增加。" 一次深度学习训练 =126 个丹麦家庭的年度能源消耗 深度学习训练是数学模型识别大型数据集中的模式的过程。这是一

    作者: 初学者7000
    839
    2
  • 深度学习应用开发》学习笔记-14

    优化操作。这里为了演示,每轮迭代后绘制出模型曲线(这里有点不清楚的地方,是将样本输入模型?还是训练得到了模型?我觉得是前者,训练得到的只是参数值,模型不是训练出来的)训练代码:for xs,ys in zip(x_data,y_data): //取值组成样本  _,loss=sess

    作者: 黄生
    626
    2
  • 深度学习之提前终止

    象几乎一定会出现。这意味着如果我们返回使验证集误差最低的参数设置,就可以获得更好的模型(因此,有希望获得更好的测试误差)。在每次验证集误差有所改善后,我们存储模型参数的副本。当训练算法终止时,我们返回这些参数而不是最新的参数。当验证集上的误差在事先指定的循环次数内没有进一步改善时

    作者: 小强鼓掌
    325
    0
  • Linux运维必知:如何从其 PID 中查找进程名称

    命令轻松获取其进程 ID (PID): ps -p PID -o comm= 1 ps 命令用于进程相关的操作,在上面的命令中,-p PID提供进程 ID 并-o comm=要求它输出与给定 PID 关联的命令。 这是一个实际的例子: 老实说,很难记住奇怪的ps -p PID -o c

    作者: wljslmz
    发表时间: 2022-07-27 14:35:13
    167
    0
  • 分享深度学习算法

    GR推荐原因这是第一篇关于基于深度学习的立体匹配任务的综述文章,以往关于立体匹配的综述文章多基于传统方法,或者年代已久。这篇综述文章主要总结了过去6年发表在主要会议和期刊上的150多篇深度立体匹配论文,可以称得上方法最新,分类最全,概括最广。在论文中,作者首先介绍了深度立体匹配网络的常用架

    作者: 初学者7000
    953
    3
  • 深度学习之平滑先验

    有多么相似。近年来深度学习的很多推动力源自研究局部模版匹配的局限性,以及深度学习如何克服这些局限性 (Bengio et al., 2006a)。决策树也有平滑学习的局限性,因为它将输入空间分成和叶节点一样多的区间,并在每个区间使用单独的参数(或者有些决策树的拓展有多个参数)。如果目标函数需要至少拥有

    作者: 小强鼓掌
    1195
    1
  • 深度学习发展的学习范式——成分学习

    成分学习    成分学习不仅使用一个模型的知识,而且使用多个模型的知识。人们相信,通过独特的信息组合或投入(包括静态和动态的),深度学习可以比单一的模型在理解和性能上不断深入。    迁移学习是一个非常明显的成分学习的例子, 基于这样的一个想法, 在相似问题上预训练的模型权重可以

    作者: 初学者7000
    716
    5
  • 深度学习之贝叶斯统计

          频率派的视角是真实参数 θ 是未知的值,而点估计θˆ 是考虑数据集上函数(可以看作是随机的)的随机变量。        贝叶斯统计的视角完全不同。贝叶斯用概率反映知识状态的确定性程度。数据集能够直接观测到,因此不是随机的。另一方面,真实参数 θ 是未知或不确定的,因此可以表示成随机变量。 

    作者: 小强鼓掌
    720
    4
  • 深度学习入门》笔记 - 18

    较复杂的关系。深度学习是拥有多个隐藏层的神经网络,在神经网络中,我们通过正向传播算法得到预测值,并通过反向传播算法得到参数梯度,然后利用梯度下降法更新参数,使得模型误差变小,最终得到一个训练好的神经网络模型。在神经网络中,只要知道神经网络的结构,就可以自动的计算参数梯度,进而训练

    作者: 黄生
    23
    1
  • 软件测试|Python函数参数之必传参数、默认参数、可变参数、关键字参数的详细使用

    add 函数有两个参数,第一个参数是 a,第二个参数是 b 传入的两个整数按照位置顺序依次赋给函数的参数 a 和 b,参数 a 和参数 b 被称为位置参数 注:传递的参数个数必须等于参数列表的数量 根据函数定义的参数位置来传递参数,要求传递的参数与函数定义的参数两者一一对应 如果

    作者: Tester_muller
    发表时间: 2023-10-13 17:59:37
    21
    0
  • 深度学习模型结构

    者目标等),再到更高层的目标、目标的行为等,即底层特征组合成了高层特征,由低到高的特征表示越来越抽象。深度学习借鉴的这个过程就是建模的过程。 深度神经网络可以分为3类,前馈深度网络(feed-forwarddeep networks, FFDN),由多个编码器层叠加而成,如多层感知机(multi-layer

    作者: QGS
    646
    2
  • 深度残差收缩网络:一种深度学习的故障诊断算法

    别性强的特征集,是基于机器学习的故障诊断中一个长期挑战。1598845260401021874.png【翻译】近年来,深度学习方法,即有多个非线性映射层的机器学习方法,成为了基于振动信号进行故障诊断的有力工具。深度学习方法能够自动地从原始振动数据中学习特征,以取代传统的统计特征,

    作者: hw9826
    发表时间: 2020-08-31 11:54:08
    4310
    0
  • 深度学习之流形学习

    字“8” 形状的流形在大多数位置只有一维,但在中心的相交处有两维。      如果我们希望机器学习算法学习 Rn 上的所有感兴趣的函数,那么很多机器学习问题看上去都是不可解的。流形学习 (manifold learning) 算法通过一个假设来克服这个障碍,该假设认为 Rn 中大

    作者: 小强鼓掌
    1053
    2