已找到以下 10000 条记录
  • 《深入理解AutoML和AutoDL:构建自动化机器学习深度学习平台》

    分(第14章)是关于元学习的内容,我们认为元学习应该是独立于统计机器学习深度学习的一个研究领域,因为元学习跳出了学习“结果”的这种思想,学习的是“学习过程”,这也是自动化人工智能的理想目标。因此,我们将元学习单独作为一个部分,作为全书内容的升华,读者可以本书的引导下展开更深入

    作者: 华章计算机
    发表时间: 2019-11-15 14:57:13
    15002
    0
  • 基于深度学习的AI

    基于深度学习的AI分析是指使用深度神经网络等深度学习模型来进行数据分析和处理的技术。深度学习模型可以通过自动学习输入数据的特征和规律,从而实现对数据的高级分析和预测。以下是一些基于深度学习的AI分析技术: 图像分类:图像分类是指将输入图像分为不同的类别。基于深度学习的图像分类技术

    作者: 8181暴风雪
    发表时间: 2024-11-30 14:40:52
    91
    0
  • 深度学习笔记》的笔记(五):解决退化问题

    退化问题不解决,深度学习就无法Go Deeper。于是残差网络ResNet提出来了。要理解残差网络,就要理解残差块(Residual Block)这个结构,因为残差块是残差网络的基本组成部分。之前的各种卷积网络结构(LeNet5、AlexNet、VGG),通常结构就是卷积池化再卷

    作者: 黄生
    40
    3
  • 12本深度学习书籍推荐:有入门,有深度

    本书带你一步一步地了解神经网络和深度学习的基础知识,特别适合那些希望了解深度学习主题但又不想陷入数学细节的读者。因此简要地介绍机器学习之后,你将了解有监督学习和无监督学习,然后深入研究神经元、激活函数和不同类型的网络结构。最后,你将学习深度学习的工作原理,主要类型的神经网络(

    作者: 开发者学堂小助
    发表时间: 2018-04-09 09:59:59
    14046
    0
  • 《Keras深度学习实战》

    这一高度模块化、极简式的深度学习框架的安装、配置和编译等平台搭建知识,而后详细介绍了深度学习所要求的数据预处理等基本内容,在此基础上介绍了卷积神经网络、生成式对抗网络、递归神经网络这三种深度学习方法并给出了相关实例代码,最后本书介绍了自然语言处理、强化学习两方面的内容。本书是一本

    作者: 华章计算机
    发表时间: 2019-06-13 17:31:00
    5986
    0
  • 学习笔记 - 深度学习理论最新进展研究

    下:深度学习通常被描述为一个实验驱动的领域,并且不断被指责缺乏相应的理论基础。这个问题已被目前大量尚未整理好的文献部分地解决。本文回顾和整理了深度学习理论的最新进展。这些理论文献被分为六类:(1)分析深度学习泛化的复杂性和能力的方法;(2)用于建模随机梯度下降及其变量的随机微分方

    作者: RabbitCloud
    959
    3
  • 深度学习算法详细介绍

    RNN)等等,它们分别用于计算机视觉和自然语言处理等特定领域的问题。最后我们了解强化学习,它适用于序贯决策问题(涉及一系列有序的决策问题)。学习完各个算法的原理之后,我们可以进行简单的代码实现。 基本介绍 何为深度学习 从定义上说,深度学习是一种机器学习方法,它通过模拟人类大脑的工作原理来处理和分析大量数

    作者: yd_255338811
    发表时间: 2024-05-06 19:41:33
    16
    0
  • 深度学习笔记之KL散度

    最小化 KL 散度其实就是最小化分布之间的交叉熵。许多作者使用术语 ‘‘交叉熵’’ 特定表示伯努利或 softmax 分布的负对数似然,但那是用词不当的。任何一个由负对数似然组成的损失都是定义训练集上的经验分布和定义模型上的概率分布之间的交叉熵。例如,均方误差是经验分布和高

    作者: 小强鼓掌
    1206
    1
  • 深度学习中batch_size设置

    合理的范围,增大batch_size有何好处batch神经网络本来是作为计算加速的,通过把数据进行统一大小,然后批量进入神经网络模型,以此到达加速的效果。那么batch可以无限增大吗?答案是否定的,小编也搜过这样的答案,不妨看一下知乎的大牛:怎么选取合适的batch大小。以我的浅见:第一、

    作者: yyy7124
    839
    4
  • 深度学习最大值池化

    最大值池化最大值池化是最常见、也是用的最多的池化操作。最大值池化的核心代码可以描述为:// 摘选自caffe并稍加修改.top_data = -FLT_MAX; for (int h = hstart; h < hend; ++h) { for (int w = wstart;

    作者: 我的老天鹅
    927
    6
  • 深度学习最大值池化

    最大值池化最大值池化是最常见、也是用的最多的池化操作。最大值池化的核心代码可以描述为:// 摘选自caffe并稍加修改.top_data = -FLT_MAX; for (int h = hstart; h < hend; ++h) { for (int w = wstart;

    作者: 我的老天鹅
    635
    14
  • 深度学习之不等式约束

    收敛时找到的点仍然是一个驻点。因为一个不活跃的约束h(i) 必有负值,因此,我们可以观察到该解中 ⊙ h(x) = 0。换句话说,对于所有的i, i  0 或h(j)(x)  0 收敛时必有一个是活跃的。为了获得关于这个想法的一些直观解释,我们可以说这个解是由不等式强加

    作者: 小强鼓掌
    859
    0
  • 分享基于立体视觉深度估计的深度学习技术研究

    GR推荐原因这是第一篇关于基于深度学习的立体匹配任务的综述文章,以往关于立体匹配的综述文章多基于传统方法,或者年代已久。这篇综述文章主要总结了过去6年发表主要会议和期刊上的150多篇深度立体匹配论文,可以称得上方法最新,分类最全,概括最广。论文中,作者首先介绍了深度立体匹配网络的常用架

    作者: 初学者7000
    580
    2
  • 为什么说深度学习加强化学习就等于AI呢?

    为什么说深度学习+强化学习=AI?这个如何理解

    作者: 建赟
    637
    1
  • PyTorch深度学习领域框架

    PyTorch是深度学习领域中一个非常流行的框架,它提供了丰富的高级知识点和工具来帮助深度学习开发人员项目中快速迭代、优化和调试。本文中,我们将讨论PyTorch项目实战中的一些高级知识点。 自定义数据集 PyTorch提供了许多内置的数据集(比如MNIST、CIFAR-10

    作者: 赵KK日常技术记录
    发表时间: 2023-06-24 17:14:15
    4
    0
  • 从AI大模型的角度来看深度学习

    优化算法的进步:优化算法的发展使得训练深度神经网络变得更加高效和稳定,如随机梯度下降、自适应学习率算法等。 硬件和软件基础设施的改进:新一代的GPU、TPU等硬件加速器以及深度学习框架的不断优化,使得训练和部署深度学习模型变得更加高效和便捷。 总的来说,深度学习作为AI大模型的核心技术之一

    作者: 运气男孩
    28
    1
  • [深度学习]CNN网络架构

    系列内容深度学习CNN 文章目录 CNN网络架构图展示的卷积神经网络:卷积神经网络的层结构和全连接神经网络的层结构不同:卷积计算池化全连接 CNN网络架构 一个卷积神经网络由若干卷积层、Pooling层、全连接层组成。你可以构建各种不同的卷积神经网络,它的常用架构模式

    作者: 内核笔记
    发表时间: 2021-06-08 16:47:35
    1413
    0
  • Standard自动学习 - AI开发平台ModelArts

    提供“自动学习白盒化”能力,开放模型参数、自动生成模型,实现模板化开发,提高开发效率 采用自动深度学习技术,通过迁移学习(只通过少量数据生成高质量的模型),多维度下的模型架构自动设计(神经网络搜索和自适应模型调优),和更快、更准的训练参数自动调优自动训练 采用自动机器学习技术,基于

  • 【小白学深度学习】FCN的学习

    map。因为FCN网络中所有的层都是卷积层,故称为全卷积网络。第一个图是原图第二个图识别出人第三个图识别人的基础上,分别出人是谁。FCN的网络结构:网络结构详细图:FCN与CNN的区别:CNN网络:卷积层之后会接上若干个全连接层, 将卷积层产生的特征图(feature map)映射成一个

    作者: 韬光养晦
    发表时间: 2020-07-17 10:59:46
    8699
    0
  • 深度学习:主流框架和编程实战》——1.2 统计学与深度学习

    1 统计学与深度学习的关系深度学习作为机器学习中重要的分支,因此与统计学同样具有密不可分的关系。通常可以将统计学分为两大类,分别为用于组织、累加和描述数据中信息的描述统计学和使用抽样数据来推断总体的推断统计学。深度学习则是通过大量的样本数据学习——总体规则的方法,可见深度学习是统计学

    作者: 华章计算机
    发表时间: 2019-06-04 19:06:14
    3592
    0