内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 【开源模型学习】AlexNet深度学习模型总结

    第8层:FC-SoftmaxCaffe AlexNet实现模型结构如下:模型创新点:1. 使用新的激活函数Relu在Relu被使用之前,广泛使用的激活函数是tanh,sigmodtanh:sigmod:(为什么要使用Relu)tanh sigmod这两个激活函数的问题:存在梯度弥散,模型收敛较慢的问题,且无法表征非

    作者: 小二中二大二
    1653
    0
  • 深度学习模型编译技术

    前言 深度学习模型的开发周期,包括训练阶段和部署阶段。训练阶段,用户需要收集训练数据,定义自己的模型结构,在CPU或者GPU硬件上进行训练,这个过程反复优化,直到训练出满意精度的模型。有了模型之后,我们需要将模型服务部署运行,我们期望服务延迟越低越好,吞吐越高越好。这里会从编译优

    作者: ross.xw
    发表时间: 2022-05-06 03:19:25
    1373
    0
  • 部署深度学习模型

    虽然modelarts能够帮助我们在线上完成深度学习模型,但是训练好的深度学习模型是怎么部署的

    作者: 初学者7000
    870
    3
  • 深度学习模型结构

    者目标等),再到更高层的目标、目标的行为等,即底层特征组合成了高层特征,由低到高的特征表示越来越抽象。深度学习借鉴的这个过程就是建模的过程。 深度神经网络可以分为3类,前馈深度网络(feed-forwarddeep networks, FFDN),由多个编码器层叠加而成,如多层感知机(multi-layer

    作者: QGS
    644
    2
  • 深度学习模型训练流程思考

    代码实现6,7,8中的设计 使用超参优化工具(NNI)寻找最优超参组合 模型初步训练 改进:根据初步训练的效果指标判断是数据集问题还是模型结构或深度问题 数据集问题,想办法进一步清洗补充数据集 模型结构问题,尝试更换或者NNI搜索更优模型模型深度问题,尝试增加backbone的卷积通道层数或者复制增加layers

    作者: lutianfei
    发表时间: 2021-05-31 12:10:43
    1544
    0
  • 深度学习-通用模型调试技巧

    确率上限是多少,以此判断模型的准确率还差多远。2、训练时每隔一定步数记录一次训练集错误率和验证集错误率,一直训练,直到在训练集上的错误率不再下降,停止训练;3、计算贝叶斯错误率与训练错误率之差,该差值称为模型偏差,计算训练错误率与验证错误率之差,该差值称为模型方差,将训练时记录的

    作者: 山海之光
    发表时间: 2019-08-08 21:26:02
    11278
    1
  • 深度学习模型结构

    目标等),再到更高层的目标、目标的行为等,即底层特征组合成了高层特征,由低到高的特征表示越来越抽象。深度学习借鉴的这个过程就是建模的过程。 深度神经网络可以分为3类:1.前馈深度网络(feed-forwarddeep networks, FFDN),由多个编码器层叠加而成,如多层感知机(multi-layer

    作者: 运气男孩
    1145
    2
  • 深度学习LSTM模型

    长短期记忆(Long short-term memory, LSTM)是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。简单来说,就是相比普通的RNN,LSTM能够在更长的序列中有更好的表现。

    作者: 我的老天鹅
    1890
    10
  • 使用Python实现深度学习模型:元学习模型无关优化(MAML)

    总结 本文详细介绍了如何使用Python实现深度学习模型中的元学习模型无关优化(MAML)。通过本文的教程,希望你能够理解MAML的基本原理,并能够将其应用到实际的深度学习任务中。随着对元学习的深入理解,你可以尝试优化更多复杂的模型,探索更高效的元学习算法,以解决更具挑战性的任务。

    作者: Echo_Wish
    发表时间: 2024-06-30 14:05:23
    3
    0
  • 浅谈深度学习模型压缩

    常见的模型压缩方法有以下几种:    模型蒸馏 Distillation,使用大模型的学到的知识训练小模型,从而让小模型具有大模型的泛化能力    量化 Quantization,降低大模型的精度,减小模型    剪枝 Pruning,去掉模型中作用比较小的连接    参数共享,

    作者: QGS
    34
    1
  • 深度学习模型介绍

    深度神经网络:深度学习模型有很多,目前开发者最常用的深度学习模型与架构包括卷积神经网络 (CNN)、深度置信网络 (DBN)、受限玻尔兹曼机 (RBM)、递归神经网络 (RNN & LSTM & GRU)、递归张量神经网络 (RNTN)、自动编码器 (AutoEncoder)、生成对抗网络

    作者: 极客潇
    1759
    2
  • 深度学习模型平均

    aggregating)是通过结合几个模型降低泛化误差的技术(Breiman, 1994)。主要想法是分别训练几个不同的模型,然后让所有模型表决测试样例的输出。这是机器学习中常规策略的一个例子,被称为模型平均(model averaging)。采用这种策略的技术被称为集成方法。模型平均(model

    作者: 小强鼓掌
    734
    2
  • 深度学习典型模型

    型的深度学习模型有卷积神经网络( convolutional neural network)、DBN和堆栈自编码网络(stacked auto-encoder network)模型等,下面对这些模型进行描述。 卷积神经网络模型 在无监督预训练出现之前,训练深度神经网络通常非常困难

    作者: 某地瓜
    1672
    1
  • 深度学习模型轻量化

    移动端模型必须满足模型尺寸小、计算复杂度低、电池耗电量低、下发更新部署灵活等条件。模型压缩和加速是两个不同的话题,有时候压缩并不一定能带来加速的效果,有时候又是相辅相成的。压缩重点在于减少网络参数量,加速则侧重在降低计算复杂度、提升并行能力等。模型压缩和加速可以从多个角度来优化。总体来看,个人认为主要分为三个层次:1

    作者: 可爱又积极
    1257
    4
  • 使用Python实现深度学习模型:迁移学习与预训练模型

    迁移学习是一种将已经在一个任务上训练好的模型应用到另一个相关任务上的方法。通过使用预训练模型,迁移学习可以显著减少训练时间并提高模型性能。在本文中,我们将详细介绍如何使用Python和PyTorch进行迁移学习,并展示其在图像分类任务中的应用。 什么是迁移学习? 迁移学习的基本

    作者: Echo_Wish
    发表时间: 2024-05-21 12:46:22
    15
    0
  • 利用深度学习建立流失模型

    quential)模型。序贯模型是多个网络层的线性堆叠,也就是“一条路走到黑”。可以通过向Sequential模型传递一个layer的list来构造该模型,也可以通过.add()方法一个个的将layer加入模型中。本文采用.add()方法将2层神经网络输入模型中。优化器的选择是S

    作者: 格图洛书
    发表时间: 2021-12-29 18:27:03
    571
    0
  • 深度学习深度模型中的优化

    深度学习算法在许多情况下都涉及到优化。例如,模型中的进行推断(如 PCA)涉及到求解优化问题。我们经常使用解析优化去证明或设计算法。在深度学习涉及到的诸多优化问题中,最难的是神经网络训练。甚至是用几百台机器投入几天到几个月来解决单个神经网络训练问题,也是很常见的。因为这其中的优化

    作者: 小强鼓掌
    337
    1
  • 深度学习应用篇-元学习[14]:基于优化的元学习-MAML模型、LEO模型、Reptile模型

    深度学习应用篇-元学习[14]:基于优化的元学习-MAML模型、LEO模型、Reptile模型 1.Model-Agnostic Meta-Learning Model-Agnostic Meta-Learning (MAML): 与模型无关的元学习,可兼容于任何一种采用梯度下降算法的模型。

    作者: 汀丶
    发表时间: 2023-06-14 10:35:12
    27
    0
  • 使用Python实现深度学习模型模型安全与防御

    引言 随着深度学习模型在各个领域的广泛应用,模型的安全性和防御能力变得尤为重要。攻击者可能会利用模型的漏洞进行对抗性攻击,导致模型输出错误的结果。本文将介绍如何使用Python实现深度学习模型的安全与防御,并提供详细的代码示例。 所需工具 Python 3.x TensorFlow

    作者: Echo_Wish
    发表时间: 2024-07-12 08:21:37
    92
    0
  • 深度学习中的Normalization模型

    很快被作为深度学习的标准工具应用在了各种场合。BN**虽然好,但是也存在一些局限和问题,诸如当BatchSize太小时效果不佳、对RNN等**络无法有效应用BN等。针对BN的问题,最近两年又陆续有基于BN思想的很多改进Normalization模型被提出。BN是深度学习进展中里程

    作者: 可爱又积极
    840
    3