内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • SVR预测】基于matlab差分进化改进灰狼算法优化SVR预测【含Matlab源码 1283期】

    另外一个方法是进行边界吸收处理,即将超过边界约束个体值设置为临近边界值。 3.2差分进化算法其他形式 上面阐述是最基本差分进化算法操作程序,实际应用中还发展了差分进化算法几个变形形式,用符号DE/x/y/z加以区分,其中:x限定当前被变异向量是“随机”或“最佳”;y是所利用差向量个数;z指示

    作者: 海神之光
    发表时间: 2022-05-28 18:42:15
    270
    0
  • 深度学习-通用模型调试技巧

    问题并不是你训练任务碰到问题,则更换新网络可能对你训练任务没有什么帮助,还会浪费大量时间。如果是,则可以试试这个新网络。6、如何训练集错误率可接受了,与验证集错误率相差也不大了,接下来可以分析在测试集上错误率,最好是对每张预测出错图进行分析,总结模型出错原因,对错误

    作者: 山海之光
    发表时间: 2019-08-08 21:26:02
    11278
    1
  • 跟繁琐模型说拜拜!深度学习脚手架 ModelZoo 来袭!

    载和预处理模型搭建Optimizer 配置运行结果保存Early Stop 配置Checkpoint 保存Summary 生成预测流程实现总而言之,用了这个框架可以省去很多不必要麻烦,同时相对来说比较规范,另外灵活可扩展。以上就是 ModelZoo 一些简单介

    作者: 竹叶青
    发表时间: 2019-11-02 23:46:18
    8187
    0
  • 深度学习模型介绍

    深度神经网络:深度学习模型有很多,目前开发者最常用深度学习模型与架构包括卷积神经网络 (CNN)、深度置信网络 (DBN)、受限玻尔兹曼机 (RBM)、递归神经网络 (RNN & LSTM & GRU)、递归张量神经网络 (RNTN)、自动编码器 (AutoEncoder)、生成对抗网络

    作者: 极客潇
    1761
    2
  • 部署深度学习模型

    虽然modelarts能够帮助我们在线上完成深度学习模型,但是训练好深度学习模型是怎么部署

    作者: 初学者7000
    875
    3
  • 深度学习模型结构

    深度神经网络是由多个单层非线性网络叠加而成,常见单层网络按照编码解码情况分为3类:只包含编码器部分、只包含解码器部分、既有编码器部分也有解码器部分。编码器提供从输入到隐含特征空间自底向上映射,解码器以重建结果尽可能接近原始输入为目标将隐含特征映射到输入空间。 人视觉系统对信息处理是分级。从低级提取边

    作者: QGS
    645
    2
  • 深度学习LSTM模型

    长短期记忆(Long short-term memory, LSTM)是一种特殊RNN,主要是为了解决长序列训练过程中梯度消失和梯度爆炸问题。简单来说,就是相比普通RNN,LSTM能够在更长序列中有更好表现。

    作者: 我的老天鹅
    1892
    10
  • 深度学习模型结构

    深度神经网络是由多个单层非线性网络叠加而成,常见单层网络按照编码解码情况分为3类:只包含编码器部分、只包含解码器部分、既有编码器部分也有解码器部分。编码器提供从输入到隐含特征空间自底向上映射,解码器以重建结果尽可能接近原始输入为目标将隐含特征映射到输入空间。 人视觉系统对信息处理是分级。从低级提取边

    作者: 运气男孩
    1146
    2
  • 【开源模型学习】AlexNet深度学习模型总结

    com/p/33058988原理:在前向传播时候,让某个神经元激活值以一定概率p停止工作(激活函数值以概率p变为0),这样可以使模型泛化性更强,因为它不会太依赖某些局部特征。优点:可以有效实现防止过拟合缺点:训练更加复杂其他正则化方法:通过限制权重大小,使得模型不能拟合任意噪声数据,从而达到防

    作者: 小二中二大二
    1653
    0
  • 走近深度学习,认识MoXing:模型定义教程

    snet_v1_50/1/。当导出模型目录下有多个版本号模型时,如1,2,99,TF-Serving会自动选取数字最大99模型做预测,当一个作业往该目录下继续输出了模型100,TF-Serving预测服务不需要重启,自动切换到100模型上。在MoXing中,mox.ExportSpec(

    作者: 云上AI
    发表时间: 2018-08-22 10:17:48
    6783
    0
  • 《Keras深度学习实战》—2.6.2 模型类型

    2.6.2 模型类型Keras有两种模型类型:序贯模型使用函数API创建模型

    作者: 华章计算机
    发表时间: 2019-06-15 12:27:44
    7393
    0
  • 浅谈深度学习模型压缩

    常见模型压缩方法有以下几种:    模型蒸馏 Distillation,使用大模型学到知识训练小模型,从而让小模型具有大模型泛化能力    量化 Quantization,降低大模型精度,减小模型    剪枝 Pruning,去掉模型中作用比较小连接    参数共享,

    作者: QGS
    37
    1
  • 深度学习典型模型

    输出训练第二层RBM模型,将RBM模型进行堆栈通过增加层来改善模型性能。在无监督预训练过程中,DBN编码输入到顶层RBM后,解码顶层状态到最底层单元,实现输入重构。RBM作为DBN结构单元,与每一层DBN共享参数。 堆栈自编码网络模型 堆栈自编码网络结构与DBN类似,由

    作者: 某地瓜
    1673
    1
  • 深度学习Normalization模型

    很快被作为深度学习标准工具应用在了各种场合。BN**虽然好,但是也存在一些局限和问题,诸如当BatchSize太小时效果不佳、对RNN等**络无法有效应用BN等。针对BN问题,最近两年又陆续有基于BN思想很多改进Normalization模型被提出。BN是深度学习进展中里程

    作者: 可爱又积极
    841
    3
  • 深度学习模型平均

    aggregating)是通过结合几个模型降低泛化误差技术(Breiman, 1994)。主要想法是分别训练几个不同模型,然后让所有模型表决测试样例输出。这是机器学习中常规策略一个例子,被称为模型平均(model averaging)。采用这种策略技术被称为集成方法。模型平均(model

    作者: 小强鼓掌
    735
    2
  • 《Keras深度学习实战》—2.7 序贯模型

    测变量包括患者怀孕次数、BMI、胰岛素水平、年龄等。 数据集形状为(768,9)。数据集值包括: X值,为第0到第7列: Y值是数据集第8列,如下图所示: 模型内部检验通过在调试器中进行模型检验,可以在调用compile方法之前得到如下模型属性: 模型内部编译调用model

    作者: 华章计算机
    发表时间: 2019-06-15 12:38:05
    4289
    0
  • 《Keras深度学习实战》—2.8 共享层模型

    8 共享层模型Keras中可以多层共享一个层输出。例如输入中可以存在多个不同特征提取层,或者可以使用多个层来预测特征提取层输出。下面进行示例介绍。2.8.1 共享输入层简介本节将介绍具有不同大小内核多个卷积层如何解译同一图像输入。该模型采用尺寸为32×32×3像素彩色CI

    作者: 华章计算机
    发表时间: 2019-06-15 12:40:36
    6823
    0
  • 深度学习之Bagging集成模型

    效近似Bagging方法。然而,还有比这更进一步Dropout观点。Dropout不仅仅是训练一个Bagging集成模型,并且是共享隐藏单元集成模型。这意味着无论其他隐藏单元是否在模型中,每个隐藏单元必须都能够表现良好。隐藏单元必须准备好进行模型之间交换和互换。Hinton

    作者: 小强鼓掌
    2179
    6
  • 深度学习模型轻量化

    移动端模型必须满足模型尺寸小、计算复杂度低、电池耗电量低、下发更新部署灵活等条件。模型压缩和加速是两个不同的话题,有时候压缩并不一定能带来加速效果,有时候又是相辅相成。压缩重点在于减少网络参数量,加速则侧重在降低计算复杂度、提升并行能力等。模型压缩和加速可以从多个角度来优化。总体来看,个人认为主要分为三个层次:1

    作者: 可爱又积极
    1257
    4
  • 深度学习模型族训练

    深度学习背景下,大多数正则化策略都会对估计进行正则化。估计正则化以偏差增加换取方差减少。一个有效正则化是有利 ‘‘交易’’,也就是能显著减少方差而不过度增加偏差。主要侧重模型族训练 3 个情形:(1)不包括真实数据生成过程——对应欠拟合和含有偏差情况,(2)匹

    作者: 小强鼓掌
    938
    3