内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 图像视频压缩:深度学习,有一套

    为编码器;qq 为量化器;GG 为解码和生成器;DD 为对抗器。 基于深度学习的视频压缩编码 基于深度学习的视频编码分为两种: • 采用深度学习替代传统视频编码中部分模块 • 端到端采用深度学习编码压缩 部分方案 采样深度神经网络可以替代传统视频编码中的模块包括:帧内/帧间预测、变换、上下采样、环路滤波、熵编码等6。

    作者: 技术火炬手
    发表时间: 2021-03-23 06:28:07
    7893
    0
  • 深度学习之隐藏单元

    成神经网络进行训练,最后用验证集来评估它的性能。这里列出的一些隐藏单元可能并不是在所有的输入点上都是可微的。例如,整流线性单元 g(z) = max{0, z} 在 z = 0 处不可微。这似乎使得 g 对于基于梯度的学习算法无效。在实践中,梯度下降对这些机器学习模型仍然表现得足

    作者: 小强鼓掌
    639
    2
  • 深度学习深陷困境!

    机。然而,当风险较高时,比如在放射学或无人驾驶汽车领域,我们对待深度学习的态度就要更加谨慎。如果一个小小的错误就能夺去一条生命,那么深度学习还不够优秀,不足以应用。在遇到与训练数据差异非常大的“异常值”时,深度学习系统表现出的问题尤为明显。例如,不久前,一辆特斯拉在所谓的全自动驾

    作者: 星恒
    250
    3
  • 分享机器学习论文——预训练图神经网络

    org/abs/1905.12265    这篇论文挺火的,这是提出并解释预训练图神经网络框架的首批论文之一。我们都很熟悉预训练语言模型了,就是先在海量文本上预训练一个语言模型,然后在某个具体任务上做精细调节。从思路上来说,预训练图神经网络和预训练语言模型很像,问题重点在于这种做法在图上能不能行得通。

    作者: 初学者7000
    1050
    2
  • 深度学习入门》笔记 - 18

    我的理解是用来训练神经网络模型的。因为中间加了很多隐藏层,隐藏层也是需要将损失最小化的呀,所以需要引入这两个算法。神经网络的目的是建立输入层与输出层之间的关系,进而利用建立的关系得到预测值。通过增加隐藏层,神经网络可以找到输入层与输出层之间较复杂的关系。深度学习是拥有多个隐藏层

    作者: 黄生
    23
    1
  • 深度学习之Dropout启发

    何一种随机的修改都是可接受的。在实践中,我们必须选择让神经网络能够学习对抗的修改类型。在理想情况下,我们也应该使用可以快速近似推断的模型族。我们可以认为由向量 µ 参数化的任何形式的修改,是对 µ 所有可能的值训练 p(y | x, µ) 的集成。注意,这里不要求 µ 具有有限数量的值。例如,

    作者: 小强鼓掌
    831
    3
  • 浅谈深度学习(非监督学习与监督学习

    学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。 深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。深度学习在搜索技术,数据挖掘,机器学习

    作者: QGS
    257
    1
  • #获奖公布【RPA训练学习心得】华为数字机器人7天训练学习心得征集

    人工智能-图像识别 现针对以上7章内容征集学习心得,并有礼品相送~【活动时间】3月10日-3月24日【学习心得要求】1.每篇学习心得字数要求≥100字;2.内容要求与训练营对应阶段课程内容相关;3.内容原创不可抄袭;4.回帖时请务必留下你的华为云账号、微信昵称和学习心得对应的阶段。示例:华为云

    作者: 礼貌酱
    427
    26
  • 深度学习典型模型

    型的深度学习模型有卷积神经网络( convolutional neural network)、DBN和堆栈自编码网络(stacked auto-encoder network)模型等,下面对这些模型进行描述。 卷积神经网络模型 在无监督预训练出现之前,训练深度神经网络通常非常困难

    作者: 某地瓜
    1673
    1
  • 联邦学习简介

    4)联邦学习的性能能够充分逼近理想模型(集中式训练数据)的性能。 联邦学习主要分为横向联邦学习、纵向联邦学习、联邦迁移学习三类。 联邦学习主要分为横向联邦学习、纵向联邦学习、联邦迁移学习三类。 隐私保护技术简介: 同态加密: 什么是同态加密?提出第一个构造出全同态加密(Fully Homomorphic

    作者: 鲤鱼君
    发表时间: 2022-02-07 03:20:11
    2156
    0
  • 分享机器学习论文——预训练图神经网络

    org/abs/1905.12265    这篇论文挺火的,这是提出并解释预训练图神经网络框架的首批论文之一。我们都很熟悉预训练语言模型了,就是先在海量文本上预训练一个语言模型,然后在某个具体任务上做精细调节。从思路上来说,预训练图神经网络和预训练语言模型很像,问题重点在于这种做法在图上能不能行得通。

    作者: 初学者7000
    1256
    1
  • 深度学习框架MindSpore介绍

    用端侧数据和端侧训练能力,一些端云联合学习方法和框架被提出来,旨在联合多个端侧设备共同训练一个全局模型,并实现端侧隐私保护。Google率先于2016年提出了联邦学习方法和框架。杨强等又提出了横向联邦学习、纵向联邦学习、联邦迁移学习以及联邦强化学习等方法及对应的框架。端侧推理、迁

    作者: 运气男孩
    888
    2
  • 【获奖信息公布】【学习情况问卷抽奖】RPA训练学习情况问卷

    获奖信息公布:本次抽奖获奖用户如下:xxfssgh83017106iloveyouwangdiglz7519zhangweikai以上为华为云账号,请仔细核对,获奖礼品为帆布折叠包。请中奖用户在8月18日前点击下方链接填写获奖信息,我们会在截至日期结束之后尽快给您邮礼品,如您逾期

    作者: 云集而动
    3747
    0
  • 深度学习之提前终止

    我们存储模型参数的副本。当训练算法终止时,我们返回这些参数而不是最新的参数。当验证集上的误差在事先指定的循环次数内没有进一步改善时,算法就会终止。此过程在算法中有更正式的说明。这种策略被称为提前终止(early stopping)。这可能是深度学习中最常用的正则化形式。它的流行主要是因为有效性和简单性。

    作者: 小强鼓掌
    325
    0
  • 浅谈深度学习Backbone

    很强的。在用这些网络作为backbone的时候,都是直接加载官方已经训练好的模型参数,后面接着我们自己的网络。让网络的这两个部分同时进行训练,因为加载的backbone模型已经具有提取特征的能力了,在我们的训练过程中,会对他进行微调,使得其更适合于我们自己的任务。Neck:是放在

    作者: QGS
    82
    2
  • 《智能系统与技术丛书 深度学习实践:基于Caffe的解析》—3.3Caffe训练需要的几个部件

    3.3 Caffe训练需要的几个部件 Caffe训练一个网络除了需要刚才处理的输入数据库之外,还需要构建网络proto文件和优化proto文件,接下来本书将对此进行详细介绍,下面先从网络proto文件的编写开始进行吧。3.3.1 网络proto文件的编写 对于基本层的编写,本节将以卷积层进行示例说明。

    作者: 华章计算机
    发表时间: 2019-06-02 16:06:29
    5080
    0
  • 深度学习之函数估计

    D 对于简单的训练/测试或训练/验证分割而言太小难以产生泛化误差的准确估计时(因为在小的测试集上,L 可能具有过高的方差),k-折交叉验证算法可以用于估计学习算法 A 的泛化误差。数据集 D 包含的元素是抽象的样本 z(i) (对于第 i 个样本),在监督学习的情况代表(输入,目标)对

    作者: 小强鼓掌
    836
    1
  • 训练作业使用自定版本pytorch进行训练

    3.6, linux代表操作系统为linux 将这两个放到训练作业预置框架的同目录下。 假如我的启动目录为code,启动脚本为start.py。code目录下面包含了pytorch 1.7的两个离线安装包 在训练作业的启动脚本start.py中最上方添加如下代码。之所以要加

    作者: 星月菩提
    发表时间: 2021-03-31 02:21:06
    1962
    0
  • 《Keras深度学习实战》—2.8.2 怎么

    2.8.2 怎么做首先,我们需要使用Keras API定义适当的层,这里的关键API作用是创建合并层并使用它来创建解译层。concatenate函数concatenate函数用于合并两个模型,如以下代码所示: 以下是完整的模型拓扑代码: 模型拓扑保存到文件中,并显示单个输入层如何馈送到两个特征提取层,如下图所示:

    作者: 华章计算机
    发表时间: 2019-06-15 12:42:40
    7507
    0
  • 深度学习入门》笔记 - 24

    解决欠拟合问题的方法比较简单,增加模型复杂度就可以了。常见的方法是增加隐藏层的数量或者增加隐藏层的节点数,或者二者同时增加。如果训练误差持续下降,接近于0。而测试误差在下降后变得平稳,甚至略有上升。训练误差和测试误差的差距较大。这就是典型的过拟合情况。在建立神经网络模型的初始阶段,在实践中,通常先构建一个

    作者: 黄生
    38
    2