内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习笔记之归纳准则

    除了最大似然估计,还有其他归纳准则,其中许多共享一致估计性质。然而,一致估计统计效率(statistic efficiency) 可能区别很大。某些一致估计可能会在固定数目的样本上获得一个较低泛化误差,或者等价地,可能只需要较少样本就能达到一个固定程度泛化误差。通常,统计效率研究于有参情况(parametric

    作者: 小强鼓掌
    931
    3
  • 深度学习入门》笔记 - 10

    3/1659535760107353372.png) 好了我们上面说是最简单情况,因为为了学习,是一个权重或叫参数w,一个自变量x,并且只有一个观测点(x,y)。 在实际情况中,一般就不仅仅是学习那么简单情况。 数据会包含多个自变量,多个权重,很多个观测点。 用 $L(w)=L(w_1

    作者: 黄生
    214
    1
  • 深度学习之正切传播

    而在指定转换方向抵抗扰动。虽然这种解析方法是聪明优雅,但是它有两个主要缺点。首先,模型正则化只能抵抗无穷小扰动。显式数据集增强能抵抗较大扰动。其次,我们很难在基于整流线性单元模型上使用无限小方法。这些模型只能通过关闭单元或缩小它们权重才能缩小它们导数。它们不

    作者: 小强鼓掌
    664
    1
  • 深度学习概述

    差较大现象。欠拟合与过拟合区别:欠拟合在训练集和测试集上性能都较差,而过拟合往往能较好地学习训练集数据性质,而在测试集上性能较差。在神经网络训练过程中,欠拟合主要表现为输出结果高偏差,而过拟合主要表现为输出结果高方差。机器学习目标:是使学得模型能够很好适用于

    作者: 大鹏爱学习
    发表时间: 2022-10-17 10:07:38
    961
    0
  • 深度学习之模型平均

    aggregating)是通过结合几个模型降低泛化误差技术(Breiman, 1994)。主要想法是分别训练几个不同模型,然后让所有模型表决测试样例输出。这是机器学习中常规策略一个例子,被称为模型平均(model averaging)。采用这种策略技术被称为集成方法。模型平均(model

    作者: 小强鼓掌
    735
    2
  • 深度学习之长期依赖

    当计算图变得极深时,神经网络优化算法会面临另外一个难题就是长期依赖问题——由于变深结构使模型丧失了学习到先前信息能力,让优化变得极其困难。深层计算图不仅存在于前馈网络,还存在于之后介绍循环网络中(在第十章中描述)。因为循环网络要在很长时间序列各个时刻重复应用相同操作来构建非常深计算图,并且模型

    作者: 小强鼓掌
    317
    2
  • 联邦学习模型数据流动与数据共享机制研究

    随着数据隐私和安全问题日益受到重视,联邦学习作为一种保护数据隐私新兴技术,逐渐引起了广泛关注。通过在本地设备上训练模型并仅共享模型参数,联邦学习可以在保证数据隐私前提下,实现高效分布式模型训练。 II. 联邦学习概述 1. 联邦学习基本概念 联邦学习核心理念是将数据保存在本地设

    作者: Y-StarryDreamer
    发表时间: 2024-06-25 22:35:25
    12
    0
  • 深度学习是表示学习经典代表(浅谈什么是深度学习

    目录   先来看机器学习: 什么是特征? 深度学习是表示学习经典代表: 深度学习过程: 深度学习与传统机器学习差别: 深度学习代表算法: 先来看机器学习: 机器学习是利用经验experience来改善 计算机系统自身性能,通过经验获取知识knowledge。 以往都是人们向

    作者: 王博Kings
    发表时间: 2020-12-29 23:39:26
    3406
    0
  • 深度学习入门》笔记 - 20

    因变量常见数据类型有三种:定量数据、二分类定性数据和多分类定性数据。输出层激活函数选择主要取决于因变量数据类型。MNIST数据集是机器学习文献中常用数据。因变量(0~9)用独热码表示,比如数字8独热码为(0 0 0 0 0 0 0 0 1 0)数字2读热码为(0 0 1

    作者: 黄生
    25
    1
  • 关于Python学习感想

    经过这段时间对Python学习,我对Python有了一定认识,老师讲得很详细,我也很享受对Python学习学习Python需要去听课程也更需要多多实操,学习事物需要持之以恒,我以后也会坚持学习Python

    作者: Python学习感想
    1739
    0
  • 通过多任务学习改进证据深度学习

    证据回归网络(ENet)估计一个连续目标及其预测不确定性,无需昂贵贝叶斯模型平均。然而,由于ENet原始损失函数梯度收缩问题,即负对数边际似然损失,有可能导致目标预测不准确。本文目标是通过解决梯度收缩问题来提高ENet预测精度,同时保持其有效不确定性估计。一个多任务学习(MTL)框架,被称为M

    作者: 可爱又积极
    1761
    3
  • 深度学习迁移学习:应用与实践

    入探讨迁移学习基本概念、方法以及实际应用。 什么是迁移学习? 迁移学习是一种通过转移已学知识来解决新问题学习方法。传统深度学习模型通常从零开始训练,需要大量标注数据来学习数据特征。然而,在许多实际应用中,我们往往面临以下挑战: 数据稀缺:在许多任务中,获得大量标注数据可能非常昂贵或耗时。

    作者: 远方2.0
    发表时间: 2024-11-30 20:33:44
    32
    0
  • 深度学习之贝叶斯统计

    在有限区间中均匀分布。许多先验偏好于“更简单” 解决方法(如小幅度系数,或是接近常数函数)。        贝叶斯估计通常使用情况下,先验开始是相对均匀分布或高熵高斯分布,观测数据通常会使后验熵下降,并集中在参数几个可能性很高值。

    作者: 小强鼓掌
    619
    1
  • 深度学习之对抗样本

    表明,这些对抗样本主要原因之一是过度线性。神经网络主要是基于线性块构建。因此在一些实验中,它们实现整体函数被证明是高度线性。这些线性函数很容易优化。不幸是,如果一个线性函数具有许多输入,那么它值可以非常迅速地改变。如果我们用 ϵ 改变每个输入,那么权重为w 线性函数可以改变

    作者: 小强鼓掌
    631
    3
  • 深度学习之贝叶斯统计

    在有限区间中均匀分布。许多先验偏好于“更简单” 解决方法(如小幅度系数,或是接近常数函数)。        贝叶斯估计通常使用情况下,先验开始是相对均匀分布或高熵高斯分布,观测数据通常会使后验熵下降,并集中在参数几个可能性很高值。

    作者: 小强鼓掌
    720
    4
  • AI技术研究

    这和其他子符号方法,如模糊控制和进化计算,都属于计算智能学科研究范畴。统计学法90年代,人工智能研究发展出复杂数学工具来解决特定分支问题。这些工具是真正科学方法,即这些方法结果是可测量和可验证,同时也是人工智能成功原因。共用数学语言也允许已有学科合作(如数学,经济或运筹学)。STUART

    作者: QGS
    1160
    1
  • 学习笔记 - 针对交通标志检测几种深度学习算法评估

    V2)并结合不同特征提取器(Resnet V1 50, Resnet V1 101, Inception V2, Inception Resnet V2, Mobilenet V1和Darknet-19)最新进展。我们目的是通过迁移学习方法来探讨这些对象检测模型特性,这些模

    作者: RabbitCloud
    940
    1
  • 深度学习之权重比例

    权重比例推断规则在其他设定下也是精确,包括条件正态输出回归网络以及那些隐藏层不包含非线性深度网络。然而,权重比例推断规则对具有非线性深度模型仅仅是一个近似。虽然这个近似尚未有理论上分析,但在实践中往往效果很好。Goodfellow et al. (2013b) 实验发现

    作者: 小强鼓掌
    962
    5
  • Ubuntu深度学习环境配置

    7版本或其他版本,根据自己需要下载合适安装包。下载链接:https://www.anaconda.com/download/#linux点击下面的64-Bit (x86) Installer (522 MB),下载64位版本。下载完后文件名是:Anaconda3-2020.02-Linux-x86_64

    作者: @Wu
    665
    0
  • 深度学习之代价函数

            深度神经网络设计中一个重要方面是代价函数选择。幸运是,神经网络代价函数或多或少是和其他参数模型例如线性模型代价函数相同。       在大多数情况下,我们参数模型定义了一个分布 p(y | x; θ) 并且我们简单地使用最大似然原理。这意味着我们使

    作者: 小强鼓掌
    741
    2