内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 防止过拟合(三):数据增强(增加训练样本

    深度学习笔记:欠拟合、过拟合 防止过拟合(一):正则化 防止过拟合(二):Dropout 数据增强(Date Augmentation) 增加数据集大小是解决过拟合最重要的途径。但是收集样本数据和标注往往是代价昂贵的,在有限的数据集上,通过数据增强技术可以增加训练的样本数量,获得一定程度上的性能提升。

    作者: AI 菌
    发表时间: 2021-08-04 15:12:07
    1444
    0
  • 更新的训练样本,如何同步在自动学习模型中同步?

    样本后怎么添加自动学习的模型中?

    作者: yd_250218838
    17
    3
  • 深度学习炼丹-数据增强

    一,数据增强概述 数据增强(也叫数据扩增)的目的是为了扩充数据和提升模型的泛化能力。有效的数据扩充不仅能扩充训练样本数量,还能增加训练样本的多样性,一方面可避免过拟合,另一方面又会带来模型性能的提升。 数据增强几种常用方法有: 图像水平/竖直翻转、随机抠取、尺度变换和旋转。其中

    作者: 嵌入式视觉
    发表时间: 2023-01-10 14:14:05
    282
    0
  • 深度学习拟合,欠拟合笔记

    过拟合,欠拟合 过拟合(overfitting):学习能力过强,以至于把训练样本所包含的不太一般的特性都学到了。 欠拟合(underfitting):学习能太差,训练样本的一般性质尚未学好。 下面是直观解释:      &nbs

    作者: 运气男孩
    发表时间: 2021-01-31 15:37:00
    2300
    1
  • 迁移学习(transfer learning)领域有哪些比较新的研究方向?

    面,少样本学习和弱样本学习可以看成姊妹学习范式。少样本学习侧重于降低对新种类训练数据的要求,而弱样本学习侧重于降低对新种类训练数据质的要求。零样本学习、少样本学习和弱样本学习的比较如图1所示: 点击并拖拽以移动​ 点击并拖拽以移动 图1: 零样本学习、少样本学习、弱样本学习的对比

    作者: 龙腾亚太
    发表时间: 2022-04-25 12:06:17
    1268
    0
  • 华为云深度学习笔记2

    过拟合:训练误差小但是泛化误差大的现象,即在新样本上的误差比较大     机器学习目标:使模型能够更好地应用于新样本,称之为泛化能力或鲁棒性     模型容量:用于机器学习训练样本,即模型的学习能力,越多越大;当模型容量小容易出现欠拟合

    作者: zzzzf
    发表时间: 2022-07-15 15:22:27
    250
    0
  • 深度学习之模板匹配

    1999)。核机器的一个主要缺点是计算决策函数的成本关于训练样本的数目是线性的。因为第 i 个样本贡献 αik(x, x(i)) 到决策函数。支持向量机能够通过学习主要包含零的向量 α,以缓和这个缺点。那么判断新样本的类别仅需要计算非零 αi 对应的训练样本的核函数。这些训练样本被称为支持向量 (support

    作者: 小强鼓掌
    436
    1
  • 深度学习之模板匹配

    1999)。核机器的一个主要缺点是计算决策函数的成本关于训练样本的数目是线性的。因为第 i 个样本贡献 αik(x, x(i)) 到决策函数。支持向量机能够通过学习主要包含零的向量 α,以缓和这个缺点。那么判断新样本的类别仅需要计算非零 αi 对应的训练样本的核函数。这些训练样本被称为支持向量 (support

    作者: 小强鼓掌
    522
    1
  • 深度学习之平滑先验

    显式地表示学习函数应该是光滑或局部不变的先验。所有这些不同的方法都旨在鼓励学习过程能够学习出函数 f∗ 对于大多数设置 x和小变动 ϵ,都满足条件f∗(x) ≈ f∗(x + ϵ).虽然 k-最近邻算法复制了附近训练样本的输出,大部分核机器也是在和附近训练样本相关的训练集输出上插值。一类重要的核函数是局部核

    作者: 小强鼓掌
    1181
    1
  • 机器学习之支持向量机实例,线性核函数 多项式核函数 RBF高斯核函数 sigmoid核函数

    的用法。这里使用的是最简单的线性核 :param data: 可变参数。它是一个元组,这里要求其元素依次为训练样本集、测试样本集、训练样本的标记、测试样本的标记 :return: None ''' iris = datasets.load_iris()

    作者: 南蓬幽
    发表时间: 2022-04-30 04:08:24
    635
    0
  • 深度学习之维数灾难

    x 处单位体积内训练样本的数目除以训练样本的总数。如果我们希望对一个样本进行分类,我们可以返回相同网格中训练样本最多的类别。如果我们是做回归分析,我们可以平均该网格中样本对应的的目标值。但是,如果该网格中没有样本,该怎么办呢?因为在高维空间中参数配置数目远大于样本数目,大部分配置

    作者: 小强鼓掌
    1031
    3
  • 深度学习之维数灾难

    x 处单位体积内训练样本的数目除以训练样本的总数。如果我们希望对一个样本进行分类,我们可以返回相同网格中训练样本最多的类别。如果我们是做回归分析,我们可以平均该网格中样本对应的的目标值。但是,如果该网格中没有样本,该怎么办呢?因为在高维空间中参数配置数目远大于样本数目,大部分配置

    作者: 小强鼓掌
    739
    1
  • 机器学习笔记(十)---- KNN(K Nearst Neighbor)

    用“平均法”将这k个样本的标记平均值作为预测结果;还可以基于距离远近进行加权平均或加权投票,距离越近的样本权重越大。 KNN和之前介绍的监督学习算法有一个很大的不同,它没有前期的训练过程,是一种“懒惰学习”的算法,只有收到测试样本后,再和训练样本进行比较处理。

    作者: 云上有未来
    发表时间: 2019-09-20 01:10:26
    3920
    0
  • Boosting集成算法:Adaboost与Gradient Boosting

    Boosting是一族可将弱学习器提升为强学习器的算法,这族算法的工作机制类似于: 先从初始训练训练出一个基学习器,再根据基学习器的表现对训练样本分布进行调整,使得先前基学习器做错的训练样本在后续受到更多关注; 然后基于调整后的样本分布来训练下一个基学习器; 如此重复进行,直至基学习器数目达到

    作者: Barranzi
    发表时间: 2023-01-11 08:25:53
    138
    0
  • 深度学习》拟合,欠拟合笔记

    过拟合,欠拟合过拟合(overfitting):学习能力过强,以至于把训练样本所包含的不太一般的特性都学到了。欠拟合(underfitting):学习能太差,训练样本的一般性质尚未学好。下面是直观解释:                                       

    作者: 运气男孩
    724
    1
  • 吴恩达机器学习——多元线性回归

    多元线性回归 多元线性回归适用于多变量,多特征的应用场景。 一些数学符号定义 n表示变量的数目; m表示样本数目; x(i)表示第i个训练样本:如x(2) = [1416, 3, 2, 40]; xj(i)表示第i个训练样本的第j个变量,如上述的x3(2)=2。 多元线性回归问题

    作者: KevinQ
    发表时间: 2022-01-14 09:59:24
    1119
    0
  • 机器学习算法:AdaBoost

    aBoost是监督学习中最强大的两种算法之一(另一个是支持向量机SVM)。AdaBoost的训练过程如下:为每个训练样本初始化相同的权重;针对训练样本及权重,找到一个弱分类器;计算出这个弱分类器的错误率ε与权重α;对正确分类的样本,降低其权重,对错误分类的样本,提升其权重;返回2

    作者: 技术火炬手
    发表时间: 2018-08-29 01:41:14
    2066
    0
  • 深度学习炼丹-不平衡样本的处理

    前言 在机器学习的经典假设中往往假设训练样本各类别数目是均衡的,但在实际场景中,训练样本数据往往都是不均衡(不平衡)的。比如在图像二分类问题中,一个极端的例子是,训练集中有 95 个正样本,但是负样本只有 5 个。这种类别数据不均衡的情况下,如果不做不平衡样本的处理,会导致模型

    作者: 嵌入式视觉
    发表时间: 2023-01-11 09:23:43
    228
    0
  • 从零开始学Pytorch(十五)之数据增强

    图像增广 在深度卷积神经网络里我们提到过,大规模数据集是成功应用深度神经网络的前提。图像增广(image augmentation)技术通过对训练图像做一系列随机改变,来产生相似但又不同的训练样本,从而扩大训练数据集的规模。图像增广的另一种解释是,随机改变训练样本可以降低模型对

    作者: 小小谢先生
    发表时间: 2022-04-15 15:32:26
    479
    0
  • 【PyTorch基础教程8】dataset和dataloader(学不会来打我啊)

    学习心得 (1)mini-batch:外层for为训练周期,内层for迭代mini-batch。 1)epoch:将所有的训练样本都进行了一次前向传递和反向传播,是一个epoch。 2)Batch-size:每次训练所用的样本数量 3)Iteration:内层for执行的次数。

    作者: 野猪佩奇996
    发表时间: 2022-01-22 17:34:13
    1127
    0