内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 《AI安全之对抗样本入门》—1.6 本章小结

    6 本章小结本章介绍了深度学习的训练过程,并结合一个实际的例子介绍了数据预处理、定义网络结构、损失函数、反向传递与优化器的知识,重点介绍了链式法则与梯度的使用。本章最后还结合具体例子介绍了几个常见的衡量指标,包括混淆矩阵、准确率、召回率、准确度、F1-Score、ROCAUC。另外本章

    作者: 华章计算机
    发表时间: 2019-06-17 17:41:51
    4549
    0
  • 深度学习之任务T

    人工指导机器人如何行走。通常机器学习任务定义为机器学习系统该如何处理样本 (example)。样本是指我们从某些希望机器学习系统处理的对象或事件收集到的已经量化的特征 (feature)的集合。我们通常会将样本表示成一个向量 x ∈ Rn,其中向量的每一个元素 xi 是一个特征

    作者: 小强鼓掌
    821
    3
  • ICML2020 | 基于贝叶斯元学习在关系图上进行小样本关系抽取

    现小样本关系抽取。 2 相关工作 2.1小样本学习元学习 作者的工作与小样本学习元学习有关。其目标是训练具有不同任务的深度学习模型,其中每个任务都由几个具体的例子进行演示,以便模型能够快速适应新的任务。 一种代表性方法是基于度量的方法,基本思想是学习基于实例给出的每

    作者: DrugAI
    发表时间: 2021-07-14 18:14:37
    1315
    0
  • Keras之ML~P:基于Keras建立的简单的二分类问题的神经网络模型(根据200个数据样本预测新的5个样本)——概率预测

    Keras之ML~P:基于Keras建立的简单的二分类问题的神经网络模型(根据200个数据样本预测新的5个样本)——概率预测       目录 输出结果 核心代码         输出结果   核心代码 # -*- coding: utf-8

    作者: 一个处女座的程序猿
    发表时间: 2021-03-30 17:23:04
    1486
    0
  • 深度学习之超参数验证集

    3)。例如,相较低次多项式的权重衰减设定,更高次的多项式权重衰减参数设定 = 0 总能在训练集上更好地拟合。        为了解决这个问题,我们需要训练算法观测不到的验证集(validation set)样本。早先我们讨论过训练数据相同分布的样本组成的测试集可以用来估计

    作者: 小强鼓掌
    935
    4
  • 深度学习之维数灾难

    泛化到新数据点时,通过检测新输入在相同网格的训练样本,我们可以判断如何处理新数据点。例如,如果要估计某点 x 处的概率密度,我们可以返回 x 处单位体积内训练样本的数目除以训练样本的总数。如果我们希望对一个样本进行分类,我们可以返回相同网格训练样本最多的类别。如果我们是做回

    作者: 小强鼓掌
    1033
    3
  • 深度学习之任务 T

    何行走。        通常机器学习任务定义为机器学习系统该如何处理样本 (example)。样本是指我们从某些希望机器学习系统处理的对象或事件收集到的已经量化的特征 (feature)的集合。我们通常会将样本表示成一个向量 x ∈ Rn,其中向量的每一个元素 xi 是一个特征。

    作者: 小强鼓掌
    726
    2
  • 样本类别不平衡

    我在训练的时候总是的不到号的效果,后面发现是样本的类别差别太大了,正负样本快10:1,我要怎么做呢,已经没有更多的数据了

    作者: taaita
    943
    3
  • 深度学习之维数灾难

    x 处单位体积内训练样本的数目除以训练样本的总数。如果我们希望对一个样本进行分类,我们可以返回相同网格训练样本最多的类别。如果我们是做回归分析,我们可以平均该网格样本对应的的目标值。但是,如果该网格没有样本,该怎么办呢?因为在高维空间中参数配置数目远大于样本数目,大部分配置没

    作者: 小强鼓掌
    747
    1
  • 深度学习随机取样、学习率

    所有的样本都会被用来估计梯度。而在随机梯度下降小批量梯度下降,随机取样是十分重要的。这是为了得到梯度的无偏估计,样本必须是独立同分布的。如果训练过程的一些样本不是随机从训练集中取出的,模型的参数可能会沿着一个方向偏移太多。以下是两种随机取样的思路:在语音处理任务,若所

    作者: 运气男孩
    1444
    5
  • 深度学习之函数估计

    y。我们假设有一个函数 f(x) 表示 y x 之间的近似关系。例如,我们可能假设 y = f(x) + ϵ,其中 ϵ 是 y 未能从 x 预测的一部分。在函数估计,我们感兴趣的是用模型估计去近似 f,或者估计 fˆ。函数估计估计参数 θ 是一样的。k-折交叉验证算法。当给定数据集

    作者: 小强鼓掌
    836
    1
  • 深度学习之随机梯度下降

    习算法的损失函数通常可以分解成每个样本损失函数的总和。例如,训练数据的条件对数似然可以写成这个运算的计算代价是 O(m)。随着训练集规模增长为数十亿的样本,计算一步梯度也会消耗相当长的时间。随机梯度下降的核心是,梯度是期望。期望可使用小规模的样本近似估计。具体而言,在算法的每

    作者: 小强鼓掌
    652
    1
  • 《AI安全之对抗样本入门》—1.1.4 反向传递与优化器

    4 反向传递与优化器深度学习训练过程如图1-7所示。在深度学习模型里面,经常需要使用梯度算法,针对损失函数的反馈不断调整各层的参数,使得损失函数最小化。在训练阶段,真实值就是样本对应的真实标签,预测值就是机器学习模型预测的标签值,这些都是明确的,所以损失函数是可以定义计算的。机器学习

    作者: 华章计算机
    发表时间: 2019-06-17 15:48:04
    5573
    0
  • 深度学习之验证集

    早先我们讨论过训练数据相同分布的样本组成的测试集可以用来估计学习过程完成之后的学习器的泛化误差。其重点在于测试样本不能以任何形式参与到模型的选择,包括设定超参数。基于这个原因,测试集中的样本不能用于验证集。因此,我们总是从训练数据构建验证集。特别地,我们将训练数据分成两个不相

    作者: 小强鼓掌
    730
    1
  • [自然语言处理|NLP]NLP在零样本学习的应用:从原理到实践

    P领域中零样本学习的应用,包括原理、挑战以及实际案例,展示零样本学习是如何推动NLP领域的创新。 2. 什么是零样本学习? 传统的监督学习算法在训练阶段需要大量标记样本,通过这些样本学习模型的参数。然而,现实存在许多类别领域,并不总是能够获得足够的标记数据。零样本学习的核心

    作者: Y-StarryDreamer
    发表时间: 2023-11-28 16:05:38
    3
    0
  • 深度学习之随机梯度下降

    x(j))。构建这个矩阵的计算量是 O(m2)。当数据集是几十亿个样本时,这个计算量是不能接受的。在学术界,深度学习从 2006 年开始收到关注的原因是,在数以万计样本的中等规模数据集上,深度学习在新样本上比当时很多热门算法泛化得更好。不久后,深度学习在工业界受到了更多的关注,因为其提供了一种可扩展的方式训练大数据集上的非线性模型。

    作者: 小强鼓掌
    1324
    1
  • 深度学习概念

    Intelligence)。深度学习是学习样本数据的内在规律表示层次,这些学习过程获得的信息对诸如文字、图像和声音等数据的解释有很大的帮助。它的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。 深度学习是一个复杂的机器学习算法,在语言和图像识别方面取得的效果,远远超过先前

    作者: QGS
    973
    3
  • 深度残差收缩网络:一种深度学习的故障诊断算法

    难的。深度学习提供了一种解决这个问题的新思路。这些滤波器可以通过反向传播算法自动优化得到,而不是由专家进行设计。因此,软阈值化深度学习的结合是一种有效地消除噪声信息构建高判别性特征的方式。软阈值化将接近于零的特征直接置为零,而不是像ReLU那样,将的特征置为零,所以的、有

    作者: hw9826
    发表时间: 2020-08-31 11:54:08
    4310
    0
  • 深度学习笔记之方差标准误差

    SE(θˆ)。估计量的方差或标准误差告诉我们,当独立地从潜在的数据生成过程重采样数据集时,如何期望估计的变化。正如我们希望估计的偏差较小,我们也希望其方差较小。当我们使用有限的样本计算任何统计量时,真实参数的估计都是不确定的,在这个意义下,从相同的分布得到其他样本时,它们的统计量会不一样。任何方差估计量的期望程度是我们想量化的误差的来源。

    作者: 小强鼓掌
    1345
    2
  • 《AI安全之对抗样本入门》—1.3.7 ResNet50

    1.3.7 ResNet50深度学习网络的深度对最后的分类识别的效果有着很大的影响,所以正常想法就是把网络设计得越深越好,但事实并非如此。网络的堆叠在网络很深时,效果却越来越差了。ResNet引入了残差网络结构,通过残差网络,可以把网络层设计得很深,据说现在达到了1000多层,

    作者: 华章计算机
    发表时间: 2019-06-17 16:04:08
    5075
    0