内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • CVPR2021零样本实例分割论文解读

    叉的标记数据训练ZSI模型,模型即可检测叉,很不错。 业界现状 1.已有零样本分类,但是只能针对图只包含某一未知类的图片,图像包含多个未知类则不合适; 2.已有零样本目标检测和零样本语义分割,但是像素级的分割效果不够好。 面临挑战 1.如何分割未知实例:使用额外的语义预训练模

    作者: 疾风之剑
    发表时间: 2021-06-26 14:33:20
    3404
    0
  • 深度学习之经验E

    根据学习过程的不同经验,机器学习算法可以大致分类为无监督 (unsuper-vised) 和监督 (supervised)。大部分学习算法可以理解成在整个数据集 (dataset) 上获取经验。数据集是指很多样本组成的集合,如第5.1.1节的定义。有时我们也将样本称为数据点 (data

    作者: 小强鼓掌
    1164
    3
  • 《AI安全之对抗样本入门》—1.1.2 定义网络结构

    在TensorFlow图像保存的顺序是(width, height, channels)而在Theano则为(channels, width, height),比如MNIST图像,在TensorFlow的大小就是(28,28,1),而在Theano是(1, 28, 28)。示例代码如下:if

    作者: 华章计算机
    发表时间: 2019-06-17 15:42:26
    5092
    0
  • 《AI安全之对抗样本入门》—3.6 使用预训练模型

    3.6 使用预训练模型在对深度学习模型生成对抗样本时,我们会经常使用预训练好的模型。主流的深度学习框架为了方便用户使用,都积极开放了经典模型以供下载。其中最多的还是机器视觉相关的图像分类与目标识别模型,比如:ResNet50VGG16InceptionV3下面我们将举例介绍如何使

    作者: 华章计算机
    发表时间: 2019-06-17 18:23:13
    8307
    0
  • 深度学习之模板匹配

    1999)。核机器的一个主要缺点是计算决策函数的成本关于训练样本的数目是线性的。因为第 i 个样本贡献 αik(x, x(i)) 到决策函数。支持向量机能够通过学习主要包含零的向量 α,以缓和这个缺点。那么判断新样本的类别仅需要计算非零 αi 对应的训练样本的核函数。这些训练样本被称为支持向量 (support

    作者: 小强鼓掌
    550
    1
  • 《AI安全之对抗样本入门》—1.3.4 典型的CNN结构

    程度上防止过拟合,这一点就好比人眼在做图像识别时,适当遮住一部分像素不会影响识别结果一样。相对于浅层学习的SVM、KNN和朴素贝叶斯等,深度学习由于参数众多,更容易出现过拟合的现象,所以一般都需要使用Dropout机制。

    作者: 华章计算机
    发表时间: 2019-06-17 15:59:42
    5403
    0
  • 样本学习【一】论文分享:Few-Shot Learning via Embedding Adaptation

    Set-to-Set Functions. CVPR, 2020        在深度学习时代,基于少量数据学习视觉模型具有非常强大的挑战性。目前大部分小样本学习方法都是基于已知类数据学习视觉模型,然后迁移到新的小样本数据。这类方法学习的是一个通用模型,没有针对目标任务进行特定的学习,因此在

    作者: 星火燎原
    发表时间: 2020-08-31 10:54:19
    10054
    0
  • 《AI安全之对抗样本入门》—1.5.2 Bagging算法

    依赖关系,可以并行生成。Bagging使用自助采样法,即对于m个样本的原始训练集,我们每次先随机采集一个样本放入采样集,接着把该样本放回,也就是说下次采样时该样本仍有可能被采集到,这样采集m次,最终可以得到m个样本的采样集。由于是随机采样,每次的采样集不同于原始训练集和其他采样集

    作者: 华章计算机
    发表时间: 2019-06-17 17:40:45
    4648
    0
  • 深度学习:主流框架和编程实战》——1.5 深度学习展望

    觉皮层得到启发:视觉皮层存在微小区域的细胞对于特定区域的视野十分敏感,这就对应着CNN的局部感知区域。在CNN,图像的局部感知区域被当作层次结构的底层输入数据,信息通过前向传播经过网络的各个层,每一层都由过滤器构成,以便能够获得观测数据的一些显著特征,局部感知区域能够获

    作者: 华章计算机
    发表时间: 2019-06-04 19:32:31
    6790
    0
  • 数据样本少?数据不出局?联邦学习专治各种不服!

    横向联邦学习:训练的数据特征相同,分布在不同地方的数据是属于不同用户的,属于样本数量的扩展,适用于同领域的样本量联合建模。 2. 纵向联邦学习:训练的数据特征不同,分布在不同地方的数据是属于相同用户的,属于样本特征的扩展,适用于不同领域的样本特征联合建模。 3. 联邦迁移学习:训练的数据特征不同,分

    作者: iMaster NAIE官方
    发表时间: 2021-11-24 08:48:52
    2546
    0
  • 《AI安全之对抗样本入门》—2.10 GPU服务器

    _device.cc:916] 0: Y运行完整的程序大约需要3分钟,此速度完胜了我的Mac本。5. 手工安装深度学习库有时候需要根据软硬件环境自己选择安装对应的深度学习库,其中最重要的是看cuDNN和CUDA的版本,查看服务器的cuDNN和CUDA版本的方法为:#CUDA 版本cat

    作者: 华章计算机
    发表时间: 2019-06-17 18:07:03
    7835
    0
  • 记一次钓鱼样本分析下

    对域前置的对抗技术,可以参见笔者blog的另一篇关于对于样本分析的文章 0x04 思考: 这里笔者想借助这个样本的分析,表达对于几个问题的思考 一、制作样本样本分析的对抗 1、从样本制作的角度(攻击者): 想要对抗样本分析,很多时候是有一个短板效应的;好比这样一个问题:制造样本的时候,是否可以为了

    作者: 亿人安全
    发表时间: 2024-09-30 17:34:18
    37
    0
  • 深度学习之Bagging学习

    在小批量中加载一个样本,然后随机抽样应用于网络中所有输入和隐藏单元的不同二值掩码。对于每个单元,掩码是独立采样的。掩码值为 1 的采样概率(导致包含一个单元)是训练开始前一个固定的超参数。它不是模型当前参数值或输入样本的函数。通常在每一个小批量训练的神经网络,一个输入单元被包括的概率为

    作者: 小强鼓掌
    1251
    2
  • 记一次钓鱼样本分析上

    好久没写文章了,简单写篇样本分析的文章记录下前几天分析的一个样本,这个样本还是比较经典的,做了些反分析的手段,也使用了一些比较流行免杀对抗技术,能够免杀一些杀软;这篇文章我们主要看这个loader怎么做的,以及如何正常分析这样的样本和快速拿到c2;同时也分享一些奇奇怪怪的知识:如何提取样本特征做威胁狩猎以及对样本对抗的一些思考和想法;

    作者: 亿人安全
    发表时间: 2024-09-30 17:33:43
    29
    0
  • 深度学习之维数灾难

    同网格的训练样本,我们可以判断如何处理新数据点。例如,如果要估计某点 x 处的概率密度,我们可以返回 x 处单位体积内训练样本的数目除以训练样本的总数。如果我们希望对一个样本进行分类,我们可以返回相同网格训练样本最多的类别。如果我们是做回归分析,我们可以平均该网格样本对应的

    作者: 小强鼓掌
    1032
    3
  • 深度学习之对抗训练

    的输出与附近的数据点 x 非常不同。在许多情况下,x′ 与 x 非常近似,人类观察者不会察觉原始样本和对抗样本(adversarial example)之间的差异,但是网络会作出非常不同的预测。对抗样本在很多领域有很多影响,例如计算机安全,这超出了本章的范围。然而,它们在正则化的背景下很有

    作者: 小强鼓掌
    623
    2
  • 由相似性迁移的弱样本细粒度分类

    问题,对于每一批图片,我们首先选择少量的种类,然后再从少量的种类抽取图片。对于单个新种类中网络图片来说,我们可以发现标签正确的样本通常占大多数。当在单个新种类中计算每一对图片的相似度时,我们可以发现标签错误的样本与其他大部分图片都不相似。因此,我们可以根据一张图片是否与其他图片

    作者: 可爱又积极
    746
    1
  • 深度学习之函数估计

    包含的元素是抽象的样本 z(i) (对于第 i 个样本),在监督学习的情况代表(输入,目标)对 z(i) = (x(i), y(i)) ,或者无监督学习的情况下仅用于输入 z(i) = x(i)。该算法返回 D 每个示例的误差向量 e,其均值是估计的泛化误差。单个样本上的误差可用于计算平均值周围的置信区间(式(5

    作者: 小强鼓掌
    835
    1
  • 在线求语音对抗样本生成算法相关参考代码或干货文献

    近的研究表明,深度学习面临安全和隐私等多方面的威胁,其中对抗性样本是目前深度学习面临的最主要的威胁之一。                对语音场景下的对抗样本进行研究;对该领域的基本方法及进展进行综述,并实现两种常见的语音对抗样本生成算法,能够对特定场景下的语音样本进行攻击。        在线蹲一个大佬!!!

    作者: 四年三班扛把子
    2038
    0
  • 深度学习之对抗训练

    x 非常不同。在许多情况下,x′ 与 x 非常近似,人类观察者不会察觉原始样本和对抗样本(adversarial example)之间的差异,但是网络会作出非常不同的预测。见图 7.8 的例子。对抗样本在很多领域有很多影响,例如计算机安全,这超出了本章的范围。然而,它们在正则化

    作者: 小强鼓掌
    842
    1