内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 《AI安全之对抗样本入门》—2.8 PaddlePaddle

    2.8 PaddlePaddlePaddlePaddle是百度提供的开源深度学习框架,它能够让开发者和企业安全、快速地实现自己的AI想法。PaddlePaddle最简化的安装可以直接使用PIP工具:pip install paddlepaddle如果有特殊需求希望指定版本进行安装,可以使用参数:pip

    作者: 华章计算机
    发表时间: 2019-06-17 18:03:18
    9310
    0
  • 《AI安全之对抗样本入门》—2.9 AdvBox

    as以及TensorFlow平台,便于广大开发者和安全工程师使用自己熟悉的框架。AdvBox同时支持GraphPipe,屏蔽了底层使用的深度学习平台,用户可以零编码,仅通过几个命令就可以对PaddlePaddle、PyTorch、Caffe2、MxNet、CNTK、ScikitL

    作者: 华章计算机
    发表时间: 2019-06-17 18:04:33
    6051
    0
  • 深度学习——常用评价指标

    集中的正负样本的分布变化的时候,ROC曲线能够保持不变。在实际的数据集中经常会出现类不平衡(class imbalance)现象,即负样本比正样本多很多(或者相反),而且测试数据正负样本的分布也可能随着时间变化。  ROC曲线绘制:  (1)根据每个测试样本属于正样本的概率值

    作者: QGS
    782
    3
  • 《AI安全之对抗样本入门》—

    1 Boosting算法Boosting系列算法的原理是在训练集用初始权重训练出一个分类器,根据分类器的表现来更新训练样本的权重,使得这些错误率高的样本在后面的训练得到更多的重视。如此重复进行,直到分类器的数量达到事先指定的数目,最终将全部分类器通过集合策略进行整合,得到新的分类

    作者: 华章计算机
    发表时间: 2019-06-17 16:23:12
    5212
    0
  • 百度RocketQA系列搜索技术论文解析(二)

    在传统loss的基础上,约束正负例之间的Embedding距离。但是模型没有直接对正负例的Embeding做约束,而是通过约束正例与query之间的距离与正负例之间的距离,达到加大正负例之间Embedding距离的目的。 由于Loss将正负例之间的距离与query与正例之

    作者: 人工智障研究员
    发表时间: 2022-05-16 11:38:06
    671
    0
  • 《AI安全之对抗样本入门》—3.2 TensorFlow

    3.2 TensorFlowTensorFlow是被工业界和学术界使用最广泛的深度学习框架之一。我们以解决经典的手写数字识别的问题为例,介绍TensorFlow的基本使用方法,代码路径为:https://github.com/duoergun0729/adversarial_ex

    作者: 华章计算机
    发表时间: 2019-06-17 18:16:37
    5451
    0
  • 《AI安全之对抗样本入门》—2.11 本章小结

    2.11 本章小结本章介绍了搭建对抗样本工具箱的过程,包括如何安装Anaconda,设置APT更新源、Python更新源,以及如何安装Jupyter notebook和常见的深度学习框架。最后还介绍了主流的对抗样本框架以及如何在云环境使用GPU服务器。

    作者: 华章计算机
    发表时间: 2019-06-17 18:08:06
    4568
    0
  • MSDN: 零样本学习的互语义蒸馏网络

    样本学习(zero-shot learning, ZSL)的关键挑战是如何推断已见类的视觉特征和属性特征之间的潜在语义知识,从而实现对未见类的知识迁移。以往的研究要么简单地将图像的整体特征与其关联的类语义向量对齐,要么利用单向注意学习有限的潜在语义表示,无法有效地发现视觉特征与

    作者: 可爱又积极
    761
    4
  • 《AI安全之对抗样本入门》—3.7 本章小结

    3.7 本章小结读者通过本章可以掌握深度学习框架的张量和计算图的概念,目前主流的深度学习框架在底层设计上几乎都是基于张量和计算图的。本章具体介绍如何基于TensorFlow、Keras、PyTorch和MXNet来解决经典的手写数字识别的问题,详细介绍了如何构建前向计算过程和使

    作者: 华章计算机
    发表时间: 2019-06-17 18:24:57
    4542
    0
  • 机器学习方法解决信息论多年开放问题?基于核方法的渐进最优单样本和双样本检验

    假设检验问题:。双样本问题(two-sample or homogeneity testing),给定样本和,目标是判断和是否由同一个分布产生。如果我们用P和Q分别表示样本的潜在分布,那我们同样考虑一个假设检验问题:。 单样本和双样本问题有很长的历史,在实际也有非常广泛的应用

    作者: 请叫我七七
    214
    0
  • 《AI安全之对抗样本入门》—3.5 MXNet

    3.5 MXNetMXNet是亚马逊开发的深度学习库,它拥有类似于Theano和TensorFlow的数据流图,并且可以在常见的硬件平台上运行。MXNet还提供了R、C++、Scala等语言的接口。我们以解决经典的手写数字识别的问题为例,介绍MXNet的基本使用方法,代码路径为:https://github

    作者: 华章计算机
    发表时间: 2019-06-17 18:21:53
    4736
    0
  • 机器学习 样本标准差的学习

    标准差(Standard Deviation) ,中文环境又常称均方差,是离均差平方的算术平均数的平方根,用σ表示。标准差是方差的算术平方根。标准差能反映一个数据集的离散程度。平均数相同的两组数据,标准差未必相同。 标准差(

    作者: tea_year
    发表时间: 2021-12-29 14:52:55
    424
    0
  • 信号的样本熵序列计算

    信号的样本熵序列计算 样本熵(Sample Entropy,SampEn)是通过度量信号中产生新模式的概率大小来衡量时间序列复杂性,新模式产生的概率越大,序列的复杂性就越大。样本熵的值越低,序列自我相似性就越高;样本熵的值越大,样本序列就越复杂。样本熵适合于对随机过程的研究,目前

    作者: aqhs
    发表时间: 2022-05-16 13:21:56
    1247
    0
  • 用Python计算样本方差,总体方差,比较

    1.样本方差 #样本方差,考虑自由度 def f_sigma(x): # 通过Python定义一个计算变量波动率的函数 # x:代表变量的样本值,可以用列表的数据结构输入 n = len(x)

    作者: yk 坤帝
    发表时间: 2022-03-15 14:33:58
    315
    0
  • 《AI安全之对抗样本入门》—1.6 本章小结

    1.6 本章小结本章介绍了深度学习的训练过程,并结合一个实际的例子介绍了数据预处理、定义网络结构、损失函数、反向传递与优化器的知识,重点介绍了链式法则与梯度的使用。本章最后还结合具体例子介绍了几个常见的衡量指标,包括混淆矩阵、准确率、召回率、准确度、F1-Score、ROC和AU

    作者: 华章计算机
    发表时间: 2019-06-17 17:41:51
    4549
    0
  • 《AI安全之对抗样本入门》—3.4 PyTorch

    替换了Dropout层,在抵御过拟合的同时加快了训练的收敛速度。在PyTorch定义网络结构,通常需要继承torch.nn.Module类,重点是在forward完成前向传播的定义,在init完成主要网络层的定义:class Net(torch.nn.Module): def

    作者: 华章计算机
    发表时间: 2019-06-17 18:20:10
    5601
    0
  • 样本目标检测总结1

    以获得更好的效果2 小样本与大样本检测比较分别列出基于Pascal VOC、MS-COCO数据集上的识别结果对比。对于Pascal VOC,小样本检测已取得不错效果;而对于检测难度较大的COCO数据集(41%小目标),基于小样本的检测效果明显弱于大样本,还有很大的提升空间。3

    作者: Day-Day-Up
    发表时间: 2020-08-29 15:44:39
    9251
    0
  • 《AI安全之对抗样本入门》—3.3 Keras

    metrics=['accuracy'])5. 训练与验证为了尽可能提高准确度,让网络的众多参数得到充分训练,通常深度学习都会在同一数据集上结合Dropout进行多轮训练,由于Dropout会随机丢失一些特征,相当于增加了新的训练数据。本例批处理大小为128,训练的轮数为20轮,如果我们观察训练第20

    作者: 华章计算机
    发表时间: 2019-06-17 18:18:26
    4420
    0
  • 为什么要将样本方差除以 N-1

    示为。然后似然函数为: (4) 为了计算均值和方差,我们显然需要来自此分布的多个样本。在下文中,设vector 是包含所有可用样本(例如,表 1 示例的所有值)的向量。如果所有这些样本在统计上都是独立的,我们可以将它们的联合似然函数写成所有单个似然的总和: (5)

    作者: irrational
    发表时间: 2022-01-17 16:48:25
    450
    0
  • 浅谈深度学习

    化技术,以及其他相关领域都取得了很多成果。深度学习使机器模仿视听和思考等人类的活动,解决了很多复杂的模式识别难题,使得人工智能相关技术取得了很大进步。深度学习定义深度学习定义:一般是指通过训练多层网络结构对未知数据进行分类或回归深度学习分类:有监督学习方法——深度前馈网络、卷积神

    作者: QGS
    39
    2