内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 《AI安全之对抗样本入门》—3 常见深度学习平台简介

    第3章常见深度学习平台简介在第2章中,我们介绍了如何搭建对抗样本的工具箱环境,概要介绍了主流的深度学习平台。本章将结合实际案例,具体介绍TensorFlow、Keras、PyTorch和MXNet平台的使用方法。3.1 张量与计算图在Python编程中,我们经常使用NumPy表示

    作者: 华章计算机
    发表时间: 2019-06-17 18:09:38
    3402
    0
  • Python学习笔记(38)~样本抽样

    样本抽样 Demo #!/usr/bin/python3 from random import randint,sample ''' randint(0,50):0-50之间的随机整数 range(100):[0,100) sample(lst,10):从lst中 随机抽取

    作者: 海轰Pro
    发表时间: 2021-08-05 14:57:09
    706
    0
  • 混合图神经网络的少样本学习

    应模块,使元学习的特征嵌入快速适应新任务。重要的是,它们的设计是为了处理FSL中一个基本但经常被忽视的挑战,即每个类中只有少量的样本,任何少量样本分类器都将对糟糕的采样样本敏感,这些样本要么是异常值,要么会导致类间分布重叠。我们的两个GNN分别针对这两种差采样的少样本进行设计,并

    作者: 可爱又积极
    940
    2
  • 样本问题:时间基础度量学习的复兴

    跨视频负样本的重要性。我们对于负样本的探究对应了标题中的negative sample matters。 第二个角度是从度量学习的角度使用了一个多模态联合建模空间(joint visual-language embedding space)替换复杂的多模态融合模块,从而大幅降低了

    作者: 可爱又积极
    472
    2
  • 样本问题:时间基础度量学习的复兴

    跨视频负样本的重要性。我们对于负样本的探究对应了标题中的negative sample matters。 第二个角度是从度量学习的角度使用了一个多模态联合建模空间(joint visual-language embedding space)替换复杂的多模态融合模块,从而大幅降低了

    作者: 可爱又积极
    1178
    3
  • 机器学习 样本标准差的学习

    标准差(Standard Deviation) ,中文环境中又常称均方差,是离均差平方的算术平均数的平方根,用σ表示。标准差是方差的算术平方根。标准差能反映一个数据集的离散程度。平均数相同的两组数据,标准差未必相同。 标准差(

    作者: tea_year
    发表时间: 2021-12-29 14:52:55
    424
    0
  • 什么是少量样本学习(Few-Shot Learning)和零样本学习(Zero-Shot Learning)

    给出少量标注样本(如每个类 1-5 个),而模型仍然能够准确地进行分类。通常,少量样本学习被应用于需要快速适应新任务且无法收集大量数据的情境中。 少量样本学习与传统的深度学习方法不同。传统的深度学习模型往往需要大量的标注数据来进行训练,而少量样本学习则依赖于其他的学习机制来实现知

    作者: 汪子熙
    发表时间: 2024-11-01 19:37:32
    0
    0
  • CVPR2019——小样本学习论文分享

    本文分享5篇CVPR2019中发表的关于小样本学习方法的论文,内容涉及小样本识别,小样本检测,小样本分割。1586747871743038977.jpg1586747872496038078.jpg1586747872873017041.jpg1586747872941034415

    作者: 星火燎原
    发表时间: 2020-04-13 11:19:17
    8063
    0
  • MSDN: 零样本学习的互语义蒸馏网络

    样本学习(zero-shot learning, ZSL)的关键挑战是如何推断已见类的视觉特征和属性特征之间的潜在语义知识,从而实现对未见类的知识迁移。以往的研究要么简单地将图像的整体特征与其关联的类语义向量对齐,要么利用单向注意学习有限的潜在语义表示,无法有效地发现视觉特征与

    作者: 可爱又积极
    762
    4
  • DeleteSamples 批量删除样本 - API

    该API属于ModelArts服务,描述: 批量删除样本。接口URL: "/v2/{project_id}/datasets/{dataset_id}/data-annotations/samples/delete"

  • 学习英语的“七正负二原理”

    掘它。其实不知学习英语需要“逻辑”,中文同样需要。我们可以应用“7正负2原理”来学习。 忆的七正负二原理 人的大脑记忆有限,一次只能记忆七项东西。就算经过训练,脑的连结比较发达的人,大约也只能多记得两样;脑连结比较弱的,就比七样少了两样,这就是所谓的七正负二原理。而这个基

    作者: ksh1998
    发表时间: 2021-12-29 14:20:15
    761
    0
  • 创建样本分布统计作业

    此时企业A可以编写如下的sql语句统计双方的数据碰撞后的正负样本总数,正负样本总数相加即为双方共有数据的总数。 select sum( case when i.label > 0 then 1 else 0 end ) as positive_count

  • 关于《面向未知域和未知类别的小样本学习》赛程

    主办方您好:请问目前测试的资料集和20号之后算最后成绩的资料集是同一份吗?换句话说就是,这次的比赛有分A、B榜吗?还请帮忙解答一下。感谢!

    作者: shortcake
    1731
    1
  • 机器学习方法解决信息论中多年开放问题?基于核方法的渐进最优单样本和双样本检验

    testing)中,给定样本和,目标是判断和是否由同一个分布产生。如果我们用P和Q分别表示样本的潜在分布,那我们同样考虑一个假设检验问题:。 单样本和双样本问题有很长的历史,在实际中也有非常广泛的应用。异常检测中,异常样本通常认为是来自和正常分布不同的分布。在变化点检测中,变化点之前的样本分布与变

    作者: 请叫我七七
    214
    0
  • 样本类别不平衡

    我在训练的时候总是的不到号的效果,后面发现是样本的类别差别太大了,正负样本快10:1,我要怎么做呢,已经没有更多的数据了

    作者: taaita
    943
    3
  • 浅谈深度学习

    学习方法——深度前馈网络、卷积神经网络、循环神经网络等;无监督学习方法——深度信念网、深度玻尔兹曼机,深度自编码器等。深度学习的思想:深度神经网络的基本思想是通过构建多层网络,对目标进行多层表示,以期通过多层的高层次特征来表示数据的抽象语义信息,获得更好的特征鲁棒性。深度学习应用

    作者: QGS
    39
    2
  • 数据样本少?数据不出局?联邦学习专治各种不服!

    根据数据分布的场景,联邦学习可以分为:横向联邦学习,纵向联邦学习以及联邦迁移学习。 1. 横向联邦学习:训练的数据特征相同,分布在不同地方的数据是属于不同用户的,属于样本数量的扩展,适用于同领域的样本量联合建模。 2. 纵向联邦学习:训练的数据特征不同,分布在不同地方的数据是属于相同用户的,属于样本特征的扩展,适用于不同领域的样本特征联合建模。

    作者: iMaster NAIE官方
    发表时间: 2021-11-24 08:48:52
    2546
    0
  • 数据样本少?数据不出局?联邦学习专治各种不服!

    根据数据分布的场景,联邦学习可以分为:横向联邦学习,纵向联邦学习以及联邦迁移学习。 1. 横向联邦学习:训练的数据特征相同,分布在不同地方的数据是属于不同用户的,属于样本数量的扩展,适用于同领域的样本量联合建模。 2. 纵向联邦学习:训练的数据特征不同,分布在不同地方的数据是属于相同用户的,属于样本特征的扩展,适用于不同领域的样本特征联合建模。

    作者: iMaster NAIE官方
    发表时间: 2021-08-28 03:26:46
    2629
    0
  • 深度学习是什么?

    深度学习(DL, Deep Learning)是机器学习(ML, Machine Learning)领域中一个新的研究方向,它被引入机器学习使其更接近于最初的目标——人工智能(AI, Artificial Intelligence)。深度学习学习样本数据的内在规律和表示层次,这

    作者: QGS
    821
    2
  • 更新的训练样本,如何同步在自动学习模型中同步?

    样本后怎么添加自动学习的模型中?

    作者: yd_250218838
    21
    3