已找到以下 10000 条记录
  • 《AI安全之对抗样本入门》—

    5.1 Boosting算法Boosting系列算法的原理是在训练集用初始权重训练出一个分类器,根据分类器的表现来更新训练样本的权重,使得这些错误率高的样本在后面的训练中得到更多的重视。如此重复进行,直到分类器的数量达到事先指定的数目,最终将全部分类器通过集合策略进行整合,得到新

    作者: 华章计算机
    发表时间: 2019-06-17 16:23:12
    5212
    0
  • 混合图神经网络的少样本学习

    设计是为了处理FSL中一个基本但经常被忽视的挑战,即每个类中只有少量的样本,任何少量样本分类器都将对糟糕的采样样本敏感,这些样本要么是异常值,要么会导致类间分布重叠。我们的两个GNN分别针对这两种差采样的少样本进行设计,并在混合GNN模型中利用它们的互补性。大量实验表明,我们的H

    作者: 可爱又积极
    940
    2
  • 样本问题:时间基础度量学习的复兴

    向匹配(mutual matching)的损失函数从而构造了许多新的监督信号。我们首次使用了此前方法忽视的文本负样本,并且首次揭示了跨视频负样本的重要性。我们对于负样本的探究对应了标题中的negative sample matters。 第二个角度是从度量学习的角度使用了一个多模态联合建模空间(joint

    作者: 可爱又积极
    472
    2
  • 样本问题:时间基础度量学习的复兴

    向匹配(mutual matching)的损失函数从而构造了许多新的监督信号。我们首次使用了此前方法忽视的文本负样本,并且首次揭示了跨视频负样本的重要性。我们对于负样本的探究对应了标题中的negative sample matters。 第二个角度是从度量学习的角度使用了一个多模态联合建模空间(joint

    作者: 可爱又积极
    1179
    3
  • 查询单个样本信息 - AI开发平台ModelArts

    sample_data Array of strings 样本数据列表。 sample_dir String 样本所在路径。 sample_id String 样本ID。 sample_name String 样本名称。 sample_size Long 样本大小或文本长度,单位是字节。 sample_status

  • 机器学习笔记(九)---- 集成学习(ensemble learning)

    Boosting方法可以看做是一个不断迭代训练的方法,首先用初始权重训练一个弱分类器1,根据1的误差来更新训练样本的权重,正确的样本权重下降,错误样本的权重变高,使得前一个分类器中分类错误的样本在下一个弱分类器训练中得到更多的重视。这样经过T个迭代后,得到T个弱分类器,将这T个弱分类器通过一

    作者: 云上有未来
    发表时间: 2019-09-19 16:56:49
    8262
    0
  • 样本目标检测总结1

    以获得更好的效果2 小样本与大样本检测比较分别列出基于Pascal VOC、MS-COCO数据集上的识别结果对比。对于Pascal VOC,小样本检测已取得不错效果;而对于检测难度较大的COCO数据集(41%小目标),基于小样本的检测效果明显弱于大样本,还有很大的提升空间。3

    作者: Day-Day-Up
    发表时间: 2020-08-29 15:44:39
    9251
    0
  • CVPR2019——小样本学习论文分享

    本文分享5篇CVPR2019中发表的关于小样本学习方法的论文,内容涉及小样本识别,小样本检测,小样本分割。1586747871743038977.jpg1586747872496038078.jpg1586747872873017041.jpg1586747872941034415

    作者: 星火燎原
    发表时间: 2020-04-13 11:19:17
    8063
    0
  • UpdateSamples 批量更新样本标签 - API

    该API属于ModelArts服务,描述: 批量更新样本标签,包括添加、修改和删除样本标签。当请求体中单个样本的“labels”参数传空列表时,表示删除该样本的标签。接口URL: "/v2/{project_id}/datasets/{dataset_id}/data-annotations/samples"

  • 样本回归loss

    从decode看,如果系数(loc[2:] 为宽高)是1,那么就是priors[:,2:],就是候选框。 def decode(loc, priors, variances): """Decode locations from

    作者: 风吹稻花香
    发表时间: 2022-01-22 16:49:42
    284
    0
  • 创建样本分布统计作业 - 可信智能计算服务 TICS

    创建样本分布统计作业 创建样本分布统计作业步骤如下: 在“作业管理 > 多方安全计算”页面单击创建,进入sql开发页面,展开左侧的“合作方数据”可以看到企业A、大数据厂商B发布的不同数据集。 单击某一个数据集可以看到数据集的表结构信息。 此时企业A可以编写如下的sql语句统计双方

  • 雪浪算盘机器学习平台软件

    接入、数据库读写等)、数据处理(数据清洗、统计分析等)、工业机理(工控驱动、图像处理、信号分析、规则引擎、建模仿真等)、AI(特征工程、机器学习、深度学习)等组件包,可实现工业生产领域感知-控制-执行-反馈的全链路工业智能APP开发,同时具有多种外观与传统仪器相似的组件,可用于快

    交付方式: License
  • ListSearch 获取样本搜索条件 - API

    该API属于ModelArts服务,描述: 获取样本搜索条件。接口URL: "/v2/{project_id}/datasets/{dataset_id}/data-annotations/search-condition"

  • 样本目标检测介绍

    )利用辅助数据集,构建大量的小样本目标检测任务,从这些辅助小样本检测任务中学习出有效的针对小样本目标检测的学习方法。三 现有问题1 目前的小样本目标检测方法主要借鉴小样本分类的策略,针对小样本场景对目标定位方面的思考与改动较少。2 现有的方法泛化性能有待进一步提升,随小样本类别增加,识别效果下降明显。

    作者: Day-Day-Up
    发表时间: 2020-06-30 18:08:36
    14129
    0
  • 基于样本预处理环节的模型攻击

    Algorithms。原理说明大多数模型,都对输入的样本大小有要求。比如常见的224x224,或者自定义的大小。而且,这些尺寸是可枚举的可穷尽的,这就为黑盒尝试提供了可能。一般在样本进入模型前,都会对样本进行预处理,最基本的就是将样本resize到模型需要的大小。样本缩小,必然会丢失信息。如果,样本缩小的时候,丢失

    作者: 运气男孩
    619
    5
  • 深度学习炼丹-不平衡样本的处理

    3,类别平衡采样 前面的数据采样策略是着重于类别样本数量,而另一类采样策略则是直接着重于类别本身,不改变数据总体样本数,即类别平衡采样方法。其简单策略是把样本按类别分组,每个类别生成一个样本列表,训练过程中随机选择 1 个或几个类别,然后从每个类别所对应的样本列表中随机选择样本,这样可保证每个类别参与训练的机会比较均衡。

    作者: 嵌入式视觉
    发表时间: 2023-01-11 09:23:43
    228
    0
  • 执行样本分布联合统计

    执行样本分布联合统计 企业A单击“执行”并等待一段时间之后,可以在页面下方“执行结果”看到sql的运行结果。 也可以通过“作业管理”——“多方安全计算”——“历史作业”——“查看结果”看到对应的结果 父主题:

  • 概述 - 可信智能计算服务 TICS

    使用场景 横向联邦机器学习 横向联邦机器学习,适用于参与者的数据特征重叠较多,而样本ID重叠较少的情况,联合多个参与者的具有相同特征的多行样本进行可信联邦学习,联合建模。 模型评估 评估训练得出的模型权重在某一数据集上的预测输出效果。 纵向联邦机器学习 纵向联邦机器学习,适用于参与者

  • MSDN: 零样本学习的互语义蒸馏网络

    样本学习(zero-shot learning, ZSL)的关键挑战是如何推断已见类的视觉特征和属性特征之间的潜在语义知识,从而实现对未见类的知识迁移。以往的研究要么简单地将图像的整体特征与其关联的类语义向量对齐,要么利用单向注意学习有限的潜在语义表示,无法有效地发现视觉特征与

    作者: 可爱又积极
    762
    4
  • 《AI安全之对抗样本入门》—3.5 MXNet

    3.5 MXNetMXNet是亚马逊开发的深度学习库,它拥有类似于Theano和TensorFlow的数据流图,并且可以在常见的硬件平台上运行。MXNet还提供了R、C++、Scala等语言的接口。我们以解决经典的手写数字识别的问题为例,介绍MXNet的基本使用方法,代码路径为:https://github

    作者: 华章计算机
    发表时间: 2019-06-17 18:21:53
    4736
    0