内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 样本问题:时间基础度量学习的复兴

    跨视频负样本的重要性。我们对于负样本的探究对应了标题中的negative sample matters。 第二个角度是从度量学习的角度使用了一个多模态联合建模空间(joint visual-language embedding space)替换复杂的多模态融合模块,从而大幅降低了

    作者: 可爱又积极
    1176
    3
  • 样本问题:时间基础度量学习的复兴

    跨视频负样本的重要性。我们对于负样本的探究对应了标题中的negative sample matters。 第二个角度是从度量学习的角度使用了一个多模态联合建模空间(joint visual-language embedding space)替换复杂的多模态融合模块,从而大幅降低了

    作者: 可爱又积极
    471
    2
  • 机器学习 样本标准差的学习

    标准差(Standard Deviation) ,中文环境又常称均方差,是离均差平方的算术平均数的平方根,用σ表示。标准差是方差的算术平方根。标准差能反映一个数据集的离散程度。平均数相同的两组数据,标准差未必相同。 标准差(

    作者: tea_year
    发表时间: 2021-12-29 14:52:55
    424
    0
  • 什么是少量样本学习(Few-Shot Learning)和零样本学习(Zero-Shot Learning)

    合的能力让零样本学习在跨模态任务也展现了广阔的应用前景。 少量样本学习与零样本学习的技术差异 虽然少量样本学习和零样本学习在解决数据稀缺问题上有相似的目的,但它们在技术实现上有着显著的差异。 样本需求:少量样本学习依赖于少量标注数据来进行训练,而零样本学习则完全不需要

    作者: 汪子熙
    发表时间: 2024-11-01 19:37:32
    0
    0
  • CVPR2019——小样本学习论文分享

    本文分享5篇CVPR2019发表的关于小样本学习方法的论文,内容涉及小样本识别,小样本检测,小样本分割。1586747871743038977.jpg1586747872496038078.jpg1586747872873017041.jpg1586747872941034415

    作者: 星火燎原
    发表时间: 2020-04-13 11:19:17
    8063
    0
  • MSDN: 零样本学习的互语义蒸馏网络

    样本学习(zero-shot learning, ZSL)的关键挑战是如何推断已见类的视觉特征和属性特征之间的潜在语义知识,从而实现对未见类的知识迁移。以往的研究要么简单地将图像的整体特征与其关联的类语义向量对齐,要么利用单向注意学习有限的潜在语义表示,无法有效地发现视觉特征与

    作者: 可爱又积极
    761
    4
  • 机器学习方法解决信息论多年开放问题?基于核方法的渐进最优单样本和双样本检验

    假设检验问题:。双样本问题(two-sample or homogeneity testing),给定样本和,目标是判断和是否由同一个分布产生。如果我们用P和Q分别表示样本的潜在分布,那我们同样考虑一个假设检验问题:。 单样本和双样本问题有很长的历史,在实际也有非常广泛的应用

    作者: 请叫我七七
    213
    0
  • 更新的训练样本,如何同步在自动学习模型同步?

    样本后怎么添加自动学习的模型

    作者: yd_250218838
    20
    3
  • 样本类别不平衡

    我在训练的时候总是的不到号的效果,后面发现是样本的类别差别太大了,正负样本快10:1,我要怎么做呢,已经没有更多的数据了

    作者: taaita
    940
    3
  • 关于《面向未知域和未知类别的小样本学习》赛程

    主办方您好:请问目前测试的资料集和20号之后算最后成绩的资料集是同一份吗?换句话说就是,这次的比赛有分A、B榜吗?还请帮忙解答一下。感谢!

    作者: shortcake
    1731
    1
  • DeleteSamples 批量删除样本 - API

    该API属于ModelArts服务,描述: 批量删除样本。接口URL: "/v2/{project_id}/datasets/{dataset_id}/data-annotations/samples/delete"

  • 学习英语的“七正负二原理”

    掘它。其实不知学习英语需要“逻辑”,中文同样需要。我们可以应用“7正负2原理”来学习。 忆的七正负二原理 人的大脑记忆有限,一次只能记忆七项东西。就算经过训练,脑的连结比较发达的人,大约也只能多记得两样;脑连结比较弱的,就比七样少了两样,这就是所谓的七正负二原理。而这个基

    作者: ksh1998
    发表时间: 2021-12-29 14:20:15
    761
    0
  • 浅谈深度学习

    学习方法——深度前馈网络、卷积神经网络、循环神经网络等;无监督学习方法——深度信念网、深度玻尔兹曼机,深度自编码器等。深度学习的思想:深度神经网络的基本思想是通过构建多层网络,对目标进行多层表示,以期通过多层的高层次特征来表示数据的抽象语义信息,获得更好的特征鲁棒性。深度学习应用

    作者: QGS
    38
    2
  • 随机样本选择——快速求解机器学习的优化问题

    有少数感兴趣的报告,这里谈一下全场最后一个报告。报告人是Jorge Nocedal,就是著名的LBFGS的作者。 他关注的问题是一类机器学习中非常常见的优化模型:

    作者: 格图洛书
    发表时间: 2021-12-29 18:20:39
    394
    0
  • 创建样本分布统计作业

    此时企业A可以编写如下的sql语句统计双方的数据碰撞后的正负样本总数,正负样本总数相加即为双方共有数据的总数。 select sum( case when i.label > 0 then 1 else 0 end ) as positive_count

  • 数据样本少?数据不出局?联邦学习专治各种不服!

    根据数据分布的场景,联邦学习可以分为:横向联邦学习,纵向联邦学习以及联邦迁移学习。 1. 横向联邦学习:训练的数据特征相同,分布在不同地方的数据是属于不同用户的,属于样本数量的扩展,适用于同领域的样本量联合建模。 2. 纵向联邦学习:训练的数据特征不同,分布在不同地方的数据是属于相同用户的,属于样本特征的扩展,适用于不同领域的样本特征联合建模。

    作者: iMaster NAIE官方
    发表时间: 2021-11-24 08:48:52
    2546
    0
  • 数据样本少?数据不出局?联邦学习专治各种不服!

    根据数据分布的场景,联邦学习可以分为:横向联邦学习,纵向联邦学习以及联邦迁移学习。 1. 横向联邦学习:训练的数据特征相同,分布在不同地方的数据是属于不同用户的,属于样本数量的扩展,适用于同领域的样本量联合建模。 2. 纵向联邦学习:训练的数据特征不同,分布在不同地方的数据是属于相同用户的,属于样本特征的扩展,适用于不同领域的样本特征联合建模。

    作者: iMaster NAIE官方
    发表时间: 2021-08-28 03:26:46
    2629
    0
  • 机器学习深度学习

    有趣的是,二十一世纪初,连接主义学习又卷上重来,掀起了以 “深度学习”为名的热潮.所谓深度学习,狭义地说就是 “很多层 " 的神经网络.在若干测试和竞赛上,尤其是涉及语音、 图像等复杂对象的应用深度学习技术取得了优越性能以往机器学习技术在应用要取得好性能,对使用者的要求较高;而深度学习技术涉及的模型复杂度非常高,以至千只要下工夫

    作者: ypr189
    730
    1
  • 样本学习在文心ERNIE3.0多分类任务应用--提示学习

    务场景,特别是垂直领域、特定行业,训练样本数量不足的问题广泛存在,极大地影响这些模型在下游任务的准确度,因此,预训练语言模型学习到的大量知识无法充分地发挥出来。本项目实现基于预训练语言模型的小样本数据调优,从而解决大模型与小训练集不相匹配的问题。 小样本学习是机器学习领域未来

    作者: 汀丶
    发表时间: 2022-11-11 06:09:06
    312
    0
  • 时序对齐预测的监督表示学习与少样本序列分类

    列表示学习,我们展示了用各种度量学习损失训练的 TAP 以更快的推理速度实现了具有竞争力的性能。对于小样本动作分类,我们将 TAP 作为基于度量学习的episode训练范式的距离度量。这种简单的策略取得了与最先进的小样本动作识别方法接近的结果。https://openreview

    作者: 可爱又积极
    1972
    2