内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • ListSearch 获取样本搜索条件 - API

    该API属于ModelArts服务,描述: 获取样本搜索条件。接口URL: "/v2/{project_id}/datasets/{dataset_id}/data-annotations/search-condition"

  • 深度学习之Dropout

    强大。在第一种近似下,Dropout可以被认为是集成大量深层神经网络的实用Bagging方法。Bagging涉及训练多个模型,并在每个测试样本上评估多个模型。当每个模型都是一个很大的神经网络时,这似乎是不切实际的,因为训练和评估这样的网络需要花费很多运行时间和内存。通常我们只能集成五至十个神经网络,如Szegedy

    作者: 小强鼓掌
    1021
    2
  • 样本T检验——机器学习特征工程相关性分析实战

    最近在做数据分析方面的工作,经常需要检验两组样本之间是否存在差异,所以会遇到统计学假设检验相关的知识。在机器学习特征工程这一步,笔者最常用到的是假设检验的卡方检验去做特征选择,因为卡方检验可以做两个及两个以上样本率( 构成比)以及两个分类变量的关联性分析。但是笔者今天想介绍一下通过T检验做机器学习的特征工程

    作者: 格图洛书
    发表时间: 2021-11-18 17:11:29
    553
    0
  • 深度学习之任务T

    机器学习可以让我们解决一些人为设计和实现固定程序很难解决的问题。从科学和哲学的角度来看,机器学习受到关注是因为提高我们对机器学习的认识需要提高我们对智能背后原理的理解。如果考虑“任务”比较正式的定义,那么学习的过程并不是任务。在相对正式的 “任务”定义学习过程本身并不是任务。

    作者: 小强鼓掌
    820
    3
  • 机器学习深度学习区别

    深度学习由经典机器学习发展而来,两者有着相同与不同特点1.完全不同的模式机器学习:使计算机能从数据中学习,并利用其学到的知识来提供答案(通常为预测)。依赖于不同的范式(paradigms),例如统计分析、寻找数据相似性、使用逻辑等深度学习:使用单一技术,最小化人脑劳动。使用被称为

    作者: 极客潇
    1358
    4
  • 深度学习之模板匹配

    1999)。核机器的一个主要缺点是计算决策函数的成本关于训练样本的数目是线性的。因为第 i 个样本贡献 αik(x, x(i)) 到决策函数。支持向量机能够通过学习主要包含零的向量 α,以缓和这个缺点。那么判断新样本的类别仅需要计算非零 αi 对应的训练样本的核函数。这些训练样本被称为支持向量 (support

    作者: 小强鼓掌
    464
    1
  • 深度学习之虚拟对抗

    纯粹的线性模型,如逻辑回归,由于它们被限制为线性而无法抵抗对抗样本。神经网络能够将函数从接近线性转化为局部近似恒定,从而可以灵活地捕获到训练数据的线性趋势同时学习抵抗局部扰动。对抗样本也提供了一种实现半监督学习的方法。在与数据集中的标签不相关联的点 x 处,模型本身为其分配一些标签

    作者: 小强鼓掌
    677
    1
  • 深度学习之流形学习

    的一维流形。在机器学习,我们允许流形的维数从一个点到另一个点有所变化。这经常发生于流形和自身相交的情况。例如,数字“8” 形状的流形在大多数位置只有一维,但在中心的相交处有两维。      如果我们希望机器学习算法学习 Rn 上的所有感兴趣的函数,那么很多机器学习问题看上去都是不可解的。流形学习

    作者: 小强鼓掌
    1676
    3
  • 《AI安全之对抗样本入门》—

    1.5 集成学习集成学习(Ensemble Learning)是使用一系列学习器进行学习,并使用某种规则把各个学习结果进行整合从而获得比单个学习器更好的学习效果的一种机器学习方法。如图1-34所示,集成学习的思路是在对新的实例进行分类的时候,把若干个单个分类器集成起来,通过对多个

    作者: 华章计算机
    发表时间: 2019-06-17 16:23:12
    5212
    0
  • 自动学习

    自动学习的关键技术主要是基于信息熵上限近似模型的树搜索最优特征变换和基于信息熵上限近似模型的贝叶斯优化自动调参。通过这些关键技术,可以从企业关系型(结构化)数据,自动学习数据特征和规律,智能寻优特征&ML模型及参数,准确性甚至达到专家开发者的调优水平。自动深度学习的关

  • 样本图像分类综述

    面对人工标注大量样本费时费力,一些稀有类别样本难于获取等问题,零样本图像分类成为计算机视觉领域的一个研究热点。首先,对零样本学习,包括直推式零样本学习和归纳式零样本学习进行了简单介绍;其次,重点介绍了基于空间嵌入零样本图像分类方法和基于生成模型零样本图像分类方法以及它们的子类方法

    作者: 可爱又积极
    1425
    2
  • 深度学习笔记之应用

    这种复杂性日益增加的趋势已将其推向逻辑结论,即神经图灵机 (Graves et al., 2014) 的引入,它能学习读取存储单元和向存储单元写入任意内容。这样的神经网络可以从期望行为的样本学习简单的程序。例如,从杂乱和排好序的样本学习对一系列数进行排序。这种自我编程技术正处于起步阶段,但原则上未来可以适用于几乎所有的任务。

    作者: 小强鼓掌
    623
    0
  • 深度学习之流形学习

    的一维流形。在机器学习,我们允许流形的维数从一个点到另一个点有所变化。这经常发生于流形和自身相交的情况。例如,数字“8” 形状的流形在大多数位置只有一维,但在中心的相交处有两维。      如果我们希望机器学习算法学习 Rn 上的所有感兴趣的函数,那么很多机器学习问题看上去都是不可解的。流形学习

    作者: 小强鼓掌
    1053
    2
  • 深度学习应用开发》学习笔记-23

    11.9] ,shape= (506,) ```python #数据就已经读进来了 #None代表未知,因为我们可以一次带入一行样本,也可以一次带入多行样本 x=tf.placeholder(tf.float32,[None,12],name="X") y=tf.placeholder(tf

    作者: 黄生
    1471
    4
  • 深度学习之流形学习

    间中的一维流形。在机器学习,我们允许流形的维数从一个点到另一个点有所变化。这经常发生于流形和自身相交的情况。例如,数字 “8’’ 形状的流形在大多数位置只有一维,但在中心的相交处有两维。如果我们希望机器学习算法学习 Rn 上的所有感兴趣的函数,那么很多机器学习问题看上去都是不可解的。流形学习

    作者: 小强鼓掌
    811
    1
  • 深度学习之批量算法

    促使我们从小数目样本获得梯度的统计估计的动机是训练集的冗余。在最坏的情况下,训练集中所有的 m 个样本都是彼此相同的拷贝。基于采样的梯度估计可以使用单个样本计算出正确的梯度,而比原来的做法少花了 m 倍时间。实践,我们不太可能真的遇到这种最坏情况,但我们可能会发现大量样本都对梯度做

    作者: 小强鼓掌
    314
    1
  • 深度学习之函数估计

    可能具有过高的方差),k-折交叉验证算法可以用于估计学习算法 A 的泛化误差。数据集 D 包含的元素是抽象的样本 z(i) (对于第 i 个样本),在监督学习的情况代表(输入,目标)对 z(i) = (x(i), y(i)) ,或者无监督学习的情况下仅用于输入 z(i) = x(i)。该算法返回 D 每个示例的误差向量

    作者: 小强鼓掌
    835
    1
  • 深度学习概述

    合往往能较好地学习训练集数据的性质,而在测试集上的性能较差。在神经网络训练的过程,欠拟合主要表现为输出结果的高偏差,而过拟合主要表现为输出结果的高方差。机器学习的目标:是使学得的模型能够很好的适用于新的样本,而不是仅仅在训练样本上工作的很好,学得的模型适用于新样本的能力称为泛化能力,也称为鲁棒性。

    作者: 大鹏爱学习
    发表时间: 2022-10-17 10:07:38
    961
    0
  • [自然语言处理|NLP]NLP在小样本学习与元学习的应用:从原理到实践

    NLP的小样本学习与元学习:走向更智能的自然语言处理 1. 引言 随着自然语言处理(NLP)领域的不断发展,研究者们逐渐关注到处理小样本学习和元学习的问题。小样本学习指的是在有限的数据集上训练模型,而元学习则涉及在不同任务之间进行学习,从而使得模型能够更好地适应新任务。本文

    作者: Y-StarryDreamer
    发表时间: 2023-11-29 13:04:42
    3
    0
  • 基于样本预处理环节的模型攻击

    Algorithms。原理说明大多数模型,都对输入的样本大小有要求。比如常见的224x224,或者自定义的大小。而且,这些尺寸是可枚举的可穷尽的,这就为黑盒尝试提供了可能。一般在样本进入模型前,都会对样本进行预处理,最基本的就是将样本resize到模型需要的大小。样本缩小,必然会丢失信息。如果,样本缩小的时候,丢失

    作者: 运气男孩
    619
    5