内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 【转载】深度学习简介

    机器人学、物流管理、计算生物学、粒子物理学天文学近年来的发展也有一部分要归功于深度学习。可以看到,深度学习已经逐渐演变成一个工程师科学家皆可使用的普适工具。 特点 在描述深度学习的特点之前,我们先回顾并概括一下机器学习深度学习的关系。机器学习研究如何使计算机系统利用经验改

    作者: Tianyi_Li
    发表时间: 2020-12-15 09:58:16
    6090
    0
  • BadRabbit样本 技术分析与防护方案

    件操作沙箱检测到样本运行后,在C盘下释放创建多个恶意文件以及计划任务实现各个功能。网络操作沙箱检测到样本运行后,会扫描网络上的139445端口,以便实现传播感染。进程控制沙箱检测到样本运行后,通过释放文件创建进程的方式来启动各个恶意的功能模块。高阶分析样本执行流程图如下:处

    作者: 人生苦短,我用Python
    发表时间: 2017-11-02 12:43:03
    6955
    0
  • 深度学习应用开发》学习笔记-10

    变量xi样本指数据的特定实例x,有标签样本具有{特征,标签},用于训练模型;无标签样本具有{特征,?},用于对新数据做出预测模型可将样本映射到预测标签,由模型的内部参数定义,内部参数通过学习得到具体到这里,参数就是 y=wx+b里的wb,也权重偏差?在监督式学习,机器学习

    作者: 黄生
    1431
    3
  • 基于样本预处理环节的模型攻击

    对输入的样本大小有要求。比如常见的224x224,或者自定义的大小。而且,这些尺寸是可枚举的可穷尽的,这就为黑盒尝试提供了可能。一般在样本进入模型前,都会对样本进行预处理,最基本的就是将样本resize到模型需要的大小。        样本缩小,必然会丢失信息。如果,样本缩小的时

    作者: 亿爱
    发表时间: 2020-09-21 20:10:34
    5135
    0
  • 《AI安全之对抗样本入门》—1.3.8 InceptionV3

    所示。InceptionV3的改进是使用了2层3×3的小卷积核替代了5×5卷积核。《Web安全之深度学习实战》一书中在识别Webshell时,也用到了类似的思路,使用大小分别为3、45的一维卷积处理PHP的opcode序列,效果也非常不错。

    作者: 华章计算机
    发表时间: 2019-06-17 16:04:56
    5156
    0
  • 深度学习之图像识别核心技术与案例实战》—3 深度学习的数据

    第3章 深度学习的数据  数据是深度学习系统的输入,对深度学习的发展起着至关重要的作用,但很容易被很多人忽视,尤其是缺少实战经验的学习人员。关于深度学习的数据集,目前缺乏系统性的相关资料,因此本章先系统地介绍深度学习的数据集,从数据与深度学习的关系、几大重要方向的数据集、数

    作者: 华章计算机
    发表时间: 2019-06-02 00:12:57
    4294
    0
  • 深度学习之图像识别:核心技术与案例实战》 ——3 深度学习的数据

    第3章 深度学习的数据  数据是深度学习系统的输入,对深度学习的发展起着至关重要的作用,但很容易被很多人忽视,尤其是缺少实战经验的学习人员。关于深度学习的数据集,目前缺乏系统性的相关资料,因此本章先系统地介绍深度学习的数据集,从数据与深度学习的关系、几大重要方向的数据集、数

    作者: 华章计算机
    发表时间: 2020-02-23 13:13:57
    4900
    0
  • 神经网络深度学习

    是RNN的一个变种,能够有效解决RNN的梯度消失问题。LSTM通过“记忆单元”门机制(输入门、遗忘门、输出门)来控制信息流,从而捕捉长时间依赖。 综上所述,神经网络深度学习是机器学习领域的重要分支技术,它们通过模拟人脑神经系统的功能利用深层的神经网络架构来自动学习复杂的

    作者: 林欣
    发表时间: 2024-12-31 20:41:28
    118
    0
  • 由相似性迁移的弱样本细粒度分类

    两种噪声:异常值标签翻转。异常值指图片不属于任务中所考虑的任何种类,而标签翻转指图片的真实标签是所考虑种类的一种。对于标签翻转噪声,上文介绍的样本权重方法直接通过分配更低的权重抛弃了它们。然后图正则化可以利用它们来保持合理的特征图结构帮助特征学习。方法细节实验结果请参见论文。弱样本图像分类方法示意图

    作者: 可爱又积极
    751
    1
  • ListSearch 获取样本搜索条件 - API

    该API属于ModelArts服务,描述: 获取样本搜索条件。接口URL: "/v2/{project_id}/datasets/{dataset_id}/data-annotations/search-condition"

  • 《AI安全之对抗样本入门》—1.1.3 定义损失函数

    测值y与真实值y_之间的差距越小越好,理想的情况就是在数据集上预测值y真实值y_总是完全一样。但是事实上这几乎是无法做到的,我们需要定义预测值真实值之间的差距,也就是理想现实之间的差距。可以认为深度学习训练的过程,就是不断追求损失函数最小化的过程。以Keras为例,常见的损

    作者: 华章计算机
    发表时间: 2019-06-17 15:43:50
    4775
    0
  • 分享深度学习发展的混合学习

    网络在MNIST数据集上仅使用25个训练样本,其准确率达到90%以上。半监督学习是针对具有大量未标记样本少量标记样本的数据集而设计的。传统上,监督学习使用标记的数据集,而非监督学习使用另一个未标记的数据集。半监督学习模型可以将标记数据从未标记数据集中提取的信息结合起来。半监督

    作者: 初学者7000
    931
    1
  • 深度学习之权重比例

    权重比例推断规则在其他设定下也是精确的,包括条件态输出的回归网络以及那些隐藏层不包含非线性的深度网络。然而,权重比例推断规则对具有非线性的深度模型仅仅是一个近似。虽然这个近似尚未有理论上的分析,但在实践往往效果很好。Goodfellow et al. (2013b) 实验发现

    作者: 小强鼓掌
    953
    2
  • 《AI安全之对抗样本入门》—2.10 GPU服务器

    0: Y运行完整的程序大约需要3分钟,此速度完胜了我的Mac本。5. 手工安装深度学习库有时候需要根据软硬件环境自己选择安装对应的深度学习库,其中最重要的是看cuDNNCUDA的版本,查看服务器的cuDNNCUDA版本的方法为:#CUDA 版本cat /usr/local/cuda/version

    作者: 华章计算机
    发表时间: 2019-06-17 18:07:03
    7835
    0
  • 深度学习之权重比例

    权重比例推断规则在其他设定下也是精确的,包括条件态输出的回归网络以及那些隐藏层不包含非线性的深度网络。然而,权重比例推断规则对具有非线性的深度模型仅仅是一个近似。虽然这个近似尚未有理论上的分析,但在实践往往效果很好。Goodfellow et al. (2013b) 实验发现

    作者: 小强鼓掌
    961
    5
  • 深度学习之k-均值聚类

    我们会介绍能够学习更灵活的稀疏表示的一些其他算法(表示每个输入 x 不只一个非零项)。one-hot编码是稀疏表示的一个极端实例,丢失了很多分布式表示的优点。one-hot编码仍然有一些统计优点(自然地传达了相同聚类样本彼此相似的观点),也具有计算上的优势,因为整个表示可以

    作者: 小强鼓掌
    544
    1
  • 深度学习之支持向量机

    b 为正时,支持向量机预测属于类。类似地,当 w⊤x + b 为时,支持向量机预测属于类。       支持向量机的一个重要创新是核技巧 (kernel trick)。核策略观察到许多机器学习算法都可以写成样本间点积的形式。例如,支持向量机的线性函数可以重写为:     

    作者: 小强鼓掌
    956
    4
  • 当大数据深度学习失效时

    的预测结果达到一个预期的准确率。另外,小样本也是样本的一种,是指与“大样本”相对。在现在的研究,通常指样本容量小于或等于30的样本(小样本理论也有说法是50)。必须使用统计量的精确分布来进行统计推断。那么,什么又是小样本学习呢?“小样本学习”的概念依然是太广了,而且也不是什么新

    作者: 技术火炬手
    发表时间: 2019-10-11 15:21:05
    24247
    0
  • 深度学习应用开发》学习笔记-14

    on)好了,后面就是创建会话变量初始化tf.global_variable_initializer()然后开始迭代训练,训练的内容,是每次将样本逐个输入模型,进行梯度下降优化操作。这里为了演示,每轮迭代后绘制出模型曲线(这里有点不清楚的地方,是将样本输入模型?还是训练得到了模型

    作者: 黄生
    626
    2
  • 深度学习之半监督学习

    深度学习的背景下,半监督学习通常指的是学习一个表示 h = f(x)。学习表示的目的是使相同类样本有类似的表示。无监督学习可以为如何在表示空间聚集样本提供有用线索。在输入空间紧密聚集的样本应该被映射到类似的表示。在许多情况下,新空间上的线性分类器可以达到较好的泛化 (Belkin

    作者: 小强鼓掌
    750
    10