检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在深度学习的背景下,半监督学习通常指的是学习一个表示 h = f(x)。学习表示的目的是使相同类中的样本有类似的表示。无监督学习可以为如何在表示空间聚集样本提供有用线索。在输入空间紧密聚集的样本应该被映射到类似的表示。在许多情况下,新空间上的线性分类器可以达到较好的泛化 (Belkin
当 2006 年深度学习开始现代复兴时,前馈网络仍然有不良的声誉。从 2006 年至 2012 年,人们普遍认为,前馈网络不会表现良好,除非它们得到其他模型的辅助,例如概率模型。现在已经知道,只要具备适当的资源和工程实践,前馈网络表现得非常好。今天,前馈网络中基于梯度的学习被用作
池化是一个几乎所有做深度学习的人都了解的一个技术,大家对池化如何进行前向传播也都了解,池化的作用也了解一二。然而,池化如何回传梯度呢,池化回传梯度的原则是什么呢,最大池化与平均池化的区别是什么呢,什么时候选择最大池化、什么时候选择平均池化呢。主要用的池化操作有平均池化、最大池化、
虽然,当数据很小时,深度学习算法表现不佳。这就是是深度学习算法需要大量数据才能完美理解的原因。但是,在这种情况下,我们可以看到算法的使用以及他们手工制作的规则。上图总结了这一事实。硬件依赖通常,深度学习依赖于高端机器,而传统学习依赖于低端机器。因此,深度学习要求包括GPU。这是它
一个dict,运行作业的同时输出tf.Tensor中具体的值到output_fn中,当mode==mox.ModeKey.PREDICT时必须提供,参考利用output_fn做预测。· export_spec: 一个dict,导出PB模型时指定输入输出节点,必须是一个mox.ExportSpec的实例,当mode==mox
2.6.2 模型类型Keras有两种模型类型:序贯模型使用函数API创建的模型
还有一个是vggnet,他的问题是参数太大。深度学习的问题:1面向任务单一,依赖于大规模有标签数据,几乎是个黑箱模型。现在人工智能基本由深度学习代表了,但人工智能还有更多。。。然后就开始讲深度学习的开发框架。先整了了Theano,开始于2007年的加拿大的蒙特利尔大学。随着ten
1.4 深度学习的发展随着深度学习的应用越来越广泛,3个成熟的研究领域逐渐形成,分别是计算机视觉、自然语言处理以及语音领域,目前AI创业公司也主要集中在这些领域。下面我们就重点展开来介绍这3大应用领域。1.4.1 计算机视觉计算机视觉(Computer Vision,CV),顾名
我们探讨了通过改变输入特征的数目,和加入这些特征对应的参数,改变模型的容量。事实上,还有很多方法可以改变模型的容量。容量不仅取决于模型的选择。模型规定了调整参数降低训练对象时,学习算法可以从哪些函数族中选择函数。这被称为模型的表示容量 (representational capa
有很多整流线性单元的扩展存在。大多数这些扩展的表现比得上整流线性单元,并且偶尔表现得更好。整流线性单元的一个缺陷是它们不能通过基于梯度的方法学习那些使它们激活为零的样本。整流线性单元的各种扩展保证了它们能在各个位置都接收到梯度。整流线性单元的三个扩展基于当 zi < 0 时使用一个非零的斜率
条件数表明函数相对于输入的微小变化而变化的快慢程度。输入被轻微扰动而迅速改变的函数对于科学计算来说是可能是有问题的,因为输入中的舍入误差可能导致输出的巨大变化。 考虑函数 f(x) = A−1x。当 A ∈ Rn×n 具有特征值分解时,其条件数为:
多层神经网络通常存在像悬崖一样的斜率较大区域,如图8.3所示。这是由于几个较大的权重相乘导致的。遇到斜率极大的悬崖结构时,梯度更新会很大程度地改变参数值,通常会完全跳过这类悬崖结构。不管我们是从上还是从下接近悬崖,情况都很糟糕,但幸运的是我们可以用使用介绍的启发式梯度截断(gradient
在数字计算机上实现连续数学的根本困难是,我们需要通过有限数量的位模式来表示无限多的实数。这意味着我们在计算机中表示实数时,几乎总会引入一些近似误差。在许多情况下,这仅仅是舍入误差。如果在理论上可行的算法没有被设计为最小化舍入误差的累积,可能就会在实践中失效,因此舍入误差会导致一些问题。一种特别的毁灭性舍入误差是下溢
比其他算法更敏感,这通常有两个可能原因。一个是它们使用了很难在少量样本上精确估计的信息,另一个是它们以放大采样误差的方式使用了信息。仅基于梯度 g的更新方法通常相对鲁棒,并能使用较小的批量获得成功,如 100。使用Hessian矩阵 H,计算如 H−1g 更新的二阶方法通常需要更大的批量,如
偏差和方差度量着估计量的两个不同误差来源。偏差度量着离真实函数或参数的误差期望。而方差度量着数据上任意特定采样可能导致的估计期望的偏差。当可以选择一个偏差更大的估计和一个方差更大的估计时,会发生什么呢?我们该如何选择?例如,想象我们希望近似图5.2中的函数,我们只可以选择一个偏差
涉及Dropout的一个重要观点 (Hinton et al., 2012b) 是,我们可以通过评估模型中 p(y | x) 来近似 pensemble:该模型具有所有单元,但我们将模型的权重修改为和单元 i 的概率的乘积。这个修改的动机是得到从该单元输出的正确期望值。我们把这种方法称为权重比例推断规则(weight
年所说,「我们对大脑具有冷粥粘稠度这一事实不感兴趣。」换句话说,介质不重要,重要的是计算能力。当前,最强大的 AI 系统采用机器学习的一个分支——深度学习,这些 AI 系统的算法通过处理互连节点隐藏层的大量数据来学习,这被称为深度神经网络。顾名思义,深度神经网络受到了人类大脑中真实神经网络
Regression)等。本节重点介绍线性回归算法,逻辑回归将在2.3节重点阐述。线性回归是一个很简单的回归算法,使用它可以快速地了解很多关于深度学习的基础知识。首先看一个只有一个特征值的线性回归问题,给定数据如表2.1所示。这些给定的数据也叫作数据集(Dataset),把每组数据记作
book官方维护的深度学习框架之一,Caffe的官方文档地址:http://caffe.berkeleyvision.org/,GitHub地址:https://github.com/BVLC/caffe。Caffe是老牌的深度学习框架,相信很多早期入门深度学习的人都用过Caff
就只能在CPU上运行了。相比之下,安装支持GPU的深度学习框架要比安装仅支持CPU的深度学习框架更复杂一些,因为要额外安装CUDA、cuDNN等,所以如果你想安装仅支持CPU的MXNet,那么基本上输入几个命令就可以了。深度学习框架所需要的开发环境主要包括操作系统、显卡驱动、CU