已找到以下 10000 条记录
  • 深度学习入门》笔记 - 19

    一个线性模型。现实的回归问题或者分类问题的决策边界通常都是复杂且非线性的。这要求模型具有产生复杂的非线性决策边界的能力,在这一点上激活函数神经网络中扮演了非常重要的角色,通常我们让隐藏层的每一个节点值都通过激活函数进行变换,使得输出层是输入层的一个非线性函数。当神经网络有很多隐

    作者: 黄生
    35
    1
  • 深度学习入门》笔记 - 10

    353372.png) 好了我们上面说的是最简单的情况,因为为了学习,是一个权重或叫参数w,一个自变量x,并且只有一个观测点(x,y)。 实际情况中,一般就不仅仅是学习的那么简单的情况。 数据会包含多个自变量,多个权重,很多个观测点。 用 $L(w)=L(w_1,w_2,...

    作者: 黄生
    192
    1
  • 多模态深度学习方法综述【转】

    多模态方法种类多模态深度学习是指将来自不同感知模态的信息(如图像、文本、语音等)融合到一个深度学习模型中,以实现更丰富的信息表达和更准确的预测。多模态深度学习中,模型之间的融合通常有以下三种方法: 模态联合学习(Multimodal Joint Learning):模态联合学习

    作者: 浩泽学编程
    106
    3
  • 深度学习之流形学习

    点,只需要考虑少数嵌入高维空间中的自由度或维数就能很好地近似。每一维都对应着局部的变动方向。训练数据位于二维空间中的一维流形中。机器学习中,我们允许流形的维数从一个点到另一个点有所变化。这经常发生于流形和自身相交的情况中。例如,数字“8” 形状的流形大多数位置只有一维,但在中心的相交处有两维。 

    作者: 小强鼓掌
    1053
    2
  • 深度学习应用开发学习

    全连接层的概念,以及ReLU等激活函数的作用。深度学习的核心是构建多层的神经网络,而卷积神经网络(CNN)的发展,尤其是AlexNet2012年的突破,让我对深度学习的强大能力有了更深的认识。在学习过程中,我也了解到了不同的深度学习开发框架,包括Theano、Caffe、Tor

    作者: 黄生
    22
    0
  • 机器学习之深度学习

    有趣的是,二十一世纪初,连接主义学习又卷上重来,掀起了以 “深度学习”为名的热潮.所谓深度学习,狭义地说就是 “很多层 " 的神经网络.若干测试和竞赛上,尤其是涉及语音、 图像等复杂对象的应用中,深度学习技术取得了优越性能以往机器学习技术应用中要取得好性能,对使用者的要求较高;而深度学习技术涉及的模型复杂度非常高,以至千只要下工夫

    作者: ypr189
    731
    1
  • 深度学习之快速 Dropout

    Dropout(fast dropout),减小梯度计算中的随机性而获得更快的收敛速度。这种方法也可以测试时应用,能够比权重比例推断规则更合理地(但计算也更昂贵)近似所有子网络的平均。快速 Dropout小神经网络上的性能几乎与标准的Dropout相当,但在大问题上尚未产生显著改善或尚未应用

    作者: 小强鼓掌
    1197
    4
  • 深度学习神经网络

    店或者是学校,以及你是否需要驾驶汽车。有些人喜欢居住在以步行为主的区域,另外根据邮政编码还和富裕程度相关(美国是这样的)。但在其它国家也可能体现出附近学校的水平有多好。图上每一个画的小圆圈都可以是ReLU的一部分,也就是指修正线性单元,或者其它稍微非线性的函数。基于房屋面积和

    作者: 运气男孩
    656
    2
  • 深度学习之经验E

    (unsupervised learning algorithm) 训练含有很多特征的数据集,然后学习出这个数据集上有用的结构性质。深度学习中,我们通常要学习生成数据集的整个概率分布,显式地,比如密度估计,或是隐式地,比如合成或去噪。还有一些其他类型的无监督学习任务,例如聚类,将数据集分成相似样本的集合。

    作者: 小强鼓掌
    1164
    3
  • 深度学习之灾难遗忘

    的块数保持很低的话,它们可以没有正则化的情况下工作得不错 (Cai et al., 2013)。maxout 单元还有一些其他的优点。某些情况下,要求更少的参数可以获得一些统计和计算上的优点。具体来说,如果由 n 个不同的线性过滤器描述的特征可以不损失信息的情况下,用每一组

    作者: 小强鼓掌
    418
    0
  • 深度学习之长期依赖

    便是梯度爆炸现象的一个例子。此处描述的各时间步重复与 W 相乘非常类似于寻求矩阵 W 的最大特征值及对应特征向量的幂方法(power method)。从这个观点来看,x⊤Wt 最终会丢弃 x中所有与 W 的主特征向量正交的成分。循环网络各时间步上使用相同的矩阵 W,而前馈网络

    作者: 小强鼓掌
    317
    2
  • 深度学习之贝叶斯统计

    状态的确定性程度。数据集能够直接观测到,因此不是随机的。另一方面,真实参数 θ 是未知或不确定的,因此可以表示成随机变量。        观察到数据前,我们将 θ 的已知知识表示成先验概率分布 (prior probability distribution),p(θ)(有时简单地称为

    作者: 小强鼓掌
    619
    1
  • 深度学习之平滑先验

    f∗(x + ϵ).虽然 k-最近邻算法复制了附近训练样本的输出,大部分核机器也是和附近训练样本相关的训练集输出上插值。一类重要的核函数是局部核 (local kernel),其核函数 k(u, v) u = v 时很大,当 u 和 v 距离拉大时而减小。局部核可以看作是执行模版匹配的相似函数,用于度量测试样本

    作者: 小强鼓掌
    1195
    1
  • 深度学习替代职业

    科技公司通过基于GAN的深度学习开发了一种名为“自动全身模型生成人工智能”的技术,他们完全是由人工智能虚拟而成,时尚品牌或广告代理商因而可以不用支付模特酬劳,也不用负担拍摄相关的人员、场地、灯光、设备、甚至是餐饮等成本,这意味着人工智能已经完全可以取代人类模特拍摄时尚宣传广告了。

    作者: 初学者7000
    959
    5
  • 华为云深度学习

    群和0.8的线性加速比,原先一个月的模型训练时间,现在1小时搞定机会难得,小伙伴们还不抓紧来体验,数量有限,先到先得哦!!点击访问华为云深度学习官网

    作者: 斑馬斑馬
    331
    0
  • PyTorch深度学习技术生态

    runtimeONNX Runtime是一种跨平台深度学习训练和推理机加速器,与深度学习框架,可以兼容TensorFlow、Keras和PyTorch等多种深度学习框架。ONNX (Open Neural Network Exchange) 是一种用于表示深度学习模型的开放格式,ONNX定义了一组

    作者: 可爱又积极
    1287
    0
  • 深度学习入门》笔记 - 17

    正向传播(Forward Propagation FP)算法指输入值通过神经网络得到输出值的方法。正向传播算法的计算图如下:$sigma$表示sigmoid函数,也就是激活函数。包含损失函数的计算图如下:得到$l_2$,通过$l$计算损失函数L,其中$l$表示求解损失函数的运算。

    作者: 黄生
    35
    3
  • 深度学习入门》笔记 - 28

    线性回归模型相当于下面的简单神经网络模型,它没有隐藏层、输出层只有1个节点,激活函数是线性函数。使用 tf.keras.models.Sequential()构建模型使用 model.compile() 设置优化方法、损失函数、评价指标 (损失函数的值即 训练误差;评价指标的值即

    作者: 黄生
    33
    5
  • 深度学习之Dropout启发

    Dropout启发其他以随机方法训练指数量级的共享权重的集成。DropConnect是Dropout的一个特殊情况,其中一个标量权重和单个隐藏单元状态之间的每个乘积被认为是可以丢弃的一个单元 (Wan et al., 2013)。随机池化是构造卷积神经网络集成的一种随机池化的形式

    作者: 小强鼓掌
    546
    1
  • 深度学习入门》笔记 - 04

    数据清理和数据准备。他的数据结构主要有两种:`序列(series)`和`数据表(dataframe)`。 画图工具mathplotlib是Python中最流行的,可以很方便的实现数据的图形化展示。使用前要载入mathplotlib的`pyplot`。 其实这些知识在华为云的AI

    作者: 黄生
    41
    1