内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 【转载】深度学习与人脑

    深度学习是机器学习的一个子集,它通过接收大量数据并试图从中学习来模拟人脑。在IBM对该术语的定义深度学习使系统能够“聚集数据,并以令人难以置信的准确性做出预测。” 然而,尽管深度学习令人难以置信,但IBM尖锐地指出,它无法触及人脑处理和学习信息的能力。深度学习和 DNN(深度

    作者: 乔天伊
    18
    3
  • 深度学习之Dropout启发

    过包括或排除单元形成模型集成的Bagging。然而,这种参数共享策略不一定要基于包括和排除。原则上,任何一种随机的修改都是可接受的。在实践,我们必须选择让神经网络能够学习对抗的修改类型。在理想情况下,我们也应该使用可以快速近似推断的模型族。我们可以认为由向量 µ 参数化的任何形式的修改,是对

    作者: 小强鼓掌
    544
    1
  • 深度学习之浅层网络

    存在一些函数族能够在网络的深度大于某个值 d 时被高效地近似,而当深度被限制到小于或等于 d 时需要一个远远大于之前的模型。在很多情况下,浅层模型所需的隐藏单元的数量是 n 的指数级。这个结果最初被证明是在那些不与连续可微的神经网络类似的机器学习模型中出现,但现在已经扩展到了这些模型。第一个结果是关于逻辑门电路的

    作者: 小强鼓掌
    840
    1
  • 深度学习入门》笔记 - 11

    46941055 3.19188802] Loss: 1.62702 [3.46941055 3.19188802] ``` 在`随机梯度下降法`,每次迭代只使用一个观测点,计算的梯度随机性比较大,所以有时候参数的值不会朝着最小损失的方向移动。 `全数据梯度下降法`(`Full Gradient

    作者: 黄生
    180
    2
  • 深度学习之对抗样本

    Goodfellow et al. (2014b) 表明,这些对抗样本的主要原因之一是过度线性。神经网络主要是基于线性块构建的。因此在一些实验,它们实现的整体函数被证明是高度线性的。这些线性函数很容易优化。不幸的是,如果一个线性函数具有许多输入,那么它的值可以非常迅速地改变。如果我们用

    作者: 小强鼓掌
    630
    3
  • 深度学习之参数绑定

    参数添加约束或惩罚时,一直是相对于固定的区域或点。例如,L2正则化(或权重衰减)对参数偏离零的固定值进行惩罚。然而,有时我们可能需要其他的方式来表达我们对模型参数适当值的先验知识。有时候,我们可能无法准确地知道应该使用什么样的参数,但我们根据领域和模型结构方面的知识得知模型参数之

    作者: 小强鼓掌
    833
    2
  • 深度学习替代职业

    科技公司通过基于GAN的深度学习开发了一种名为“自动全身模型生成人工智能”的技术,他们完全是由人工智能虚拟而成,时尚品牌或广告代理商因而可以不用支付模特酬劳,也不用负担拍摄相关的人员、场地、灯光、设备、甚至是餐饮等成本,这意味着人工智能已经完全可以取代人类模特拍摄时尚宣传广告了。

    作者: 初学者7000
    959
    5
  • 深度学习入门》笔记 - 07

    些偏导数等于零,解方程得到b和w的估计值。但是这个方法只适合少数结构比较简单的模型(比如线性回归模型),不能求解深度学习这类复杂模型的参数。 所以下面介绍的是深度学习中常用的优化算法:`梯度下降法`。其中有三个不同的变体:随机梯度下降法、全数据梯度下降法、和批量随机梯度下降法。

    作者: 黄生
    155
    2
  • 深度学习入门》笔记 - 24

    经网络模型过拟合。这种策略称为早停法。early stopping.然而在现实验证误差有可能不是单调减少的,就是带波的。所以早停法虽然防止了过拟合,但是有可能没能得到更好的神经网络模型。(比如下图,得到了B,但是C更好)

    作者: 黄生
    37
    2
  • 深度学习之长期依赖

    难。深层的计算图不仅存在于前馈网络,还存在于之后介绍的循环网络(在第十章描述)。因为循环网络要在很长时间序列的各个时刻重复应用相同操作来构建非常深的计算图,并且模型参数共享,这使问题更加凸显。例如,假设某个计算图包含一条反复与矩阵 W 相乘的路径。那么 t 步后,相当于乘以

    作者: 小强鼓掌
    317
    2
  • 深度学习框架MindSpore介绍

    构可以让用户聚焦模型算法数学原生表达。资深的深度学习开发者都体会过手动求解的过程,不仅求导过程复杂,结果还很容易出错。所以现有深度学习框架,都有自动微分的特性,帮助开发者利用自动微分技术实现自动求导,解决这个复杂、关键的过程。深度学习框架的自动微分技术根据实现原理的不同,分为以G

    作者: 运气男孩
    877
    2
  • PyTorch深度学习技术生态

    runtimeONNX Runtime是一种跨平台深度学习训练和推理机加速器,与深度学习框架,可以兼容TensorFlow、Keras和PyTorch等多种深度学习框架。ONNX (Open Neural Network Exchange) 是一种用于表示深度学习模型的开放格式,ONNX定义了一组

    作者: 可爱又积极
    1286
    0
  • 深度学习之平滑先验

    很大的变化。许多简单算法完全依赖于此先验达到良好的泛化,其结果是不能推广去解决人工智能级别任务的统计挑战。本书中,我们将介绍深度学习如何引入额外的(显示的和隐式的)先验去降低复杂任务的泛化误差。这里,我们解释为什么单是平滑先验不足以应对这类任务。有许多不同的方法来隐式地或显式

    作者: 小强鼓掌
    1195
    1
  • 深度学习之任务分类

    作者: 小强鼓掌
    722
    0
  • 华为云深度学习

    群和0.8的线性加速比,原先一个月的模型训练时间,现在1小时搞定机会难得,小伙伴们还不抓紧来体验,数量有限,先到先得哦!!点击访问华为云深度学习官网

    作者: 斑馬斑馬
    331
    0
  • 深度学习入门》笔记 - 15

    png) ```python np.random.seed(4) w=np.random.normal(size=2) #从标准正态分布随机生成初始权重 b,lr=0,0.1 w,b=logit_model(x,y,w,b,lr) pred=predict_logit_model(x

    作者: 黄生
    197
    2
  • 深度学习之TensorFlow入门、原理与进阶实战》—3.3.9 迭代更新参数到最优解

    tf.Session() as sess:  前面说过,在session通过run来运算模型的节点,在训练环节也是如此,只不过run里面放的是优化操作的OP,同时会在外层加上循环次数。for epoch in range(training_epochs): for (x, y)

    作者: 华章计算机
    发表时间: 2019-05-31 14:17:40
    4608
    0
  • 机器学习与深度学习

    到了商业化的要求。深度学习主要应用于文字识别、人脸技术、语义分析、智能监控等领域。目前在智能硬件、教育、医疗等行业也在快速布局。2、所需数据量机器学习能够适应各种数据量,特别是数据量较小的场景。如果数据量迅速增加,那么深度学习的效果将更加突出,这是因为深度学习算法需要大量数据才能

    作者: QGS
    678
    2
  • 分享深度学习笔记组件学习

    猫和狗数据集)上训练额外的迭代。类似地,NLP神经网络的单词嵌入模型根据单词之间的关系(例如,苹果和句子之间的距离小于苹果和卡车之间的距离)将单词映射到嵌入空间中更靠近其他单词的位置。预训练嵌入(如手套)可以放入神经网络,从有效地将单词映射到值的有意义实体开始。不太明显的是,

    作者: 初学者7000
    627
    1
  • 深度学习之流形学习

    自由度或维数就能很好地近似。每一维都对应着局部的变动方向。训练数据位于二维空间中的一维流形。在机器学习,我们允许流形的维数从一个点到另一个点有所变化。这经常发生于流形和自身相交的情况。例如,数字“8” 形状的流形在大多数位置只有一维,但在中心的相交处有两维。      如果我们希望机器学习算法学习

    作者: 小强鼓掌
    1676
    3