内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习之动量

    虽然随机梯度下降仍然是非常受欢迎的优化方法,但其学习过程有时会很慢。动量方法 (Polyak, 1964) 旨在加速学习,特别是处理高曲率、小但一致的梯度,或是带噪声的梯度。动量算法积累了之前梯度指数级衰减的移动平均,并且继续沿该方向移动。动量的效果。动量的主要目的是解决两个问题:Hessian

    作者: 小强鼓掌
    530
    3
  • 啥是AI、机器学习深度学习

    也造就了深度学习的蓬勃发展,“深度学习”才一下子火热起来。击败李世石的Alpha go即是深度学习的一个很好的示例。Google的TensorFlow是开源深度学习系统一个比较好的实现,支持CNN、RNN和LSTM算法,是目前在图像识别、自然语言处理方面最流行的深度神经网络模型

    作者: freeborn0601
    9641
    3
  • 深度学习之无监督学习算法

    供的值是特征还是目标。通俗地说,无监督学习是指从不需要人为注释样本的分布中抽取信息的大多数尝试。该术语通常与密度估计相关,学习从分布中采样,学习从分布中去噪,需要数据分布的流形,或是将数据中相关的样本聚类。        一个经典的无监督学习任务是找到数据的 “最佳”表示。“最佳

    作者: 小强鼓掌
    950
    1
  • 深度学习框架TensorFlow

        TensorFlow是一个基于数据流编程(dataflow programming)的符号数学系统,被广泛应用于各类机器学习(machine learning)算法的编程实现,其前身是谷歌的神经网络算法库DistBelief   。Tensorflow拥有多层级结构,可部

    作者: QGS
    555
    0
  • 深度学习之机器学习的算法效果

            当我们使用机器学习算法时,我们不会提前固定参数,然后从数据集中采样。我们会在训练集上采样,然后挑选参数去降低训练集误差,然后再在测试集上采样。在这个过程中,测试误差期望会大于或等于训练误差期望。以下是决定机器学习算法效果是否好的因素:        1. 降低训练误差 

    作者: 小强鼓掌
    726
    3
  • 【Atlas 300】【npu-smi info 错误】

    【功能模块】npu-smi info 【操作步骤&问题现象】1、重启服务器2、npu-smi info【截图信息】【日志信息】(可选,上传日志内容或者附件)[ERROR] HDC:2022-07-19-15:49:16.925.294 [hdcInit:467] >>> HDC init

    作者: yd_264236458
    799
    4
  • 机器学习深度学习的区别是什么?

    深度学习是机器学习算法的子类,其特殊性是有更高的复杂度。因此,深度学习属于机器学习,但它们绝对不是相反的概念。我们将浅层学习称为不是深层的那些机器学习技术。让我们开始将它们放到我们的世界中:这种高度复杂性基于什么?在实践中,深度学习由神经网络中的多个隐藏层组成。我们在《从神经元到

    作者: @Wu
    1169
    3
  • 深度学习之PCA

    确定),使得方差的主坐标和 z 相关的新表示空间的基对齐。虽然相关性是数据元素间依赖关系的一个重要范畴,但我们对于能够消除特征依赖更复杂形式的表示学习也很有兴趣。对此,我们需要比简单线性变换能做到更多的工具。

    作者: 小强鼓掌
    541
    1
  • 深度学习之噪声

    ϵ 的整流线性隐藏单元可以简单地学会使 hi 变得很大(使增加的噪声 ϵ 变得不显著)。乘性噪声不允许这样病态地解决噪声鲁棒性问题。另一种深度学习算法——批标准化,在训练时向隐藏单元引入加性和乘性噪声重新参数化模型。批标准化的主要目的是改善优化,但噪声具有正则化的效果,有时没必要再使用Dropout。

    作者: 小强鼓掌
    1045
    3
  • 深度学习-语义分割

    本质上即为每个类别创建一个输出通道。因为上图有5个类别,所以网络输出的通道数也为5,如下图所示:如上图所示,预测的结果可以通过对每个像素在深度上求argmax的方式被整合到一张分割图中。进而,我们可以轻松地通过重叠的方式观察到每个目标。argmax的方式也很好理解。如上图所示,每

    作者: @Wu
    643
    0
  • 深度学习卷积操作

    卷积操作就是filter矩阵跟filter覆盖的图片局部区域矩阵对应的每个元素相乘后累加求和。

    作者: 我的老天鹅
    630
    8
  • 深度学习之Dropout

    Dropout(Dropout)(Srivastava et al., 2014) 提供了正则化一大类模型的方法,计算方便但功能强大。在第一种近似下,Dropout可以被认为是集成大量深层神经网络的实用Bagging方法。Bagging涉及训练多个模型,并在每个测试样本上评估多个

    作者: 小强鼓掌
    1024
    2
  • 深度学习之推断

    在Bagging的情况下,每一个模型在其相应训练集上训练到收敛。在Dropout的情况下,通常大部分模型都没有显式地被训练,因为通常父神经网络会很大,以致于到宇宙毁灭都不可能采样完所有的子网络。取而代之的是,在单个步骤中我们训练一小部分的子网络,参数共享会使得剩余的子网络也能有好

    作者: 小强鼓掌
    427
    4
  • 机器学习深度学习的未来趋势

    机器学习深度学习的未来蕴含着无穷的可能!越来越多的机器人不仅用在制造业,而且在一些其他方面可以改善我们的日常生活方式。医疗行业也可能会发生变化,因为深度学习有助于医生更早地预测或发现癌症,从而挽救生命。在金融领域,机器学习深度学习可以帮助公司甚至个人节省资金,更聪明地投资,更

    作者: @Wu
    1241
    2
  • A200 npu-smi info 报错

    加速卡:A200  飞腾主板 银河麒麟V10 问题:安装商用版本6.0RC1驱动成功,但无法npu-smi info 查询  错误信息如下 dcmi module initialize failed. ret is -8010 

    作者: yd_284151376
    276
    2
  • 分享深度学习未来发展的学习范式-——简化学习

        在深度学习领域, 特别是在NLP(深度学习领域研究最热潮激动人心的领域)中,模型的规模正在不断增长。最新的GPT-3模型有1750亿个参数。把它和BERT比较就像把木星比作蚊子一样(好吧,不是字面意思)。深度学习的未来会更大吗?    按理来说,不会,GPT-3是非常有说

    作者: 初学者7000
    1133
    1
  • 深度学习模型结构

    目标等),再到更高层的目标、目标的行为等,即底层特征组合成了高层特征,由低到高的特征表示越来越抽象。深度学习借鉴的这个过程就是建模的过程。 深度神经网络可以分为3类:1.前馈深度网络(feed-forwarddeep networks, FFDN),由多个编码器层叠加而成,如多层感知机(multi-layer

    作者: 运气男孩
    1146
    2
  • 深度学习=炼金术?

    深度学习是目前人工智能最受关注的领域,但黑盒学习法使得深度学习面临一个重要的问题:AI能给出正确的选择,但是人类却并不知道它根据什么给出这个答案。本期将分享深度学习的起源、应用和待解决的问题;可解释AI的研究方向和进展。

    主讲人:华为MindSpore首席科学家,陈雷
    直播时间:2020/03/27 周五 14:00 - 15:00
  • 学习笔记-如何提升深度学习性能?

    特征选择 f. 重新定义问题2. 从算法上提升性能   a. 算法的筛选 b. 从文献中学习 c. 重采样的方法3. 从算法调优上提升性能   a. 模型可诊断性 b. 权重的初始化 c. 学习率 d. 激活函数 e. 网络结构 f. batch和epoch g. 正则项 h. 优化目标

    作者: RabbitCloud
    633
    1
  • 昇腾学院 | 案例分享 Atlas 800 3000 npu-smi工具无法识别问题分享

    问题现象描述问题现象:在C30B896版本,安装完驱动后,使用npu-smi工具查询芯片,出现文件找不到情况,如下图:根本原因分析1、/lib64/目录下缺少npu-smi工具所依赖的动态链接库。结论、解决方案及效果结论:1、 如果执行npu-smi工具,提示“No such file or

    作者: xiongoal
    发表时间: 2020-03-30 16:10:51
    10595
    0
提示

您即将访问非华为云网站,请注意账号财产安全