内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习因果和相关关系

    深度学习系统,学习的是输入和输出之间复杂的相关性,但是学习不到其间的因果关系。虽然有人工神经网络通过构建和加强联系,深度学习从数学上近似了人类神经元和突触的学习方式。训练数据被馈送到神经网络,神经网络会逐渐进行调整,直到以正确的方式做出响应为止。只要能够看到很多训练图像并具有足够

    作者: 初学者7000
    730
    1
  • 深度学习之图像识别核心技术与案例实战》—2 深度学习优化基础

    深度学习主流开源框架  所谓工欲善其事,必先利其器。深度学习的快速发展及在工业界和学术界的迅速流行离不开3个要素:数据、硬件和框架。  深度学习框架是深度学习的工具,简单来说就是库,例如Caffe、TensorFlow等。深度学习框架的出现,降低了深度学习入门的门槛,开发者不需要进行底层的编码,可以在高

    作者: 华章计算机
    发表时间: 2019-06-01 23:36:49
    4020
    0
  • 深度学习之流形学习

    有正式的数学定义,但是机器学习倾向于更松散地定义一组点,只需要考虑少数嵌入在高维空间中的自由度或维数就能很好地近似。每一维都对应着局部的变动方向。训练数据位于二维空间中的一维流形中。在机器学习中,我们允许流形的维数从一个点到另一个点有所变化。这经常发生于流形和自身相交的情况中。例如,数字

    作者: 小强鼓掌
    813
    1
  • 训练作业没有训练信息,很快就结束训练

    基本信息Python版本: 2.7MoXing版本:浏览器:问题描述 / 重现步骤启动一个训练作业时,发现很快就结束了,控制台也没有打印任何与loss或是accuracy相关的信息。输出日志信息如下:INFO:tensorflow:Restoring parameters fro

    作者: modelarts_625776
    4158
    1
  • 《MXNet深度学习实战》—1.3.2 MXNet的优势

    面的优化做得非常好,可以帮助你节省机器资源,而且在训练相同的模型时,MXNet比大多数的深度学习框架的训练速度要快,这也能节省不少的训练时间。4)MXNet安装方便,文档清晰,例子丰富,非常方便新人上手学习。总结起来,对于深度学习框架而言,没有最好的,只有最适合的。如果在高校做研

    作者: 华章计算机
    发表时间: 2019-06-16 16:32:43
    3495
    0
  • 旧版训练与新版训练差异

    新版训练和旧版训练的差异主要体现在以下3点:新旧版创建训练作业方式差异新旧版训练代码适配的差异新旧版训练预置引擎差异新旧版创建训练作业方式差异旧版训练支持使用自定义算法、使用预置算法、使用常用框架、使用自定义镜像方式创建训练作业。新版训练支持使用市场订阅算法和自定义算法创建训练作业

    作者: 运气男孩
    31
    3
  • 深度学习之参数范数惩罚

    J(X; θ) 相对贡献的超参数。将 α 设为 0 表示没有正则化。α 越大,对应正则化惩罚越大。当我们的训练算法最小化正则化后的目标函数 J˜ 时,它会降低原始目标 J 关于训练数据的误差并同时减小参数 θ 的规模(或在某些衡量下参数子集的规模)。选择不同的参数范数 Ω 会偏好不同

    作者: 小强鼓掌
    841
    0
  • 关于“深度学习算力”的研究

    研究人员进行了一项“深度学习算力”的研究,发现训练模型的进步取决于算力的大幅提高,具体来说,计算能力提高10倍相当于三年的算法改进,那么深度学习的发展仅仅是需要研究算法了吗,研究算法才是程序员的出路吗?

    作者: 初学者7000
    1155
    6
  • 深度学习之权重比例推断规则

    上表现得很好。然后像平常一样使用模型。实现相同结果的另一种方法是在训练期间将单元的状态乘 2。无论哪种方式,我们的目标是确保在测试时一个单元的期望总输入与在训练时该单元的期望总输入是大致相同的(即使近半单位在训练时丢失)。

    作者: 小强鼓掌
    1478
    3
  • 人工智能走向深度学习

    供给已经无法满足智能化社会构建,根据OpenAI统计,从2012年至2019年,随着深度学习“大深多”模型的演进,模型计算所需计算量已经增长30万倍,无论是计算机视觉还是自然语言处理,由于预训练模型的广泛使用,模型所需算力直接呈现阶跃式发展。   据斯坦福《AIINDEX2019

    作者: 斑馬斑馬
    327
    0
  • 使用Python编写打字训练小程序

    我们从外表上变得更像一个程序猿呢?当然是训练我们的打字速度了啊!训练打字很羡慕那些盲打速度炒鸡快的人,看起来就比较炫酷。但很多IT男打字速度并不快,甚至还有些二指禅的朋友们,太影响装13效果了。那么今天我们就来使用Python写一个打字训练的小工具吧。先来看看使用效果…我们使用P

    作者: 技术火炬手
    发表时间: 2019-08-26 14:06:26
    6505
    0
  • 【2024·CANN训练营第一季】图片分类模型增量训练

    初始化梯度缩放器,用于自动混合精度训练 scaler = amp.GradScaler() # 设置训练的总轮数 epochs = 10 for epoch in range(epochs): # 训练一个epoch train_loss

    作者: ASPARTAME
    发表时间: 2024-04-08 09:32:07
    23
    0
  • 深度学习中的目标检测原理概述

    R-CNN使用RPN生成候选框后,剩下的网络结构与Fast R-CNN一样在训练过程中,需要训练两个网络:RPN和分类网络。通常的做法是交替训练,即在一个batch中,先训练RPN一次,再训练分类网络一次。注:以上内容均摘抄至《21个项目玩转深度学习-基于TensorFlow的实践详解》(河之源编著)

    作者: leewish_yuanfang
    发表时间: 2019-08-18 21:04:28
    9426
    0
  • 深度学习》正则化笔记分享

    引入正则化可能会引起“too much regularization”而产生误差。 问:对于正则化,有使模型“简单”的优点,这其中”简单”怎么理解? 答:引用李航老师书中的那段话:正则化符合奥卡姆剃刀 (Occam’s razor)原理。奥卡姆剃刀原理应用于模型选择时变为以下想法

    作者: 运气男孩
    发表时间: 2021-01-31 23:52:23
    6205
    0
  • 训练报错

    yolov5,在pycharm上可以正常跑,在modelarts上就报错,这种怎么修改啊,求助求助。

    作者: yd_280573345
    62
    3
  • 什么是AI、机器学习与深度学习

    施技术的限制进展并不大。而GPU的出现让人看到了曙光,也造就了深度学习的蓬勃发展,“深度学习”才一下子火热起来。击败李世石的Alpha go即是深度学习的一个很好的示例。Google的TensorFlow是开源深度学习系统一个比较好的实现,支持CNN、RNN和LSTM算法,是目前

    作者: Amber
    发表时间: 2019-01-21 10:50:40
    5904
    0
  • 深度学习入门》笔记 - 16

    系无法表达。同时可以通过增加隐藏层的数量和每个隐藏层的节点数,来处理更加复杂的问题。拥有多个隐藏层的神经网络就可以实现深度学习。而数量越多,就需要更多的技巧来训练并发挥这些隐藏层的作用。

    作者: 黄生
    37
    4
  • 深度学习之万能系统

    知道一个大的 MLP 一定能够表示这个函数。然而,我们不能保证训练算法能够学得这个函数。即使 MLP能够表示该函数,学习也可能因两个不同的原因而失败。首先,用于训练的优化算法可能找不到用于期望函数的参数值。其次,训练算法可能由于过拟合而选择了错误的函数。回忆第 5.2.1 节中的

    作者: 小强鼓掌
    1064
    5
  • 深度学习中的知识蒸馏技术

    Network》中提出了知识蒸馏这个概念,其核心思想是先训练一个复杂网络模型,然后使用这个复杂网络的输出和数据的真实标签去训练一个更小的网络,因此知识蒸馏框架通常包含了一个复杂模型(被称为Teacher模型)和一个小模型(被称为Student模型)。1.2 为什么要有知识蒸馏?深度学习在计算机视觉、语音识别、自

    作者: 可爱又积极
    1073
    3
  • 深度学习+迁移学习+强化学习的区别分享

    一. 深度学习:     深度学习的成功和发展,得益于算力的显著提升和大数据,数字化后产生大量的数据,可通过大量的数据训练来发现数据的规律,从而实现基于监督学习的数据预测。      基于神经网络的深度学习主要应用于图像、文本、语音等领域。     2016年的 NIPS 会议上

    作者: 简单坚持
    发表时间: 2020-09-21 12:21:27
    10848
    0