内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 【CANN训练营】【2022第二季】【新手班】迁移TensorFlow模型到昇腾设备实验复现

    昇腾设备上并跑通训练过程。该实验的主要任务有: 1、在本地跑通“基于Tensorflow1.15编写的LeNet网络的minist手写数字识别”的程序; 2、模型迁移,将原代码迁移成能在昇腾AI处理器上进行训练的代码; 3、将迁移后的代码跑在ModelArts平台上。 一、本地

    作者: StarTrek
    发表时间: 2022-07-22 13:15:02
    1540
    0
  • 深度学习模型训练流程思考

    根据6,7中的要求设计网络结构与Loss组合,并提前为蒸馏预留好接口 代码实现6,7,8中的设计 使用超参优化工具(NNI)寻找最优超参组合 模型初步训练 改进:根据初步训练的效果指标判断是数据集问题还是模型结构或深度问题 数据集问题,想办法进一步清洗补充数据集 模型结构问题,尝试更换或者NNI搜索更优模型;模

    作者: lutianfei
    发表时间: 2021-05-31 12:10:43
    1544
    0
  • 深度学习训练过程

    的非监督学习就是从底层开始,一层一层地往顶层训练。采用无标定数据(有标定数据也可)分层训练各层参数,这一步可以看作是一个无监督训练过程,这也是和传统神经网络区别最大的部分,可以看作是特征学习过程。具体的,先用无标定数据训练第一层,训练时先学习第一层的参数,这层可以看作是得到一个使

    作者: QGS
    1054
    3
  • 深度学习训练过程

    的非监督学习就是从底层开始,一层一层地往顶层训练。采用无标定数据(有标定数据也可)分层训练各层参数,这一步可以看作是一个无监督训练过程,这也是和传统神经网络区别最大的部分,可以看作是特征学习过程。具体的,先用无标定数据训练第一层,训练时先学习第一层的参数,这层可以看作是得到一个使

    作者: QGS
    539
    1
  • 深度学习之对抗训练

    安全,这超出了本章的范围。然而,它们在正则化的背景下很有意思,因为我们可以通过对抗训练(adversarial training)减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络 (Szegedy et al., 2014b; Goodfellow et al

    作者: 小强鼓掌
    846
    1
  • 深度学习之对抗训练

    安全,这超出了本章的范围。然而,它们在正则化的背景下很有意思,因为我们可以通过对抗训练(adversarial training)减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络 (Szegedy et al., 2014b; Goodfellow et al

    作者: 小强鼓掌
    624
    2
  • 浅谈深度学习中的混合精度训练

    浅谈深度学习中的混合精度训练 大家好,本次博客为大家介绍一下深度学习中的混合精度训练,并通过代码实战的方式为大家讲解实际应用的理论,并对模型进行测试。 1 混合精度训练 混合精度训练最初是在论文Mixed Precision Training中被提出,该论文对混合精度训练进行了

    作者: 李长安
    发表时间: 2023-03-17 12:57:28
    1095
    1
  • 深度学习之模型族训练

    深度学习的背景下,大多数正则化策略都会对估计进行正则化。估计的正则化以偏差的增加换取方差的减少。一个有效的正则化是有利的 ‘‘交易’’,也就是能显著减少方差而不过度增加偏差。主要侧重模型族训练的 3 个情形:(1)不包括真实的数据生成过程——对应欠拟合和含有偏差的情况,(2)匹

    作者: 小强鼓掌
    938
    3
  • 基于华为AI训练平台ModelArts+MindSpore+Ascend910的目标检测和ModelArts平台训练流程分析

    这里开始输出常见的训练日志文件。随着epoch++,loss下降,学习率也在增加,这正是AI训练的优势,可以随时地在训练过程中调整一些超参。 训练结束,可以查看p1\yolo\output和p1\yolo\log 做进一步的分析 modelarts平台会保存每一次的训练记录,这样

    作者: 潘玮成
    发表时间: 2023-11-29 22:42:52
    66
    0
  • 深度学习算法中的预训练(Pretraining)

    数据上进行微调,从而加速和改善深度学习模型的训练。 预训练的原理 预训练的基本思想是,通过在无标签数据上进行训练,使深度学习模型能够学习到一些有用的特征表示。具体而言,预训练分为两个阶段:无监督预训练和监督微调。 在无监督预训练阶段,深度学习模型通过自编码器、受限玻尔兹曼机(Restricted

    作者: 皮牙子抓饭
    发表时间: 2023-09-23 14:54:31
    62
    1
  • 深度学习训练,验证,测试集

    我会给出如何划分验证集和测试集的具体指导。 现代深度学习的另一个趋势是越来越多的人在训练和测试集分布不匹配的情况下进行训练,假设你要构建一个用户可以上传大量图片的应用程序,目的是找出并呈现所有猫咪图片,可能你的用户都是爱猫人士,训练集可能是从网上下载的猫咪图片,而验证集和测试集是

    作者: 运气男孩
    2222
    7
  • PyTorch 深度学习实战 |用 TensorFlow 训练神经网络

    步之间,又会发生什么呢? 如果我们继续用更多的训练步数(epochs)来训练,神经网络的预测会变得更精确吗?当训练步数在 1000 到 2000 之间时,神经网络的准确率会继续提高,但提高的幅度在下降。如果用更多的训练步数(epochs)进行训练,神经网络的精准度可能还会略有改善,但在目前的网络架构下,它不会达到

    作者: TiAmoZhang
    发表时间: 2023-03-21 01:07:58
    181
    0
  • 【CANN训练营】基于昇腾CANN平台的AI CPU算子开发

    如果您具有如下技能,可以更好地完成学习: 具备C++程序开发能力 理解数学表达式 对机器学习、深度学习有一定的了解 了解Ascend平台运行流程和原理 了解Ascend平台的TBE自定义算子开发流程 算子的基本概念 Ascend 310处理器架构逻辑

    作者: Tianyi_Li
    发表时间: 2022-07-16 13:54:35
    2432
    0
  • 斯坦福DAWNBench:华为ModelArts深度学习训练全球最快

    DAWNBench提供了一套通用的深度学习评价指标,用于评估不同优化策略、模型架构、软件框架、云和硬件上的训练时间、训练成本、推理延迟以及推理成本。 作为人工智能最重要的基础技术之一,近年来深度学习也逐步延伸到更多的应用场景。随着深度学习模型越来越大,所需数据量越来越多,深度学习训练和推理性能将是

    作者: Amber
    发表时间: 2019-03-04 10:05:16
    7722
    0
  • 管理平台实践指南

    内部部署私有 - 客户组织中存在环境。 平台如VMWare,OpenStack和Apache CloudStack应该被集成来管理私有资源。 能力还应包括与诸如K8S(Kubernetes)这样的容器编排框架的集成。• CSP托管私有 - 有时称为专有。 私有托管资源通过

    作者: 烟花易冷
    发表时间: 2018-03-16 21:49:21
    9013
    1
  • 深度学习 - 深度学习 (人工神经网络的研究的概念)

    文章目录 深度学习 - 深度学习 (人工神经网络的研究的概念)1、概念2、相关应用场景3、简介4、区别于浅层学习5、典型模型案例6、深度学习是如何进行训练的自下上升的非监督学习自顶向下的监督学习 深度学习 - 深度学习 (人工神经网络的研究的概念)

    作者: 简简单单Onlinezuozuo
    发表时间: 2022-02-18 15:08:32
    608
    0
  • 神经网络与深度学习笔记(四)训练

    最优解,基本是不可能的。 哪怕你是经验无比丰富也要慢慢调参。 所以深度学习模型的构建其实一个高度的反复迭代的过程。 训练集,开发集,测试集 train 训练集,用于训练模型 dev 开发集(交叉训练集),用于测试模型 test 测试集,用于评估模型 上个时代的机器学习

    作者: 沧夜
    发表时间: 2022-04-30 15:31:05
    347
    0
  • 使用Python实现深度学习模型的分布式训练

    行手写数字分类任务。我们将模型训练过程分配到多个GPU设备上,观察训练时间和模型性能的提升。 训练过程记录 通过在多个GPU设备上进行分布式训练,我们可以显著缩短模型训练时间,提高训练效率。以下是训练过程中的一些关键记录: 使用两个GPU设备进行训练 每个设备处理一部分数据集,同时更新模型参数

    作者: Echo_Wish
    发表时间: 2024-12-16 08:21:45
    87
    0
  • 如何基于ModelArts实现最快最普惠的深度学习训练

    随着过去几年的发展,以ResNet50为代表的CNN模型已经成为了深度学习在计算机视觉方面最常用的模型之一。然而深度学习模型的训练通常非常慢,例如,如果用1块P100的GPU训练一个ResNet50需要1周时间(假如训练90个Epoch)。在工业界,我们都追求极致的训练速度,以便进行快速的产品迭代。 目前,

    作者: sound
    发表时间: 2019-12-28 11:22:36
    8038
    0
  • 《驾驭MXNet:深度剖析分布式深度学习训练的高效之道》

    Net中高效地进行分布式深度学习训练,不仅能为深度学习从业者提供更强大的技术支持,还能推动整个深度学习领域的发展。 一、MXNet分布式训练架构解析 (1)参数服务器模式 MXNet的分布式训练架构中,参数服务器模式是其核心设计之一。在这种模式下,整个训练系统被划分为多个工作节点

    作者: 程序员阿伟
    发表时间: 2025-03-18 22:02:15
    0
    0
提示

您即将访问非华为云网站,请注意账号财产安全