内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习模型训练流程思考

    代码实现6,7,8中的设计 使用超参优化工具(NNI)寻找最优超参组合 模型初步训练 改进:根据初步训练的效果指标判断是数据集问题还是模型结构或深度问题 数据集问题,想办法进一步清洗补充数据集 模型结构问题,尝试更换或者NNI搜索更优模型;模型深度问题,尝试增加backbone的卷积通道层数或者复制增加layers

    作者: lutianfei
    发表时间: 2021-05-31 12:10:43
    1544
    0
  • 深度学习训练过程

    权重。自下上升的非监督学习就是从底层开始,一层一层地往顶层训练。采用无标定数据(有标定数据也可)分层训练各层参数,这一步可以看作是一个无监督训练过程,这也是和传统神经网络区别最大的部分,可以看作是特征学习过程。具体的,先用无标定数据训练第一层,训练时先学习第一层的参数,这层可以看

    作者: QGS
    1051
    3
  • 深度学习训练过程

    重。 自下上升的非监督学习就是从底层开始,一层一层地往顶层训练。采用无标定数据(有标定数据也可)分层训练各层参数,这一步可以看作是一个无监督训练过程,这也是和传统神经网络区别最大的部分,可以看作是特征学习过程。具体的,先用无标定数据训练第一层,训练时先学习第一层的参数,这层可以看

    作者: QGS
    536
    1
  • 深度学习之对抗训练

    安全,这超出了本章的范围。然而,它们在正则化的背景下很有意思,因为我们可以通过对抗训练(adversarial training)减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络 (Szegedy et al., 2014b; Goodfellow et al

    作者: 小强鼓掌
    842
    1
  • 深度学习之对抗训练

    安全,这超出了本章的范围。然而,它们在正则化的背景下很有意思,因为我们可以通过对抗训练(adversarial training)减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络 (Szegedy et al., 2014b; Goodfellow et al

    作者: 小强鼓掌
    623
    2
  • 浅谈深度学习中的混合精度训练

    浅谈深度学习中的混合精度训练 大家好,本次博客为大家介绍一下深度学习中的混合精度训练,并通过代码实战的方式为大家讲解实际应用的理论,并对模型进行测试。 1 混合精度训练 混合精度训练最初是在论文Mixed Precision Training中被提出,该论文对混合精度训练进行了

    作者: 李长安
    发表时间: 2023-03-17 12:57:28
    1095
    1
  • 深度学习之模型族训练

    我们几乎从未知晓真实数据的生成过程,所以我们永远不知道被估计的模型族是否包括生成过程。然而,深度学习算法的大多数应用都是针对这样的情况,其中真实数据的生成过程几乎肯定在模型族之外。深度学习算法通常应用于极为复杂的领域,如图像、音频序列和文本,本质上这些领域的真实生成过程涉及模拟整

    作者: 小强鼓掌
    938
    3
  • 深度学习训练,验证,测试集

    自同一个分布就会很好。 但由于深度学习算法需要大量的训练数据,为了获取更大规模的训练数据集,我们可以采用当前流行的各种创意策略,例如,网页抓取,代价就是训练集数据与验证集和测试集数据有可能不是来自同一分布。但只要遵循这个经验法则,你就会发现机器学习算法会变得更快。我会在后面的课程中更加详细地解释这条经验法则。

    作者: 运气男孩
    2218
    7
  • 深度学习算法中的预训练(Pretraining)

    数据上进行微调,从而加速和改善深度学习模型的训练。 预训练的原理 预训练的基本思想是,通过在无标签数据上进行训练,使深度学习模型能够学习到一些有用的特征表示。具体而言,预训练分为两个阶段:无监督预训练和监督微调。 在无监督预训练阶段,深度学习模型通过自编码器、受限玻尔兹曼机(Restricted

    作者: 皮牙子抓饭
    发表时间: 2023-09-23 14:54:31
    62
    1
  • PyTorch 深度学习实战 |用 TensorFlow 训练神经网络

    步之间,又会发生什么呢? 如果我们继续用更多的训练步数(epochs)来训练,神经网络的预测会变得更精确吗?当训练步数在 1000 到 2000 之间时,神经网络的准确率会继续提高,但提高的幅度在下降。如果用更多的训练步数(epochs)进行训练,神经网络的精准度可能还会略有改善,但在目前的网络架构下,它不会达到

    作者: TiAmoZhang
    发表时间: 2023-03-21 01:07:58
    181
    0
  • 神经网络与深度学习笔记(四)训练

    哪怕你是经验无比丰富也要慢慢调参。 所以深度学习模型的构建其实一个高度的反复迭代的过程。 训练集,开发集,测试集 train 训练集,用于训练模型 dev 开发集(交叉训练集),用于测试模型 test 测试集,用于评估模型 上个时代的机器学习 上个时代的机器学习,由于数据量不多,所以对三个集的数据划分一般是:

    作者: 沧夜
    发表时间: 2022-04-30 15:31:05
    347
    0
  • 平台简介

    络接入物联网平台,并使用LWM2M/CoAP(S)、MQTT(S)、HTTPS协议将业务数据上报到平台平台也可以将控制命令下发给设备。 业务应用通过调用物联网平台提供的API,实现设备数据采集、命令下发、设备管理等业务场景。 物联网平台支持终端设备

  • 云端算法训练报错

    使用云端算法图像分类-ResNet_v1_101训练报错,ValueError: num_classes in eval dataset is not match. 10:0参数均使用默认未做修改,数据集有10个分类

    作者: 郑永祥
    1018
    4
  • 使用Python实现深度学习模型:迁移学习与预训练模型

    迁移学习是一种将已经在一个任务上训练好的模型应用到另一个相关任务上的方法。通过使用预训练模型,迁移学习可以显著减少训练时间并提高模型性能。在本文中,我们将详细介绍如何使用Python和PyTorch进行迁移学习,并展示其在图像分类任务中的应用。 什么是迁移学习? 迁移学习的基本

    作者: Echo_Wish
    发表时间: 2024-05-21 12:46:22
    15
    0
  • 基于华为AI训练平台ModelArts+MindSpore+Ascend910的目标检测和ModelArts平台训练流程分析

    这里开始输出常见的训练日志文件。随着epoch++,loss下降,学习率也在增加,这正是AI训练的优势,可以随时地在训练过程中调整一些超参。 训练结束,可以查看p1\yolo\output和p1\yolo\log 做进一步的分析 modelarts平台会保存每一次的训练记录,这样

    作者: 潘玮成
    发表时间: 2023-11-29 22:42:52
    66
    0
  • 平台介绍

    知识学习、技术体验、应用创新。 华为开发者空间为广大开发者提供的一站式开发者服务平台,为开发者提供全方位的技术支持和服务,帮助开发者更高效地开发和部署应用。在华为开发者空间,开发者可以享受到丰富的开发者工具、开发者社区、技术文档、培训课程、技术支持等服务,帮助开发者快速构建

  • 华为云ModelArts助力AI开发平台—ModelArts SDK打通本地IDE与云端训练资源

    K,则向云端的ModelArts平台提交训练作业,并持续的获取训练日志直到训练结束。 查看训练过程 ModelArts Training Log 中会展示训练过程中的日志,同时日志也会保存在工程目录下的MA_LOG文件夹。如下图所示,左边是训练任务的状态,右边是云端训练日志的输出,本案例的训练任务需6分钟左右完成。

    作者: 华为云classroom
    发表时间: 2023-12-13 11:16:34
    15
    0
  • 深度学习算法中的协同训练(Co-training)

    操作。 结论 协同训练是一种有效的半监督学习方法,在深度学习算法中得到了广泛的应用。通过利用未标注数据、解决标注数据稀缺问题、多视角学习和多任务学习,协同训练可以提高模型的性能和泛化能力。在未来的研究中,我们可以进一步探索协同训练的机制和应用,以推动深度学习技术的发展和应用。

    作者: 皮牙子抓饭
    发表时间: 2023-09-24 15:09:42
    63
    1
  • 【云驻共创】MindSpore助力打造深度学习平台

      深度学习计算服务平台HyperDL提供了从数据预处理、数据标注、镜像管理、模型训练和模型评估一站式AI服务。   深度学习计算服务平台HyperDL   平台提供系统算法与用户算法功能,集成了各场景下优秀的算法模型,零代码即可实现模型训练任务;算法支

    作者: G-washington
    发表时间: 2021-06-09 16:04:57
    3483
    0
  • 深度学习之用于 MLP 训练的反向传播

    我们考虑一个具有单个隐藏层的非常简单的多层感知机。为了训练这个模型,我们将使用小批量随机梯度下降算法。反向传播算法用于计算单个小批量上的代价的梯度。具体来说,我们使用训练集上的一小批量实例,将其规范化为一个设计矩阵 X 以及相关联的类标签向量 y。网络计算隐藏特征层 H = max{0

    作者: 小强鼓掌
    526
    0