内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 深度学习算法中的协同训练(Co-training)

    操作。 结论 协同训练是一种有效的半监督学习方法,在深度学习算法中得到了广泛的应用。通过利用未标注数据、解决标注数据稀缺问题、多视角学习和多任务学习,协同训练可以提高模型的性能和泛化能力。在未来的研究中,我们可以进一步探索协同训练的机制和应用,以推动深度学习技术的发展和应用。

    作者: 皮牙子抓饭
    发表时间: 2023-09-24 15:09:42
    63
    1
  • 平台功能架构

    平台功能架构 父主题: 平台介绍

  • 平台命令下发

    平台命令下发 功能介绍 用于平台向设备下发设备控制命令。平台下发命令后,需要设备及时将命令的执行结果返回给平台,如果设备没回响应,平台会认为命令执行超时。命令下发和消息下发的区别,请查看消息通信说明。

  • Python学习之For训练

    for i in range(5): print(i) print('range 5 test

    作者: 指剑
    发表时间: 2022-09-02 14:55:57
    101
    0
  • 使用Python实现深度学习模型的分布式训练

    深度学习的发展过程中,模型的规模和数据集的大小不断增加,单机训练往往已经无法满足实际需求。分布式训练成为解决这一问题的重要手段,它能够将计算任务分配到多个计算节点上并行处理,从而加速训练过程,提高模型的训练效率。本文将详细介绍如何使用Python实现深度学习模型的分布式训练,并通过具体代码示例展示其实现过程。

    作者: Echo_Wish
    发表时间: 2024-12-16 08:21:45
    0
    0
  • mindspore模型训练—混合精度算法

    6)进行深度学习模型训练,从而减少了训练深度学习模型所需的内存,同时由于FP16的运算比FP32运算更快,从而也进一步提高了硬件效率。    **混合精度训练方法**是通过混合使用单精度和半精度数据格式来加速深度神经网络训练的过程,同时保持了单精度训练所能达到

    作者: leid_lzu
    发表时间: 2021-11-02 05:16:32
    1891
    0
  • 【CANN训练营】Ascend 910实现LeNet网络的minist手写数据训练

    一、环境及准备工作 CPU/GPU复现使用华为ModelArts-CodeLab平台 Ascend复现使用华为ModelArts-开发环境-Notebook 原始Lenet代码链接:https://gitee.com/lai-pengfei/LeNet 二、在CPU/GPU中运行原始代码

    作者: JeffDing
    发表时间: 2022-07-07 03:42:51
    1068
    0
  • 【2023 · CANN训练营第一季】基于昇腾910的TF网络脚本训练(ModelArts平台

    对Tensorflow训练代码进行NPU的迁移&适配 创建并提交训练任务 1.Pycharm打开训练工程代码,配置训练参数,下发训练任务 2.查看训练结果 创建并提交训练任务 1.Pycharm打开训练工程代码,配置训练参数,下发训练任务 2.查看训练结果 Modelart

    作者: STRUGGLE_xlf
    发表时间: 2023-05-25 17:34:52
    10
    0
  • 平台消息下发

    低配置且资源受限或者对网络流量有要求的设备,不适合直接构造JSON数据与物联网平台通信时,可将原始二进制数据透传到物联网平台。通过开发编解码插件实现二进制数据到平台定义JSON格式的转换。 Topic 下行:$oc/device

  • 深度学习之用于 MLP 训练的反向传播

    我们考虑一个具有单个隐藏层的非常简单的多层感知机。为了训练这个模型,我们将使用小批量随机梯度下降算法。反向传播算法用于计算单个小批量上的代价的梯度。具体来说,我们使用训练集上的一小批量实例,将其规范化为一个设计矩阵 X 以及相关联的类标签向量 y。网络计算隐藏特征层 H = max{0

    作者: 小强鼓掌
    527
    0
  • 指定GPU运行和训练python程序 、深度学习单卡、多卡 训练GPU设置【一文读懂】

    此次博文内容难以 以偏概全,如有不恰当的地方,欢迎评论区批评指正 对于即将入行计算机视觉的小伙伴,墨理这里推荐收藏的干货博文目前如下 ❤️ 深度学习模型训练基础环境搭建相关教程————认真帮大家整理了 🚀🚀 墨理学AI 🎉 作为全网 AI 领域 干货最多的博主之一,❤️ 不负光阴不负卿

    作者: 墨理学AI
    发表时间: 2022-01-09 06:31:22
    1451
    0
  • 模型训练

    模型训练 企业A在完成特征选择后,可以单击右下角的“启动训练”按钮,配置训练的超参数并开始训练。 等待训练完成后就可以看到训练出的模型指标。 也可以单击“查看中间结果”查看每一个迭代之后的指标。 模型训练完成后如果指标

  • 搭建平台@@@@搭建平台

    #rabbitmqctl change_password guest num1 我们发现还是可以进去 出现这个界面说明部分组件装载完成 搭建平台 2 Day (上) 搭建平台 3 Day

    作者: 不良使
    发表时间: 2022-04-05 14:20:27
    489
    0
  • 【CANN训练营】CANN训练营_昇腾AI趣味应用实现AI趣味应用(上)随笔

    卷积核的标准卷积、实例归一化层和 LRelu 激活函数组成。 DSConv 由具有 3 × 3 卷积核的深度可分离卷积、实例归一化层和 LRelu 激活函数组成。反转的残差块包含 Conv-Block、深度卷积、点卷积和实例归一化层。 为了避免最大池化导致的特征信息丢失,使用Down-Conv作

    作者: Tianyi_Li
    发表时间: 2022-07-09 07:30:06
    4333
    0
  • 自编码器AE全方位探析:构建、训练、推理与多平台部署

    相关的、有损的、从样本中自动学习的。自编码器通常用于学习高效的编码,在神经网络的形式下,自编码器可以用于降维和特征学习。 自编码器的历史发展 1980年代初期:自动编码器的早期研究 1990年代:使用反向传播训练自动编码器 2000年代:深度学习时代下的自动编码器研究,例如堆叠自动编码器

    作者: TechLead
    发表时间: 2023-10-11 10:35:50
    68
    0
  • 深度学习的分布式训练与集合通信(二)

    深度学习的分布式训练与集合通信(二) 本专题介绍常见的深度学习分布式训练的并行策略和背后使用到的集合通信操作,希望能帮助读者理解分布式训练的原理,以及集合通信之于分布式训练的重要性和必要性。鉴于篇幅限制,将拆分成三个部分展开讲述: 第一部分:介绍模型训练的大体流程,以及集合通信操

    作者: 昇腾CANN
    发表时间: 2024-11-25 11:32:12
    30
    0
  • 指定GPU运行和训练 python程序 、深度学习单卡、多卡 训练GPU设置【一文读懂】

    以偏概全,如有不恰当的地方,欢迎评论区批评指正 对于即将入行计算机视觉的小伙伴,墨理这里推荐收藏的干货博文目前如下 ❤️ 深度学习各领域数据集有效整理——持续更新 🎉 深度学习模型训练推理——基础环境搭建推荐博文查阅顺序【基础安装—认真帮大家整理了】——【1024专刊】 ❤️ 人生苦短,

    作者: 墨理学AI
    发表时间: 2022-01-10 16:23:43
    872
    0
  • 深度学习 - 深度学习 (人工神经网络的研究的概念)

    文章目录 深度学习 - 深度学习 (人工神经网络的研究的概念)1、概念2、相关应用场景3、简介4、区别于浅层学习5、典型模型案例6、深度学习是如何进行训练的自下上升的非监督学习自顶向下的监督学习 深度学习 - 深度学习 (人工神经网络的研究的概念)

    作者: 简简单单Onlinezuozuo
    发表时间: 2022-02-18 15:08:32
    608
    0
  • 2022CANN训练营新手模型开发课学习笔记

    float, bool, str 等) 深度学习和神经网络 为了让计算机掌握人类理解的知识,需要构筑一个由简单概念组成的多层连接网络来定义复杂对象,计算机通过对这个网络的迭代计算与训练后,可以掌握这个对象的特征,一般称这种方法为深度学习(DeepLearning,DL) TensorFlow

    作者: 孙小北
    发表时间: 2022-04-25 01:31:50
    589
    0