内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 【CANN训练营第三季】Ascend平台体验Pytorch笔记

    float16的计算单元可以提供更高的计算性能。 但是,混合精度训练受限于float16表达的精度范围,单纯将float32转换成float16会影响训练收敛情况。为了保证部分计算使用float16来进行加速的同时能保证训练收敛,这里采用混合精度模块APEX来达到以上效果。混合精度模

    作者: JeffDing
    发表时间: 2022-12-17 06:17:48
    350
    0
  • 张小白OpenGauss训练营日记1——openGauss训练学习心得

    openGauss社区、Gauss松鼠会、云和恩墨 举办的“openGauss布道师朱金伟出品:8小时玩转openGauss训练营(第二期)”活动吧。 打开 https://www.modb.pro/event/370 可以看到活动详情:

    作者: 张辉
    发表时间: 2021-09-12 16:59:33
    2599
    0
  • 《智能系统与技术丛书 深度学习实践:基于Caffe的解析》—3.5测试训练结果

    3.5 测试训练结果 经过上面的训练,我们可以来看看具体使用的训练网络prototxt的写法和测试网络prototxt的写法,重点只是需要使用不同的数据库位置,还有batchsize的数量一般是不一样的。 我们可以看到第一层的层类型(type)是数据型(Data),输出(top)

    作者: 华章计算机
    发表时间: 2019-06-02 16:40:45
    5154
    0
  • 《智能系统与技术丛书 深度学习实践:基于Caffe的解析》—3.3.4训练log解析

    3.3.4 训练log解析 Caffe已经做好了对日志的解析以及查阅,我们只需要在训练的过程中添加下面的步骤即可。 1. 记录训练日志 向训练过程中的命令加入一行参数(如下代码中使用双线包围的一行),将log日志放入固定的文件夹内:TOOLS=./build/toolsGLOG_logtostderr=0

    作者: 华章计算机
    发表时间: 2019-06-02 16:23:44
    5089
    0
  • 2022CANN训练营新手模型开发课学习笔记

    float, bool, str 等) 深度学习和神经网络 为了让计算机掌握人类理解的知识,需要构筑一个由简单概念组成的多层连接网络来定义复杂对象,计算机通过对这个网络的迭代计算与训练后,可以掌握这个对象的特征,一般称这种方法为深度学习(DeepLearning,DL) TensorFlow

    作者: 孙小北
    发表时间: 2022-04-25 01:31:50
    589
    0
  • 深度学习之“深度

    经网络这一术语来自于神经生物学,然而,虽然深度学习的一些核心概念是从人们对大脑的理解中汲取部分灵感而形成的,但深度学习模型不是大脑模型。没有证据表明大脑的学习机制与现代深度学习模型所使用的相同。你可能会读到一些流行科学的文章,宣称深度学习的工作原理与大脑相似或者是根据大脑的工作原

    作者: ypr189
    1571
    1
  • 机器学习13-训练模型的坑

    很多常见情况会导致反向传播算法出错。 梯度消失 较低层(更接近输入)的梯度可能会变得非常小。在深度网络中,计算这些梯度时,可能涉及许多小项的乘积。 当较低层的梯度逐渐消失到0时,这些层的训练速度会非常缓慢,甚至不再训练。 策略:ReLU激活函数有助于防止梯度消失。 梯度爆炸 如果网络中的权重过

    作者: 一颗小树x
    发表时间: 2021-06-18 13:50:01
    2040
    0
  • mindspore模型训练—混合精度算法

    6)进行深度学习模型训练,从而减少了训练深度学习模型所需的内存,同时由于FP16的运算比FP32运算更快,从而也进一步提高了硬件效率。    **混合精度训练方法**是通过混合使用单精度和半精度数据格式来加速深度神经网络训练的过程,同时保持了单精度训练所能达到

    作者: leid_lzu
    发表时间: 2021-11-02 05:16:32
    1891
    0
  • 张小白OpenGauss训练营日记2——openGauss训练学习心得

    接上一篇:张小白OpenGauss训练营日记1——openGauss训练学习心得 https://www.modb.pro/db/108366 今天下午是训练营的最后4个小时,张小白如约来到直播间。 第六讲:openGauss实践总结 由彭冲老师主讲

    作者: 张辉
    发表时间: 2021-09-12 15:45:34
    2314
    0
  • 是否可以不采用ModelArts平台训练模型?

    如果自己有gpu资源,可以不采用modelarts平台训练吗? 只用这个平台提交模型.

    作者: 我太帅了
    1020
    1
  • 【MindSpore易点通】深度学习系列-提升网络训练速度的方法

    范围,那么归一化就不是很重要了。梯度爆炸/消失训练深度神经网络经常会面临梯度消失(梯度爆炸)的问题,也就是说,训练时导数或坡度有时会变得非常大,或者非常小,甚至于以指数方式变小,这样会加大训练的难度。那么如何避免这样的问题呢?假设训练一个神经网络,含有参数W[1],W[2],W[3],

    作者: Skytier
    166
    0
  • 机器学习3-训练与损失

    ​前言 训练模型表示通过有标签样本学习模型中所有权重w和偏差b的最优值。在监督学习中,机器学习算法通过以下方式构建模型:检查多个样本并尝试找出可最大限度地减少模型的损失;这一过程称为经验风险最小化。 损失是对糟糕预测的惩罚;损失是之歌数值,表示对个单个样本而言模型预测的准确程度。

    作者: 一颗小树x
    发表时间: 2021-06-18 13:21:56
    1449
    0
  • (Moxing篇一)自研深度学习MoXingAPI使模型训练再次升级

    原生API,使用MoXingAPI开发深度学习算法模型编程更加简单,而且能够自动获得高性能的分布式执行能力。</align><align=left><b>华为云深度学习——高性能</b></align><align=left>华为云深度学习的高效性是通过混合并行、梯度压缩、卷积加

    作者: freeborn0601
    18435
    5
  • 【模型训练】Apulis平台或者docker里训练时获取host日志

    在依瞳平台Apulis,或者在Ascend910服务器上起docker训练时,即使将/var/log/npu目录映射到了docker,仍然会无法保存host/device日志。这个时候,我们可以通过设置环境变量export SLOG_PRINT_STDOUT=1来将host日志输出到屏幕

    作者: zxros10
    647
    0
  • 一次训练、多端部署——华为提出宽度和深度可伸缩的动态预训练模型DynaBERT

    一步提升蒸馏效果。图4:利用知识蒸馏训练宽度可伸缩的DynaBERTw。 宽度和深度同时可伸缩的DynaBERT训练方法在训练DynaBERTw之后,我们进一步使用知识蒸馏来训练宽度和深度的同时可伸缩的DynaBERT。具体地,我们使用已经训练好的的DynaBERTw作为老师模型

    作者: Noah's Ark LAB
    发表时间: 2020-08-27 09:35:06
    3836
    0
  • 什么是深度学习

    深度学习是支撑人工智能发展的核心技术,云服务则是深度学习的主要业务模式之一。OMAI深度学习平台(以下简称OMAI平台)即是在上述前提下诞生的平台软件。OMAI深度学习平台是具备深度学习算法开发、模型训练、推理服务等能力的一站式平台软件。OMAI平台以支持高性能计算技术和大规模分

    作者: OMAI
    6640
    0
  • 【问答官】在深度学习模型训练中,界常用的学习率策略有哪几种?

    深度学习模型训练中,界常用的学习率策略有哪几种?

    作者: bjxingch
    626
    1
  • 功能介绍

    数据治理支持数据筛选、标注等数据处理,提供数据集版本管理,特别是深度学习的大数据集,让训练结果可重现。 极“快”致“简”模型训练自研的MoXing深度学习框架,更高效更易用,大大提升训练速度。 云边端多场景部署支持模型部署到多种生产环境,可部署为云端在线推理和批量推理,也可以直接部署到端和边。

  • 训练相关问题

    huaweicloud.com/blogs/208178 预置框架自定义配置深度学习框架版本&nbsp;https://bbs.huaweicloud.com/blogs/213189 obsutil使用 https://bbs.huaweicloud.com/blogs/230127 快速构建Rest请求json内容

    作者: 星月菩提
    发表时间: 2021-01-15 03:22:42
    2363
    0