内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 【Atlas 300I Pro】使用npu-smi info命令报错

    在之前按照驱动->固件的顺序安装,安装成功且npu-smi info已正常显示。什么都没干,过了5分钟以后再使用npu-smi info就报错了。

    作者: yd_281572545
    421
    1
  • 基于TF-Serving在NPU上部署在线推理业务

    TF-serving在npu侧的部署创建配置文件platfrom_config_file.cfg并添加如下内容。具体字段可参考《在线推理使用指南》中的“参考 > sess.run模式下的session配置”章节。

    作者: 小鸡炖蘑菇
    4725
    2
  • 训练npu迁移脚本,训练异常结束的报错,求解释

    [ERROR] GE(117,python):2021-09-01-14:16:03.949.255 [rts_node_executor.cc:139]747 LoadTask: ErrorNo: 1343225860(Internal errors) [LOAD][LOAD][

    作者: qwqwq1445
    4388
    3
  • 云道910芯片无法使用pytoch1.5.0npu版本

    调用如下命令报错,aclrtGetDeviceCount()返回507000错误

    作者: william_2021
    3660
    3
  • 【mindSpore】【深度学习】求指路站内的深度学习教程

    老师给了我们个任务,用mindSpore完成一个深度学习,求大佬指路,站内有什么方便的教程。要求不能是花卉识别、手写体数字识别、猫狗识别,因为这些按教程已经做过了(然而我还是不会mindSpore)。尽量简单,我们只要是个深度学习就能完成任务。

    作者: abcd咸鱼
    1443
    1
  • 《MXNet深度学习实战》

    智能系统与技术丛书MXNet 深 度 学 习 实 战 魏凯峰 著PREFACE前  言为什么要写这本书深度学习领域开始受到越来越多的关注,各大深度学习框架也孕育而生,在这个阶段,我被深度学习深深吸引并逐渐开始学习相关知识。

    作者: 华章计算机
    发表时间: 2019-06-16 16:07:19
    3924
    0
  • 【课程作业经验】使用NPU进行MindSpore模型训练

    # 使用云端NPU进行训练 Modelarts是华为提供的一个PaaS,使用Modelarts进行训练,需要进行以下工作。

    作者: RQY
    57
    0
  • 深度学习释义

    深度学习是机器学习的一种,而机器学习是实现人工智能的必经路径。深度学习的概念源于人工神经网络的研究,含多个隐藏层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。

    作者: 某地瓜
    1961
    1
  • 深度学习导论

    一、深度学习的起源深度学习的发展历程可以追溯到1943年,当时心理学家麦卡洛克和数学逻辑学家皮茨发表论文《神经活动中内在思想的逻辑演算》,提出了MP模型,这标志着神经网络的开端。在随后的几十年中,深度学习经历了多次起伏。

    作者: 林欣
    41
    1
  • 深度学习GRU

    Gated Recurrent Unit – GRU 是 LSTM 的一个变体。他保留了 LSTM 划重点,遗忘不重要信息的特点,在long-term 传播的时候也不会被丢失。

    作者: 我的老天鹅
    1261
    13
  • 【昇腾】裸金属服务器中容器执行命令npu-smi失败错误码 8020

    问题背景 在昇腾裸金属服务器中,启动容器挂载XPU卡,容器创建成功,但是执行Npu-smi报错显示,卡被name为gmj-sd的docker任务占用了。 发现挂载了两个卡 在容器中执行这个命令失败,没有挂载到卡: 2.

    作者: modelarts-dev-server
    发表时间: 2024-06-06 16:40:10
    7
    0
  • 【TBE算子开发】【pytorch适配后算子功能验证】调用npu计算报错

    算子功能验证时调用cpu计算没有问题,但是调用npu计算时出现问题。测试样例代码:调用cpu计算和npu计算的接口报错截图:

    作者: ming0105
    1030
    2
  • npu-smi info 无法打印,提示设备上没有空间

    这个问题怎么解决?

    作者: Gently
    1527
    2
  • 【A800-3010】运行npu-smi info报如下错误

    环境是:A800-3010操作系统是ubuntu-x86问题描述:之前是正常的,但是安装了ascend-toolbox后报如下错误,卸载ascend-toolbox也一样报错。

    作者: 恋上钢琴的虫
    1770
    2
  • npu-smi info 显示只有一个chip 可用了

    【功能模块】应用开发【操作步骤&问题现象】1、已经持续开发一个多月了,今天在测试的时候突然发现在初始化device时,只有一个chip 了2、使用npu-smi info 发现只有一个chip可用了, 以前是8个【截图信息】3、哪位老师帮忙看看,这是什么原因导致的呀?

    作者: porry
    1640
    3
  • 适合新手的深度学习综述(4)--深度学习方法

    Schmidthuber(2014) 描述了强化学习 (RL) 中深度学习的进展,以及深度前馈神经网络 (FNN) 和循环神经网络 (RNN) 在 RL 中的应用。

    作者: @Wu
    176
    1
  • 【驱动系列 01】NPU 22.0.3版本回退22.0.2,回退失败

    解决方案安装NPU 22.0.3及以上版本驱动和配套固件。设置PKCS的状态为“使能”。执行如下命令:npu-smi set -t pkcs-enable -d 0如出现如下回显,则表示设置成功。

    作者: frankling
    65
    0
  • 【atlas服务器800】【模型迁移】pytorch程序迁移npu报错

    pytorch模型在配置好相应环境的atlas服务器上运行出错,请问是什么问题?

    作者: 会飞的豆芽
    1546
    4
  • 【atlas200dk】【npu-smi】Aicore Usage Rate的理解

    如图:两个命令  npu-smi info -t  common -i 0 和  npu-smi info -t usages -i 0 显示的内容中都有Aicore Usage Rate,但是值不一样,请问这两个Aicore Usage Rate该如何理解?

    作者: hiCrystal
    1208
    4
  • 使用npu-smi info命令,,显示Failed to get card number

    /A300-3000-3010-npu-driver_21.0.1_centos7.6-aarch64.run  --full  安装成功3、使用npu-smi info命令,,显示Failed to get card number. 4、使用lspci | grep d100可以获取到设备信息

    作者: hunterstreet
    1505
    5