内容选择
全部
内容选择
内容分类
  • 学堂
  • 博客
  • 论坛
  • 开发服务
  • 开发工具
  • 直播
  • 视频
  • 用户
时间
  • 一周
  • 一个月
  • 三个月
  • 想问一些modelarts上ascend的相关问题

    去年都是在华为云上买linux服务器配置gpu版本的mindspore跑程序,也明显比cpu的快很多但是今年用modelarts上这个ascend跑同样的代码,发现速度和cpu差不多,而且好像也没有gpu的版本正常的话ascend应该是用这个npu深度学习的是吗?

    作者: 西瓜奶蛋
    961
    4
  • ChatTTS适配Ascend NPU开源开发任务

    torch_npu 是 应用功能依赖于torch_npu运行。 否 使用torch_npu实现适配逻辑。 鲲鹏生态 指令 是 使用鲲鹏处理器运行应用。 否 使用鲲鹏指令实现适配逻辑。 Euler 是 使用Euler系统运行应用。 否 使用Euler系统调用实现适配逻辑。

    作者: yd_254538132
    发表时间: 2024-10-28 16:45:56
    406
    0
  • 昇腾NPU人脸仿射变换性能优化

      对于这种场景昇腾NPU有什么更好的方案呢? 在昇腾NPU方案中,我们可以利用NPU上的媒体处理硬件模块DVPP,以及内置的SpatialTransformer算子结合把整个流程都在芯片内完成。

    作者: 李万俊
    发表时间: 2021-10-21 11:30:52
    1665
    0
  • 传统深度学习算法能运行在NPU上吗?

    比如如下算法:图像去噪、SIFT算法获取特征、获取角点、图像矫正

    作者: 南山吃鸡王
    1818
    4
  • RWKV 适配Ascend NPU开源开发任务

    能力要求:需要熟悉 Python、C++ 开发,掌握 Ascend 和 Kunpeng 处理器架构,具备深度学习和并行计算的知识,了解 NPU 硬件优化技术。

    作者: huyanbo
    发表时间: 2024-10-28 17:54:36
    354
    0
  • DeepSpeed 适配Ascend NPU开源开发任务

    l 能力要求: - 熟悉深度学习框架(如 PyTorch)以及分布式训练算法。 - 了解 NPU 架构及分布式计算优化。 - 熟悉 Ascend 和 Kunpeng 处理器的硬件架构。 - 熟悉欧拉操作系统(OpenEuler)的环境配置。

    作者: huyanbo
    发表时间: 2024-10-28 15:22:17
    419
    0
  • AntSK适配Ascend NPU开源开发任务

    torch_npu 是 应用功能依赖于torch_npu运行 否 使用torch_npu实现适配逻辑 鲲鹏生态 指令 是 使用鲲鹏处理器运行应用。 否 使用鲲鹏指令实现适配逻辑。 Euler 是 使用Euler系统运行应用。 否 使用Euler系统调用实现适配逻辑。

    作者: yd_254538132
    发表时间: 2024-10-28 16:29:40
    248
    0
  • NPU上PyTorch模型训练问题案例

    npu:0") test_npu() 在运行backward运算时,若没有设置device,程序会自动默认初始化device为0,相当于执行了set_device("npu:0")。

    作者: 昇腾CANN
    发表时间: 2023-09-26 14:59:39
    141
    0
  • SAM 2适配Ascend NPU开源开发任务

    能力要求:- 熟悉 C++ 和 Python 编程- 具备深度学习和分割算法相关经验- 了解 NPU 架构及并行计算优化- 熟悉 Ascend 和 Kunpeng 处理器的硬件架构及优化技巧   2.3 适配任务清单 生态 生态细类 是否需要验证 验证逻辑说明

    作者: huyanbo
    发表时间: 2024-10-28 18:13:23
    376
    0
  • NPU

    传统的CPU,GPU也可以做类似的任务,但是,针对神经网络特殊优化过的NPU单元,性能会比CPU,GPU高得多。渐渐的,类似的神经网络任务也会由专门的NPU单元来完成。之后,为什么NPU的效率会比CPU/GPU高很多呢?主要就是由于乘法累加计算导致的。

    作者: 柠檬PH=2
    936
    3
  • flux适配Ascend NPU开源开发任务

    l 能力要求: - 完成该任务需要具备熟悉C++和python编程 - 有深度学习和CV的算法相关经验 - 熟悉 Ascend 和 Kunpeng 处理器的硬件架构及优化技巧。

    作者: huyanbo
    发表时间: 2024-10-28 16:54:20
    370
    0
  • NPU上PyTorch模型调优问题案例

    性能调优 以下调优步骤基于已完成模型向NPU的迁移。 1、模型脚本开头添加库代码。 import torch_npu import torch_npu.optim 2、找到模型脚本main.py中的优化器定义代码,将原始优化器替换为对应的NPU亲和融合优化器。

    作者: 昇腾CANN
    发表时间: 2023-10-12 10:49:43
    10
    0
  • 基于TensorFlow模型迁移到Ascend 910(NPU)调优过程简述

    总的来说,Ascend 910(NPU)和GPU各有优势,得益于AI Core的先天性优势,一般来说比GPU是要快的,但GPU的生态更加完善,这也是目前昇腾所努力的,经过黄金赛,看到了很多同学很好的尝试和努力,觉得他们还是很厉害的,有这样的开发者支持(当然还有很多企业的支持,记得有

    作者: Tianyi_Li
    发表时间: 2021-07-29 05:44:54
    3020
    0
  • Faiss适配Ascend NPU开源开发任务

    l 能力要求: - 熟练掌握GaussDB- 熟悉 C++ 和 Python 编程- 具备大规模数据处理及搜索算法相关经验- 了解 NPU 架构及并行计算优化   - 熟悉 Ascend 和 Kunpeng 处理器的硬件架构及优化技巧 2.3 适配任务清单 &nbsp

    作者: huyanbo
    发表时间: 2024-10-28 16:31:57
    134
    0
  • pytorch模型转换为rknn模型,使用npu推理

    🎯模型推理:能够在 PC 上模拟Rockchip NPU 运行 RKNN 模型并获取推理结果;或将 RKNN模型分发到指定的 NPU 设备上进行推理并获取推理结果。

    作者: 振华OPPO
    发表时间: 2022-11-30 12:36:06
    199
    0
  • No module named 'npu_bridge.npu_init'

    【开发环境】ModelArts Notebook, Tensorflow 1.15【操作步骤&问题现象】通过"from npu_bridge.npu_init import *"增加头文件报错。图为npu_bridge安装目录import npu_bridge正常感谢帮助

    作者: 新生代Bug批发商
    3055
    12
  • npu内存释放

    1,程序运行后,用npu-smi info 显示npu使用了X2.待程序结束后,用ps -aux 查看,无法找到此进程,但npu使用率并未降低3.想请问如何释放npu已经使用的内存

    作者: 无边落木
    1883
    5
  • rk3588使用npu进行模型转换和推理,加速AI应用落地

    那么转过来,使用开发板自带的NPU进行加速推理,岂不是更加可行,而且它本身就是深度学习嵌入式板子,不用NPU真的可惜。 🏅问题来了:怎么使用NPU?在开发板上还是在自己的PC上?要安装什么环境?怎么安装?这些问题都需要依次考虑清楚。

    作者: 振华OPPO
    发表时间: 2022-09-15 12:34:43
    879
    0
  • 【昇腾】NPU Snt9B裸金属服务器npu-smi info出现丢卡现象解决方案

    环境描述 服务器信息: 华为云NPU Snt9B裸金属服务器 操作系统:Euler2.10 Arm 64bit 系统环境相关版本: NPU驱动版本为23.0.rc2、固件版本为6.4.12.1.241 2.

    作者: modelarts-dev-server
    发表时间: 2023-10-27 11:38:10
    302
    0
  • 【昇腾】NPU Snt9B裸金属服务器npu-smi info出现dcmi module initialize failed

    环境描述 服务器信息: 华为云NPU Snt9B裸金属服务器 操作系统:Euler2.10 Arm 64bit 系统环境相关版本: NPU驱动版本为23.0.1 2.

    作者: modelarts-dev-server
    发表时间: 2024-03-30 16:48:56
    37
    0