检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在使用converter_lite工具转换时,默认是将所有算子的精度转换为fp16。如果想要将固定shape的模型精度修改为fp32进行转换,需要在配置文件中指定算子的精度模式为precision_mode,配置文件的写法如下(更多精度模式请参考precision_mode): # text_encoder
GPU驱动故障 G系列弹性云服务器GPU驱动故障 GPU驱动异常怎么办? GPU驱动不可用 GPU设备显示异常 T4 GPU设备显示异常 GPU实例启动异常,查看系统日志发现NVIDIA驱动空指针访问怎么办?
应用GPU资源调度方式 IEF支持多应用共享的方式使用GPU显卡。 IEF支持单个应用使用多个GPU显卡。 GPU资源调度基于GPU显存容量,调度采用GPU显存预分配方式而非实时GPU显存资源。 当应用需要使用的GPU显存资源小于单个GPU卡显存时,支持以共享方式进行资源调度,对
gen_collect_gpu_log_shell(self): collect_gpu_log_shell = "nvidia-bug-report.sh" return collect_gpu_log_shell def collect_gpu_log(self):
rfile文件内容: FROM tensorflow/tensorflow:1.15.0-gpu ADD gpu-demo /home/project/gpu-demo 其中ADD将gpu-demo工程拷贝到镜像的/home/project目录下,可以根据自己需要修改。 执行docker
msprobe工具使用指导 msprobe API预检 msprobe精度比对 msprobe梯度监控 父主题: GPU业务迁移至昇腾训练推理
ModelSlim 精度调试 msit llm 大模型精度调试工具,支持加速库(atb)和torchair的大模型推理的精度数据dump及比对功能,辅助大模型推理精度问题定位。 下载工具whl包安装使用,推荐使用最新版本。 大模型推理精度工具 父主题: GPU业务迁移至昇腾训练推理
模型适配 基于MindSpore Lite的模型转换 动态shape 父主题: GPU推理业务迁移至昇腾的通用指导
wikipedia、diffusers github、Stable Diffusion with diffusers。 推理业务迁移到昇腾的通用流程,可参考GPU推理业务迁移至昇腾的通用指导。 由于Huggingface网站的限制,访问Stable Diffusion链接时需使用代理服务器,否则可能无法访问网站。
la驱动。 当前已支持使用自动化脚本安装GPU驱动,建议优先使用自动安装方式,脚本获取以及安装指导请参考(推荐)自动安装GPU加速型ECS的GPU驱动(Linux)和(推荐)自动安装GPU加速型ECS的GPU驱动(Windows)。 GPU虚拟化型实例,需要严格按照表1选择合适的驱动版本下载使用。
Hudi写入小精度Decimal数据失败 问题 Hudi表初始入库采用BULK_INSERT方式入库含有Decimal类型的数据,之后执行upsert,数据写入时报错: java.lang.UnsupportedOperationException: org.apache.parquet
GPU实例启动异常,查看系统日志发现NVIDIA驱动空指针访问怎么办? 问题描述 GPU实例启动异常,检查系统日志,发现NVIDIA驱动空指针访问。如图1所示。 图1 NVIDIA驱动空指针访问 可能原因 GPU驱动异常。 处理方法 卸载驱动。 方法1:执行nvidia-uninstall命令,卸载驱动。
V100 NVLink (GPU直通) 5120 15.7TFLOPS 单精度浮点计算 7.8TFLOPS 双精度浮点计算 125TFLOPS Tensor Core 深度学习加速 300GiB/s NVLINK 机器学习、深度学习、训练推理、科学计算、地震分析、计算金融学、渲染、多媒体编解码。
Hudi写入小精度Decimal数据失败 问题 Hudi表初始入库采用BULK_INSERT方式入库含有Decimal类型的数据,之后执行upsert,数据写入时报错: java.lang.UnsupportedOperationException: org.apache.parquet
置。通过实现Scheduler提供的接口也可以方便灵活地进行定制化开发。 应用场景4:高精度资源调度 Volcano 在支持AI,大数据等作业的时候提供了高精度的资源调度策略,例如在深度学习场景下计算效率非常重要。以TensorFlow计算为例,配置“ps”和“worker”之间
日志提示Compile graph failed 日志提示Custom op has no reg_op_name attr 父主题: GPU推理业务迁移至昇腾的通用指导
name: 'cce-gpu' cce-gpu 结合CCE的GPU插件支持GPU资源分配,支持小数GPU配置。 说明: 1.10.5及以上版本的插件不再支持该插件,请使用xgpu插件。 小数GPU配置的前提条件为CCE集群GPU节点为共享模式,检查集群是否关闭GPU共享,请参见修改C
Diffusion模型通过MSLite进行转换后,迁移在昇腾设备上运行。 图3 Stable Diffusion模型迁移到Ascend上进行推理 父主题: GPU推理业务迁移至昇腾的通用指导
应用迁移 模型适配 pipeline代码适配 父主题: 基于AIGC模型的GPU推理业务迁移至昇腾指导
参数模型说明已给出,根据模型初始化参数设置当前模型使用onnx模型(运行在CPU上)或mindir模型(运行在昇腾设备上),也能够方便进行精度的校验。 # mslite_model_proxy.py import os import mindspore_lite as mslite