检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
创建AI应用时,OBS文件目录对应镜像里面的目录结构是什么样的? 问题现象 创建AI应用时,元模型来源指定的OBS目录下存放了自定义的文件和文件夹,都会拷贝到镜像中去。拷贝进去的路径是什么,怎么读取对应的文件或者文件夹里面的内容? 原因分析 通过OBS导入AI应用时,ModelA
GPU A系列裸金属服务器无法获取显卡如何解决 问题现象 在A系列裸金属服务器上使用PyTorch一段时间后,出现获取显卡失败的现象,报错如下: > torch.cuda.is_available() /usr/local/lib/python3.8/dist-packages/torch/cuda/__init__
MindSpore日志提示“ retCode=0x91, [the model stream execute failed]” 问题现象 使用mindspore进行训练时,出现如下报错: [ERROR] RUNTIME(3002)model execute error, retCode=0x91
日志提示“Runtimeerror: Dataloader worker (pid 46212 ) is killed by signal: Killed BP” 问题现象 训练作业日志运行出现如下报错:Runtimeerror: Dataloader worker (pid 46212
LTS日志概述 云日志服务(Log Tank Service,简称LTS),用于收集来自主机和云服务的日志数据,通过海量日志数据的分析与处理,可以将云服务和应用程序的可用性和性能最大化,为您提供实时、高效、安全的日志处理能力,帮助您快速高效地进行实时决策分析、设备运维管理、用户业务趋势分析等。
查询微服务引擎专享版列表 功能介绍 查询微服务引擎专享版列表。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v2/{project_id}/enginemgr/engines
获取微服务引擎专享版用户Token 功能介绍 仅用于开启了安全认证的微服务引擎专享版。 在访问开启了安全认证的微服务引擎专享版的接口前,需要先调用该接口获取用户Token,该Token是访问接口的唯一凭据。 发送访问请求时需要在请求头中带上该Token,格式为: Authorization:Bearer
根据环境ID删除环境 功能介绍 此API通过环境ID删除环境。 调试 您可以在API Explorer中调试该接口。 URI DELETE /v2/{project_id}/cas/environments/{environment_id} 表1 路径参数 参数 是否必选 参数类型
根据组件ID修改组件信息 功能介绍 此API通过组件ID修改组件信息。 调试 您可以在API Explorer中调试该接口。 URI PUT /v3/{project_id}/cas/applications/{application_id}/components/{component_id}
查询内置镜像 功能介绍 获取ServiceStage各个技术栈构建时使用的内置基础镜像。 URI GET /v3/{project_id}/cas/innerimages 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 租户项目ID。获取方法,请参考获取项目ID。
准备权重 获取对应模型的权重文件,获取链接参考表1。 在创建的OBS桶下创建文件夹用以存放权重文件,例如在桶中创建文件夹。将下载的权重文件上传至OBS中,得到OBS下数据集结构。此处以qwen-14b举例。 obs://${bucket_name}/${folder-name}/
准备代码 本教程中用到的模型软件包如下表所示,请提前准备好。 获取配套版本 本方案支持的软件配套版本和依赖包获取地址如表1所示。 表1 软件配套版本和获取地址 软件名称 说明 下载地址 AscendCloud-3rdLLM-6.3.905-xxx.zip 说明: 软件包名称中的xxx表示时间戳。
准备权重 获取对应模型的权重文件,获取链接参考表1。 在创建的OBS桶下创建文件夹用以存放权重文件,例如在桶中创建文件夹。将下载的权重文件上传至OBS中,得到OBS下数据集结构。此处以qwen-14b举例。 obs://${bucket_name}/${folder-name}/
准备代码 本教程中用到的模型软件包如下表所示,请提前准备好。 软件配套版本 本方案支持的软件配套版本和依赖包获取地址如表1所示。 表1 软件配套版本和获取地址 软件名称 说明 下载地址 AscendCloud-6.3.906-xxx.zip 说明: 软件包名称中的xxx表示时间戳。
PyTorch迁移精度调优 完成代码迁移适配后,用户需要进一步验证训练精度是否达标。在保证迁移正确的前提下,迁移后精度偏差的来源,一方面是昇腾设备部分算子的实现和CUDA算子有差异,另外一方面则是硬件方面的差异,如Ascend Snt9芯片上的Matmul和Conv等cube算子
主流开源大模型基于DevServer适配PyTorch NPU训练指导(6.3.905) 场景介绍 准备工作 预训练任务 SFT全参微调训练任务 LoRA微调训练 查看日志和性能 训练脚本说明 父主题: LLM大语言模型训练推理
线下容器镜像构建及调试 镜像构建 导出conda环境 首先拉起线下的容器镜像: # run on terminal docker run -ti ${your_image:tag} 在容器中输入如下命令,得到pytorch.tar.gz: # run on container #
上传算法至SFS 下载Swin-Transformer代码。 git clone --recursive https://github.com/microsoft/Swin-Transformer.git 修改lr_scheduler.py文件,把第27行:t_mul=1. 注释掉。
主流开源大模型基于DevServer适配PyTorch NPU推理指导(6.3.908) 推理场景介绍 部署推理服务 推理性能测试 推理精度测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明 附录:大模型推理常见问题 父主题: LLM大语言模型训练推理
准备工作 准备资源 准备权重 准备代码 准备镜像 准备Notebook 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.908)