检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
到端吞吐性能上产生劣化,无法发挥PD分离调度架构的优势。 性能评测度量方式 度量标准 传统的度量方式未引入SLO的要求,造成吞吐好看,但是客户的感知不好。 goodput的引入:满足的SLO要求的吞吐,即TTFT与TPOT均满足要求。 TTFT:Time To First Token(首token生成时间)
是通过在模型层中引入低秩矩阵,将大模型的权重降维处理,来实现高效的模型适配。相比于传统的微调方法,LoRA不仅能大幅减少所需的训练参数,还降低了显存和计算成本,加快了模型微调速度。对于VLLM来说,使用LoRA进行多任务部署具有以下优势: 资源节省:在大模型中引入LoRA,可以减
是通过在模型层中引入低秩矩阵,将大模型的权重降维处理,来实现高效的模型适配。相比于传统的微调方法,LoRA不仅能大幅减少所需的训练参数,还降低了显存和计算成本,加快了模型微调速度。对于VLLM来说,使用LoRA进行多任务部署具有以下优势: 资源节省:在大模型中引入LoRA,可以减
精度问题诊断 逐个替换模型,检测有问题的模型 该方式主要是通过模型替换,先定位出具体哪个模型引入的误差,进一步诊断具体的模型中哪个算子或者操作导致效果问题,模型替换原理如下图所示。通过设置开关选项(是否使用onnx模型),控制模型推理时,模型使用的是onnx模型或是mindir的模型。
场景介绍及环境准备 场景介绍 DiT(Diffusion Transformers)模型是一种将Transformer架构引入扩散模型的新方法。传统的扩散模型通常使用U-Net架构,而DiT模型则用Transformer替代了U-Net,处理图像生成和去噪等任务。核心思想是通过T
上传文件。 刷新文件目录。 Git插件,可连接此Notebook实例关联的Github代码库。 表2 插件栏常用插件说明 插件 说明 文件列表。单击此处,将展示此Notebook实例下的所有文件列表。 当前实例中正在运行的Terminal和Kernel。 Git插件,可以方便快捷地使用Github代码库。
Standard开发环境 将Notebook的Conda环境迁移到SFS磁盘 使用ModelArts VSCode插件调试训练ResNet50图像分类模型
开发环境 环境配置故障 实例故障 代码运行故障 JupyterLab插件故障 VS Code连接开发环境失败故障处理 自定义镜像故障 其他故障
通过PyCharm远程使用Notebook实例 使用PyCharm Toolkit插件连接Notebook 使用PyCharm手动连接Notebook 使用PyCharm上传数据至Notebook 父主题: 使用Notebook进行AI开发调试
该方式是指用户在VS Code上使用ModelArts VS Code Toolkit插件提供的登录和连接按钮,连接云上实例。 VS Code手动连接Notebook 该方式是指用户使用VS Code Remote SSH插件手工配置连接信息,连接云上实例。 安装VS Code软件 使用VS Code连接开发环境时,首先需要安装VS
Notebook:是一款Web应用,能够使用户在界面编写代码,并且将代码、数学方程和可视化内容组合到一个文档中。 JupyterLab插件:插件包括规格切换,分享案例到AI Gallery进行交流,停止实例等,提升用户体验。 支持SSH远程连接功能,通过SSH连接启动实例,在本地调试就可以操作实例,方便调试。
历史待下线案例 使用AI Gallery的订阅算法实现花卉识别 使用ModelArts PyCharm插件调试训练ResNet50图像分类模型 示例:从 0 到 1 制作自定义镜像并用于训练(PyTorch+CPU/GPU) 示例:从 0 到 1 制作自定义镜像并用于训练(MPI+CPU/GPU)
查看密钥文件的路径,建议放在C:\Users\{user}\.ssh下,并确保密钥文件无中文字符。 排查插件包是否为最新版:在extensions中搜索,看是否需要升级。检查Remote-ssh三方插件是否兼容。 4. 检查本地Vscode是否为最新版,最新版可能有bug,建议使用推荐版本v1
my_dir/') 引入MoXing Framework模块 使用MoXing Framework前,您需要在代码的开头先引入MoXing Framework模块。 执行如下代码,引入MoXing模块。 1 import moxing as mox 引入MoXing Framework的相关说明
资源管理 查询OS的配置参数 查询插件模板 查询节点列表 批量删除节点 批量对节点功能上锁 批量对节点功能解锁 批量重启节点 查询事件列表 创建网络资源 查询网络资源列表 查询网络资源 删除网络资源 更新网络资源 查询资源实时利用率 创建资源池 查询资源池列表 查询资源池 删除资源池
修改hunyuan_dit_example.py脚本第16行,改为hunyuan-dit模型路径: 安装ascend_diffusers插件 执行以下命令安装华为侧插件ascend_diffusers。 pip install -e ${container_work_dir}/aigc_in
te Server。 ModelArts Lite Cluster面向k8s资源型用户,提供托管式k8s集群,并预装主流AI开发插件以及自研的加速插件,以云原生方式直接向用户提供AI Native的资源、任务等能力,用户可以直接操作资源池中的节点和k8s集群。请参见弹性集群k8s
如果用户之前未安装过ModelArts VS Code插件,此时会弹出安装提示,请单击“Install and Open”进行安装;如果之前已经安装过插件,则不会有该提示,请跳过此步骤,直接执行5。 图5 安装VS Code插件 安装过程预计1~2分钟,安装完成后右下角会弹出对话框,请单击“Reload
主流开源大模型基于Server适配LlamaFactory PyTorch NPU训练指导 AIGC模型 SDXL&SD1.5 ComfyUI插件基于Server适配PyTorch NPU推理指导 LLaVA模型基于Server适配PyTorch NPU预训练指导 LLaVA模型基于Server适配PyTorch
6.8.0版本配套关系表 强依赖组件 Ascend Snt9B配套版本 CCE 1.28(推荐)/1.25/1.23(存量) Volcano插件 1.15.8 ModelArts Device-Plugin 1.2.0 huawei-npu 2.1.22 Lite模式DevServer节点操作系统