检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用窍门 创建项目时,如何快速创建OBS桶及文件夹? 自动学习生成的模型,存储在哪里?支持哪些其他操作? 父主题: 使用自动学习实现零代码AI开发
将AI应用部署为实时推理作业 实时推理的部署及使用流程 部署模型为在线服务 访问在线服务支持的认证方式 访问在线服务支持的访问通道 访问在线服务支持的传输协议 父主题: 使用ModelArts Standard部署模型并推理预测
创建AI应用规范参考 模型包结构介绍 模型配置文件编写说明 模型推理代码编写说明 自定义引擎创建模型规范 自定义脚本代码示例 父主题: 使用ModelArts Standard部署模型并推理预测
管理批量推理作业 查看批量服务详情 查看批量服务的事件 管理批量服务生命周期 修改批量服务配置 父主题: 使用ModelArts Standard部署模型并推理预测
ModelArts Standard资源监控 ModelArts Standard资源监控概述 在ModelArts控制台查看监控指标 在AOM控制台查看ModelArts所有监控指标 使用Grafana查看AOM中的监控指标
使用Grafana查看AOM中的监控指标 安装配置Grafana 配置Grafana数据源 配置仪表盘查看指标数据 父主题: ModelArts Standard资源监控
使用自动学习实现零代码AI开发 自动学习简介 使用自动学习实现图像分类 使用自动学习实现物体检测 使用自动学习实现预测分析 使用自动学习实现声音分类 使用自动学习实现文本分类 使用窍门
制作自定义镜像用于ModelArts Standard 自定义镜像使用场景 ModelArts支持的预置镜像列表 制作自定义镜像用于创建Notebook 制作自定义镜像用于训练模型 制作自定义镜像用于推理
历史待下线案例 使用AI Gallery的订阅算法实现花卉识别 示例:从 0 到 1 制作自定义镜像并用于训练(Pytorch+CPU/GPU) 示例:从 0 到 1 制作自定义镜像并用于训练(MPI+CPU/GPU) 示例:从 0 到 1 制作自定义镜像并用于训练(MindSpore+Ascend)
数字人模型训练推理 Wav2Lip推理基于DevServer适配PyTorch NPU推理指导(6.3.907) Wav2Lip训练基于DevServer适配PyTorch NPU训练指导(6.3.907) Wav2Lip基于DevServer适配PyTorch NPU推理指导(6
Standard自动学习 使用ModelArts Standard自动学习实现口罩检测 使用ModelArts Standard自动学习实现垃圾分类
Baichuan2-13B模型基于DevServer适配PyTorch NPU训练指导(6.3.904) 场景介绍 准备工作 预训练 SFT全参微调 LoRA微调训练 推理前的权重合并转换 父主题: LLM大语言模型训练推理
Standard开发环境 将Notebook的Conda环境迁移到SFS磁盘 使用ModelArts PyCharm插件调试训练ResNet50图像分类模型 使用ModelArts VS Code插件调试训练ResNet50图像分类模型
Standard权限管理 ModelArts权限管理基本概念 权限控制方式 典型场景配置实践 FAQ
GPU推理业务迁移至昇腾的通用指导 简介 昇腾迁移快速入门案例 迁移评估 环境准备 模型适配 精度校验 性能调优 迁移过程使用工具概览 常见问题 父主题: GPU业务迁移至昇腾训练推理
AIGC模型训练推理 SD1.5&SDXL ComfyUI、WebUI、Diffusers套件适配PyTorch NPU的推理指导(6.3.909) FLUX.1基于DevServer适配PyTorch NPU推理指导(6.3.909) Hunyuan-DiT基于DevServer部署适配PyTorch
准备工作 准备资源 准备权重 准备代码 准备镜像 准备Notebook 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.907)
推理模型量化 使用AWQ量化工具转换权重 使用SmoothQuant量化工具转换权重 使用kv-cache-int8量化 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.907)
模型适配 基于MindSpore Lite的模型转换 动态shape 父主题: GPU推理业务迁移至昇腾的通用指导
Qwen系列模型基于DevServer适配PyTorch NPU训练指导(6.3.904) 场景介绍 准备工作 预训练 SFT微调训练 LoRA微调训练 推理前的权重合并转换 父主题: LLM大语言模型训练推理