检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用自动学习实现预测分析 准备预测分析数据 创建预测分析项目 训练预测分析模型 部署预测分析服务 父主题: 使用自动学习实现零代码AI开发
管理AI应用 查看AI应用详情 查看AI应用事件 管理AI应用版本 发布AI应用 父主题: 使用ModelArts Standard部署模型并推理预测
创建AI应用 创建AI应用不同方式的场景介绍 从训练作业中导入AI应用文件创建模型 从OBS中导入AI应用文件创建模型 从容器镜像中导入AI应用文件创建模型 从AI Gallery订阅模型 父主题: 使用ModelArts Standard部署模型并推理预测
访问在线服务支持的访问通道 通过公网访问通道的方式访问在线服务 通过VPC高速访问通道的方式访问在线服务 父主题: 将AI应用部署为实时推理作业
产品发布说明 昇腾云服务6.3.909版本说明 昇腾云服务6.3.908版本说明 昇腾云服务6.3.907版本说明(推荐) 昇腾云服务6.3.906版本说明 昇腾云服务6.3.905版本说明 昇腾云服务6.3.904版本说明
配置ModelArts Standard访问授权 快速配置ModelArts委托授权 创建IAM用户并授权使用ModelArts 父主题: ModelArts Standard准备工作
管理Standard专属资源池 查看Standard专属资源池详情 扩缩容Standard专属资源池 升级Standard专属资源池驱动 修复Standard专属资源池故障节点 修改Standard专属资源池支持的作业类型 迁移Standard专属资源池和网络至其他工作空间 配置Standard专属资源池可访问公网
安装配置Grafana 在Windows上安装配置Grafana 在Linux上安装配置Grafana 在Notebook上安装配置Grafana 父主题: 使用Grafana查看AOM中的监控指标
ModelArts Standard资源管理 Standard资源池功能介绍 创建Standard专属资源池 管理Standard专属资源池
使用ModelArts Standard部署模型并推理预测 推理部署使用场景 创建AI应用 创建AI应用规范参考 将AI应用部署为实时推理作业 将AI应用部署为批量推理服务 管理AI应用 管理同步在线服务 管理批量推理作业
访问在线服务支持的传输协议 使用WebSocket协议的方式访问在线服务 使用Server-Sent Events协议的方式访问在线服务 父主题: 将AI应用部署为实时推理作业
Session鉴权 (可选)Session鉴权 用户名密码认证模式 用户AK-SK认证模式
服务管理 服务管理概述 在开发环境中部署本地服务进行调试 部署在线服务 查询服务详情 推理服务测试 查询服务列表 查询服务对象列表 更新服务配置 查询服务监控信息 查询服务日志 删除服务
数据管理 数据集管理 数据集版本管理 样本管理 导入任务管理 导出任务管理 Manifest管理 标注任务管理
数据集管理 查询数据集列表 创建数据集 查询数据集详情 更新数据集 删除数据集 父主题: 数据管理
导入任务管理 查询导入任务列表 创建导入任务 查询导入任务状态 父主题: 数据管理
Lite Server资源配置 Lite Server资源配置流程 配置Lite Server网络 配置Lite Server存储 配置Lite Server软件环境
配置Lite Server软件环境 NPU服务器上配置Lite Server资源软件环境 GPU服务器上配置Lite Server资源软件环境 父主题: Lite Server资源配置
Lite Server资源使用 LLM/AIGC/数字人基于Server适配NPU的训练推理指导 GPT-2基于Server适配PyTorch GPU的训练推理指导
Lite Server资源管理 查看Lite Server服务器详情 启动或停止Lite Server服务器 同步Lite Server服务器状态 切换Lite Server服务器操作系统 监控Lite Server资源 NPU日志收集上传 释放Lite Server资源