检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Gallery CLI配置工具指南 安装Gallery CLI配置工具 使用Gallery CLI配置工具下载文件 使用Gallery CLI配置工具上传文件 父主题: AI Gallery(新版)
AI开发流程科普视频 特性讲解 昇腾云服务 产品介绍 03:55 了解什么是昇腾云服务 华为云ModelArts服务视频 训练作业容错检查功能介绍 04:48 了解什么是训练作业容错检查功能 华为云ModelArts服务视频 高可用冗余节点功能介绍 03:07 了解什么是高可用冗余节点功能
Lite Cluster资源配置 Lite Cluster资源配置流程 配置Lite Cluster网络 配置kubectl工具 配置Lite Cluster存储 (可选)配置驱动 (可选)配置镜像预热
Lite Server资源配置 Lite Server资源配置流程 配置Lite Server网络 配置Lite Server存储 配置Lite Server软件环境
委托选择:新增委托 权限配置:普通用户 选择完成后勾选“我已经详细阅读并同意《ModelArts服务声明》”,然后单击“创建”。 图1 配置委托访问授权 完成配置后,在ModelArts控制台的权限管理列表,可查看到此账号的委托配置信息。 图2 查看委托配置信息 父主题: 权限配置
训练作业参数配置 创建训练作业参数 查询训练作业参数列表 更新训练作业参数 删除训练作业参数 查询训练作业参数详情 父主题: 训练管理(旧版)
【下线公告】华为云ModelArts自动学习模块的文本分类功能下线公告 华为云计划于2024/12/06 00:00(北京时间)将AI开发平台ModelArts自动学习模块的文本分类功能正式下线。 下线范围 下线Region:华为云全部Region。 下线影响 ModelArts
服务部署 自定义镜像模型部署为在线服务时出现异常 部署的在线服务状态为告警 服务启动失败 服务部署、启动、升级和修改时,拉取镜像失败如何处理? 服务部署、启动、升级和修改时,镜像不断重启如何处理? 服务部署、启动、升级和修改时,容器健康检查失败如何处理? 服务部署、启动、升级和修改时,资源不足如何处理?
选择指定的IAM子用户,给指定的IAM子用户配置委托授权。 “委托选择” 选择“新增委托”。 “ 委托名称” 系统自动创建委托名称,用户可以手动修改。 “权限配置 ” 在服务列表右侧勾选“全选”。 勾选“我已经详细阅读并同意《ModelArts服务声明》”,单击“创建”,即可完成委托配置。 更多高级授权配置 登录M
分离部署 PD分离部署使用说明 父主题: 推理关键特性使用
华为云CCE集群纳管GPU裸金属服务器由于CloudInit导致纳管失败的解决方案 问题现象 创建出3台GPU裸金属服务器,使用A节点制作镜像,用于在CCE纳管裸金属服务器时,使用该镜像,但是纳管后发现服务器A纳管失败,剩下两台服务器纳管成功。 原因分析 在CCE纳管过程中,需要通过cloudinit
将模型部署为实时推理作业 实时推理的部署及使用流程 部署模型为在线服务 访问在线服务支持的认证方式 访问在线服务支持的访问通道 访问在线服务支持的传输协议 父主题: 使用ModelArts Standard部署模型并推理预测
部署上线 部署上线失败 父主题: 自动学习
推理部署 模型管理 服务部署 服务预测
部署推理服务 非分离部署推理服务 分离部署推理服务 父主题: 主流开源大模型基于Lite Server适配PyTorch NPU推理指导(6.3.909)
配置Lite Cluster网络 本章节介绍如何申请弹性公网IP并绑定到弹性云服务器。通过本文档,您可以实现弹性云服务器访问公网的目的。 使用华为云账号登录CCE管理控制台。 找到购买Cluster资源时选择的CCE集群,单击名称进入CCE集群详情页面,单击“节点管理”页签,在“
部署推理服务 自动化脚本快速部署推理服务(推荐) 手动部署推理服务 父主题: DeepSeek模型基于ModelArts Lite Server适配MindIE推理部署指导
配置Lite Server网络 Server创建后,需要进行网络配置,才可使其与Internet通信,本章节介绍网络配置步骤。网络配置主要分为以下两个场景: 单个弹性公网IP用于单个Server服务器:为单台Server服务器绑定一个弹性公网IP,该Server服务器独享网络资源。
部署推理服务 非分离部署推理服务 分离部署推理服务 父主题: 主流开源大模型基于Lite Server适配PyTorch NPU推理指导(6.3.908)
部署推理服务 非分离部署推理服务 分离部署推理服务 父主题: 主流开源大模型基于Lite Server适配PyTorch NPU推理指导(6.3.910)