正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
实例私有IP地址。 表12 Image 参数 参数类型 描述 arch String 该镜像所支持处理器架构类型。枚举值如下: X86_64:x86处理器架构。 AARCH64:ARM体系架构。 create_at Long 镜像创建的时间,UTC毫秒。 description String
内存信息。 disk DiskResponse object 磁盘信息。 表7 Cpu 参数 参数类型 描述 arch String cpu架构。 core_num Integer 核数。 表8 Gpu 参数 参数类型 描述 unit_num Integer gpu卡数。 product_name
String 服务ID。 表2 Query参数 参数 是否必选 参数类型 描述 node_id 否 String 待查询的边缘节点ID,仅当infer_type为edge时可指定,默认查询所有节点。 请求参数 表3 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token
START_FAILED:启动失败; STOPPED:已停止; STOPPING:停止中; STOP_FAILED:停止失败。 vpc_id String 实例所在虚拟私有云ID。 endpoints Array of EndpointsRes objects 服务器的私有IP信息。 image ServerImageResponse
START_FAILED:启动失败; STOPPED:已停止; STOPPING:停止中; STOP_FAILED:停止失败。 vpc_id String 实例所在虚拟私有云ID。 endpoints Array of EndpointsRes objects 服务器的私有IP信息。 image ServerImageResponse
START_FAILED:启动失败; STOPPED:已停止; STOPPING:停止中; STOP_FAILED:停止失败。 vpc_id String 实例所在虚拟私有云ID。 endpoints Array of EndpointsRes objects 服务器的私有IP信息。 image ServerImageResponse
infer_type 否 String 推理方式,默认不过滤推理方式。取值包含: real-time:在线服务 batch:批量服务 edge: 边缘服务 status 否 String 服务状态,默认不过滤服务状态,取值包含: running:运行中,服务正常运行。 deploy
枚举值: job:训练作业 hetero_job:异构作业 autosearch_job:自动搜索作业 mrs_job:mrs作业 edge_job:边缘作业 metadata JobMetadata object 训练作业元信息。 status Status object 训练作业状态信息。创建作业无需填写。
云上迁移适配故障 无法导入模块 训练作业日志中提示“No module named .*” 如何安装第三方包,安装报错的处理方法 下载代码目录失败 训练作业日志中提示“No such file or directory” 训练过程中无法找到so文件 ModelArts训练作业无法解析参数,日志报错
否 String 服务名称,默认不过滤服务名。 infer_type 否 String 推理方式,取值为:real-time/batch/edge,默认不过滤推理方式。 offset 否 Integer 分页列表的起始页,默认为:“0”。 limit 否 Integer 指定每一页
cann_版本号 >]-<py_版本号>-<操作系统名称_版本号>-< x86_64 | aarch64> 表4 训练作业支持的AI引擎 工作环境 系统架构 系统版本 AI引擎与版本 支持的cuda或Ascend版本 TensorFlow x86_64 Ubuntu18.04 tensorflow_2
cann_版本号 >]-<py_版本号>-<操作系统名称_版本号>-< x86_64 | aarch64> 表4 训练作业支持的AI引擎 工作环境 系统架构 系统版本 AI引擎与版本 支持的cuda或Ascend版本 TensorFlow x86_64 Ubuntu18.04 tensorflow_2
否 String 服务名称,默认不过滤服务名。 infer_type 否 String 推理方式,取值为:real-time/batch/edge,默认不过滤推理方式。 offset 否 Integer 分页列表的起始页,默认为“0”。 limit 否 Integer 指定每一页返回的最大条目数,默认为“1000”。
推理方式:取值可为real-time/batch/edge。默认为real-time。 real-time代表在线服务,将模型部署为一个Web Service。 batch为批量服务,批量服务可对批量数据进行推理,完成数据处理后自动停止。 edge表示边缘服务,通过华为云智能边缘平台,在边缘节点将模型部署为一个Web
Integer 每一页的数量。 total Long 总的记录数量。 表4 NotebookFlavor 参数 参数类型 描述 arch String 架构类型。 X86_64 AARCH64 ascend AscendInfo object NPU信息。 billing BillingInfo
ModelArts支持将模型部署为哪些类型的服务? 支持在线服务、批量服务和边缘服务。 父主题: 功能咨询
保障客户系统应用大模型的成本效率,按需收费,按需扩缩的灵活成本效益资源配置方案,有效避免了资源闲置与浪费,降低了进入AI领域的门槛。 架构强调高可用性,多数据中心部署确保数据与任务备份,即使遭遇故障,也能无缝切换至备用系统,维持模型训练不中断,保护长期项目免受时间与资源损耗,确保进展与收益。
edge表示边缘服务,通过华为云智能边缘平台,在边缘节点将模型部署为一个Web Service,需提前在IEF(智能边缘服务)创建好节点。 vpc_id 否 String 在线服务实例部署的虚拟私有云ID,默认为空,此时ModelArts会为每个用户分配一个专属的VPC,用户之间隔离;如需要在服务实例中访
OBS Browser+、obsutil等工具访问和管理OBS桶,将代码、模型文件、数据集等数据上传或下载进行备份。 创建VPC 虚拟私有云(Virtual Private Cloud)可以为您构建隔离的、用户自主配置和管理的虚拟网络环境,操作指导请参考创建虚拟私有云和子网。 创建SFS
例如: 使用YOLOv5算法对工地的视频流裁帧后进行安全帽检测。 使用BertBase算法对用户在app上购买商品后的评论进行理解。 - CPU架构 X86/ARM,自有软件是否支持ARM。 例如:4个推理模型在ARM上运行,6个推理模型在X86上运行。 - 当前使用的操作系统及版本