已找到以下 382 条记录
AI智能搜索
产品选择
云容器实例 CCI
没有找到结果,请重新输入
产品选择
云容器实例 CCI
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • 为什么exec进入容器后执行GPU相关操作报错? - 云容器实例 CCI

    为什么exec进入容器后执行GPU相关操作报错? 问题现象: exec进入容器后执行GPU相关操作(例如nvidia-smi、使用tensorflow运行GPU训练任务等)报错“cannot open shared object file: No such file or directory”。

  • GPU负载 - 云容器实例 CCI

    GPU负载 使用Tensorflow训练神经网络 使用Nvidia-smi工具

  • 使用Nvidia-smi工具 - 云容器实例 CCI

    为了支持查看GPU使用情况场景,需要在镜像中注入nvidia-smi工具,根据购买专属节点GPU驱动版本选择不同nvidia-smi二进制文件。 nvidia-smi获取方式。 该二进制文件可以在nvidia官网,根据CUDA Toolkit版本选择下载对应版本nvidia驱动包。

  • 什么是云容器实例 - 云容器实例 CCI

    ss Container(无服务器容器)引擎,让您无需创建和管理服务器集群即可直接运行容器。 Serverless是一种架构理念,是指不用创建和管理服务器、不用担心服务器运行状态(服务器是否在工作等),只需动态申请应用需要资源,把服务器留给专门维护人员管理和维护,进而专注于

  • 使用Tensorflow训练神经网络 - 云容器实例 CCI

    选择为“1”,选择Pod规格为“GPU加速型”,显卡驱动版本选择“418.126”,如下所示。 GPU Pod详细规格和显卡驱动说明请参见Pod规格。 图2 选择GPU容器规格 选择需要容器镜像,这里选择上传到镜像容器仓库tensorflow镜像。 在容器设置下面的高

  • 云容器引擎-功能总览 - 云容器实例 CCI

    命名空间(namespace)是一种在多个用户之间划分资源方法。适用于用户中存在多个团队或项目的情况。 当前云容器实例提供“通用计算型”和“GPU加速型”两种类型资源,创建命名空间时需要选择资源类型,后续创建负载中容器就运行在此类型集群上。 通用计算型 支持区域:全部 GPU加速型 支持区域:华北-北京四、华东-上海一

  • 如果不挂载云存储的话,容器运行产生数据存储在哪里? - 云容器实例 CCI

    如果不挂载云存储的话,容器运行产生数据存储在哪里? 如果没有挂载EVS等磁盘,应用数据存储在容器物理机磁盘,每个Pod存储空间限制为CPU物理机磁盘为20G,GPU物理机磁盘为20G,如果为专属节点可根据客户需求进行调整。 为了确保数据安全性,在创建容器时容器引擎会从dev

  • 查看资源使用率 - 云容器实例 CCI

    当您创建完工作负载后,您也许会非常关心每个Pod资源利用率。 云容器实例提供了查看CPU/内存、GPU/显存界面,您只需要在无状态负载、任务、定时任务中Pod列表“监控”Tab下即可查看资源使用率,如图1所示。 您也可以在Pod管理中查看所有Pod资源使用率。 图1 查看监控信息 父主题:

  • CCI - 云容器实例 CCI

    为什么exec进入容器后执行GPU相关操作报错? 更多 存储管理类 CCI支持云存储有哪些,哪种存储需要设置备份? 如何使用云存储? 如果不挂载云存储的话,容器运行产生数据存储在哪里? jobpod已经执行完成情况下,为什么依然有实例在挂卷等事件,并且事件信息是失败? 更多 工作负载异常

  • 应用场景 - 云容器实例 CCI

    需要低成本、免运维计算平台。科学计算一般都是任务型计算,快速申请大量资源,完成后快速释放。 云容器实例提供如下特性,能够很好支持这类场景。 高性能计算:提供高性能计算、网络和高I/O存储,满足密集计算诉求 极速弹性:秒级资源准备与弹性,减少计算过程中资源处理环节消耗 免

  • 约束限制 - 云容器实例 CCI

    U物理机磁盘为20G,GPU物理机磁盘为20G。 配额 云容器实例对单个用户资源数量和容量限定了配额,配额详细信息请参见关于配额。 Pod规格计算方式 Pod规格计算方式遵循如下规则: Pod包含所有InitContainer上定义任何特定资源约束值 (limit) 或请求值

  • 什么是安全容器? - 云容器实例 CCI

    安全容器这个概念主要与普通容器进行比较。 和普通容器相比,它最主要区别是每个容器(准确地说是pod)都运行在一个单独微型虚拟机中,拥有独立操作系统内核,以及虚拟化层安全隔离。因为云容器实例采用是共享多租集群,因此容器安全隔离比用户独立拥有私有Kubernetes集群有更严格要求。通过安

  • 无状态负载(Deployment) - 云容器实例 CCI

    每个租户一个月有500M免费日志存储空间,超过500M时AOM将根据实际使用量进行收费,计费规则请参见产品价格详情。 对于GPU加速型Pod(仅GPU型命名空间下才可以选择),Pod中只有一个容器能使用GPU,如果您Pod中有多个容器,您可以通过开启GPU这个开关选择哪个容器使用GPU。 您还可以为容器做如下高级设置:

  • Namespace和Network - 云容器实例 CCI

    分资源方法。适用于用户中存在多个团队或项目的情况。当前云容器实例提供“通用计算型”和“GPU型”两种类型资源,创建命名空间时需要选择资源类型,后续创建负载中容器就运行在此类型集群上。 通用计算型:支持创建含CPU资源容器实例及工作负载,适用于通用计算场景。 GPU型:支

  • Namespace和Network - 云容器实例 CCI

    分资源方法。适用于用户中存在多个团队或项目的情况。当前云容器实例提供“通用计算型”和“GPU型”两种类型资源,创建命名空间时需要选择资源类型,后续创建负载中容器就运行在此类型集群上。 通用计算型:支持创建含CPU资源容器实例及工作负载,适用于通用计算场景。 GPU型:支

  • 创建Pod - 云容器实例 CCI

    当前支持使用Nvidia GPU驱动版本为418.126和460.106,您应用程序中使用CUDA需满足如下表所示配套关系。CUDA与驱动配套关系来源于Nvidia官网,详细信息请参见CUDA Compatibility。 表:NVIDIA GPU驱动与CUDA配套关系 NVIDIA

  • 命名空间 - 云容器实例 CCI

    划分资源方法。适用于用户中存在多个团队或项目的情况。 当前云容器实例提供“通用计算型”和“GPU加速型”两种类型资源,创建命名空间时需要选择资源类型,后续创建负载中容器就运行在此类型集群上。 通用计算型:支持创建含CPU资源容器实例,适用于通用计算场景。 GPU加速型:

  • 任务(Job) - 云容器实例 CCI

    当前提供3种类型Pod,包括通用计算型(通用计算型命名空间下使用)、RDMA加速型和GPU加速型(GPU型命名空间下使用)。具体规格信息请参考约束与限制中“Pod规格”。 容器配置 一个Pod可以包含一个或多个运行不同镜像容器,通常情况下一个Pod中只有一个容器,如果您应用程序

  • Pod - 云容器实例 CCI

    容器运行操作系统内核版本由4.18版本升级至5.10版本。 使用GPU 云容器实例支持使用GPU(必须在GPU类型命名空间下),申请GPU资源方法非常简单,只需要在容器定制中申请GPU字段即可。 具体规格信息请参考约束与限制中“Pod规格”。 您需要设置Podmetadata

  • 创建Namespace - 云容器实例 CCI

    计算型,基本水平计算、存储和网络资源,适用于通用工作负载场景。 gpu-accelerated:GPU加速型,突出图形计算能力,适用于AI等高性能场景。 Namespace下必须要创建一个Network,用于定义kubernetes中一个namespace内网络与华为云虚拟