检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
earthstar (score = 0.00117) 执行结果显示模型认为这是一只大熊猫。 使用训练的图片分类模型 tensorflow官网中给了一个深度卷积网络的模型代码和训练数据:CIFAR-10。这是个简化的图片分类模型,将图片分成以下10类:airplane, automobile
为什么exec进入容器后执行GPU相关的操作报错? 问题现象: exec进入容器后执行GPU相关的操作(例如nvidia-smi、使用tensorflow运行GPU训练任务等)报错“cannot open shared object file: No such file or directory”。 问题原因:
PyTorchJob即PyTorch任务,是基于PyTorch开源框架的kubernetes自定义资源类型,有多种角色可以配置,能够帮助我们更简单地实现PyTorch的训练。 URI POST /apis/kubeflow.org/v1/namespaces/{namespace}/pytorchjobs 表1
bursting插件功能概览 简介 本章节主要介绍bursting提供的服务功能概览、资源使用说明和自定义注解。 功能概览 使用CCE集群+bursting基于如下模型,用户需要重点关注下发负载和调度。 下发负载涉及到用户给负载进行的配置项,和用户自身的业务高度相关。 工作负载配置项 功能描述 功能规格 相关文档拓展
GPU负载 使用Tensorflow训练神经网络 使用Nvidia-smi工具
sorflow开源框架的kubernetes自定义资源类型,有多种角色可以配置,能够帮助我们更简单地实现Tensorflow的单机或分布式训练。Tensorflow开源框架的信息详见:https://www.tensorflow.org 。 URI POST /apis/kubeflow
MXJob即MXNet任务,是基于MXNet开源框架的kubernetes自定义资源类型,有多种角色可以配置,能够帮助我们更简单地实现MXNet的训练。MXNet开源框架的信息详见:https://mxnet.incubator.apache.org/。 URI POST /apis/kubeflow
应用场景 大数据、AI计算 当前主流的大数据、AI训练和推理等应用(如Tensorflow、Caffe)均采用容器化方式运行,并需要大量GPU、高性能网络和存储等硬件加速能力,并且都是任务型计算,需要快速申请大量资源,计算任务完成后快速释放。 云容器实例提供如下特性,能够很好的支持这类场景。
多集群统一管理,容器负载统一调度,使用上无需感知集群存在。 基于Kubernetes的负载模型提供负载快速部署、弹性负载均衡、弹性扩缩容、蓝绿发布等重要能力。 云容器实例学习路径 您可以借助云容器实例成长地图,快速了解产品,由浅入深学习使用和运维CCI。
使用CCI部署静态Web应用 本节通过在云容器实例上部署一个名称为2048的静态Web游戏应用为例,帮助您学习如何使用云容器实例。 您将按以下流程学习如何使用云容器实例。 操作流程 操作步骤 说明 准备工作 您需要注册华为账号,并为账户充值。 步骤一:构建镜像并上传至SWR镜像仓库
Intel oneAPI Toolkit(Intel并行计算平台)运行的VASP(用于电子结构计算和量子力学-分子动力学模拟)任务对CPU硬件版本有深度依赖,在小规格Pod场景下概率性运行失败,建议切换oneAPI版本或使用4核以上Pod运行。 父主题: 容器工作负载类
使用client-go访问CCI的CRD资源Network 您可以前往开发体验馆Codelabs / Namespace生命周期代码示例(Go)下载相关代码,并在线调试。 初始化项目 创建项目examples.com/cci-examples。 项目依赖k8s.io/client-go、k8s.io/
粒度更灵活。 两种授权模型场景下的策略、授权项等并不互通,推荐使用基于策略授权的模型进行授权。角色授权系统权限和策略授权系统权限分别介绍两种模型的系统权限。 关于IAM的详细介绍,请参见IAM产品介绍。 角色授权系统权限 CCI服务支持基于角色授权的授权模型。默认情况下,管理员创
镜像地址替换 使用场景 用户在线下IDC有自建的harbor镜像仓库,同时也会将镜像同步到华为云SWR镜像仓库。创建负载后,希望调度到自建Kubernetes集群节点上运行的Pod使用自建镜像仓库的镜像,弹性到CCI的Pod使用SWR的镜像,以提高镜像拉取效率。可通过在Pod.A
1 (10.1.105)及以下 GPU镜像 CUDA和cuDNN都是与GPU相关的技术,用于加速各种计算任务,特别是深度学习任务。在使用NVIDIA GPU进行深度学习时,通常需要安装CUDA和cuDNN。请使用配套关系的基础镜像。 Pod存储空间限制 如果没有挂载EVS等磁盘,应
CCI提供了多种创建工作负载的方法,来满足您的业务所需。 最佳实践 Dockerfile参数在云容器实例中如何使用 使用Tensorflow训练神经网络 使用多种方法创建工作负载 05 进阶 云容器实例提供了定制的kubectl工具,支持使用Kubectl命令行创建负载等资源。 二次开发
个组件还是协同工作的多个组件,您都可以在Kubernetes上的一组Pod中运行它。在Kubernetes中,工作负载是对一组Pod的抽象模型,用于描述业务的运行载体,包括Deployment、Job、CronJob等多种类型。 CCI提供基于Kubernetes原生类型的容器部
通用计算型:支持创建含CPU资源的容器实例及工作负载,适用于通用计算场景。 GPU型:支持创建含GPU资源的容器实例及工作负载,适用于深度学习、科学计算、视频处理等场景。 Network是云容器实例扩展的一种Kubernetes资源对象,用于关联VPC及子网,从而使得容器实例能够使用公有云的网络资源。
通用计算型:支持创建含CPU资源的容器实例及工作负载,适用于通用计算场景。 GPU型:支持创建含GPU资源的容器实例及工作负载,适用于深度学习、科学计算、视频处理等场景。 Network是云容器实例扩展的一种Kubernetes资源对象,用于关联VPC及子网,从而使得容器实例能够使用公有云的网络资源。
基本概念 云容器实例基于Kubernetes的负载模型增强了容器安全隔离、负载快速部署、弹性负载均衡、弹性扩缩容、蓝绿发布等重要能力。 云容器实例提供Kubernetes原生API,支持使用kubectl,且提供图形化控制台,让您能够拥有完整的端到端使用体验,使用云容器实例前,建议您先了解相关的基本概念。