检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用CCI部署静态Web应用 本节通过在云容器实例上部署一个名称为2048的静态Web游戏应用为例,帮助您学习如何使用云容器实例。 您将按以下流程学习如何使用云容器实例。 操作流程 操作步骤 说明 准备工作 您需要注册华为账号,并为账户充值。 步骤一:构建镜像并上传至SWR镜像仓库
量规划等,确保有可用的网络资源。 图1 命名空间与VPC子网的关系 哪些情况下适合使用多个命名空间 因为Namespace可以实现部分的环境隔离,当您的项目和人员众多的时候可以考虑根据项目属性,例如生产、测试、开发划分不同的Namespace。 创建Namespace Names
Toolkit运行VASP任务,为什么概率性运行失败? Intel oneAPI Toolkit(Intel并行计算平台)运行的VASP(用于电子结构计算和量子力学-分子动力学模拟)任务对CPU硬件版本有深度依赖,在小规格Pod场景下概率性运行失败,建议切换oneAPI版本或使用4核以上Pod运行。 父主题:
CUDA和cuDNN都是与GPU相关的技术,用于加速各种计算任务,特别是深度学习任务。在使用NVIDIA GPU进行深度学习时,通常需要安装CUDA和cuDNN。请使用配套关系的基础镜像。 Pod存储空间限制 如果没有挂载EVS等磁盘,应用数据存储在容器的rootfs,每个Pod存储空间限制如下所示:
量规划等,确保有可用的网络资源。 图1 命名空间与VPC子网的关系 哪些情况下适合使用多个命名空间 因为Namespace可以实现部分的环境隔离,当您的项目和人员众多的时候可以考虑根据项目属性,例如生产、测试、开发划分不同的Namespace。 创建Namespace Names
联已有VPC或创建一个新的VPC,并在VPC下创建一个子网。后续在该命名空间下创建的容器及其他资源都会在对应的VPC及子网之内。 通常情况下,如果您在同一个VPC下还会使用其他服务的资源,您需要考虑您的网络规划,如子网网段划分、IP数量规划等,确保有可用的网络资源。 图1 命名空间与VPC子网的关系
使用Service方式访问:该方式适合CCI中同一个命名空间中的负载相互访问。 使用私网ELB访问:该方式适合云服务内部资源(云容器实例以外的资源,如ECS等)且与负载在同一个VPC内互相访问,另外在同一个VPC不同命名空间的负载也可以选择此种方式。通过内网域名或ELB的“IP:Port”为内
使用“Service”方式访问:该方式适合CCI中同一个命名空间中的负载相互访问。 使用ELB(私网)访问:该方式适合云服务内部资源(云容器实例以外的资源,如ECS等)且与负载在同一个VPC内互相访问,另外在同一个VPC不同命名空间的负载也可以选择此种方式。通过内网域名或ELB的“IP:Port”为
查询所有v1版本的API 功能介绍 get available resources 调用方法 请参见如何调用API。 URI GET /api/v1 请求参数 表1 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。
性策略以应对业务高峰期的突发流量浪涌。 全方位容器状态监控 云容器实例支持监控容器运行的资源使用率,包括CPU、内存、GPU和显存的使用率,方便您实时掌控容器运行的状态。 产品架构 云容器实例提供Serverless Container服务,拥有多个异构的Kubernetes集群
CI服务均不受本次漏洞的影响,无需进行处理。 漏洞详情 Kubernetes官方发布安全漏洞(CVE-2020-8558),Kubernetes节点的设置允许相邻主机绕过本地主机边界进行访问。 Kubernetes集群节点上如果有绑定在127.0.0.1上的服务,则该服务可以被同
查询/apis/storage.k8s.io/v1版本的所有storage class 功能介绍 list or watch objects of kind StorageClass 调用方法 请参见如何调用API。 URI GET /apis/storage.k8s.io/v1/storageclasses
为什么exec进入容器后执行GPU相关的操作报错? 更多 存储管理类 CCI支持的云存储有哪些,哪种存储需要设置备份? 如何使用云存储? 如果不挂载云存储的话,容器运行产生的数据存储在哪里? job的pod已经执行完成的情况下,为什么依然有实例在挂卷等事件,并且事件信息是失败的? 更多 工作负载异常
工作负载 工作负载是在Kubernetes上运行的应用程序。无论您的工作负载是单个组件还是协同工作的多个组件,您都可以在Kubernetes上的一组Pod中运行它。在Kubernetes中,工作负载是对一组Pod的抽象模型,用于描述业务的运行载体,包括Deployment、Job、CronJob等多种类型。
一般情况下,建议就近选择靠近您或者您的目标用户的区域,这样可以减少网络时延,提高访问速度。 资源的价格 不同区域的资源价格可能有差异,请参见华为云服务价格详情。 如何选择可用区? 是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。
填写基本信息,选择2创建的命名空间,Pod数量选择为“1”,选择Pod规格为“GPU加速型”,显卡的驱动版本选择“418.126”,如下所示。 GPU Pod的详细规格和显卡驱动的说明请参见Pod规格。 图2 选择GPU容器规格 选择需要的容器镜像,这里选择的上传到镜像容器仓库的tensorflow镜像。
et)的主要区别是批处理业务的运行有头有尾,而长期伺服业务在用户不停止的情况下永远运行。Job管理的Pod根据用户的设置把任务成功完成就自动退出(Pod自动删除)。 定时任务(CronJob):是基于时间的Job,就类似于Linux系统的crontab文件中的一行,在指定的时间周期运行指定的Job。
理业务的运行有头有尾,而长期伺服业务在用户不停止的情况下永远运行。Job管理的Pod根据用户的设置把任务成功完成就自动退出(Pod自动删除)。 任务的这种用完即停止的特性特别适合一次性任务,比如持续集成,配合云容器实例按秒计费,真正意义上做到按需使用。 创建任务 登录云容器实例管理控制台,左侧导航栏中选择“工作负载
在容器中通过环境变量获取Pod基础信息 客户如果需要在容器内获取POD的基础信息,可以通过kubernetes中的Downward API注入环境变量的方式实现。本操作实践展示如何在Deployment和POD的定义中增加环境变量配置,获取Pod的namespace、name、uid、IP、Region和AZ。
Job是用来控制批处理型任务的资源对象。批处理业务与长期伺服业务(Deployment)的主要区别是批处理业务的运行有头有尾,而长期伺服业务在用户不停止的情况下永远运行。Job管理的Pod根据用户的设置把任务成功完成就自动退出了。 Job的这种用完即停止的特性特别适合一次性任务,比如持续