检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
”,然后选择镜像。 同一个Pod实例中的不同容器如果监听了相同的端口,则会导致端口冲突,Pod可能会启动失败。例如在Pod中添加了一个nginx镜像容器,启动了80端口,如果该Pod中另一个http服务的镜像也启动80端口,那么这个Pod就会出现端口冲突。 我的镜像:展示了您上传到容器镜像服务的镜像。
指的是Pod和镜像快照两者在镜像上的匹配情况。 b. 创建时间:优先选择创建时间更新的镜像快照。 明确指定 明确指定使用的镜像快照。该镜像缓存必须为创建完成可用(Available)状态。 父主题: 镜像快照
spec: containers: - name: container-1 image: nginx imagePullPolicy: IfNotPresent env: -
目前,CCI尚不支持特权模式。 特权容器主要场景是让容器共享、操作宿主机的设备,CCI是基于kata的hypervisor虚拟化级别隔离,所以宿主机的资源对容器完全隔离。 其他场景,推荐通过k8s原生SecurityContext中更细粒度的权限策略来控制,按需使用,保障客户容器运行环境安全可靠。
使用Prometheus监控CCI实例 为实现CCI用户对部署的应用负载进行基础资源监控和自定义监控,我们提供了Prometheus对接CCI实例监控的能力,您可以手动部署Prometheus插件,直接使用Prometheus作为监控平台,对命名空间中部署的应用负载进行实时监控。
极速弹性 云容器实例的Kubernetes集群是提前创建好的,且从单一用户角度看资源“无限大”,所以能够提供容器秒级弹性伸缩能力,让您能够轻松应对业务快速变化,稳健保障业务SLA。 按需秒级计费 根据实际使用的资源数量,按需按秒计费,避免业务不活跃时段的费用开销,降低用户成本。 完全开放的原生平台
台。科学计算一般都是任务型计算,快速申请大量资源,完成后快速释放。 云容器实例提供如下特性,能够很好的支持这类场景。 高性能计算:提供高性能计算、网络和高I/O存储,满足密集计算的诉求 极速弹性:秒级资源准备与弹性,减少计算过程中的资源处理环节消耗 免运维:无需感知集群和服务器,大幅简化运维工作、降低运维成本
升用户集群的资源利用率。 支持4种调度策略。 支持2种管理调度策略的方式。 支持多个虚拟节点调度。 调度负载到CCI 资源配额 用户通过配置pod的cpu、memory等字段约束容器使用资源规格和上限。插件对资源规格进行规整,尽可能为用户降低成本。 提供对pod资源配额进行规整的能力。
由于CCI服务在运行中对弹性负载均衡、容器镜像等各类云服务都存在依赖关系,因此当您首次登录CCI控制台时,CCI将自动请求获取当前区域下的云资源权限,从而更好地为您提供服务。CCI服务与其他服务的关系详细信息参考见与其他服务的关系。 CCI自动创建的委托:cci_admin_trust
这样可以减少网络时延,提高访问速度。 资源的价格 不同区域的资源价格可能有差异,请参见华为云服务价格详情。 如何选择可用区? 是否将资源放在同一可用区内,主要取决于您对容灾能力和网络时延的要求。 如果您的应用需要较高的容灾能力,建议您将资源部署在同一区域的不同可用区内。 如果您的
ding。如果在RoleBinding中使用,则允许对Namespace中大多数资源进行读写访问。这一角色不允许操作Namespace本身,也不能写入资源限额。 edit 允许对命名空间内的大多数资源进行读写操作。 view 允许对多数对象进行只读操作,但是对secret是不可访问的。
ding。如果在RoleBinding中使用,则允许对Namespace中大多数资源进行读写访问。这一角色不允许操作Namespace本身,也不能写入资源限额。 edit 允许对命名空间内的大多数资源进行读写操作。 view 允许对多数对象进行只读操作,但是对secret是不可访问的。
在命名空间下创建完成EIPPool对象后,用户可在Pod模板中添加指定的Annotation: yangtse.io/eip-pool 使用对应EIPPool中的EIP资源,指定后,Pod在创建时将会自动从EIPPool中获取一个可用的EIP并绑定至Pod。 已经被EIPPool使用的EIP,在VPC界面是无
华南-广州”、“西南-贵阳一”区域使用。 云容器实例CCI不支持在子项目创建资源请求。 在首页“服务列表”中,选择“容器 > 云容器实例”。 首次登录云容器实例控制台,需要授信云容器实例访问其他云服务资源的权限,单击“同意授权”。 授信成功后,将会创建一个委托,委托名称为“cci
Pod 什么是Pod Pod是Kubernetes创建或部署的最小单位。一个Pod封装一个或多个容器(container)、存储资源(volume)、一个独立的网络IP以及管理控制容器运行方式的策略选项。 Pod使用主要分为两种方式: Pod中运行一个容器。这是Kubernete
tasks),即仅执行一次的任务,它保证批处理任务的一个或多个 Pod 成功结束。 短时任务(Job):是Kubernetes用来控制批处理型任务的资源对象。批处理业务与长期伺服业务(Deployment、Statefulset)的主要区别是批处理业务的运行有头有尾,而长期伺服业务在用户不
API创建和使用容器负载,且只需为容器所使用的资源付费。 图1 使用云容器实例 产品功能 一站式容器生命周期管理 使用云容器实例,您无需创建和管理服务器集群即可直接运行容器。您可以通过控制台、kubectl、Kubernetes API创建和使用容器负载,且只需为容器所使用的资源付费。 支持多种类型计算资源 云容器实
根据企业的业务组织,在您的云账号中,给企业中不同职能部门的员工创建IAM用户,让员工拥有唯一安全凭证,并使用CCI资源。 根据企业用户的职能,设置不同的访问权限,以达到用户之间的权限隔离。 将CCI资源委托给更专业、高效的其他云账号或者云服务,这些账号或者云服务可以根据权限进行代运维。 如果云账号
Serverless 是一种架构理念,是指不用创建和管理服务器、不用担心服务器的运行状态(服务器是否在工作等),只需动态申请应用需要的资源,把服务器留给专门的维护人员管理和维护,进而专注于应用开发,提升应用开发效率、节约企业IT成本。传统上使用 Kubernetes 运行容器,首先需要创建运行容器的
nsorflow、Caffe)均采用容器化方式运行,并需要大量GPU、高性能网络和存储等硬件加速能力,并且都是任务型计算,需要快速申请大量资源,计算任务完成后快速释放。本文将演示在云容器实例中创建GPU类型的负载,以tensorflow的图像分类为示例,演示在容器中直接使用GPU训练一个简单的神经网络。