检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
通过exec进入弹性到CCI运行中的容器内,查看/etc/resolv.conf中首选nameserver是否为cluster-dns配置的地址。 表1 使用场景约束限制 使用场景 约束限制 修改配置前存在弹性CCI的pod 修改配置后新创建弹性CCI的pod生效。 修改配置前的弹性的pod需要重建之后才生效。
漏洞源于kubelet的驱逐管理器(eviction manager)中没有包含对Pod中挂载的/etc/hosts文件的临时存储占用量管理,因此在特定的攻击场景下,一个挂载了/etc/hosts的Pod可以通过对该文件的大量数据写入占满节点的存储空间,从而造成节点的拒绝访问(Denial
像服务的镜像。其中 容器镜像服务从镜像中心同步了部分常用镜像,使得您可以在内部网络中直接使用“镜像名称:版本号”,如nginx:alpine,您可以在容器镜像服务控制台中查询同步了哪些镜像。 容器镜像服务中的镜像请使用镜像的“下载指令”,上传镜像后,您可以在容器镜像服务的镜像中获取,如下图所示。
排查项二:填写的镜像地址错误 CCI支持拉取容器镜像服务中的镜像来创建工作负载。 容器镜像服务中的镜像需要使用镜像的“下载指令”,上传镜像后,您可以在容器镜像服务的镜像中获取,如下图所示。 图1 镜像地址 排查项三:IAM用户没有镜像下载权限 如果您开通了企业管理,您需要在账号下的容器镜
CCI)”插件,单击“安装”。 配置插件参数。 表1 插件参数说明 插件参数 说明 选择版本 插件的版本。插件版本和CCE集群存在配套关系,更多信息可以参考CCE突发弹性引擎(对接CCI)插件版本记录。 规格配置 用于配置插件负载的实例数及资源配额。 选择“系统预置规格”时,您可选择“单实例”或“高可用”规格。
CCI)”插件,单击“安装”。 配置插件参数。 表1 插件参数说明 插件参数 说明 选择版本 插件的版本。插件版本和CCE集群存在配套关系,更多信息可以参考CCE突发弹性引擎(对接CCI)插件版本记录。 规格配置 用于配置插件负载的实例数及资源配额。 选择“系统预置规格”时,您可选择“单实例”或“高可用”规格。
另外检查只能限制在应用内部,不能检查依赖外部的部分,例如当前端web server不能连接数据库时,这个就不能看成web server不健康。 liveness probe必须轻量 liveness probe不能占用过多的资源,且不能占用过长的时间,否则所有资源都在做健康检查,这就没有意
监控安全风险 通过AOM查看Pod监控数据 为使用户更好的掌握工作负载的运行状态,CCI配合AOM对其进行全方位的监控。 通过AOM界面您可监控CCI的基础资源和运行在CCI上的应用,同时在AOM界面还可查看相关的日志和告警。 更多内容,请参见监控管理。 Pod资源监控指标 CC
Pod是Kubernetes创建或部署的最小单位。一个Pod封装一个或多个容器(container)、存储资源(volume)、一个独立的网络IP以及管理控制容器运行方式的策略选项。 Pod使用主要分为两种方式: Pod中运行一个容器。这是Kubernetes最常见的用法,您可以将Pod视为单个封装的容器,但
特权容器主要场景是让容器共享、操作宿主机的设备,CCI是基于kata的hypervisor虚拟化级别隔离,所以宿主机的资源对容器完全隔离。 其他场景,推荐通过k8s原生SecurityContext中更细粒度的权限策略来控制,按需使用,保障客户容器运行环境安全可靠。 父主题: 容器工作负载类
概述 欢迎使用云容器实例(Cloud Container Instance)。云容器实例提供 Serverless Container(无服务器容器)引擎,让您无需创建和管理服务器集群即可直接运行容器。 您可以使用本文档提供API对云容器实例进行相关操作,如创建、删除、变更规格等。
理业务的运行有头有尾,而长期伺服业务在用户不停止的情况下永远运行。Job管理的Pod根据用户的设置把任务成功完成就自动退出(Pod自动删除)。 任务的这种用完即停止的特性特别适合一次性任务,比如持续集成,配合云容器实例按秒计费,真正意义上做到按需使用。 创建任务 登录云容器实例管理控制台,左侧导航栏中选择“工作负载
ipv4.conf.all.route_localnet=1内核参数。该参数允许内核接受来自其他节点的对于本机localhost的网络请求。 如何判断是否涉及漏洞 使用了受影响的集群版本 kubelet/kube-proxy v1.18.0-1.18.3 kubelet/kube-proxy
Pod规格限制项 限制取值范围 Pod的CPU 0.25核-32核,或者自定义选择48核、64核。 CPU必须为0.25核的整数倍。 Pod的内存 1GiB-512GiB。 内存必须为1GiB的整数倍。 Pod的CPU/内存配比值 在1:2至1:8之间。 Pod的容器 一个Pod内最多支持5个容器。
API 创建和使用容器负载,且只需为容器所使用的资源付费。 云容器实例有如下功能: 自动化持续交付 一键运行DevOps的CI流程生成的容器镜像,保障CI/CD流程全自动化。 应用运行时全托管 提供无状态工作负载的运行时托管,保障应用稳定运行。 极速弹性扩缩容 支持用户自定义弹性伸缩策略,且能在1秒内实现弹性扩缩容。
当前提供3种类型的Pod,包括通用计算型(通用计算型命名空间下使用)、RDMA加速型和GPU加速型(GPU型命名空间下使用)。具体的规格信息请参考约束与限制中的“Pod规格”。 容器配置 一个Pod可以包含一个或多个运行不同镜像的容器,通常情况下一个Pod中只有一个容器,如果您的应用程序
容器实例被驱逐 如果节点超负荷运行,无法承受的话,系统会自动清理一些任务。 建议根据实际使用量来申请资源。 父主题: 容器工作负载类
配额 云容器实例对单个用户的资源数量和容量限定了配额,配额的详细信息请参见关于配额。 Pod规格计算方式 Pod规格的计算方式遵循如下规则: Pod包含的所有InitContainer上定义的任何特定资源的约束值 (limit) 或请求值 (request) 的最大值,作为Pod有效初始request/limit。
环境变量 环境变量是容器运行环境中设定的一个变量。 环境变量为应用提供极大的灵活性,您可以在应用程序中使用环境变量,在创建容器时为环境变量赋值,容器运行时读取环境变量的值,从而做到灵活的配置,而不是每次都重新编写应用程序制作镜像。 另外,您还可以使用ConfigMap和Secre
大数据、AI计算 当前主流的大数据、AI训练和推理等应用(如Tensorflow、Caffe)均采用容器化方式运行,并需要大量GPU、高性能网络和存储等硬件加速能力,并且都是任务型计算,需要快速申请大量资源,计算任务完成后快速释放。 云容器实例提供如下特性,能够很好的支持这类场景。 计算