检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
cpu: 250m huawei.com/ascend-310: '1' memory: 512Mi requests: cpu: 250m
kubernetes.io/elb.class: performance controller.resources.requests.cpu Nginx controller的CPU资源申请值,可根据需求自定义。 controller.resources.requests.memory Nginx
io/cpuManagerPolicy String 参数解释: 集群CPU管理策略。 约束限制: 不涉及 取值范围: none(或空值):关闭工作负载实例独占CPU核的功能,优点是CPU共享池的可分配核数较多 static:支持给节点上的工作负载实例配置CPU独占,适用于对CPU缓存和调度延迟敏感的工作负载,Tu
就会根据Pod的需求找一个具有充足空闲资源的节点部署这个Pod。下面的例子中,声明Nginx这个Pod需要1核CPU,1024M的内存,运行中实际使用不能超过2核CPU和4096M内存。 Kubernetes采用静态资源调度方式,对于每个节点上的剩余资源,它是这样计算的:节点剩
表1 节点内核参数列表 参数名称 参数位置 说明 建议值 file-max /etc/sysctl.conf 系统整体最大文件句柄数,可视业务情况调整。 查看参数: sysctl fs.file-max fs.file-max=1048576 nf_conntrack_buckets
container-0 resources: limits: cpu: 100m memory: 200Mi requests: cpu: 100m memory: 200Mi env:
登录VPC控制台,在左侧导航栏中选择“虚拟私有云 > 对等连接”。 打通Jenkins服务器与测试集群的网络。 单击右上角“创建对等连接”。根据界面提示设置对等连接参数。 对等连接名称:本例中设置为peering-XA。 本端VPC:本端为Jenkins服务器所在VPC,即vpc-X。 对端VPC:对端为测试集群所在VPC,即vpc-A。
io/cpuManagerPolicy String 参数解释: 集群CPU管理策略。 约束限制: 不涉及 取值范围: none(或空值):关闭工作负载实例独占CPU核的功能,优点是CPU共享池的可分配核数较多 static:支持给节点上的工作负载实例配置CPU独占,适用于对CPU缓存和调度延迟敏感的工作负载,Tu
值 limits: cpu: '200m' memory: '256Mi' requests: cpu: 100m memory: 128Mi
是 String CPU大小限制,单位:m 默认为:500m limitsMem 是 String 内存大小限制,单位:Mi 默认为:512Mi name 是 String 插件名称,固定为:dolphin requestsCpu 是 String 申请的CPU大小,单位:m 默认为:500m
控制台中查看用于授权访问的Token或账号密码。 如果您用于接受数据的目的端为自建的Prometheus,则获取Token的方式如下: 若您自建的Prometheus同样部署在K8s集群中,可进入Prometheus容器中查看。若您自建的Prometheus部署在虚拟机上,则可跳过本步骤。
container-0 resources: limits: cpu: 100m memory: 200Mi requests: cpu: 100m memory: 200Mi imagePullSecrets:
是用户使用CCE时也会使用其他云服务,包括:弹性云服务器、云硬盘、虚拟私有云、弹性负载均衡、容器镜像服务等。 什么是配额? 为防止资源滥用,平台限定了各服务资源的配额,对用户的资源数量和容量做了限制。如您最多可以创建多少台弹性云服务器、多少块云硬盘。 如果当前资源配额限制无法满足使用需要,您可以申请扩大配额。
container-0 resources: limits: cpu: 100m memory: 200Mi requests: cpu: 100m memory: 200Mi env:
limits: cpu: 100m memory: 200Mi requests: cpu: 100m memory: 200Mi
管理”,单击节点后的“同步云服务器”。 登录目标节点。 使用lsblk命令查看节点块设备信息。 这里存在两种情况,根据容器存储Rootfs而不同。 Overlayfs:没有单独划分thinpool,在dockersys空间下统一存储镜像相关数据。 查看设备的磁盘和分区大小。 # lsblk
Pod正在使用的弹性网卡数 + 最大预绑定弹性网卡数 BMS节点上当预绑定弹性网卡数 < 最小预绑定弹性网卡数时:会绑定弹性网卡,使得预绑定弹性网卡数 = 最小预绑定弹性网卡数 BMS节点上当预绑定弹性网卡数 > 最大预绑定弹性网卡数时:会定时解绑弹性网卡(约2分钟一次),直到预绑定弹性网卡数
limitsCpu 是 String CPU大小限制,单位:m limitsMem 是 String 内存大小限制,单位:Mi name 是 String 插件名称,固定为:dashboard requestsCpu 是 String 申请的CPU大小,单位:m requestsMem
会改变当前负载占用的调度容量,从而实现调度层的伸缩。 节点弹性伸缩:即资源层弹性,主要是集群的容量规划不能满足集群调度容量时,会通过弹出ECS或CCI等资源的方式进行调度容量的补充。CCE容器实例弹性到CCI服务的方法请参见CCE容器实例弹性伸缩到CCI服务。 两个维度的弹性组件
io/cpuManagerPolicy String 参数解释: 集群CPU管理策略。 约束限制: 不涉及 取值范围: none(或空值):关闭工作负载实例独占CPU核的功能,优点是CPU共享池的可分配核数较多 static:支持给节点上的工作负载实例配置CPU独占,适用于对CPU缓存和调度延迟敏感的工作负载,Tu