检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
作负载使用的存储卷声明。 迁移后,请保持容器内的挂载路径和子路径与之前挂载SFS1.0时一致。 替换完成后,可扩容工作负载实例数。 确认无问题后,可清理CCE侧的SFS 1.0的存储卷。 有状态应用中的动态挂载存储的迁移 有状态应用中动态挂载的存储从SFS 1.0迁移到通用文件系统(SFS
"limitsCpu" : "250m", "limitsMem" : "600Mi", "name" : "everest-csi-controller", "requestsCpu" : "250m", "requestsMem"
limits: cpu: 250m memory: 512Mi requests: cpu: 250m memory: 512Mi
16 基于擎天架构的自研极简虚拟化 m7.xlarge.8 4 32 8/1.6 80 2 3 32 m7.2xlarge.8 8 64 15/3 150 4 4 64 m7.3xlarge.8 12 96 17/5 200 4 6 96 m7.4xlarge.8 16 128 20/6
大于等于0 1m0s 系统配置,不支持修改 CCE Standard/CCE Turbo 请求处理的超时时间 配置建议: 除特殊情况,建议保持默认值1m0s 调低该配置可能导致请求超时 开启过载防护 集群过载控制开关,开启后将根据控制节点的资源压力,动态调整请求限制,维护控制节点和集群的可靠性。
3.8.0以下版本,无需配置自定义指标采集开关。 插件安装完成后会在集群中部署一系列工作负载和Service。其中Prometheus的Server端会在monitoring命名空间下以有状态工作负载进行部署。 您可以创建一个公网LoadBalancer类型Service,这样就可以从外部访问Prometheus。
limits: cpu: 250m memory: 512Mi requests: cpu: 250m memory: 512Mi
#注释{} limits: cpu: 20m memory: 40Mi requests: cpu: 10m memory: 20Mi patchWebhookJob:
"limitsCpu" : "250m", "limitsMem" : "1500Mi", "name" : "everest-csi-controller", "requestsCpu" : "250m", "requestsMem"
Service的详细介绍请参见服务概述。 Ingress Service是基于四层TCP和UDP协议转发的,而Ingress可以基于七层的HTTP和HTTPS协议转发,可以通过域名和路径做到更细粒度的划分,如下图所示。 图2 Ingress-Service Ingress的详细介绍请参见路由概述。
Containerd容器:crictl Pod的计算资源 CPU和内存的request和limit必须一致 CPU和内存的request和limit可以不一致 主机网络(hostNetwork) 不支持 支持 Containerd和Docker命令行的使用方式对比,请参见容器引擎说明。 父主题:
String CPU大小限制,单位:m。 limitsMem 是 String 内存大小限制,单位:Mi。 name 是 String 插件名称,固定为:autoscaler。 requestsCpu 是 String 申请的CPU大小,单位:m。 requestsMem 是 String
基于Prometheus指标的弹性伸缩实践 Kubernetes默认的HPA策略只支持基于CPU和内存的自动伸缩,在复杂的业务场景中,仅使用CPU和内存使用率指标进行弹性伸缩往往无法满足日常运维需求。为此,CCE提供云原生监控插件(kube-prometheus-stack),可
Kubernetes kubelet和kube-proxy授权问题漏洞公告(CVE-2020-8558) 漏洞详情 Kubernetes官方发布安全公告,其核心组件kube-proxy存在主机边界绕过漏洞(CVE-2020-8558)。利用漏洞攻击者可能通过同一局域网下的容器,或
扩缩容决策算法 HPA controller根据当前指标和期望指标来计算缩放比例,计算公式如下: 期望实例数 = 向上取整[当前实例数 * ( 当前的指标值 / 目标值 )] 例如当前的指标值是200m,目标值是100m,那么按照公式计算期望的实例数就会翻倍。那么在实际过程中,
"limitsCpu" : "500m", "limitsMem" : "512Mi", "name" : "coredns", "requestsCpu" : "500m", "requestsMem"
传输文件总量很大的话,会消耗很多资源,目前proxy分配内存128M,在压测场景下,损耗非常大,最终导致请求失败。 目前压测所有流量都经过Proxy,业务量大就要加大分配资源。 解决方法 传文件涉及大量报文复制,会占用内存,建议把Proxy内存根据实际场景调高后再进行访问和上传。 可以考虑把该服务从网格内移除
容器数量和伸缩策略数量影响,通常场景下建议每5000容器配置CPU 500m, 内存1000Mi资源,每1000伸缩策略CPU 100m,内存500Mi。 AHPA需要对工作负载历史数据进行分析处理,需要额外内存,通常场景下建议每100个AHPA策略配置CPU 100m、内存 300Mi。
用该端口创建监听器,提供外部流量访问入口。 容器端口:容器中应用启动监听的端口,nginx镜像请设置为80。如需使用其他应用,该容器端口需和应用对外提供的监听端口一致。 图3 创建服务 单击右下角“创建工作负载”。 等待工作负载创建成功。 创建成功后在无状态负载下会显示一个运行中的工作负载。
为负载均衡类型的Service配置HTTP/2 Service支持HTTP/2的方式暴露服务。在默认情况下,客户端与负载均衡之间采用HTTP1.X协议,使用HTTP/2可提升客户端与ELB间的访问性能,但ELB与后端服务器间仍采用HTTP1.X协议。 当负载均衡端口使用HTTPS协议时,支持使用HTTP/2功能。