检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Standard集群cluster-1和cluster-2,详情请参见购买Standard/Turbo集群。 两个集群中均已安装NGINX Ingress控制器。 已安装和配置kubectl分别连接两个集群,详情请参见通过kubectl对接多个集群。 步骤1:创建工作负载,并通过Ingress对外暴露服务
/dev/vdb excluded by a filter 这是由于添加的磁盘是在另一个虚拟机中新建的,已经存在了分区表,当前虚拟机并不能识别磁盘的分区表,运行parted命令重做分区表,中途需要输入三次命令。 root@host1:~# parted /dev/vdb GNU Parted
您对系统预置采集任务的管理,在插件升级时可以得到继承和保留。与此同时,kube-state-metrics和node-exporter两个工作负载也会升级为由Operator统一管理,您后续对这两个工作负载的个性化配置也会在插件升级时最大程度的得到保留。 指标采集管理 您可按需选择每一个系统预置采集任务的指标采集行为进行管理:
何从容器访问内部网络(VPC内集群外),包括VPC内访问和跨VPC访问。 VPC内访问 根据集群容器网络模型不同,从容器访问内部网络有不同表现。 容器隧道网络 容器隧道网络在节点网络基础上通过隧道封装网络数据包,容器访问同VPC下其他资源时,只要节点能访问通,容器就能访问通。如果
bectl apply的方式创建MonitorPolicy。一个MonitorPolicy代表着一个监控任务,提供selector、podLabel等可选参数。当前支持的监控指标如下: 表2 当前支持的监控指标 监控指标 监控项名称 监控粒度 支持的运行时 支持的集群版本 支持的插件版本
从而满足不同场景提供不同访问通道。详情请参考网络概述设置公网访问。 我有多个工作负载(在同个集群中),它们之间需要互相访问,应该怎么办? 集群内访问表示工作负载暴露给同一集群内其他工作负载访问的方式,可以通过“集群内部域名”访问。 集群内部域名格式为“<自定义的服务名称>.<工作负载所在命名空间>
设置了app=nginx和env=prod两个Label。 apiVersion: v1 kind: Pod metadata: name: nginx labels: # 为Pod设置两个Label app: nginx
其它自定义镜像有可能导致检查失败。 当前可预期的修改将不会进行拦截,可预期修改的参数列表如下: 表1 可预期修改的参数列表 组件 配置文件 参数 升级版本 kubelet /opt/cloud/cce/kubernetes/kubelet/kubelet_config.yaml cpuManagerPolicy
0%。 另外有两条注解annotations,一条是CPU的阈值范围,最低30,最高70,表示CPU使用率在30%到70%之间时,不会扩缩容,防止小幅度波动造成影响。另一条是扩缩容时间窗,表示策略成功触发后,在缩容/扩容冷却时间内,不会再次触发缩容/扩容,以防止短期波动造成影响。
0%。 另外有两条注解annotations,一条是CPU的阈值范围,最低30,最高70,表示CPU使用率在30%到70%之间时,不会扩缩容,防止小幅度波动造成影响。另一条是扩缩容时间窗,表示策略成功触发后,在缩容/扩容冷却时间内,不会再次触发缩容/扩容,以防止短期波动造成影响。
已使用kubectl命令行工具或CloudShell连接集群。 已安装压力测试工具Apache Benchmark。 创建业务负载和对应的Service 本文以两个服务通过Nginx Ingress实现对外的流量路由为例进行演示。 创建应用test-app和对应Service。 创建test-app.yaml文件。
score为GPU资源得分,GPU.weight为GPU权重 图1 Binpack策略示例 如图所示,集群中存在两个节点,分别为Node 1和Node 2,在调度Pod时,Binpack策略对两个节点分别打分。 假设集群中CPU.weight配置为1,Memory.weight配置为1,GPU
管理,CCE后台提供了多种维度的细粒度权限策略和管理方式。CCE的权限管理包括“集群权限”和“命名空间权限”两种能力,分别从集群和命名空间两个层面对用户组或用户进行细粒度授权,具体解释如下: 集群权限:是基于IAM系统策略的授权,可以让用户组拥有“集群管理”、“节点管理”、“节点
hin_ip4_send_pkt_internet[5m])”,然后单击右上角“Run query”即可获取指标图表。 图2 Grafana图表 您也可以将常用图表固定为Grafana Dashboard,详情请参见Create a dashboard。 父主题: 可观测性最佳实践
级您的Kubernetes集群。 版本说明 CCE针对Kubernetes v1.15版本提供了全链路的组件优化和升级,v1.15版本包含两个小版本,即v1.15.11和v1.15.6-r1。 资源变更与弃用 extensions/v1beta1中Ingress已弃用,1.19正式暂停使用,迁移到networking
级您的Kubernetes集群。 版本说明 CCE针对Kubernetes v1.15版本提供了全链路的组件优化和升级,v1.15版本包含两个小版本,即v1.15.11和v1.15.6-r1。 资源变更与弃用 extensions/v1beta1中Ingress已弃用,1.19正式暂停使用,迁移到networking
io/ingress-bandwidth:Pod的入口带宽 kubernetes.io/egress-bandwidth:Pod的出口带宽 如果不设置这两个参数,则表示不限制带宽。 修改Pod出/入口带宽限速后,需要重启容器才可生效。由于独立创建的Pod(不通过工作负载管理)修改annotation
最大可支持2000节点 受限于VPC路由表能力,适合中小规模组网,建议规模为1000节点及以下。 VPC网络模式下,集群每添加一个节点,会在VPC的路由表中添加一条路由(包括默认路由表和自定义路由表),因此集群本身规模受VPC路由表上限限制,创建前请提前评估集群规模。路由表配额请参见使用限制。 最大可支持2000节点
1/1 Running 0 1m Deployment可以通过maxSurge和maxUnavailable两个参数控制升级过程中同时重新创建Pod的比例,这在很多时候是非常有用,配置如下所示。 spec: strategy: rollingUpdate:
otal的指标。 如果该值大于0,则表示当前集群可能存在某些负载正在使用过低的client-go版本情况,此时请您排查自己部署的应用中是否有该情况出现。如果存在,则尽快将client-go版本升级至社区指定的版本之上(至少不低于CCE集群的两个大版本,如部署在1.23集群上的应用需要使用1