检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
分隔符分隔的路径中的标签列表。 前提条件 集群必须已安装NGINX Ingress 控制器,具体操作可参考安装插件。 Ingress为后端工作负载提供网络访问,因此集群中需提前部署可用的工作负载。若您无可用工作负载,可参考创建无状态负载(Deployment)、创建有状态负载(Statefu
为ELB Ingress配置HTTPS协议的后端服务 Ingress可以对接不同协议的后端服务,在默认情况下Ingress的后端代理通道是HTTP协议的,若需要建立HTTPS协议的通道,可在annotation字段中加入如下配置: kubernetes.io/elb.pool-protocol:
为Nginx Ingress配置GRPC协议的后端服务 本文介绍如何使用Nginx Ingress将流量路由到gRPC后端服务。 gRPC介绍 gRPC是一种高性能、通用的RPC开源软件框架,使用Protocol Buffer作为其接口定义语言(IDL)以及底层消息交换格式。同时
为Nginx Ingress配置HTTPS协议的后端服务 Ingress可以代理不同协议的后端服务,在默认情况下Ingress的后端代理通道是HTTP协议的,若需要建立HTTPS协议的通道,可在annotation字段中加入如下配置: nginx.ingress.kubernetes
域名)。 如果无法根据客户端请求的域名查找到对应的SNI证书,则默认返回服务器证书。 获取方法:在CCE控制台,单击顶部的“服务列表 > 网络 > 弹性负载均衡”,并选择“证书管理”。在列表中复制对应证书名称下的ID即可。 创建Ingress。 kubectl create -f
为Nginx Ingress配置一致性哈希负载均衡 原生的Nginx支持多种负载均衡规则,其中常用的有加权轮询、IP hash等。Nginx Ingress在原生的Nginx能力基础上,支持使用一致性哈希方法进行负载均衡。 Nginx默认支持的IP hash方法使用的是线性的ha
图3 容器网络配置(以CCE Turbo为例) 表2 容器网络配置 参数 说明 容器网络模型 CCE Standard集群支持选择“VPC网络”和“容器隧道网络”。 CCE Turbo集群支持选择“云原生网络2.0”。 如需了解更多网络模型差异,请参见容器网络模型对比。 容器网段
节点网卡数 容器网络与主机网络的Pod IP分配差异 创建Pod时,可以选择Pod使用容器网络或是宿主机网络。 容器网络:默认使用容器网络,Pod的网络由集群网络插件负责分配,每个Pod分配一个IP地址,会占用容器网络的IP。 主机网络:Pod直接使用宿主机的网络,即在Pod中配置hostNetwork:
负载Pod所在节点或同节点的其他容器中访问ELB的私网IP地址,会出现无法访问的问题。 1.15及以下老版本集群暂不支持该能力。 IPVS网络模式下,对接同一个ELB的Service需保持pass-through设置情况一致。 使用节点级别(Local)的服务亲和的场景下,会自动设置kubernetes
负载均衡器:选择弹性负载均衡的类型、创建方式。 类型:“独享型”或“共享型”,其中独享型ELB需选择“应用型(HTTP/HTTPS)”或“网络型(TCP/UDP/TLS)&应用型(HTTP/HTTPS)”,否则监听器端口将无法启用HTTP/HTTPS。 创建方式:本文中以选择已有
kubelet配置 CPU管理策略配置 提供的CPU管理策略为应用分配独占的CPU核(即CPU绑核),提升应用性能,减少应用的调度延迟。 参数名 取值范围 默认值 是否允许修改 作用范围 cpu-manager-policy none/static none 允许 CCE Standard/CCE
为负载均衡类型的Service指定多个端口配置健康检查 LoadBalancer Service的健康检查相关注解字段由"kubernetes.io/elb.health-check-option"升级为"kubernetes.io/elb.health-check-option
功能列表参见功能总览,应用场景参见应用场景。 集群不建议在要求强资源隔离的场景下使用 CCE给租户提供的是一个专属的独享集群,由于节点、网络等资源当前没有严格的隔离,在集群同时被多个外部不可控用户使用时,如果安全防护措施不严,就会存在较大的安全隐患。比如开发流水线场景,当允许多
内核级别的环境隔离功能,它能够限制进程的视图,使其只能访问特定的资源集合,如文件系统、网络、进程和用户等。而Cgroup作为Linux内核的资源管理机制,能够限制进程对CPU、内存、磁盘和网络等资源的使用,防止单一进程过度占用资源,影响系统的整体性能。 尽管Namespace和C
自定义:用户自行决定每台控制节点所在的位置。 图1 集群高可用 集群网络选择 集群网络模型选择:CCE支持云原生网络2.0、VPC网络、容器隧道网络模型。不同的网络模型存在性能和功能各方面的差异,请合理选择,详情请参见集群网络模型。 VPC选择:如果您的应用需要连接其他云服务如RDS数据
登录管理控制台,选择“网络 > 虚拟私有云 VPC”。 在“虚拟私有云”列表页面,单击左侧导航栏中“虚拟私有云 > 子网”,单击右上角“创建子网”。 按照页面提示完成子网创建,并单击子网的名称,获取子网的“网络ID”,后续创建集群时需要使用。 图2 获取子网的网络ID 父主题: 附录
当集群状态为“可用”,而集群中部分节点状态为“不可用”时,请参照本文提供的排查思路解决。 节点不可用检测机制说明 Kubernetes 节点发送的心跳确定每个节点的可用性,并在检测到故障时采取行动。检测的机制和间隔时间详细说明请参见心跳。 排查思路 以下排查思路根据原因的出现概率进行排序,建
持集群维度和命名空间维度两个视角的成本洞察。 前提条件 已开通成本洞察功能 约束与限制 由于实际账单的获取存在两天时间延迟,开通成本洞察后,成本洞察成本数据会延迟2天显示。 使用成本洞察期间,需要保证云原生监控插件运行正常,否则影响成本洞察中命名空间、工作负载、节点池等相关视图的呈现。
点通告网络状态,包括路由记录。客户端会通过NDP进行自身网络配置。本文介绍该漏洞的影响。 表1 漏洞信息 漏洞类型 CVE-ID 漏洞级别 披露/发现时间 输入验证错误 CVE-2020-13401 中 2020-06-01 漏洞影响 对操作系统中启用了IPv6并且容器网络的CNI
部门的成本分析报告。并支持成本报表导出功能。 前提条件 已开通成本洞察功能 约束与限制 由于实际账单的获取存在两天时间延迟,开通成本洞察后,成本洞察成本数据会延迟2天显示。 使用成本洞察期间,要保证云原生监控插件运行正常,否则影响成本洞察中命名空间、工作负载、节点池等相关视图的呈现。