检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
图1 容器隧道网络 在容器隧道模型的集群中,节点内Pod间通信和跨节点Pod间通信路径不同: 节点内Pod间通信:同节点的Pod间通信通过本节点的OVS网桥直接转发。 跨节点Pod间通信:所有跨节点Pod间的通信通过OVS隧道网桥进行封装后,通过主机网卡转发到另一个节点上的Pod。
求较高的业务场景,比如:AI计算、大数据计算等。 中小规模组网:由于VPC路由网络受限于VPC路由表条目配额的限制,建议集群规模为1000节点及以下。 性能要求高:由于云原生网络2.0直接使用VPC网络构建容器网络,容器通信不需要进行隧道封装和NAT转换,所以适用于对带宽、时延要
求较高的业务场景,比如:AI计算、大数据计算等。 中小规模组网:由于VPC路由网络受限于VPC路由表条目配额的限制,建议集群规模为1000节点及以下。 性能要求高:由于云原生网络2.0直接使用VPC网络构建容器网络,容器通信不需要进行隧道封装和NAT转换,所以适用于对带宽、时延要
安全组”,找到集群对应的安全组规则进行修改和加固。 如集群在创建时需要指定节点安全组,请参考集群自动创建的默认安全组规则放通指定端口,以保证集群中的正常网络通信。 不同网络模型的默认安全组规则如下: VPC网络模型安全组规则 容器隧道网络模型安全组规则 云原生网络2.0(CCE Turbo集群)安全组规则
络2.0直接使用的VPC网络,性能与VPC网络的性能几乎一致,所以适用于对带宽、时延要求极高的业务场景,比如:线上直播、电商优惠等。 大规模组网:云原生网络2.0当前最大可支持2000个ECS节点,10万个容器。 父主题: 网络规划
求较高的业务场景,比如:AI计算、大数据计算等。 中小规模组网:由于VPC路由网络受限于VPC路由表条目配额的限制,建议集群规模为1000节点及以下。 性能要求高:由于云原生网络2.0直接使用VPC网络构建容器网络,容器通信不需要进行隧道封装和NAT转换,所以适用于对带宽、时延要
VPC网络 在VPC网络模型的集群中,不同形式的网络通信路径不同: 节点内Pod间通信:IPVlan子接口分配给节点上的Pod,因此同节点的Pod间通信可以直接通过IPVlan进行转发。 跨节点Pod间通信:所有跨节点Pod间的通信均根据VPC路由表中的路由先访问到默认网关,然后借
于负责集群内网络通信。 Kubernetes虽然不负责搭建网络模型,但要求集群网络满足以下要求: Pod能够互相通信,且Pod必须通过非NAT网络连接,即收到的数据包的源IP就是发送数据包Pod的IP。 节点之间可以在非NAT网络地址转换的情况下通信。 Pod通信 同一个节点中的Pod通信
上。 由于需要为每个Pod绑定网卡,因此节点上可运行的Pod数量上限由该节点的能绑定的网卡个数和网卡端口数决定。 节点内Pod间通信、跨节点Pod间通信、Pod访问集群外网络的情况均直接通过VPC的弹性网卡/弹性辅助网卡进行流量转发。 约束与限制 仅CCE Turbo集群支持使用云原生网络2
子网。 图1 VPC网段结构 默认情况下,同一个VPC的所有子网内的弹性云服务器均可以进行通信,不同VPC的弹性云服务器不能进行通信。 不同VPC的弹性云服务器可通过VPC创建对等连接通信。 容器网段(Pod网段) Pod是Kubernetes内的概念,每个Pod具有一个IP地址。
网络 集群网络地址段规划实践 集群网络模型选择及各模型区别 CCE集群实现访问跨VPC网络通信 使用VPC和云专线实现容器与IDC之间的网络通信 自建IDC与CCE集群共享域名解析 通过负载均衡配置实现会话保持 不同场景下容器内获取客户端源IP 通过配置容器内核参数增大监听队列长度
NAT网关名称。 在SNAT规则页签中,单击“添加SNAT规则”。 根据界面提示配置参数。 SNAT规则是按网段生效,因为不同容器网络模型通信方式不同,此处子网需按如下规则选择。 容器隧道网络、VPC网络:需要选择节点所在子网,即创建节点时选择的子网。 云原生2.0网络:需要选择
使用VPC和云专线实现容器与IDC之间的网络通信 使用场景 借助VPC和云专线,在VPC网络模型的集群中实现集群容器网段(172.56.0.0/16)与IDC网段(10.1.123.0/24)的相互通信。 图1 网络示意 表1 地址信息 网络 网段 用户侧IDC网络 10.1.123
图2 创建节点时的最大实例数配置 根据节点规格不同,节点默认最大实例数如表1所示。 表1 节点默认最大实例数 内存 节点默认最大实例数 4G 20 8G 40 16G 60 32G 80 64G及以上 110 节点网卡数量说明(仅CCE Turbo集群) CCE Turbo集群
CCE集群实现访问跨VPC网络通信 使用场景 由于不同VPC之间网络不通,CCE集群无法跨VPC进行网络通信,您可以通过对等连接连通两个不同网段的VPC,实现本VPC下的集群访问另一个VPC下的集群或其他服务。 图1 网络示意 为实现跨VPC访问,不同网络模型的集群需要打通的网段不同。假设集群本端VPC网段为172
CCE如何与其他服务进行内网通信? 与CCE进行内网通信的华为云常见服务有:RDS、DMS、Kafka、RabbitMQ、VPN、ModelArts等,有如下两种场景: 在同一个VPC网络下,CCE节点可以与此VPC下的所有服务进行互通。CCE的容器与其他服务通信时,需要关注对端是否开
22xlarge.4.physical或c7.32xlarge.4.physical) Kubernetes内部Node和Master之间通信使用IPv4地址。 Service类型选择“DNAT网关 ( DNAT )”时,仅支持对接IPv4。 同一个网卡上,只能绑定一个IPv6地址。
节点默认安全组 您可选择使用CCE自动生成的安全组,或选择已有安全组作为节点默认安全组。 须知: 节点默认安全组必须放通指定端口来保证集群内部正常通信,否则将无法成功创建节点,安全组端口配置说明请参考集群安全组规则配置。 启用IPv6 开启后将支持通过IPv6地址段访问集群资源,包括节点,工作负载等。
在VPC网络集群中访问集群外地址时使用Pod IP作为客户端源IP 在使用VPC网络的CCE集群中,Pod与集群外部通信时,系统默认会将源Pod的IP地址转换为节点的IP地址,使Pod以节点IP的形式与外部进行通信。这一过程被称为“Pod IP伪装”,技术上也称为源网络地址转换(Source Network
app: nginx spec: ports: - name: nginx # Pod间通信的端口名称 port: 80 # Pod间通信的端口号 selector: app: nginx # 选择标签为app:nginx的Pod