检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
String 参数解释: 容器网络类型。 约束限制: 只可选择一个容器网络类型。 取值范围: overlay_l2:容器隧道网络,通过OVS(OpenVSwitch)为容器构建的overlay_l2网络。 vpc-router:VPC网络,使用ipvlan和自定义VPC路由为容器构建的Underlay的l2网络。
Turbo配置容器网卡动态预热 在云原生网络2.0下,每个Pod都会分配(申请并绑定)一张弹性网卡或辅助弹性网卡(统一称为:容器网卡)。由于容器场景下Pod的极速弹性与慢速的容器网卡创建绑定的差异,严重影响了大规模批创场景下的容器启动速度。因此,云原生2.0网络提供了容器网卡动态预热的能力,
core.somaxconn]”。 图2 修改kubelet参数 方式二:直接修改节点kubelet参数(不推荐) 登录节点。 编辑/opt/cloud/cce/kubernetes/kubelet/kubelet 文件。1.15之前版本为 /var/paas/kubernetes/kubelet/kubelet
操作步骤 登录VPC控制台,并在左上角选择区域和项目。 在左侧导航树选择“访问控制 > 安全组”。 在安全组界面,单击操作列的“管理实例”。 在“服务器”页签,并单击“添加”。 勾选需要加入安全组的服务器,单击“确定”。您也可以通过服务器的名称、ID、私有IP地址、状态、企业项目或标签进行筛选。
资源路径,也即API访问的路径。 接口约束 仅支持在同一VPC、同一项目下的不同集群间进行迁移。 CCE Turbo集群和CCE Standard集群间不支持互迁。 DEC集群和非DEC集群间不支持互迁。 开启IPv6开关和未开启IPv6开关的集群间不支持互迁。 只支持迁移到目标集群的默认节点池内。
Pod 图4 同时使用Ingress和Egress 目标Pod具有role=db标签,该Pod只允许带有role=frontend标签的Pod访问其6379端口,且该Pod只能访问带有role=web标签的Pod。网络策略中的Ingress和Egress可以定义在同一个规则中,具体操作步骤如下:
先配置。 解决方法:在后端服务器配额已满的情况下,更新Service时需要配置正确的健康检查协议、端口,查看健康检查是否成功。 父主题: 网络异常问题排查
ELB Ingress管理 通过控制台创建ELB Ingress 通过Kubectl命令行创建ELB Ingress 用于配置ELB Ingress的注解(Annotations) ELB Ingress高级配置示例 ELB Ingress转发策略优先级说明 多个Ingress使用同一个ELB对外端口的配置说明
创建集群时,根据业务场景选择合适的网络模型: CCE Standard集群支持选择“VPC网络”和“容器隧道网络”。 CCE Turbo集群支持选择“云原生网络2.0”。 部署 集群创建成功后,网络模型不可更改,请谨慎选择。 容器网络模型对比 工作负载 创建工作负载时需设置CPU和内存的限制范围,提高业务的健壮性。
Ingress 为什么需要Ingress Service是基于四层TCP和UDP协议转发的,而Ingress可以基于七层的HTTP和HTTPS协议转发,可以通过域名和路径做到更细粒度的划分,如下图所示。 图1 Ingress-Service Ingress工作机制 要想使用Ing
够解析发布到互联网上的外部域名。 替换域名解析配置:即dnsPolicy字段设置为None,此时必须填写“IP地址”和“搜索域”参数。容器将仅使用自定义的IP地址和搜索域配置进行域名解析。 继承Pod所在节点域名解析配置:即dnsPolicy字段设置为Default,此时容器将使
况下,来自业务容器的集群外部域名解析请求会依次经过NodeLocal DNSCache、CoreDNS,最终以TCP协议请求VPC内DNS服务器。 VPC内DNS服务器对TCP协议支持有限,如果您使用了NodeLocal DNSCache,您需要修改CoreDNS配置,让其总是优
情请参见配置不同VPC的服务器作为后端服务器(IP类型后端)。 两个VPC网段不能冲突,需要给两个VPC创建对等连接,配置方法请参见对等连接。 与ELB不同VPC的集群,集群node安全组(云原生2.0网络时为eni安全组)入方向需要放通源地址为ELB所在VPC网段。 ELB添加
Nginx Ingress管理 通过控制台创建Nginx Ingress 通过Kubectl命令行创建Nginx Ingress 用于配置Nginx Ingress的注解(Annotations) Nginx Ingress高级配置示例 父主题: 路由(Ingress)
被随机替换为Pod1的IP:Port,从而通过Service访问到实际的Pod。 除了记录Service对应的IP和端口,kube-proxy还会监控Service和Endpoint的变化,从而保证Pod重建后仍然能通过Service访问到Pod。 图3 Pod X访问Service的过程
Ingress控制器,需将nginx替换为自定义的控制器名称,用于识别Ingress对接的控制器实例。 独享型ELB规格必须支持网络型(TCP/UDP),且网络类型必须支持私网(有私有IP地址)。 运行Nginx Ingress控制器实例的节点以及该节点上运行的容器,无法访问Nginx Ingress,请将工作负载Pod与Nginx
Headless Service Service解决了Pod的内外部访问问题,但还有下面这些问题没解决。 同时访问所有Pod 一个Service内部的Pod互相访问 Headless Service正是解决这个问题的,Headless Service不会创建ClusterIP,并
②:NodeLocal DNSCache本地缓存如果无法解析请求,则会请求集群CoreDNS进行解析。 ③:对于非集群内的域名,CoreDNS会通过VPC的DNS服务器进行解析。 ④:已注入DNS本地缓存的Pod,如果无法连通NodeLocal DNSCache,则会直接通过CoreDNS解析域名。
Ingress转发策略中注册的URL需与后端应用提供访问的URL一致,否则将返回404错误。 负载均衡实例需与当前集群处于相同VPC 且为相同公网或私网类型。 负载均衡实例需要拥有至少两个监听器配额,且端口80和443没有被监听器占用。 添加Nginx Ingress 本节以Nginx作为工作负载并添加Nginx
服务端 监控CoreDNS运行状态 调整CoreDNS部署状态 合理配置CoreDNS 父主题: CoreDNS配置优化实践