检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
应用型(HTTP/HTTPS)”或“网络型(TCP/UDP/TLS)&应用型(HTTP/HTTPS)”,否则监听器端口将无法启用HTTP/HTTPS。 创建方式:本文中以选择已有ELB为例进行说明,关于自动创建的配置参数请参见表1。 端口配置: 协议:请选择TCP协议,选择UDP协议将无法使用HTTP/HTTPS。
在SNAT规则页签中,单击“添加SNAT规则”。 根据界面提示配置参数,请参见图5。 SNAT规则是按网段生效,因为不同容器网络模型通信方式不同,此处“网段”需按如下规则选择。 容器隧道网络、VPC网络(CCE Standard集群):需要选择节点所在网段,即创建节点时选择的网段。 云原生网络2.0(CCE Turb
集群信息页面,单击“添加容器网段”进行添加。 使用“容器隧道网络”模型的集群暂不支持添加容器网段。 容器网段添加后无法删除,请谨慎操作。 服务网段默认为10.247.0.0/16,容器网段不能选择此网段。 父主题: 网络规划
容器隧道网络模型 容器隧道网络模型说明 父主题: 容器网络
使用安全组策略为工作负载绑定安全组 云原生网络2.0网络模式下,Pod使用的是VPC的弹性网卡/辅助弹性网卡,可直接绑定安全组,绑定弹性公网IP。为方便用户在CCE内直接为Pod关联安全组,CCE新增了一个名为SecurityGroup的自定义资源对象。通过SecurityGro
容器如何访问VPC内部网络 前面章节介绍了使用Service和Ingress访问容器,本节将介绍如何从容器访问内部网络(VPC内集群外),包括VPC内访问和跨VPC访问。 VPC内访问 根据集群容器网络模型不同,从容器访问内部网络有不同表现。 容器隧道网络 容器隧道网络在节点网络基础上通过隧
创建证书。 高级配置:单击“添加自定义容器网络配置”,选择“开启HTTP/2”,并将状态设置为“开启”。 图1 开启HTTP/2 单击“确定”,创建Service。 通过kubectl命令行创建 若需开启HTTP2功能,可在annotation字段中加入如下配置: kubernetes
出口网络带宽保障 出口网络带宽保障通过设置网络优先级实现,具有如下优点: 平衡在线业务与离线业务对出口网络带宽的使用,保证在线业务有足够的网络带宽,在线业务触发阈值时,压缩离线业务带宽使用。 在线业务所占用的网络资源较少时,离线业务可使用更多带宽;在线业务所占用的网络资源较多时,
为负载均衡类型的Service配置黑名单/白名单访问策略 使用负载均衡类型的服务时,您可以通过添加白名单和黑名单的方式控制访问负载均衡监听器的IP。 白名单:指定的IP允许访问,而其它IP不能访问。 黑名单:指定的IP不能访问,而其它IP允许访问。 配置黑名单/白名单访问策略后,如
CCE集群的节点是否支持绑定多网卡? CCE集群的节点不支持绑定多网卡,请勿手动绑定多网卡,否则会对集群的网络访问造成影响。 父主题: 网络规划
容器网络插件 CoreDNS域名解析 NGINX Ingress控制器 节点本地域名解析加速 父主题: 插件
问题场景 集群版本:v1.15.6-r1版本 集群类型:CCE集群 网络模式:容器隧道网络模式 节点操作系统:CentOS 7.6 上述集群的用户配置使用networkpolicy后,由于节点上canal-agent网络组件与CentOS 7.6内核存在不兼容,概率性导致CentOS
0/25,则可支持122个节点。若创建200个节点集群,则实际只能添加122个节点(包括控制节点)。 图1 查看“可用IP数” 相关文档 集群网络地址段规划实践 父主题: 网络规划
CCE容器网络扩展指标 插件介绍 CCE容器网络扩展指标插件(dolphin)是一款容器网络流量监控管理插件,支持CCE Turbo集群非主机网络容器的流量统计,以及节点内容器联通性健康检查。 字段说明 表1 参数描述 参数 是否必选 参数类型 描述 basic 否 object
x86节点不支持tcp drop监控项。 安装插件 登录CCE控制台,单击CCE Turbo集群名称进入集群,单击左侧导航栏的“插件中心”,在右侧找到CCE容器网络扩展指标插件,单击“安装”。 在安装插件页面,查看插件配置。 当前该插件无可配置参数。 单击“安装”。 待插件安装完成后,选择对应的集群
约束与限制 仅支持v1.19及以上版本的“VPC网络”模型集群。 容器网段添加后无法删除,请谨慎操作。 为CCE Standard集群添加容器网段 登录CCE控制台,单击CCE集群名称,进入集群。 在“总览”页面,找到“网络信息”版块,并单击“添加”。 图1 添加容器网段 设
urgently? 问题现象 VPC网络模式的集群,登录虚拟机出现 Dead loop on virtual device gw_11cbf51a, fix it urgently,如图: 原因定位 VPC网络模式的集群采用了linux开源社区的ipvlan模块实现容器网络通信,这一日志打印与ipvlan的设计实现有关,ipvlan
health-check-options",支持Service每个端口单独配置,且可以只配置部分端口。如无需单独配置端口协议,原有注解字段依旧可用无需修改。 约束与限制 该特性从以下版本开始支持: v1.19集群:v1.19.16-r5及以上版本 v1.21集群:v1.21.8-r0及以上版本 v1.23集群:v1.23
conf中的listen端口配置项中,可以通过backlog参数配置连接队列大小,来决定Nginx listen端口的连接队列大小。配置示例如下: server { listen 80 backlog=1024; ... 如果未配置backlog值,则该值默认
Standard/CCE Turbo 允许同时同步的资源对象的数量。配置数量越大,管理响应越快,但 CPU(和网络)负载也越高 配置建议: 无特殊需求建议保持默认配置 并发数量设置过小可能导致管理器处理响应慢,设置过大会对集群管控面造成压力,产生过载风险 endpoint并发处理数