检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
)前后必须为小写字母或数字。 企业项目 该参数仅对开通企业项目的企业客户账号显示,且集群版本要求v1.21.15-r0、v1.23.14-r0、v1.25.9-r0、v1.27.6-r0、v1.28.4-r0及以上。 选择某个企业项目后,节点将会创建在该企业项目下。您可以通过企业项目服务(EPS
的方式为Kubernetes提供域名解析服务的DNS服务器。 CoreDNS是由CNCF孵化的开源软件,用于Cloud-Native环境下的DNS服务器和服务发现解决方案。CoreDNS实现了插件链式架构,能够按需组合插件,运行效率高、配置灵活。在Kubernetes集群中使用C
容器网络 Kubernetes本身并不负责网络通信,但提供了容器网络接口CNI(Container Network Interface),具体的网络通信交由CNI插件来实现。开源的CNI插件非常多,像Flannel、Calico等。针对Kubernetes网络,CCE为不同网络模型
Harbor可以通过公网访问SWR,配置方法参见公网访问场景。 通过专线打通Harbor到VPC间的网络,使用VPC终端节点访问SWR,配置方法参见专线打通场景。 背景知识 Harbor是VMware公司开源的企业级Docker Registry管理项目,在开源Docker Distribu
集群漏洞修复周期 高危漏洞: Kubernetes社区发现漏洞并发布修复方案后,CCE一般在1个月内进行修复,修复策略与社区保持一致。 操作系统紧急漏洞按照操作系统修复策略和流程对外发布,一般在一个月内提供修复方案,用户自行修复。 其他漏洞: 按照版本正常升级流程解决。 修复声明 为
集群网络模型选择及各模型区别 自研高性能商业版容器网络插件,支持容器隧道网络、VPC网络、云原生网络2.0网络模型: 集群创建成功后,网络模型不可更改,请谨慎选择。 容器隧道网络(Overlay):基于底层VPC网络构建了独立的VXLAN隧道化容器网络,适用于一般场景。VXLAN
自定义:用户自行决定每台控制节点所在的位置。 网络配置 集群网络涉及节点、容器和服务,强烈建议您详细了解集群的网络以及容器网络模型,具体请参见网络概述。 图2 集群网络配置 表1 集群网络配置 参数 说明 虚拟私有云 选择集群所在的虚拟私有云VPC,如没有可选项可以单击右侧“新建虚拟私有云”创建。创建后不可修改。
ngress的api接口时,创建的Ingress中没有property属性。为了与社区的client-go兼容,CCE提供了如下解决方案。 解决方案 在使用client-go创建Ingress实例时,在annotation中做如下声明: kubernetes.io/ingress
CCE集群实现访问跨VPC网络通信 使用场景 由于不同VPC之间网络不通,CCE集群无法跨VPC进行网络通信,您可以通过对等连接连通两个不同网段的VPC,实现本VPC下的集群访问另一个VPC下的集群或其他服务。 图1 网络示意 为实现跨VPC访问,不同网络模型的集群需要打通的网段不同。假设集群本端VPC网段为172
网络规划 集群与虚拟私有云、子网的关系是怎样的? 如何查看虚拟私有云VPC的网段? 如何设置CCE集群中的VPC网段和子网网段? 如何设置CCE集群中的容器网段? 什么是云原生网络2.0网络模式,适用于什么场景? 什么是弹性网卡? 集群安全组规则配置 创建CCE Turbo集群时如何设置IPv6服务网段
* 企业项目 该参数仅对开通企业项目的企业客户账号显示,不显示时请忽略。 * 集群版本 建议选择最新的版本。 * 集群规模 当前集群可以管理的最大Node节点规模。若选择50节点,表示当前集群最多可管理50个Node节点。 网络配置 * 网络模型 支持选择“VPC网络”和“容器隧道网络”,默认即可。
的业务中。本文将针对CCE集群提供网络访问的不同方案,详细说明如何在容器内部有效地获取客户端源IP。 场景介绍 图1 容器中获取源IP 根据不同的网络设置,容器内获取客户端源IP的方法可能会有所不同。以下是几种常见的网络访问配置及其对应的解决方案: Ingress七层转发:应用在
证书文件过多可能导致节点升级过慢,节点上Pod被驱逐等。 解决方案 方案一:优先建议您重置节点,详情请参考重置节点。 方案二:修复节点上证书轮转异常问题。 登录节点,并进入节点证书目录。 cd /opt/cloud/cce/kubernetes/kubelet/pki/ 备份节
Service方式,修改配置工作量大。 在集群外自建了一个其他服务,需要将集群中的数据通过固定域名发送到这个服务。 解决方案 使用CoreDNS有以下几种自定义域名解析的方案。 为CoreDNS配置存根域:为特定域名指定域名解析服务器,可以直接在控制台添加,简单易操作。 使用 CoreDNS
Failed to create member : {"error_msg":"Vpc [集群VPC id] of member's subnet_cidr [期望监听器所属的子网] and vpc [ELB VPC id] of loadbalancer [ELB id] mismatch"
CoreDNS是一款通过链式插件的方式给Kubernetes提供DNS解析服务的DNS服务器,为Kubernetes社区推荐的DNS服务器解决方案。 字段说明 表1 参数描述 参数 是否必选 参数类型 描述 basic 否 object 插件基础配置参数,无需用户指定。 flavor
GPU节点的加速能力。 解答 方案1: 建议您将集群中GPU节点的不可调度的污点去掉,以便GPU插件驱动能够正常安装,同时您需要安装高版本的GPU驱动。 如果您的集群中有非GPU的容器,可以通过亲和、反亲和策略将这个容器不调度到GPU节点上。 方案2: 建议您安装高版本的GPU驱
在插件安装、升级、更改配置等过程中出现异常问题时,控制台通常会提示相应的错误码。您可以根据错误码查找对应的问题,查看问题原因和解决方案。本文介绍常见错误码及其问题原因和解决方案。 资源冲突 问题现象 安装插件时,出现“内部错误”,错误码为CCE.03500001。 问题原因 出现“内部错误”时,错误信息内会提示具体的错误原因,如
调度器+智能混合调度,提升集群资源利用率 智能调度,容器秒级启动,负载自动调优 网络 VPC网络叠加容器网络(两层) VPC网络和容器网络融合,性能无损耗(一层) VPC网络和容器网络融合,性能无损耗(一层) 安全 基于NetworkPolicy提供容器维度的网络访问控制 Kata安全容器,给容器提供类似虚拟机级别的安全隔离能力
VPC网络模型 VPC网络模型说明 扩展集群容器网段 父主题: 容器网络