检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ing.coreos.com/v1/servicemonitors。 配置建议: 创建新的 自定义资源时,Kubernetes API 服务器会为您所指定的每个版本生成一个新的 RESTful 资源路径。 自定义资源名称的单数形式 自定义资源名称的单数形式 参数名 取值范围 默认值
"*****", "driver_init_image_version" : "2.1.30", "ecsEndpoint" : "*****", "everest_image_version" : "2.1.30",
节点。 待迁入节点与当前节点池属于相同的虚拟私有云和子网。 待迁入节点与当前节点池属于相同的企业项目。 待迁入节点与当前节点池属于相同的云服务器组。 待迁入节点的计费模式需要与当前节点池支持的计费模式相同。 待迁入节点需要属于DefaultPool节点池,且状态为“运行中”。 待
-arm64:1.5 创建双架构manifest文件并上传。 # 开启DOCKER_CLI_EXPERIMENTAL export DOCKER_CLI_EXPERIMENTAL=enabled # 创建镜像manifest文件 docker manifest create --amend
大规模组网:云原生网络2.0当前最大可支持2000个ECS节点,10万个Pod。 容器IP地址管理 云原生网络2.0下的BMS节点和ECS节点分别使用的是弹性网卡和辅助弹性网卡: Pod的IP地址从配置给容器网络的VPC子网上直接分配,无需为节点分配一个单独的小网段。 ECS节点添加到集群中,先绑定用于
配置完成后,单击“确定”。 请参见通过kubectl连接集群,使用kubectl连接集群。 创建名为“ingress-test.yaml”的YAML文件,此处文件名可自定义。 vi ingress-test.yaml 以使用已有ELB创建Ingress的场景为例,YAML配置示例如下: apiVersion:
操作系统重大漏洞修复:跟随集群补丁升级策略发布。 集群版本与操作系统对应关系 如下为当前已经发布的集群版本与操作系统版本的对应关系,请参考: 表1 弹性云服务器-虚拟机节点操作系统 操作系统 集群版本 CCE Standard集群 CCE Turbo集群 最新内核信息 VPC网络模型 容器隧道网络模型
CCE启动实例失败时的重试机制是怎样的? CCE是基于原生Kubernetes的云容器引擎服务,完全兼容Kubernetes社区原生版本,与社区最新版本保持紧密同步,完全兼容Kubernetes API和Kubectl。 在Kubernetes中,Pod的spec中包含一个res
创建节点时执行安装前/后脚本 创建节点时使用OBS桶实现自定义脚本注入 选择合适的节点数据盘大小 节点日常管理实践 存储扩容 通过Core Dump文件定位容器问题 容器与节点时区同步 将节点容器引擎从Docker迁移到Containerd 节点安全实践 CCE节点安全配置建议 父主题: 节点
16-r0、v1.25.11-r0、v1.27.8-r0、1.28.6-r0、v1.29.2-r0及以上版本的集群:CCE默认在节点的/etc/fstab文件中添加以下挂载信息,检查是否被用户修改。 ... /mnt/paas/kubernetes/kubelet /var/lib/kubelet
0.0/16 说明: 如果需要保证节点能正常访问跨节点的Pod,必须添加节点的子网网段。 同理,如果同VPC下的其他ECS节点需要能正常访问Pod IP,必须添加ECS所在子网网段。 表6 扩展控制器配置(仅v1.21及以上版本集群支持) 名称 参数 详情 取值 启用资源配额管理
通过kubectl命令行配置 请参见通过kubectl连接集群,使用kubectl连接集群。 创建名为“ingress-test.yaml”的YAML文件,此处文件名可自定义。 vi ingress-test.yaml 以使用已有ELB创建Ingress的场景为例,YAML配置如下: apiVersion:
热参数,需要先通过集群的配置管理console页面把原始的高低水位预热配置修改为(0:0)。 CCE Turbo节点池的节点类型为裸金属服务器时,1.19.16-r4、1.21.7-r0、1.23.5-r0、1.25.1-r0之前的集群版本默认采用的是容器网卡高低水位预热(默认值0
桶。 csi.storage.k8s.io/fstype: s3fs # 文件类型,obsfs表示并行文件系统;s3fs表示对象桶 volume.beta.kubernetes.io/storage-provisioner:
建ELB。 请参见通过kubectl连接集群,使用kubectl连接集群。 创建名为“ingress-test.yaml”的YAML文件,此处文件名可自定义。 vi ingress-test.yaml CCE在1.23版本集群开始Ingress切换到networking.k8s.
创建节点时执行安装前/后脚本 创建节点时使用OBS桶实现自定义脚本注入 选择合适的节点数据盘大小 节点池日常管理实践 存储扩容 通过Core Dump文件定位容器问题 容器与节点时区同步 将节点容器引擎从Docker迁移到Containerd CCE节点安全配置建议 节点池弹性伸缩实践 使用
点的网络是否能够连通。 解决方法 如果是在集群外部执行kubectl,请检查集群是否绑定公网IP,如已绑定,请重新下载kubeconfig文件配置,然后重新执行kubectl命令。 如果是在集群内节点上执行kubectl,请检查节点的安全组,是否放通Node节点与Master节点
NAT转换,所以适用于对带宽、时延要求极高的业务场景,比如:线上直播、电商抢购等。 大规模组网:云原生网络2.0当前最大可支持2000个ECS节点,10万个Pod。 核心技术 OVS IPVlan,VPC路由 VPC弹性网卡/弹性辅助网卡 适用集群 CCE Standard集群 CCE
通过kubectl命令行配置 请参见通过kubectl连接集群,使用kubectl连接集群。 创建名为“ingress-test.yaml”的YAML文件,此处文件名可自定义。 vi ingress-test.yaml 以使用已有ELB创建Ingress的场景为例,YAML配置如下: apiVersion:
的Guaranteed Pods ,它允许该类Pod中的容器访问节点上的独占CPU资源(绑核)。 约束与限制 CCE Turbo集群的弹性云服务器-物理机节点不支持使用CPU管理策略。 为集群开启CPU管理策略(DefaultPool中的节点) 在创建集群时的“高级配置”中可以选择开启CPU管理策略。