检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
问题描述 某客户在DNS服务中做内网解析,将自有的域名绑定到DNS服务中的内网域名中,并绑定到特定的VPC中,发现本VPC内的节点(ECS)可以正常解析内网域名的记录,而VPC内的容器则无法解析。 适用场景 VPC内的容器无法进行正常DNS解析的情况。
Bursting的主要场景是将Kubernetes API扩展到无服务器的容器平台(如CCI)。
Bursting的主要场景是将Kubernetes API扩展到无服务器的容器平台(如CCI)。
工作负载的容器内的resolv.conf文件,示例如下: 其中: nameserver:DNS服务器的IP地址,此处为coredns的ClusterIP。 search:域名的搜索列表,此处为Kubernetes的常用后缀。
CCE权限概述 CCE权限管理是在统一身份认证服务(IAM)与Kubernetes的角色访问控制(RBAC)的能力基础上,打造的细粒度权限管理功能,支持基于IAM的细粒度权限控制和IAM Token认证,支持集群级别、命名空间级别的权限控制,帮助用户便捷灵活的对租户下的IAM用户、
待迁入节点与当前节点池属于相同的云服务器组。 待迁入节点的计费模式需要与当前节点池支持的计费模式相同。 待迁入节点需要属于DefaultPool节点池,且状态为“运行中”。 待迁入节点需要与节点池的规格、可用区、资源预留、容器引擎、操作系统配置相同。 单击“确定”。
获取方法:在云服务器控制台,单击左侧栏目树中的“专属分布式存储 > 存储池”,单击要对接的存储池名称展开详情,复制ID值即可。 storage 是 PVC申请容量,单位为Gi。 必须和已有PV的storage大小保持一致。
在“基本信息”页签,获取服务器证书ID。 在左侧导航栏选择“弹性负载均衡 > 证书管理”,通过获取的服务器证书ID查询证书,在操作列修改服务器证书。
数据共享:服务器、嵌入式设备、IOT设备等所有调用相同路径,均可访问共享的对象存储数据。 公共/私有网络:对象存储数据允许在公网访问,满足互联网应用需求。 容量与性能:容量无限制,性能较高(IO读写时延10ms级)。
自定义上游域名服务器和存根域不能够与这个策略一起使用。 “ClusterFirst”:如果dnsPolicy被设置为“ClusterFirst”,任何与配置的集群域后缀不匹配的DNS查询(例如,www.kubernetes.io)将转发到从该节点继承的上游名称服务器。
Kubernetes可以把大量的服务器看做一台巨大的服务器,在一台大服务器上面运行应用程序。无论Kubernetes的集群有多少台服务器,在Kubernetes上部署应用程序的方法永远一样。
NGINX Ingress控制器 NGINX Ingress控制器为Service提供了可直接被集群外部访问的虚拟主机、负载均衡、SSL代理、HTTP路由等应用层转发功能。
大规模组网:云原生网络2.0当前最大可支持2000个ECS节点,10万个容器。 父主题: 网络规划
具体操作步骤参考创建节点的“云服务器高级设置”的“安装后执行脚本”。“安装后执行脚本”的内容需由用户提供。 通过CCE提供的“私有镜像制作”功能,制作私有镜像作为集群的工作节点镜像。
创建一台位于vpc-X(192.168.0.0/16网段)的ECS服务器,推荐规格为4vCPUs 16GiB,系统为Huawei Cloud EulerOS 2.0,并绑定一个弹性公网IP用于拉取公网镜像。 安装指定版本的Docker 登录ECS服务器。
nginx_ingress_controller_header_duration_seconds 基础指标 从上游服务器接收第一个报头所花费的时间 nginx_ingress_controller_ingress_upstream_latency_seconds 基础指标 上游服务时延
图1 kubectl对接多集群示意 前提条件 您需要在一台Linux虚拟机上安装kubectl命令行工具,kubectl的版本应该与集群版本相匹配,详情请参见安装kubectl。 安装kubectl的虚拟机需要可以访问每个集群的网络环境。
约束与限制 CCE Turbo集群的弹性云服务器-物理机节点不支持使用CPU管理策略。 为集群开启CPU管理策略(DefaultPool中的节点) 在创建集群时的“高级配置”中可以选择开启CPU管理策略。 开启:对应Kubernetes策略中的static,即使用CPU绑核。
在CCE集群中使用容器的安全配置建议 控制Pod调度范围 通过nodeSelector或者nodeAffinity限定应用所能调度的节点范围,防止单个应用异常威胁到整个集群。参考节点亲和性。 在逻辑多租等需强隔离场景,系统插件应该尽量运行在单独的节点或者节点池上,与业务Pod分离,
大规模组网:云原生网络2.0当前最大可支持2000个ECS节点,10万个Pod。