检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
0/16(安装Gitlab和Jenkins的ECS所在VPC) vpc-A:172.16.0.0/16(测试集群所在VPC) vpc-B:172.17.0.0/16(生产集群所在VPC) 弹性云服务器ECS 本示例中共有1台ECS,ECS位于vpc-X(192.168.0.0/16网段)。
件系统卡死问题 IPVS缺陷导致节点上升级CoreDNS后出现概率性解析超时 节点ARP表项超过限制 EulerOS 2.9内核缺陷导致虚拟机卡住 父主题: 节点
请参见通过kubectl连接集群,使用kubectl连接集群。 创建名为“ingress-test.yaml”的YAML文件,此处文件名可自定义。 vi ingress-test.yaml 1.23及以上版本集群: apiVersion: networking.k8s.io/v1 kind:
H信息配置。 在线离线业务混部:支持集群内在离线作业混部以及节点CPU和内存资源超卖,提升集群整体资源利用率。 建议搭配使用 GPU加速云服务器 + 弹性负载均衡ELB + 对象存储服务OBS 图1 AI计算 父主题: 应用场景
容器关联的子网所有的IP地址都被容器使用。 在88-k8s.conf中,将net.ipv4.neigh.default.gc_thresh3的值修改为163790。 vi /etc/sysctl.d/88-k8s.conf net.ipv4.neigh.default.gc_thresh1和net.ipv4
请参见通过kubectl连接集群,使用kubectl连接集群。 创建名为“ingress-test.yaml”的YAML文件,此处文件名可自定义。 vi ingress-test.yaml 以使用已有ELB创建Ingress的场景为例,YAML配置示例如下: apiVersion: networking
nodelocalvolume - name: nodeemptydirvolume - name: nodeCSIscheduling - name: networkresource ... 单击“保存”。 父主题: GPU虚拟化
理卷(PV),请确保信息已备份。 纳管过程中,请勿在弹性云服务器控制台对所选虚拟机做任何操作。 约束与限制 纳管节点支持ECS(弹性云服务器)节点、BMS(裸金属服务器)节点、DeH(专属主机)节点。 前提条件 待纳管的云服务器需要满足以下前提条件: 待纳管节点必须状态为“运行中”,未被其他集群所使用,且不携带
n的更新请求到达apiserver,服务器端将对比请求数据与服务器中数据的资源版本号,如果不一致,则表明在本次更新提交时,服务端对象已被修改,此时apiserver将返回冲突错误(409)。客户端需重新获取服务端数据,重新修改后再次提交到服务器端;而资源配额对每个命名空间的资源消
请以华为云管理控制台显示为准。 完成本实践所需的资源如下: 表1 资源和成本规划 资源 资源说明 数量 费用(元) 弹性云服务器ECS 建议选择按需计费。 虚拟机类型:通用计算增强型 节点规格:4核 | 8GiB 操作系统:Ubuntu 22.04 系统盘:40GiB | 通用型SSD
请参见通过kubectl连接集群,使用kubectl连接集群。 创建名为“ingress-test.yaml”的YAML文件,此处文件名可自定义。 vi ingress-test.yaml 以使用已有ELB创建Ingress的场景为例,YAML配置如下: apiVersion: networking
通过kubectl命令行创建 请参见通过kubectl连接集群,使用kubectl连接集群。 创建一个名为securitygroup-demo.yaml的描述文件。 vi securitygroup-demo.yaml 例如,用户创建如下的SecurityGroup资源对象,给所有的app:nginx工作负
通过安全组控制其之间能否互通,保证子网之间可以相互隔离,用户可以将不同业务部署在不同的子网内。 集群是同一个VPC中一个或多个弹性云服务器或裸金属服务器(又称:节点)通过相关技术组合而成的计算机群体,为容器运行提供了计算资源池。 如图1,同一个region下可以有多个虚拟私有云(
NAT转换,所以适用于对带宽、时延要求极高的业务场景,比如:线上直播、电商抢购等。 大规模组网:云原生网络2.0当前最大可支持2000个ECS节点,10万个Pod。 核心技术 OVS IPVlan,VPC路由 VPC弹性网卡/弹性辅助网卡 适用集群 CCE Standard集群 CCE
隧道网络有一定优势。此外,使用VPC网络模型的集群时,由于VPC路由表中自动配置了容器网段与VPC网段之间的路由,可以支持同一VPC内的云服务器从集群外直接访问容器实例等特殊场景。 图1 VPC网络 在VPC网络模型的集群中,不同形式的网络通信路径不同: 节点内Pod间通信:IP
集群:控制节点资源费用,按照每个集群的类型(虚拟机或裸金属、控制节点数)、集群规模(最大支持的节点数)的差异收取不同的费用。 控制节点资源的价格目录请参见:云容器引擎价格目录。 其他云服务资源:集群所使用的IaaS基础设施费用,包括集群创建使用过程中自动创建或手动加入的相关资源,如云服务器、云硬盘、弹性IP
请参见通过kubectl连接集群,使用kubectl连接集群。 创建名为“ingress-test.yaml”的YAML文件,此处文件名可自定义。 vi ingress-test.yaml 以使用已有ELB创建Ingress的场景为例,YAML配置如下: apiVersion: networking
CCI)作为一种虚拟的kubelet用来连接Kubernetes集群和其他平台的API。Bursting的主要场景是将Kubernetes API扩展到无服务器的容器平台(如CCI)。 基于该插件,支持用户在短时高负载场景下,将部署在云容器引擎CCE上的无状态负载(Deployment)、有状态负
CCI)作为一种虚拟的kubelet用来连接Kubernetes集群和其他平台的API。Bursting的主要场景是将Kubernetes API扩展到无服务器的容器平台(如CCI)。 基于该插件,支持用户在短时高负载场景下,将部署在云容器引擎CCE上的无状态负载(Deployment)、有状态负
使用Annotation配置负载均衡类型的服务 为负载均衡类型的Service配置HTTP/HTTPS协议 为负载均衡类型的Service配置服务器名称指示(SNI) 为负载均衡类型的Service配置跨集群的后端 为负载均衡类型的Service配置HTTP/2 为负载均衡类型的Service配置HTTP/HTTPS头字段