检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
仅使用CPU和内存使用率指标进行弹性伸缩往往无法满足日常运维需求。通过自定义指标配置工作负载HPA策略,可以根据业务自身特点,通过更多指标实现更灵活的弹性配置。 本文介绍如何部署示例Nginx应用,并通过Prometheus标准方式暴露container_cpu_usage_co
is-active systemd-journald命令查询journald服务运行状态。若回显状态异常,请执行systemctl restart systemd-journald命令后重新查询状态。 以下为正常回显: 图1 journald服务运行状态 若重启journald服务无法解决该问题,请联系技术支持人员。
方案优势 从代码提交到部署上线,实现全流程自动化,极大提高交付效率。 使用容器化构建应用程序,做到即开即用,可实现低成本复用。 多Kubernetes集群隔离,保证测试、生产环境独立运行、互不影响。 父主题: 使用Jenkins和Gitlab实现多集群隔离的DevOps流程
实施步骤 搭建Jenkins和Gitlab环境 配置集群环境 配置Gitlab项目 持续集成及持续部署 父主题: 使用Jenkins和Gitlab实现多集群隔离的DevOps流程
使用HPA+CA实现工作负载和节点联动弹性伸缩 应用场景 企业应用的流量大小不是每时每刻都一样,有高峰,有低谷,如果每时每刻都要保持能够扛住高峰流量的机器数目,那么成本会很高。通常解决这个问题的办法就是根据流量大小或资源占用率自动调节机器的数量,也就是弹性伸缩。 当使用Pod/容
使用VPC和云专线实现容器与IDC之间的网络通信 使用场景 借助VPC和云专线,在VPC网络模型的集群中实现集群容器网段(172.56.0.0/16)与IDC网段(10.1.123.0/24)的相互通信。 图1 网络示意 表1 地址信息 网络 网段 用户侧IDC网络 10.1.123
peer-XA:连通vpc-X和vpc-A的网络。 peer-XB:连通vpc-X和vpc-B的网络。 父主题: 使用Jenkins和Gitlab实现多集群隔离的DevOps流程
请登录该节点,执行systemctl status ntpd命令查询ntpd服务运行状态。若回显状态异常,请执行systemctl restart ntpd命令后重新查询状态。 以下为正常回显: 图1 ntpd运行状态 若重启ntpd服务无法解决该问题,请联系技术支持人员。 问题场景二:chronyd运行异常
配置集群环境 前提条件 创建2个新的VPC,且网段互不重叠。本示例中名为vpc-A,所使用网段为172.16.0.0/16,另一个名为vpc-B,所使用网段为172.17.0.0/16。 创建测试集群 登录CCE控制台,在“集群管理”页面右上角单击“购买集群”。 填写集群配置,其
原本独立运行于单个或者多个节点的任务连接起来,实现单个任务难以完成的复杂流程编排与可视化。其作为Jenkins2.X 最核心的特性,帮助Jenkins实现从CI到CD与DevOps的转变。因此,Pipeline脚本编写是整个方案实现的关键。 Pipeline脚本大致涉及到以下概念:
志,其中nginx-c99fd67bb-ghv4q为Pod名称: kubectl logs nginx-c99fd67bb-ghv4q 回显如下: ... 10.0.0.7 - - [17/Aug/2023:01:30:11 +0000] "GET / HTTP/1.1" 200
配置Gitlab项目 获取源码到本地。本实践中将使用一个Java示例。 在Gitlab上创建ccedemo项目组。 在ccedemo项目组中添加java-demo项目。 上传项目代码至本地Gitlab仓库。 cd ~/java-demo-main //目录地址按实际情况 git
NGINX Ingress控制器 插件简介 Kubernetes通过kube-proxy服务实现了Service的对外发布及负载均衡,它的各种方式都是基于传输层实现的。在实际的互联网应用场景中,不仅要实现单纯的转发,还有更加细致的策略需求,如果使用真正的负载均衡器更会增加操作的灵活性和转发性能。
搭建Jenkins和Gitlab环境 前提条件 创建一个新的VPC,本示例中名为vpc-X,所使用网段为192.168.0.0/16。 创建一台位于vpc-X(192.168.0.0/16网段)的ECS服务器,推荐规格为4vCPUs 16GiB,系统为Huawei Cloud EulerOS
原因是由于该kubectl客户端未配置集群认证,请参见3进行配置。 相关操作 通过kubectl对接多个集群 通过配置kubeconfig文件实现集群权限精细化管理 父主题: 连接集群
从Pod访问公网 从Pod访问公网的实现方式 从Pod中访问公网地址的实现方式会因集群网络模式的不同而不同,具体请参见表1。 表1 从Pod访问公网的实现方式 实现方式 容器隧道网络 VPC网络 云原生2.0网络 给容器所在节点绑定公网IP 支持 支持 不支持 给Pod绑定弹性公网IP
如果您需要增加多个采集规则,可在rules字段下添加多个配置,关于采集规则配置详情请参见Metrics Discovery and Presentation Configuration。 针对cce_gpu_memory_utilization指标的自定义采集规则示例如下,更多GPU指标请参见监控GPU指标。
请登录该节点,执行systemctl is-active NetworkManager命令查询NetworkManager服务运行状态。若回显状态异常,请执行systemctl restart NetworkManager命令后重新查询状态。 如果上述操作无法解决,建议您进行重置节
当Service设置了服务亲和为节点级别,即externalTrafficPolicy取值为Local时,在使用中可能会碰到从集群内部(节点上或容器中)访问不通的情况,回显类似如下内容: upstream connect error or disconnect/reset before headers. reset
canal命令查询canal服务运行状态,若回显状态异常,请执行systemctl restart canal命令后重新查询状态。 如果您的集群是1.17.17以上,且是VPC网络或云原生网络2.0,请登录该节点,执行systemctl status yangtse命令查询yangtse服务运行状态,若回显状态异常,请执行systemctl