检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在“容器配置”中选择制作并上传镜像中上传的镜像。 在“容器配置”中选择“环境变量”,添加环境变量,用于对接MySQL数据库。此处的环境变量由开机运行脚本中设置。 本例对接了MySQL数据库,用环境变量的方式来对接。请根据您业务的实际情况,来决定是否需要使用环境变量。 表2 配置环境变量 变量名称 变量/变量引用 MYSQL_DB
检查到本次升级涉及GPU插件,可能影响新建GPU节点时GPU驱动的安装。 解决方案 由于当前GPU插件的驱动配置由您自行配置,需要您验证两者的兼容性。建议您在测试环境验证安装升级目标版本的GPU插件,并配置当前GPU驱动后,测试创建节点是否正常使用。 您可以执行以下步骤确认GPU插件的升级目标版本与当前驱动配置。
器(kube-scheduler或者Volcano调度器)。调度器是通过一系列算法计算出Pod运行的最佳节点,但是Kubernetes集群环境是存在动态变化的,例如某一个节点需要维护,这个节点上的所有Pod会被驱逐到其他节点,但是当维护完成后,之前被驱逐的Pod并不会自动回到该节
内存配额:本例中内存配额限制为2048 MiB 特权容器:必须要开启“特权容器”,使容器获得操作宿主机的权限,否则容器中无法执行docker命令。 其他参数默认。 配置环境变量: JENKINS_URL:Jenkins的访问路径,需要填写6中设置的8080端口地址(此处填写的地址必须同时开放8080和5000
不同场景下容器内获取客户端源IP 在容器化环境中,客户端与容器服务器间的通信可能涉及多种代理服务器。当外部请求经过代理服务器多层转发时,客户端源IP地址可能无法被成功传递至容器内的业务中。本文将针对CCE集群提供网络访问的不同方案,详细说明如何在容器内部有效地获取客户端源IP。 场景介绍
toleration 的格式,用来为Volcano负载Pod添加污点 oversubscription_ratio 否 int Volcano调度环境中Node资源的超分比例 descheduler_enable 否 Bool 是否支持重调度 enable_workload_balancer
复杂事件处理和数据分析。在CCE集群中部署Flink,可以帮助您构建高效、可靠且灵活的数据处理系统,支持多样化的业务应用,并充分利用大数据环境中的集群资源。本示例将展示如何在CCE集群中部署Flink,并通过WordCount任务演示如何在CCE集群中运行Flink任务。示例中使用Flink
工作负载推荐配置 当您在CCE集群中部署工作负载时,需要结合实际的业务场景和环境,对您的工作负载进行适合的配置,以保证您的工作负载可以稳定、可靠地运行。本文为您提供部署工作负载时的一些推荐配置及建议。 声明Pod的资源(Request和Limit) 容器的Request及Limi
自动转换成255。 出现该异常时无法判断原因,需要进一步通过容器日志定位原因。 Linux标准中断信号 您可以使用kill -l命令查看Linux操作系统中信号以及对应的数值。 表2 常用的Linux标准中断信号 信号(Signal) 状态码(Value) 动作(Action) 描述(Commit)
sh/helm-v2.17.0-linux-amd64.tar.gz 解压Helm包。 tar -xzvf helm-v2.17.0-linux-amd64.tar.gz 将helm复制到系统path路径下,以下为/usr/local/bin/helm。 mv linux-amd64/helm
则可跳过此步骤。 本文以Linux环境为例安装和配置kubectl,更多安装方式请参考安装kubectl。 下载kubectl。 cd /home curl -LO https://dl.k8s.io/release/{v1.29.0}/bin/linux/amd64/kubectl
据各种条件(如可用的资源、节点的亲和性等)将容器调度到Node上运行。 ETCD:一个分布式数据存储组件,负责存储集群的配置信息。 在生产环境中,为了保障集群的高可用,通常会部署多个Master,如CCE的集群高可用模式就是3个Master节点。 Node节点 Node节点是集群的计算节点,即运行容器化应用的节点。
kubectl对接多集群示意 前提条件 您需要在一台Linux虚拟机上安装kubectl命令行工具,kubectl的版本应该与集群版本相匹配,详情请参见安装kubectl。 安装kubectl的虚拟机需要可以访问每个集群的网络环境。 kubeconfig文件结构解析 kubecon
例如在大多数需要用户身份认证的在线系统中,一个用户需要与服务器实现多次交互才能完成一次会话。由于多次交互过程中存在连续性,如果不配置会话保持,负载均衡可能会将部分请求分配至另一个后端服务器,但由于其他后端服务器并未经过用户身份认证,则会出现用户登录失效等交互异常。 因此,在实际的部署环境中,需要根据
S操作系统停止维护带来的影响,并针对影响提供应对策略。 背景信息 2020年12月08日,CentOS官方宣布了停止维护CentOS Linux的计划,并推出了CentOS Stream项目。更多信息,请参见CentOS官方公告。 CentOS 8系统2021年12月31日已停止维护服务,CentOS
理和版本控制的功能,而Jenkins则负责进行容器应用的构建和部署。并且为了保证生产环境和测试环境互不影响,该方案使用了两个独立的Kubernetes集群进行高度隔离,分别用于测试环境和生产环境。 以下是从源码编译、镜像构建、应用测试到生产上线的全流程示例: 首先在Gitlab中
Huawei Cloud EulerOS 2.0(支持GPU虚拟化) Ubuntu 22.04.4 Ubuntu 22.04.3 CentOS Linux release 7.6 EulerOS release 2.9 EulerOS release 2.5 Ubuntu 18.04(停止维护)
2/kubectl-argo-rollouts-linux-amd64 # chmod +x ./kubectl-argo-rollouts-linux-amd64 # sudo mv ./kubectl-argo-rollouts-linux-amd64 /usr/local/bin
"nginx" deleted 使用环境变量 环境变量是容器运行环境中设定的一个变量。 环境变量为应用提供极大的灵活性,您可以在应用程序中使用环境变量,在创建容器时为环境变量赋值,容器运行时读取环境变量的值,从而做到灵活的配置,而不是每次都重新编写应用程序制作镜像。 环境变量的使用方法如下所示,配置spec
实施步骤 搭建Jenkins和Gitlab环境 配置集群环境 配置Gitlab项目 持续集成及持续部署 父主题: 使用Jenkins和Gitlab实现多集群隔离的DevOps流程