检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
版本。 如果需要稳定升级GPU节点驱动,推荐使用通过节点池升级节点的GPU驱动版本。 前提条件 需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。 操作步骤 如果您需要使用指定的NVIDIA驱动版本,可以在节点安装新版本GPU驱动,操作步骤如下: 对节点下线
您可以通过kubectl命令行设置Service访问方式。本节以nginx为例,说明kubectl命令实现集群内访问的方法。 请参见通过kubectl连接集群,使用kubectl连接集群。 创建并编辑nginx-deployment.yaml和nginx-clusterip-svc.yaml文件。 其中,nginx-deployment
共享资源的容器。通常这种场景下应用包含一个主容器和几个辅助容器(SideCar Container),如图1所示,例如主容器为一个web服务器,从一个固定目录下对外提供文件服务,而辅助容器周期性的从外部下载文件存到这个固定目录下。 图1 Pod 实际使用中很少直接创建Pod,而是
ELB Ingress:基于弹性负载均衡ELB(Elastic Load Balance)提供全托管、免运维的服务,支持千万级并发连接和百万级新建连接。支持对接共享型负载均衡、独享型负载均衡实例。 本文将为您介绍Nginx Ingress、ELB Ingress的差异。 典型应用场景
容器实例也能够直接访问Internet,但不能直接从Internet接收流量。利用NAT网关实现公网访问,可以高效地支持高并发连接需求,适合请求量大、连接数多的应用场景。 图1 SNAT原理 前提条件 已创建一个CCE集群,具体操作步骤请参见创建集群。 在集群内已创建一个Pod,
初始规格配置 数量 集群 2023/03/18 15:30:00 按需计费 区域:上海一 集群规模:50节点 高可用:是 1 节点(弹性云服务器 ECS) 2023/03/18 15:40:00 按需计费 区域:上海一 规格:c7.large.2(2vCPUs,4GiB) 系统盘:通用型SSD,50GiB
使用Service实现简单的灰度发布和蓝绿发布 CCE实现灰度发布通常需要向集群额外部署其他开源工具,例如Nginx Ingress,或将业务部署至服务网格,利用服务网格的能力实现。这些方案均有一些难度,如果您的灰度发布需求比较简单,且不希望引入过多的插件或复杂的用法,则可以参考
ginx:exporter。上传镜像的具体方法请参见客户端上传镜像。 在左侧导航栏选择“我的镜像”,单击右侧“客户端上传”,在弹出的页面中单击“生成临时登录指令”,单击复制登录指令。 在集群节点上执行上一步复制的登录指令,登录成功会显示“Login Succeeded”。 执行如
如下配置示例适用于Kubernetes 1.13及以下版本的集群。 操作步骤 登录SFS控制台,创建一个文件存储,记录文件存储的ID、共享路径和容量。 请参见通过kubectl连接集群,使用kubectl连接集群。 新建两个yaml文件,用于创建PersistentVolume(PV
0 探针)的本地存储卷。 填写探针相关参数。 APM1.0探针 监控组:输入监控组名称,如testapp。 探针版本:选择探针的版本。 “探针升级策略”,默认为“重启自动升级”。 重启自动升级:每次都尝试重新下载镜像。 重启手动升级:如果本地有该镜像,则使用本地镜像,本地不存在时下载镜像。
磁盘IO延迟 TCP连接 个 TCP连接数 alloc:已分配(已建立、已申请到sk_buff)的TCP套接字数量。 inuse:正在使用(侦听)的TCP套接字数量。 orphan:已分配(已建立、已申请到sk_buff)的TCP套接字数量。 tw:等待关闭的TCP连接数。 UDP使用情况
/opt/test] [touch] [/root/test] [mkdir] [/opt/test] [mkdir /opt/test] 登录CCE控制台,在创建工作负载时,配置容器信息,选择“生命周期”。 在“启动命令”页签,输入运行命令和运行参数。 表2 容器启动命令 命令方式
用户租户下存在的VPC ID 无 支持初始化时配置,不支持后续修改 CCE Standard/CCE Turbo 获取方法如下: 方法1:登录虚拟私有云服务的控制台界面,在虚拟私有云的详情页面查找VPC ID。 方法2:通过虚拟私有云服务的API接口查询。 配置建议: VPC在集
完成容器镜像的迁移。 远程登录原集群中任意一个节点,使用docker pull命令拉取所有镜像到本地。 登录SWR控制台,单击页面右上角的“登录指令”并复制。 在节点上执行上一步复制的登录指令。 登录成功会显示“Login Succeeded”。 为所有本地镜像打上标签。 docker
纳管节点时失败,报错“安装节点失败”如何解决? 问题描述 节点纳管失败报错安装节点失败。 问题原因 登录节点,查看/var/paas/sys/log/baseagent/baseagent.log安装日志,发现如下报错: 查看节点LVM设置,发现/dev/vdb没有创建LVM逻辑卷。
GPU)插件:2.0.5及以上版本 步骤一:开启GPU虚拟化 集群中需要同时安装CCE AI套件(NVIDIA GPU)插件和Volcano调度器插件。 登录CCE控制台,单击集群名称进入集群,在左侧选择“配置中心”。 切换至“异构资源配置”页签,开启“GPU虚拟化”。 集群默认驱动:集群中GP
在VPC网络集群中访问集群外地址时使用Pod IP作为客户端源IP 在使用VPC网络的CCE集群中,Pod与集群外部通信时,系统默认会将源Pod的IP地址转换为节点的IP地址,使Pod以节点IP的形式与外部进行通信。这一过程被称为“Pod IP伪装”,技术上也称为源网络地址转换(Source
例如,假设节点可挂载的云硬盘上限为20,除去节点上已挂载的1块系统盘和1块数据盘后,节点剩余可挂载的云硬盘数量为18块。若该节点通过ECS控制台自定义挂载了2块裸盘用于创建本地存储池,则实际上仅能挂载16块数据盘。该场景下,如果该节点上调度18个挂载1块云硬盘的工作负载实例,就会出现2个工作负
问题描述 在节点负载压力比较大的场景下,可能存在NPD进程资源残留的问题。 问题现象 登录到CCE集群的ECS节点,查询存在大量npd进程。 解决方案 升级CCE节点故障检测(简称NPD)插件至最新版本。 登录CCE控制台,进入集群,在左侧导航栏中选择“插件中心”,单击CCE节点故障检测下的“升级”。
步骤1:使能服务网格 使能服务网格是指为集群开启应用服务网格功能,开启后即可实现灰度发布、流量管理、熔断、监控、拓扑、调用链等丰富的服务治理能力。 登录应用服务网格ASM控制台。 在“总览”页面,单击“购买网格”。 设置如下参数,其余参数均采用默认值。 网格类型 此处以专有网格为例进行说明。