检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如果您的灰度或蓝绿发布需求较复杂,可以向集群额外部署其他开源工具,例如Nginx Ingress、Traefik,或将业务部署至应用服务网格(Application Service Mesh,简称ASM),利用开源工具和服务网格的能力实现。这三种方式分别对应本文如下内容: 使用S
低廉,数据取回时间可能长达数分钟到数小时不等。 使用说明 标准接口:具备标准Http Restful API接口,用户必须通过编程或第三方工具访问对象存储。 数据共享:服务器、嵌入式设备、IOT设备等所有调用相同路径,均可访问共享的对象存储数据。 公共/私有网络:对象存储数据允许在公网访问,满足互联网应用需求。
在请求级别;并且流量控制也由请求触发。 相比之下,没有多少工具可以根据客户端在HTTP/2连接层的行为来执行记录、速率限制和修正。因此,中间件服务可能会发现更难发现和阻止恶意的HTTP/2连接,并且可能需要添加额外的工具来处理这些情况。 这些攻击媒介允许远程攻击者消耗过多的系统资
CCE AI套件(Ascend NPU) 插件介绍 CCE AI套件(Ascend NPU)是支持容器里使用NPU设备的管理插件。 安装本插件后,可创建“AI加速型”节点,实现快速高效地处理推理和图像识别等工作。 字段说明 表1 参数描述 参数 是否必选 参数类型 描述 basic
器化应用。 步骤四:使用kubectl命令行工具连接集群 在使用Helm模板前,您需要在一台虚拟机上使用kubectl命令行工具连接刚刚创建的集群。 步骤五:安装Helm 在安装kubectl工具的虚拟机上,您需要继续安装Helm工具。 步骤六:部署模板 使用Helm安装命令在集
工作负载中未声明需要gpu资源。 建议方案 节点安装了gpu-beta(gpu-device-plugin)插件后,会自动安装nvidia-smi命令行工具。引起部署GPU服务报错通常是由于nvidia驱动安装失败,请排查nvidia驱动是否下载成功。 GPU节点: # 插件版本为2.0.0以下时,执行以下命令:
Burst。 您可以使用wrk工具对工作负载进行加压,观察开启和关闭CPU Burst时业务的时延、限流情况、突破CPU limit的情况。 使用以下命令为Pod加压,其中<service_ip>为Pod关联的Service IP。 # 您需要在节点上下载并安装wrk工具 # 在Apache配置中开启了Gzip压缩模块
当运行中的容器因软件错误、资源耗尽或其他意外情况崩溃时,为了确保服务的连续性,系统会自动重建容器以迅速恢复服务。 手动删除某容器 若手动删除了某个正在运行的容器,容器编排工具会根据定义的部署策略重新调度并重建该容器,以保持预期的实例数量。 Pod优先级抢占 当高优先级的Pod需要资源时,Kubernetes可能
io等下载镜像,建议在华为云国际站创建集群,否则容易碰到较多网络问题。 节点上绑定了EIP,并配置了kubectl命令行工具,详情请参见通过kubectl连接集群。 安装Kustomize Kustomize是一个开源工具,用于管理Kubernetes应用程序的配置。它允许您将应用程序的配置从应用程序本身中分离
载了PVC的资源时,在集群迁移后,PVC状态会处于pending状态。 请确保CCE侧集群中没有与被迁移集群侧相同的资源,因为Velero工具在检测到相同资源时,默认不进行恢复。 为确保集群迁移后容器镜像资源可以正常拉取,请将镜像资源迁移至容器镜像服务(SWR)。 CCE不支持R
--version查看containerd版本。 新Console上的“节点管理”处也可以查看运行时版本。 漏洞修复方案 容器 entrypoint 使用 capsh工具去除自身的 Inheritable Capabilities。 相关链接 社区公告:https://github.com/containe
区和文件系统。 登录节点,执行命令growpart,检查当前系统是否已安装growpart扩容工具。 若回显为工具使用介绍,则表示已安装,无需重复安装。若未安装growpart扩容工具,可执行以下命令安装。 yum install cloud-utils-growpart 执行以
ServiceAccount Kubernetes中所有的访问,无论外部内部,都会通过API Server处理,访问Kubernetes资源前需要经过认证与授权。 Authentication:用于识别用户身份的认证,Kubernetes分外部服务账号和内部服务账号,采取不同的认
使用其他方式申请显存,例如调用cudaMalloc()等。 受GPU虚拟化技术的限制,容器内应用程序初始化时,通过nvidia-smi监测工具监测到的实时算力可能超过容器可用的算力上限。 节点上开启了GPU虚拟化且有多张GPU卡时,如果GPU资源不足,不支持抢占其他Pod的GPU资源。
包,并且软件包版本需要保持配套: 驱动GPU工作的硬件驱动程序,如Tesla系列驱动。 上层应用程序所需要的库,如CUDA Toolkit工具包。 在容器使用场景下,GPU驱动是安装在节点上的,而CUDA Toolkit一般会在应用程序的容器镜像构建时预安装,或者可直接使用Nvidia官方已预装CUDA
创建AHPA策略 Kubernetes原生HPA由于是被动触发,在实际应用中存在弹性滞后的问题。AHPA策略即Advanced Horizontal Pod Autoscaling,可根据业务历史指标,识别工作负载弹性周期并对未来波动进行预测,提前进行扩缩容动作,解决原生HPA的滞后问题。
配额累计使用量包含CCE系统默认创建的资源,如default命名空间下系统默认创建的kubernetes服务(该服务可通过后端kubectl工具查看)等,故建议命名空间下的资源配额略大于实际期望值以去除系统默认创建资源的影响。 在Kubernetes中,外部用户及内部组件频繁的数据
CCE AI套件(Ascend NPU) 插件简介 CCE AI套件(Ascend NPU)是支持容器里使用huawei NPU设备的管理插件。 安装本插件后,可创建“AI加速型”节点,实现快速高效地处理推理和图像识别等工作。 约束与限制 集群中使用“AI加速型”节点时必须安装CCE
执行如下命令,新建用于存放该应用的目录。例如目录设为apptest。 mkdir apptest cd apptest 使用xShell工具,将已下载的依赖文件存放到apptest目录下。 解压缩依赖文件。 tar -zxf apache-tomcat-7.0.82.tar.gz
earer Token认证鉴权的方式上报三方监控平台。 Prometheus监控 Prometheus已经成为了当前云原生可观测性的最常见工具,其强大的监控能力和活跃的社区生态,使其成功CNCF最活跃的托管项目之一。当前CCE插件市场提供了云原生监控插件用于Kubernetes集群的监控。