检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
支持收集CCE集群控制平面组件日志和Kubernetes审计日志,将日志从CCE控制层采集到您账号的LTS日志服务的日志流中。具体操作,请参见采集控制面组件日志和采集Kubernetes审计日志。
Kubernetes kubelet和kube-proxy授权问题漏洞公告(CVE-2020-8558) 漏洞详情 Kubernetes官方发布安全公告,其核心组件kube-proxy存在主机边界绕过漏洞(CVE-2020-8558)。利用漏洞攻击者可能通过同一局域网下的容器,或在集群节点上访问同一个二层域下的相邻节点上绑定监听了本地
使用默认日志组/日志流:将为您自动选择默认日志组(k8s-log-{集群ID})和默认的日志流(stdout-{集群ID})。 自定义日志组/日志流:可在下拉框选择任意日志组和日志流。 日志组:云日志服务进行日志管理的基本单位。
CCE节点故障检测 插件简介 CCE节点故障检测插件(原名NPD)是一款监控集群节点异常事件的插件,以及对接第三方监控平台功能的组件。它是一个在每个节点上运行的守护程序,可从不同的守护进程中搜集节点问题并将其报告给apiserver。NPD可以作为DaemonSet运行, 也可以独立运行
关闭集群控制面组件日志后,原有的日志流将不再更新日志,但已有的日志不会被删除,因此可能会产生LTS日志费用。 父主题: 日志中心
兼容Kubernetes默认GPU调度模式 开启GPU虚拟化后,工作负载调度GPU时建议使用显存隔离模式(即设置volcano.sh/gpu-mem.128Mi资源)和算显隔离模式(即同时设置volcano.sh/gpu-mem.128Mi和volcano.sh/gpu-core.percentage
GPU监控指标说明 CCE AI套件(NVIDIA GPU)插件提供GPU监控指标,并集成了DCGM-Exporter组件(要求插件版本2.7.32+),引入更丰富的GPU可观测性场景。本文介绍CCE AI套件(NVIDIA GPU)插件指标的详细信息。 计费说明 GPU指标作为自定义指标
使用Service实现简单的灰度发布和蓝绿发布 CCE实现灰度发布通常需要向集群额外部署其他开源工具,例如Nginx Ingress,或将业务部署至服务网格,利用服务网格的能力实现。这些方案均有一些难度,如果您的灰度发布需求比较简单,且不希望引入过多的插件或复杂的用法,则可以参考本文利用
CCE Turbo配置容器网卡动态预热 在云原生网络2.0下,每个Pod都会分配(申请并绑定)一张弹性网卡或辅助弹性网卡(统一称为:容器网卡)。由于容器场景下Pod的极速弹性与慢速的容器网卡创建绑定的差异,严重影响了大规模批创场景下的容器启动速度。因此,云原生2.0网络提供了容器网卡动态预热的能力
CCE AI套件(NVIDIA GPU) 插件介绍 CCE AI套件(NVIDIA GPU)插件是支持在容器中使用GPU显卡的设备管理插件,集群中使用GPU节点时必须安装本插件。 字段说明 表1 参数描述 参数 是否必选 参数类型 描述 basic 是 object 插件基础配置参数
通过自定义域名访问集群 操作场景 主题备用名称(Subject Alternative Name,缩写SAN)允许将多种值(包括IP地址、域名等)与证书关联。SAN通常在TLS握手阶段被用于客户端校验服务端的合法性:服务端证书是否被客户端信任的CA所签发,且证书中的SAN是否与客户端实际访问的
日志类型 日志 LTS日志流名称 开启状态 参考文档 容器日志 容器标准输出 stdout-{clusterId} 开通业务日志采集需安装云原生日志采集插件。
为Nginx Ingress配置应用流量镜像 Nginx Ingress支持在不同集群内进行流量镜像(Traffic Mirror),将访问请求复制一份路由到镜像后端,但会忽略镜像后端的返回值,因此不会对原有请求造成影响,可用于系统的仿真测试和问题定位。本文介绍如何使用Nginx
v1.30 v1.31 修复部分问题 1.7.0 v1.21 v1.23 v1.25 v1.27 v1.28 v1.29 v1.30 v1.31 支持v1.31集群 1.6.1 v1.21 v1.23 v1.25 v1.27 v1.28 v1.29 v1.30 支持自动创建LTS日志流
PV、PVC和StorageClass 上一章节介绍的HostPath是一种持久化存储,但是HostPath的内容是存储在节点上,导致只适合读取。 如果要求Pod重新调度后仍然能使用之前读写过的数据,就只能使用网络存储了,网络存储种类非常多且有不同的使用方法,通常一个云服务提供商至少有块存储
通过动态存储卷使用云硬盘 CCE支持指定存储类(StorageClass),自动创建云硬盘类型的底层存储和对应的存储卷,适用于无可用的底层存储,需要新创建的场景。 前提条件 您已经创建好一个集群,并且在该集群中安装CCE容器存储(Everest)。 如果您需要通过命令行创建,需要使用
通过动态存储卷使用对象存储 本文介绍如何自动创建对象存储,适用于无可用的底层存储卷,需要新创建的场景。 约束与限制 使用对象存储时,挂载点不支持修改属组和权限。 使用PVC挂载对象存储时,负载每挂载一个对象存储卷,后端会产生一个常驻进程。当负载使用对象存储数过多或大量读写对象存储文件时
工作负载DNS配置说明 Kubernetes集群内置DNS插件Kube-DNS/CoreDNS,为集群内的工作负载提供域名解析服务。业务在高并发调用场景下,如果使用到域名解析服务,可能会触及到Kube-DNS/CoreDNS的性能瓶颈,导致DNS请求概率失败,影响用户业务正常运行。
存储扩容 CCE节点可进行扩容的存储类型如下: 表1 不同类型的扩容方法 类型 名称 用途 扩容方法 节点磁盘 系统盘 系统盘用于安装操作系统。 系统盘扩容 数据盘 节点上的第一块数据盘供容器引擎和Kubelet组件使用。 容器引擎空间扩容 Kubelet空间扩容 容器引擎和Kubelet
重置节点 功能介绍 该API用于在指定集群下重置节点。 集群管理的URL格式为:https://Endpoint/uri。其中uri为资源路径,也即API访问的路径。 调用方法 请参见如何调用API。 URI POST /api/v3/projects/{project_id}/clusters