检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
EulerOS和CentOS类型的节点存在由NTP引起的已知问题,其他类型的节点不涉及该问题。 上述问题在v1.19.16-r7、v1.21.9-r10、v1.23.7-r10版本的集群中被修复。 解决方法 若您的集群版本为v1.19.16-r7、v1.21.9-r10、v1.23.7-r10及以上,该版本的节点已经
异构节点的混合部署,基于高性能网络模型提供全方位、多场景、安全稳定的容器运行环境。 Turbo: CCE Turbo集群。 全面基于云原生基础设施构建的云原生2.0的容器引擎服务,具备软硬协同、网络无损、安全可靠、调度智能的优势,为用户提供一站式、高性价比的全新容器服务体验。 默认取值:
修改类请求的最大并发数。 当服务器收到的请求数超过此值时,它会拒绝请求。 0表示无限制。该参数与集群规模相关,不建议修改。 从v1.21版本开始不再支持手动配置,根据集群规格自动配置如下: 50和200节点:200 1000节点:500 2000节点:1000 非修改类API请求最大并发数
使用kubectl对接已有极速文件存储卷 操作场景 CCE支持使用已有的极速文件存储来创建PersistentVolume,创建成功后,通过创建相应的PersistentVolumeClaim来绑定当前的PersistentVolume使用。 约束与限制 如下配置示例适用于Kubernetes
错误码 调用接口出错后,将不会返回结果数据。调用方可根据每个接口对应的错误码来定位错误原因。 当调用出错时,HTTP 请求返回一个 4xx 或 5xx 的 HTTP 状态码。返回的消息体中是具体的错误代码及错误信息。在调用方找不到错误原因时,可以联系客服,并提供错误码,以便尽快帮您解决问题。
7 v1.17 添加日志内容,Bug修复 1.17.0 1.17.5 v1.17 支持v1.17版本的集群,支持页面显示伸缩事件 1.17.0 1.17.2 v1.17 支持v1.17版本的集群 1.17.0 父主题: 容器调度与弹性插件
为负载均衡类型的Service配置跨集群的后端 LoadBalancer Service支持为ELB监听器配置跨集群的后端,适用多个场景: 配置不同集群内的容器实例作为同一个ELB监听器后端:在不同集群上创建Service绑定同一个ELB实例,同时指定同一个对外端口,各自Serv
异构节点的混合部署,基于高性能网络模型提供全方位、多场景、安全稳定的容器运行环境。 Turbo: CCE Turbo集群。 全面基于云原生基础设施构建的云原生2.0的容器引擎服务,具备软硬协同、网络无损、安全可靠、调度智能的优势,为用户提供一站式、高性价比的全新容器服务体验。 默认取值:
ice开关 1.2.1 2.1.1 v1.19 v1.21 v1.23 更新至社区v1.2.1版本 1.2.1 2.1.0 v1.19 v1.21 v1.23 更新至社区v1.2.0版本 修复CVE-2021-25746漏洞,新增规则禁用一些存在越权风险的Anntotations值
华为云CCE集群未启用docker的AuthZ插件,不会触发CVE-2024-41110漏洞。请勿自行启用--authorization-plugin参数,同时,CCE将在优化版Docker上全面修复该漏洞。 相关链接 Docker AuthZ插件:https://www.docker.com/blog/docker
检查是否有程序正在使用GPU卡设备。 运行命令: sudo fuser -v /dev/nvidia* 如无fuser命令(以基于RPM的Linux发行版为例),可执行命令yum install psmisc安装psmisc包。 # sudo fuser -v /dev/nvidia*
APIService接口部署和控制聚合API Server。 该漏洞已在v1.23.5-r0、v1.21.7-r0、v1.19.16-r4版本的CCE集群中修复。 相关链接 https://github.com/kubernetes/kubernetes/issues/112513
节点的数据盘参数。针对专属云节点,参数解释与rootVolume一致。 约束限制: 磁盘挂载上限为虚拟机不超过16块,裸金属不超过10块。在此基础上还受限于虚拟机/裸金属规格可挂载磁盘数上限。(目前支持通过控制台和API为CCE节点添加多块数据盘)。 如果数据盘正供容器运行时和Kub
节点的数据盘参数。针对专属云节点,参数解释与rootVolume一致。 约束限制: 磁盘挂载上限为虚拟机不超过16块,裸金属不超过10块。在此基础上还受限于虚拟机/裸金属规格可挂载磁盘数上限。(目前支持通过控制台和API为CCE节点添加多块数据盘)。 如果数据盘正供容器运行时和Kub
练、发布和管理平台。它利用了云原生技术的优势,让用户更快速、方便地部署、使用和管理当前最流行的机器学习软件。 目前Kubeflow 1.0版本已经发布,包含开发、构建、训练、部署四个环节,可全面支持企业用户的机器学习、深度学习完整使用过程。 如下图所示: 通过Kubeflow 1
节点的数据盘参数。针对专属云节点,参数解释与rootVolume一致。 约束限制: 磁盘挂载上限为虚拟机不超过16块,裸金属不超过10块。在此基础上还受限于虚拟机/裸金属规格可挂载磁盘数上限。(目前支持通过控制台和API为CCE节点添加多块数据盘)。 如果数据盘正供容器运行时和Kub
前的进程权限,仅仅是继承之前的 capabilities。 该漏洞的影响范围如下: 1. CCE Turbo集群,使用了低于1.4.1-98版本的containerd作为kuberentes CRI运行时。 2. CCE集群containerd版本低于1.5.11以下的集群。 判断方法
该插件为系统资源插件,Kubernetes 1.13及以下版本的集群在创建时默认安装。 约束与限制 在CCE所创的集群中,Kubernetes v1.15.11版本是Flexvolume插件被CSI插件(everest)兼容接管的过渡版本,v1.17及之后版本的集群中将彻底去除对Flexvolume插
1和v2,欢迎页分别显示为“nginx:v1!”和“nginx:v2!”。 创建一个Dockerfile文件,其中v1版本的Dockerfile内容如下,v2版本将nginx:v1!替换为nginx:v2!即可。 FROM nginx:latest RUN echo '<h1>nginx:v1
CPU管理策略 使用场景 默认情况下,kubelet使用CFS 配额来执行Pod的CPU约束。 当节点上运行了很多CPU密集的Pod时,工作负载可能会迁移到不同的CPU核, 这取决于调度时Pod是否被扼制,以及哪些CPU核是可用的。许多应用对这种迁移不敏感,因此无需任何干预即可正