检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
apiVersion String API版本 metadata metadata object 分区的元数据信息 spec spec object 分区的配置信息 表3 metadata 参数 参数类型 描述 name String 分区名称 creationTimestamp String 创建时间
无状态负载(Deployment) 无状态负载(Deployment) Pod是Kubernetes创建或部署的最小单位,但是Pod是被设计为相对短暂的一次性实体,Pod可以被驱逐(当节点资源不足时)、随着集群的节点崩溃而消失。Kubernetes提供了Controller(控制
找到目标节点,单击节点后的“更多 > 移除”。 图1 移除节点 您还可以选中多个节点一起移除,如下图所示。 图2 一次移除多个节点 在弹出的“移除节点”对话框中,配置重装操作系统需要的登录信息,单击“是”,等待完成节点移除。 移除节点后,原有节点上的工作负载实例会自动迁移至其他可用节点。 重装操作系统失败如何处理
metadata SnapshotTaskMetadata object 备份任务元数据信息 spec SnapshotSpec object 备份任务配置信息(待废弃) status SnapshotStatus object 备份任务状态 表4 SnapshotTaskMetadata 参数
日志采集:CCE提供基于fluent-bit和opentelemetry的云原生日志采集插件,具备高性能,资源占用低的优点;同时支持基于CRD的日志采集策略配置,更加灵活易用。详情请参见云原生日志采集插件。 监控与日志 AOM:应用运维管理(Application Operations Manag
求,敏感数据要求存储在本地IDC中,而一般业务由于高并发、快响应等方面的特点需要部署在云上,并需要进行统一管理。 开发与部署分离 出于IP安全的考虑,用户希望将生产环境部署在公有云上,而将开发环境部署在本地的IDC。 价值 云容器引擎利用容器环境无关的特性,将私有云和公有云容器服
emptyDir的一些用途: 缓存空间,例如基于磁盘的归并排序。 为耗时较长的计算任务提供检查点,以便任务能从崩溃前状态恢复执行。 emptyDir配置示例如下。 apiVersion: v1 kind: Pod metadata: name: nginx spec: containers:
分区和文件系统。 登录节点,执行命令growpart,检查当前系统是否已安装growpart扩容工具。 若回显为工具使用介绍,则表示已安装,无需重复安装。若未安装growpart扩容工具,可执行以下命令安装。 yum install cloud-utils-growpart 执行
pod占用subeni问题 修复binpack插件对资源不足节点打分问题 修复对结束状态未知的Pod的资源的处理 优化事件输出 默认高可用部署 1.7.2 v1.19.16 v1.21 v1.23 v1.25 Volcano支持v1.25集群 提升Volcano调度性能 1.7.1
该API用于将节点迁移到自定义节点池,仅default节点池下节点支持迁移。迁移过程节点无重置无重启,原节点密码将保留。 集群管理的URL格式为:https://Endpoint/uri。其中uri为资源路径,也即API访问的路径。 调用方法 请参见如何调用API。 URI PUT /api
网络策略(仅适用于容器隧道网络) 如果您在容器隧道网络类型的集群中配置了网络策略,并且Pod所在的命名空间也设置了网络策略,则该网络策略可能会限制Pod中访问的目标地址。 如果该网络策略限制Pod中的访问,则需要修改网络策略,具体可参考配置网络策略限制Pod访问的对象。 父主题: 从Pod访问集群外部网络
node是调用kubelet的metrics API来获取数据的,因此看到的是节点上已使用的资源总和除以可分配的所有资源。 社区issue链接:https://github.com/kubernetes/kubernetes/issues/86499。 场景示例 例如,某节点的参数可通过kubectl
参考链接 Netflix报告链接: https://github.com/Netflix/security-bulletins/blob/master/advisories/third-party/2019-002.md Go版本发布链接: https://golang.org/doc/devel/release
1变成了308,而部分老版本的IE浏览器不支持308重定向,因此出现无法访问的问题。 NGINX Ingress控制器社区issue:https://github.com/kubernetes/ingress-nginx/issues/1825 解决方法 您在创建Ingress时,可以通过“nginx
发布解决方案。 参考链接: https://www.suse.com/support/kb/doc/?id=7023928 https://access.redhat.com/security/vulnerabilities/tcpsack https://www.debian.
info查看当前thinpool空间使用及剩余量信息,从而定位该问题。如下图: 问题原理 docker devicemapper模式下,尽管可以通过配置basesize参数限制单个容器的主目录大小(默认为10GB),但节点上的所有容器还是共用节点的thinpool磁盘空间,并不是完全隔离,
6-r0、v1.28.4-r0集群版本开始,待纳管节点无需和集群在同一企业项目下,纳管后节点的企业项目保持不变。 批量纳管仅支持添加相同数据盘配置的云服务器。 集群开启IPv6后,只支持纳管所在的子网开启了IPv6功能的节点;集群未开启IPv6,只支持纳管所在的子网未开启IPv6功能的节点。
从控制台获取项目ID 调用API获取项目ID 项目ID可以通过调用查询指定条件下的项目列表API获取。 获取项目ID的接口为“GET https://{Endpoint}/v3/projects”,其中{Endpoint}为IAM的终端节点,可以从终端节点(Endpoint)获取。接口的认证鉴权请参见认证鉴权。
更多内容请参阅官方文档Annotations。 前提条件 使用Nginx Ingress实现灰度发布的集群,需安装nginx-ingress插件作为Ingress Controller,并且对外暴露统一的流量入口。详细操作可参考安装插件。 已上传Nginx镜像至容器镜像服务。为方便观测流量切分效果,Nginx镜
”。 如果选择安装grafana组件,也可能出现同样的问题。 图1 插件实例调度失败 问题原因 当出现以上报错内容,说明集群中已存在prometheus实例需要的存储卷,但该存储卷对应的云硬盘未满足与节点同一可用区的要求,导致调度失败。这可能是由于集群并非首次安装kube-prometheus-stack插件引起。