检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
登录CCE控制台,单击集群名称进入集群。 在左侧导航栏中选择“节点管理”,并切换至“节点池”页签。 单击待迁移的节点池名称后的“节点列表”。 在需要迁移的节点的“操作”栏中,单击“更多 > 迁移”,迁移单个节点。 图1 迁移节点到默认节点池 在弹出的“迁移节点”窗口中进行确认。 迁移完成后,节点上用户自定义的资源标签、K8s标签、污点不受影响。
访问Service的协议,支持TCP和UDP targetPort: 80 # Service访问目标容器的端口,此端口与容器中运行的应用强相关,如本例中nginx镜像默认使用80端口 selector: # 标签选择器,Service通过
spec 存储类 存储类决定了PVC的类型 参数名 取值范围 默认值 是否允许修改 作用范围 storageClassName 集群中存在的存储类 无 支持初始化时配置,不支持后续修改 - 存储类决定了PVC的类型,如块存储、对象存储、文件存储等。一旦指定后不允许修改 配置建议:
器,像使用本地文件目录一样。 数据共享:多台服务器可挂载相同的文件系统,数据可以共享操作和访问。 私有网络:数据访问必须在数据中心内部网络中。 安全隔离:直接使用云上现有IAAS服务构建独享的云文件存储,为租户提供数据隔离保护和IOPS性能保障。 应用场景:适用于多读多写(Rea
nvidia0 | awk '{print $1, $2}' 该命令查找了192.168.0.106节点上所有的Pod,并且查找了annotation中存在nvidia0(代表第0张卡)信息的Pod。最终输出了Pod所在的命名空间和Pod名称。查询结果如下: 代表default命名空间下名为
捷。 监控中心架构 图1 监控中心架构 云原生监控插件将在CCE集群中采集exporter暴露的指标,通过Prometheus RemoteWrite的方式,将数据写入至AOM实例。 监控中心将基于AOM实例中存储的指标,提供多维度数据洞察、仪表盘的功能。 云原生监控插件也提供了
TFJob可在GPU场景下进行,该场景需要集群中包含GPU节点,并安装合适的驱动。 在TFJob中指定GPU资源。 创建tf-gpu.yaml文件,示例如下: 该示例的主要功能是基于Tensorflow的分布式架构,利用卷积神经网络(CNN)中的ResNet50模型对随机生成的图像进行
器,像使用本地文件目录一样。 数据共享:多台服务器可挂载相同的文件系统,数据可以共享操作和访问。 私有网络:数据访问必须在数据中心内部网络中。 容量与性能:单文件系统容量较高(PB级),性能极佳(IO读写时延ms级)。 应用场景:适用于多读多写(ReadWriteMany)场景下
位的准确性,还显著减少了运维人员的工作负担,从而提升了整体运维效率。 前提条件 已获取资源权限。 集群版本高于v1.17。 集群处于“运行中”状态。 选择Pod进行诊断 登录CCE控制台,单击集群名称进入集群详情页。 在左侧导航栏中选择“健康中心”, 单击“Pod”页签 。 在“
它,但是会出现其他类型的运行错误。 场景一 节点的内存超过了节点内存预留的上限,导致触发OOMkill。 解决方法: 可扩容节点或迁移节点中的pod至其他节点。 场景二 pod的内存的limit设置较小,实际使用率超过limit,导致容器触发了OOMkill。 解决方法: 扩大工作负载内存的limit设置。
被打上这两个污点之一时,可以在5分钟内依旧保持运行在该节点上。 DaemonSet中的Pod被创建时,针对以上污点自动添加的容忍度将不会指定容忍时间窗,即表示节点存在上述污点时,DaemonSet中的Pod一直不会被驱逐。 tolerations: - key: node.kubernetes
相关最佳实践 集群网络配置相关实践 集群网络地址段规划实践 集群网络模型选择及各模型区别 CCE Turbo配置容器网卡动态预热 在VPC网络集群中访问集群外地址时使用Pod IP作为客户端源IP 网络环境打通相关实践 使用VPC和云专线实现容器与IDC之间的网络通信 集群通过企业路由器连接对端VPC
API,来实现Docker容器逃逸。 表1 漏洞信息 漏洞类型 CVE-ID 漏洞级别 披露/发现时间 Docker容器逃逸 CVE-2020-15257 中 2020-11-30 漏洞影响 CCE集群版本:v1.9-v1.17.9。 如果没有使用主机网络并且容器内进程不以root用户(UID为0)运行,则不涉及该漏洞。
保证业务平稳健康运行,节省成本。 优势 自由灵活 支持多种策略配置,业务流量达到扩容指标,秒级触发容器扩容操作。 高可用 自动检测伸缩组中实例运行状况,启用新实例替换不健康实例,保证业务健康可用。 低成本 只按照实际用量收取云服务器费用。 建议搭配使用 插件部署:autosca
usterRoleBinding将角色绑定到特定的用户、用户组或ServiceAccount上。如下图所示。 图1 角色绑定 上图中的用户在CCE中可以是IAM用户或用户组,通过这样的绑定设置,就可以非常方便地实现命名空间内容资源的权限控制。 下面将通过给一个IAM用户user-
参数解释: 项目ID,获取方式请参见如何获取接口URI中参数。 约束限制: 不涉及 取值范围: 账号的项目ID 默认取值: 不涉及 cluster_id 是 String 参数解释: 集群ID,获取方式请参见如何获取接口URI中参数。 约束限制: 不涉及 取值范围: 集群ID 默认取值:
25集群:v1.25.9-r0及以上 v1.27集群:v1.27.6-r0及以上 v1.28集群:v1.28.4-r0及以上 其他更高版本的集群 集群中需提前部署可用的工作负载用于对外提供访问。若您无可用工作负载,可参考创建无状态负载(Deployment)、创建有状态负载(Stateful
servers配置 stub_domains 否 Map<String>[]string 存根域配置 multiAZEnable 否 bool 插件中deployment组件多可用部署是否采用强制模式,默认:false。强制模式下插件Deployment实例强制调度到不同可用区的节点上,如
极速文件存储的共享路径。 volumeID 极速文件存储的ID。 获取方法:在CCE控制台,单击左侧栏目树中的“资源管理-存储管理”,在“极速文件存储卷”页签下单击PVC的名称,在PVC详情页中复制“PVC UID”后的内容即可。 storage 文件存储的大小。 storageClassName
一直处于创建中 图2 安装失败 错误显示资源不足。 添加节点资源为4U8G后,nginx-ingress安装正常。 问题原因 最初建立的集群中各节点的基本配置为2U4G,且各节点上有kubelet,kube-proxy及docker等相关程序占用系统资源,导致节点可用资源低于200