检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
为Nginx Ingress配置应用流量镜像 Nginx Ingress支持在不同集群内进行流量镜像(Traffic Mirror),将访问请求复制一份路由到镜像后端,但会忽略镜像后端的返回值,因此不会对原有请求造成影响,可用于系统的仿真测试和问题定位。本文介绍如何使用Nginx
为Nginx Ingress配置URL重写规则 在一些使用场景中后端服务提供访问的URL与Ingress规则中指定的路径不同,而Ingress会将访问路径直接转发到后端相同路径,如果不进行URL重写配置,所有访问都将返回404。例如,Ingress规则中的访问路径设置为/app/
nodelocalvolume - name: nodeemptydirvolume - name: nodeCSIscheduling - name: networkresource ... 单击“保存”。 父主题: GPU虚拟化
Kubernetes 1.25版本说明 云容器引擎(CCE)严格遵循社区一致性认证。本文介绍Kubernetes 1.25版本相对于1.23版本所做的变更说明。 索引 主要特性 弃用和移除 CCE对Kubernetes 1.25版本的增强 参考链接 主要特性 Kubernetes
性和安全性。 表1 IAM授权与RBAC授权 授权 说明 IAM授权 对用户组进行IAM授权侧重于对云平台资源的访问管理,通过策略控制每个用户组对具体资源的权限。 IAM更关注云资源的细粒度控制。 RBAC授权 对用户组进行RBAC授权是基于角色的,将权限与角色关联,再将角色分配给用户组,通常用于应用内部的访问控制。
创建一个有1个节点的集群,节点规格为2U4G及以上,并在创建节点时为节点添加弹性公网IP,以便从外部访问。如创建节点时未绑定弹性公网IP,您也可以前往ECS控制台为该节点进行手动绑定。 给集群安装插件。 autoscaler:节点伸缩插件。 metrics-server:是Kubernetes
创建一个有1个节点的集群,节点规格为2U4G及以上,并在创建节点时为节点添加弹性公网IP,以便从外部访问。如创建节点时未绑定弹性公网IP,您也可以前往ECS控制台为该节点进行手动绑定。 给集群安装插件。 autoscaler:节点伸缩插件。 metrics-server:是Kubernetes
GPU虚拟化概述 CCE GPU虚拟化采用自研xGPU虚拟化技术,能够动态对GPU设备显存与算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户自己定义使用的GPU量,提高GPU利用率。
亲和与反亲和调度 在守护进程集(DaemonSet)中讲到使用nodeSelector选择Pod要部署的节点,其实Kubernetes还支持更精细、更灵活的调度机制,那就是亲和(affinity)与反亲和(anti-affinity)调度。 Kubernetes支持节点和Pod两
17 v1.19 v1.21 v1.23 新增beta检查项ScheduledEvent,支持通过metadata接口检测宿主机异常导致虚拟机进行冷热迁移事件。该检查项默认不开启。 0.8.10 1.16.3 v1.17 v1.19 v1.21 v1.23 新增ResolvConf配置文件检查。
"nodeemptydirvolume" }, { "name": "nodeCSIscheduling" }, { "name": "networkresource"
(SFS Turbo) region 是 String 云存储所在的region。 volumeID 是 String 云存储的UUID,如果是OBS-bucket则填入名称 storageType 是 String 指定云存储的类型。 bs (EVS) nfs (SFS) obs
使用dcgm-exporter监控GPU指标 应用场景 集群中包含GPU节点时,需要了解GPU应用使用节点GPU资源的情况,例如GPU利用率、显存使用量、GPU运行的温度、GPU的功率等。在获取GPU监控指标后,用户可根据应用的GPU指标配置弹性伸缩策略,或者根据GPU指标设置告
通过动态存储卷使用云硬盘 CCE支持指定存储类(StorageClass),自动创建云硬盘类型的底层存储和对应的存储卷,适用于无可用的底层存储,需要新创建的场景。 前提条件 您已经创建好一个集群,并且在该集群中安装CCE容器存储(Everest)。 如果您需要通过命令行创建,需要
以免进行SNAT,从而保留Pod的原始IP地址。 从VPC内其他资源访问Pod 在一些场景下,可能需要从同一个VPC内的其他资源(例如ECS实例)直接访问位于不同节点的Pod的原始IP地址。由于默认情况下启用了SNAT,数据包的源IP地址在经过节点时会被替换为节点的IP地址,这会阻碍从这些资源到Pod的直接访问。
PV、PVC和StorageClass 上一章节介绍的HostPath是一种持久化存储,但是HostPath的内容是存储在节点上,导致只适合读取。 如果要求Pod重新调度后仍然能使用之前读写过的数据,就只能使用网络存储了,网络存储种类非常多且有不同的使用方法,通常一个云服务提供商
orage大小保持一致。 volumeName PV的名称。 图1 弹性文件存储-共享路径 文件存储所在VPC必须与工作负载规划部署的ECS虚拟机的VPC保持一致。 创建PV。 kubectl create -f pv-sfs-example.yaml 创建PVC。 kubectl
通过Kubectl命令行创建ELB Ingress 本文以Nginx工作负载为例,说明通过kubectl命令添加ELB Ingress的方法。 如您在同一VPC下没有可用的ELB,CCE支持在添加Ingress时自动创建ELB,请参考添加Ingress时自动创建ELB。 如您已在
0为例进行演示。 如需选择其他合适的版本,请访问https://github.com/helm/helm/releases。 在连接集群的虚拟机上下载Helm客户端。 wget https://get.helm.sh/helm-v2.17.0-linux-amd64.tar.gz 解压Helm包。
0为例进行演示。 如需选择其他合适的版本,请访问https://github.com/helm/helm/releases。 在连接集群的虚拟机上下载Helm客户端。 wget https://get.helm.sh/helm-v3.3.0-linux-amd64.tar.gz 解压Helm包。