检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
d实例数的功能,优化资源利用率。 前提条件 集群中已安装NGINX Ingress控制器插件。 集群中已安装云原生监控插件(部署模式需要选择“本地数据存储”)。 已使用kubectl命令行工具或CloudShell连接集群。 已安装压力测试工具Apache Benchmark。 创建业务负载和对应的Service
其他属性:分区包含资源类别,即中心云、智能边缘小站。该属性的配置方便后续负载的调度。 约束与限制 节点:分布式集群当前仅支持普通x86虚拟机。暂不支持节点迁移功能。 节点池:节点池随机调度功能仅限于分区内。 存储:当前仅支持在边缘区域创建云硬盘(EVS),其他种类存储方式不推荐使用。
如下: 若您自建的Prometheus同样部署在K8s集群中,可进入Prometheus容器中查看。若您自建的Prometheus部署在虚拟机上,则可跳过本步骤。 kubectl exec -ti -n monitoring prometheus-server-0 -- sh 命令中变量可根据实际情况进行替换:
"*****", "driver_init_image_version" : "2.1.30", "ecsEndpoint" : "*****", "everest_image_version" : "2.1.30",
haveLabel:节点上是否存在插件中配置的label,如果有,值为1,如果节点上没有,值为0。 前提条件 已创建v1.19.16及以上版本的集群,具体操作请参见购买Standard/Turbo集群。 集群中已安装1.11.5及以上版本的Volcano插件,具体操作请参见Volcano调度器。 配置Volcano节点池软亲和调度策略
e Pods配置CPU优先使用核,适用于波峰、波谷相差大且大部分时间处于波谷状态的工作负载。 默认:none CCE Turbo集群的弹性云服务器-物理机节点池不支持使用CPU管理策略。 请求至kube-apiserver的QPS配置 kube-api-qps 与APIServer通信的每秒查询个数。
nt的组件,用于采集指标、日志和应用性能数据。对于在ECS、BMS控制台直接购买的主机,您需手动安装ICAgent。对于集群节点,ICAgent会自动安装,您不用手动安装ICAgent。详情请参见安装ICAgent(华为云主机)。 父主题: 监控中心
im所在的命名空间。 使用namespace有如下约束: 用户自定义的namespace,使用前必须先在集群中创建namespace 系统自带的namespace:default 不能使用kube-system与kube-public 请求参数 表2 请求Header参数 参数 是否必选
存储容量,单位Gi,必须和已有pv的storage大小保持一致。 volumeName PV的名称。 极速文件存储所在VPC,子网必须与工作负载规划部署的ECS虚拟机的VPC保持一致,安全组开放入方向端口(111、445、2049、2051、20048)。 创建PV。 kubectl create -f
pvc-sfsturbo #已创建的PVC名称 执行以下命令,创建一个挂载极速文件存储的应用。 kubectl apply -f web-demo.yaml 工作负载创建成功后,您可以尝试验证数据持久化及共享性。 验证数据持久化及共享性 查看部署的应用及文件。 执行以下命令,查看已创建的Pod。
后,能够获取宿主机上所有GPU设备的访问权限。 关于漏洞的详细信息,请参见CVE-2021-1056。 如果您的CCE集群中存在GPU(ECS)节点,并使用了CCE推荐的NVIDIA GPU驱动版本(Tesla 396.37),按照目前NVIDIA官方公告判断暂不受影响;如果您自行安装或更新过节点上的NVIDIA
kubectl create -f ingress-test.yaml 回显如下,表示Ingress服务已创建。 ingress/ingress-test created 查看已创建的Ingress。 kubectl get ingress 回显如下,表示Ingress服务创建成功。
卷容量大小 创建工作负载。 kubectl apply -f nginx-emptydir.yaml 本地临时卷异常处理说明 用户如果手动从ECS侧卸盘、手动执行vgremove两种误操作致临时卷存储池异常。可以先将节点设置为不可调度,具体方法请参见一键设置节点调度策略,然后通过重置节点进行恢复。
支持按Cookie发布的方式发布灰度Ingress Ingress的灰度发布功能依赖ELB能力,使用该功能前请提交工单申请开通ELB灰度发布能力。 前提条件 已创建一个CCE Standard或CCE Turbo集群,且集群版本满足以下要求: v1.23集群:v1.23.14-r0 及以上版本 v1
create -f log-config.yaml 回显如下,表示LogConfig已创建。 logconfig.logging.openvessel.io/test-log-xx created 查看已创建的LogConfig。 kubectl get LogConfig -n kube-system
nodelocalvolume - name: nodeemptydirvolume - name: nodeCSIscheduling - name: networkresource ... 单击“保存”。 父主题: GPU虚拟化
监控Kubernetes社区原生的GPU资源(nvidia.com/gpu),不支持监控CCE提供的GPU虚拟化资源。 前提条件 目标集群已创建,且集群中包含GPU节点,并已运行GPU相关业务。 在集群中安装CCE AI 套件 (NVIDIA GPU)和云原生监控插件。 CCE AI
17 v1.19 v1.21 v1.23 新增beta检查项ScheduledEvent,支持通过metadata接口检测宿主机异常导致虚拟机进行冷热迁移事件。该检查项默认不开启。 0.8.10 1.16.3 v1.17 v1.19 v1.21 v1.23 新增ResolvConf配置文件检查。
基于priority策略的资源碎片重调度场景化配套策略,即在同优先级场景下,优先选择扩容后可使节点可分配资源的CPU/内存比,更接近于所有已调度Pods的申请的CPU/内存比。 此策略基于集群中全局Pods/Nodes全局资源而非仅扩容节点部分,主要配套重调度等相关能力降低集群整
3-r0之前的集群版本,需要指定查询参数resourceVersion=0;v1.23.8-r0、v1.25.3-r0及之后的版本,CCE已进行优化,会默认查询缓存并确保缓存数据最新。 精确指定查询范围,避免非目标数据额外消耗资源,例如: # client-go查询指定命名空间的Pod代码示例