检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
CCE支持对Master节点的kube-apiserver、kube-controller、kube-scheduler、etcd-server组件进行监控,您需要在集群中安装云原生监控插件。通过grafana插件,您可以使用Kubernetes监控概述仪表盘来可视化和监控 Kubernetes API服务器请求以及延迟和etcd延迟指标。
其中,nginx-deployment.yaml和nginx-nat-svc.yaml为自定义名称,您可以随意命名。 vi nginx-deployment.yaml apiVersion: apps/v1 kind: Deployment metadata: name: nginx spec: replicas:
的一项核心任务就是以最终资源利用率最优的目标从众多候选机器中挑出最合适的节点。 下图为Volcano scheduler调度流程,首先将API server中的Pod、PodGroup信息加载到scheduler cache中。Scheduler周期被称为session,每个sc
Service有一个配置参数(externalTrafficPolicy),用于设置Service是否希望将外部流量路由到节点本地或集群范围的端点,示例如下: apiVersion: v1 kind: Service metadata: name: nginx-nodeport spec: ex
njob.yaml文件中。 在v1.21及以上集群中,CronJob的apiVersion为batch/v1。 在v1.21以下集群中,CronJob的apiVersion为batch/v1beta1。 apiVersion: batch/v1 kind: CronJob metadata:
容量) 吞吐量 = min (150, 100 + 0.15 × 容量) 单队列访问时延(ms) 亚毫秒级 1 亚毫秒级 1 1 1~ 3 API名称 ESSD2 GPSSD2 ESSD GPSSD SSD SAS 关于云硬盘性能的详细介绍,请以磁盘类型及性能介绍为准。 使用场景 根
IPVS模式下,kube-proxy使用IPVS负载均衡代替了iptables。这种模式同样有效,IPVS的设计就是用来为大量服务进行负载均衡的,它有一套优化过的API,使用优化的查找算法,而不是简单的从列表中查找规则。详情请参见IPVS代理模式。 父主题: 购买集群
cceed状态的Pod变为Failed的问题。 修复部分安全问题。 v1.25.5-r20 v1.25.5 - 优化接口调用逻辑,避免业务大规模调用场景下出现接口流控。 启用chrony配置清理修正,避免数据堆积。 修复部分安全问题。 v1.25.5-r10 v1.25.5 - 优化节点删除时的事件信息。
storageclass.yaml 向storageclass.yaml中填入以下内容,该内容仅是StorageClass配置的模板,您可以根据需求自行修改。 apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: test-
be56202a-c2cb-40d5-900e-d7a007a4b054 443 <none> 获取首路由中证书配置信息。 apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: ingress-first
od的配置文档,它申请50M的内存, 内存限制设置为100M。 memory-request-limit-2.yaml,此处仅为示例: apiVersion: v1 kind: Pod metadata: name: memory-demo-2 spec: containers:
全场景支持,适合在线业务、深度学习、大规模成本算力交付等。 节点自动伸缩 CCE突发弹性引擎(对接CCI) 将Kubernetes API扩展到无服务器的容器平台(如CCI),无需关心节点资源。 适合在线突增流量、CI/CD、大数据作业等场景。 CCE容器实例弹性伸缩到CCI服务
使用构建的hpa-example镜像创建无状态工作负载,副本数为1,镜像地址与上传到SWR仓库的组织有关,需要替换为实际取值。 kind: Deployment apiVersion: apps/v1 metadata: name: hpa-example spec: replicas: 1 selector:
通过kubectl命令行使用已有专属存储 使用kubectl连接集群。 创建PV。当您的集群中已存在创建完成的PV时,可跳过本步骤。 创建pv-dss.yaml文件。 apiVersion: v1 kind: PersistentVolume metadata: annotations: pv.kubernetes
cceed状态的Pod变为Failed的问题。 修复部分安全问题。 v1.25.5-r20 v1.25.5 - 优化接口调用逻辑,避免业务大规模调用场景下出现接口流控。 启用chrony配置清理修正,避免数据堆积。 修复部分安全问题。 v1.25.5-r10 v1.25.5 - 优化节点删除时的事件信息。
od和集群中节点的IP失败。 当前CiliumNetworkPolicy及CiliumClusterwideNetworkPolicy API不支持Node Selector、DNS策略和L7网络策略。 资源消耗 每个节点上有常驻进程cilium-agent负责处理eBPF网络加
yaml文件。 vi nginx-hostpath.yaml YAML文件内容如下,将节点上的/data目录挂载至容器中的/data目录下。 apiVersion: apps/v1 kind: Deployment metadata: name: nginx-hostpath namespace:
使用kubectl连接集群。 创建一个使用nvidia.com/gpu资源的工作负载。 创建gpu-app.yaml文件,示例如下: apiVersion: apps/v1 kind: Deployment metadata: name: gpu-app namespace:
健康检查协议为UDP。 操作步骤 使用"kubernetes.io/elb.health-check-options"注解的示例如下: apiVersion: v1 kind: Service metadata: name: nginx namespace: default
yaml”的YAML文件,此处文件名可自定义。 vi ingress-test.yaml 以关联已有ELB为例,YAML文件配置如下: apiVersion: networking.k8s.io/v1 kind: Ingress metadata: name: ingress-test