检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
29 v1.30 适配CCE v1.30版本 2.4.44 v1.23 v1.25 v1.27 v1.28 v1.29 支持在SFS3.0文件系统中创建子目录 支持获取存储卷的使用情况 2.4.28 v1.23 v1.25 v1.27 v1.28 v1.29 修复部分问题 2.4.21
通过kubectl命令行配置 请参见通过kubectl连接集群,使用kubectl连接集群。 创建名为“ingress-test.yaml”的YAML文件,此处文件名可自定义。 vi ingress-test.yaml 以使用已有ELB创建Ingress的场景为例,YAML配置如下: apiVersion:
云原生监控插件 节点故障检测插件 problem_gauge{type="MountPointProblem"} >= 1 节点文件句柄数不足 检查系统关键资源FD文件句柄数是否充足 指标类 云原生监控插件 节点故障检测插件 problem_gauge{type="FDProblem"}
CCE集群弹性引擎 插件简介 CCE集群弹性引擎插件基于社区Autoscaler组件,能够根据应用的资源需求自动调整集群节点数量,优化资源利用率和性能。作为Kubernetes中的核心控制器,Autoscaler具备根据资源需求情况自动扩展或缩减节点的能力。当集群中的Pod因为资
nC),暂不支持安全容器(容器运行时为Kata)。 Pod带宽限制不支持HostNetwork类型Pod。 操作步骤 编辑工作负载yaml文件。 vi deployment.yaml 根据需要在spec.template.metadata.annotations中设置工作负载实例
使用kubectl命令行工具连接集群,详情请参见通过kubectl连接集群。 在集群中创建一个Deployment。 创建deployment.yaml文件,文件内容示例如下: kind: Deployment apiVersion: apps/v1 metadata: name: example
许对集群以及所有命名空间中的全部资源进行完全控制。 使用IAM用户user-example登录CCE控制台,在集群中下载kubectl配置文件并连接集群,执行命令获取Pod信息,可以看到没有相关权限,同样也无查看其它资源的权限。这说明user-example这个IAM用户没有操作Kubernetes资源的权限。
GPU进程 GPU虚拟化算力使用量。 gpu_schedule_policy Gauge - GPU卡 GPU虚拟化分三种模式: 0:显存隔离算力共享模式 1:显存算力隔离模式 2:默认模式,表示当前卡还没被用于GPU虚拟化设备分配。 xgpu_device_health Gauge -
计费样例 计费场景 某用户购买了一个按需计费的集群用于业务上云测试,集群中使用资源及配置如下: 表1 初始集群资源及配置 资源类型 计费开始时间 初始计费模式 初始规格配置 数量 集群 2023/03/18 15:30:00 按需计费 区域:上海一 集群规模:50节点 高可用:是
nager、kube-scheduler)、kubernetes审计日志、Kubernetes事件和容器日志(容器的标准输出、容器内的文本文件、节点日志)。 告警中心 告警中心集成应用运维管理服务AOM2.0的告警功能,提供容器告警一键开启能力,覆盖集群和容器常见故障场景。 父主题:
sh 'kubectl apply -f k8s.yaml' //该YAML文件位于代码仓中,此处仅做示例,请您自行替换 } println
兼容Kubernetes默认GPU调度模式示例 使用kubectl连接集群。 创建一个使用nvidia.com/gpu资源的工作负载。 创建gpu-app.yaml文件,示例如下: apiVersion: apps/v1 kind: Deployment metadata: name: gpu-app
od根据用户的设置把任务成功完成就自动退出(Pod自动删除)。 CronJob:是基于时间的Job,就类似于Linux系统的crontab文件中的一行,在指定的时间周期运行指定的Job。 任务负载的这种用完即停止的特性特别适合一次性任务,比如持续集成。 创建Job 以下是一个Jo
部署一个示例工作负载。如果已有工作负载可忽略本步骤。 kubectl create -f hamster.yaml hamster.yaml文件内容如下: apiVersion: apps/v1 kind: Deployment metadata: name: hamster spec:
创建CronHPA定时策略 在一些复杂的业务场景下,可能有固定时间段高峰业务,又有日常突发高峰业务。此种情况下,用户既期望能定时弹性伸缩应对固定时间段高峰业务,又期望能根据指标弹性伸缩应对日常突发高峰业务。CCE提供CronHPA的自定义资源,实现在固定时间段对集群进行扩缩容,并
方式1:在创建无状态工作负载向导页面,单击右侧“YAML创建”,再将本文示例的YAML文件内容输入编辑窗中。 方式2:将本文的示例YAML保存为文件,再使用kubectl指定YAML文件进行创建。例如:kubectl create -f xxx.yaml。 步骤1:部署两个版本的服务
neigh.default.gc_thresh1和net.ipv4.neigh.default.gc_thresh2参数禁止修改。 重新加载配置文件。 sysctl -p /etc/sysctl.d/88-k8s.conf 再次查看配置是否最终生效。 sysctl -a | grep gc_thresh3
eus enable_simple_lib64_mount 否 Bool 默认值:true true:向容器里只挂载libxxx.so.x文件 enable_xgpu 否 Bool 默认值:false XGPU虚拟化模式的开关 gpu_driver_config 否 Map 针对单个节点池的GPU驱动的相关配置
插件对接第三方监控平台。 日志配置 采集配置 CCE可以帮助您快速采集 Kubernetes 集群的容器日志,包括容器标准输出、容器内日志文件、节点日志以及Kubernetes事件,并可快速进行日志查询与分析。 日志上报LTS会创建名为k8s-logs-{clusterId}的默
采集规则。 若未查询到Metrics API,要将其开启,可手动创建对应APIService对象。 创建一个文件,命名为metrics-apiservice.yaml。文件内容如下: apiVersion: apiregistration.k8s.io/v1 kind: APIService