检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
以下是一个Job配置,其计算π到2000位并打印输出。Job结束需要运行50个Pod,这个示例中就是打印π 50次,并行运行5个Pod,Pod如果失败最多重试5次。 apiVersion: batch/v1 kind: Job metadata: name: pi-with-timeout spec:
Turbo 会话保持类型。 取值范围:HTTP_COOKIE、APP_COOKIE。 使用说明: 当pool的protocol为HTTP、HTTPS时。如果是独享型负载均衡器的pool, 则type只能为HTTP_COOKIE,其他取值会话保持失效。 如果是共享型负载均衡器的pool,
义属性、命名空间、集群名称)进行筛选,您可以根据需要选择。 本示例中根据“事件名称”进行筛选,选择“节点状态异常”事件,触发方式选择“立即触发”。 告警方式:选择“直接告警”。 行动规则:选择创建行动规则步骤中创建的行动规则。 其余参数可按需求配置。 本示例中的设置的告警为: 当
集任务。 关于ServiceMonitor的创建方式请参见配置Service Monitor监控自定义指标。 PodMonitor:定义针对Pod的自定义指标采集策略,详情请参见管理监控采集任务。 关于PodMonitor的创建方式请参见配置Pod Monitor监控自定义指标。
10-r0、v1.23.8-r0、v1.25.3-r0及之后版本的集群中,CCE使用的数据盘支持采用容器引擎和Kubelet共享磁盘空间的方式,即不再划分容器引擎 (Docker/Containerd) 和Kubelet组件的空间。 Pod容器空间分配:即容器的basesize设置,每个工作负载下的容器组
CentOS:更新到sudo 1.9.5p2及以上版本。 sudo版本下载请参见https://www.sudo.ws/download.html。 EulerOS:sudo补丁包获取链接。 EulerOS 2.2:https://mirrors.huaweicloud.com/euler/2
内存使用率低于HPA阈值后并没有发生缩容。 问题根因 界面上显示的容器内存使用率与HPA弹性伸缩的内存使用率在计算方式上存在差异: 界面上显示的容器内存使用率计算方式为:container_memory_rss/内存Limit container_memory_rss(即Resident
本文介绍了CCE服务提供的SDK语言版本,列举了最新版本SDK的获取地址。 在线生成SDK代码 API Explorer能根据需要动态生成SDK代码功能,降低您使用SDK的难度,推荐使用。 您可以在API Explorer中具体API页面的“代码示例”页签查看对应编程语言类型的SDK代码,如图1所示。 图1
不设置:若您在下拉列表框中选择“不设置”,则AOM不会对日志文件进行转储。 说明: AOM的日志绕接能力是使用copytruncate方式实现的,如果选择了设置,请务必保证您写日志文件的方式是append(追加模式),否则可能出现文件空洞问题。 当前主流的日志组件例如Log4j、Logback等均已经
2019-02-12 漏洞CVE-2019-5736的详细信息,请参见:https://cve.mitre.org/cgi-bin/cvename.cgi?name=CVE-2019-5736 漏洞影响 本次漏洞典型的攻击方式是通过恶意镜像:在恶意镜像中,将攻击函数隐藏在恶意动态库如(libseccomp
CCE突发弹性引擎(对接 CCI)作为一种虚拟的kubelet用来连接Kubernetes集群和其他平台的API。Bursting的主要场景是将Kubernetes API扩展到无服务器的容器平台(如CCI)。 基于该插件,支持用户在短时高负载场景下,将部署在云容器引擎CCE上的
CCE突发弹性引擎(对接 CCI)作为一种虚拟的kubelet用来连接Kubernetes集群和其他平台的API。Bursting的主要场景是将Kubernetes API扩展到无服务器的容器平台(如CCI)。 基于该插件,支持用户在短时高负载场景下,将部署在云容器引擎CCE上的
CCE突发弹性引擎(对接 CCI)作为一种虚拟的kubelet用来连接Kubernetes集群和其他平台的API。Bursting的主要场景是将Kubernetes API扩展到无服务器的容器平台(如CCI)。 基于该插件,支持用户在短时高负载场景下,将部署在云容器引擎CCE上的
通过nodeSelector可以让Pod只部署在具有特定标签的节点上。如下所示,Pod只会部署在拥有gpu=true这个标签的节点上。 apiVersion: v1 kind: Pod metadata: name: nginx spec: nodeSelector:
安装转换插件。 # helm plugin install https://github.com/helm/helm-2to3 Downloading and installing helm-2to3 v0.10.2 ... https://github.com/helm/helm-2t
某些节点支持使用GPU算力,则可以使用节点亲和调度,确保高性能计算的Pod最终运行在GPU节点上。 配置节点亲和调度策略 您可以通过不同的方式配置节点亲和性调度策略,将Pod调度到满足条件的节点。 通过控制台配置 通过YAML配置 本文示例中,集群内已创建GPU节点,并设置标签为
/nvidia/lib64追加到LD_LIBRARY_PATH环境变量中。v1.28及以上的集群中则无需执行此步骤。 通常可以通过如下三种方式追加环境变量。 制作镜像的Dockerfile中配置LD_LIBRARY_PATH。(推荐) ENV LD_LIBRARY_PATH /u
此配置项配置为健康检查配置。 参数名 取值范围 默认值 是否允许修改 作用范围 k8s annotation: elb.health-check-options 无 无 允许 CCE Standard/CCE Turbo 健康检查的目标端口 spec.ports添加健康检查的目标端口,由协议、端口号组成,如:TCP:80
驱动维护。如从控制台创建NPU节点,控制台会自动补充NPU驱动(用户无法指定版本和类型)安装命令,并在安装完成后自动重启节点;如通过API或其他方式创建节点则需要用户在“安装后执行脚本”中添加驱动安装命令。 开启驱动选择后,NPU插件启动时将自动根据对应机型的驱动配置安装驱动,驱
节点池 基础配置 伸缩配置 计算配置 节点网络配置 容器网络配置 配置管理-容器网络配置 配置管理-容器引擎配置