检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
由于运营商网络原因,拉取Docker Hub镜像可能需要很长时间,甚至可能因超时而下载失败,建议参考设置镜像加速器解决。 操作步骤 以root用户登录到安装有Docker的服务器上。 编写Dockerfile文件。 vi Dockerfile Dockerfile内容如下: # 表示以centos7.1.1503为基础镜像
}, { "name": "nodeCSIscheduling" }, {
如果开启自动注入时Pod中已经配置了DNSConfig,则优先使用Pod中的DNSConfig。 域名解析服务器地址nameserver(可选):容器解析域名时查询的DNS服务器的IP地址列表。默认会添加NodeLocal DNSCache的地址,以及CoreDNS的地址,允许用户
在CCE Turbo集群中配置Pod延时启动参数 应用场景 CCE Turbo集群在某些特定场景下(例如跨VPC、专线互联),会出现对端Pod的路由规则生效慢的情况。在这种情况下,可以利用Pod延时启动的能力进行规避。 您也可以使用企业路由器连接对端VPC来解决该问题,详情请参见集群通过企业路由器连接对端VPC。
ing.coreos.com/v1/servicemonitors。 配置建议: 创建新的 自定义资源时,Kubernetes API 服务器会为您所指定的每个版本生成一个新的 RESTful 资源路径。 自定义资源名称的单数形式 自定义资源名称的单数形式 参数名 取值范围 默认值
共享资源的容器。通常这种场景下应用包含一个主容器和几个辅助容器(SideCar Container),如图1所示,例如主容器为一个web服务器,从一个固定目录下对外提供文件服务,而辅助容器周期性的从外部下载文件存到这个固定目录下。 图1 Pod 实际使用中很少直接创建Pod,而是
最小值:1 最大值:300 缺省值:60 kubernetes.io/elb.member_timeout String 等待后端服务器响应超时时间。请求转发后端服务器后,在等待超时member_timeout时长没有响应,负载均衡将终止等待,并返回 HTTP504错误码。 取值:1-300s,默认为60s。
节点磁盘检查异常处理 节点DNS检查异常处理 节点关键目录文件权限检查异常处理 节点Kubelet检查异常处理 节点内存检查异常处理 节点时钟同步服务器检查异常处理 节点OS检查异常处理 节点CPU数量检查异常处理 节点Python命令检查异常处理 ASM网格版本检查异常处理 节点Ready检查异常处理
nt的组件,用于采集指标、日志和应用性能数据。对于在ECS、BMS控制台直接购买的主机,您需手动安装ICAgent。对于集群节点,ICAgent会自动安装,您不用手动安装ICAgent。详情请参见安装ICAgent(华为云主机)。 父主题: 监控中心
DevOps持续交付 应用场景 当前IT行业发展日益快速,面对海量需求必须具备快速集成的能力。经过快速持续集成,才能保证不间断的补全用户体验,提升服务质量,为业务创新提供源源不断的动力。大量交付实践表明,不仅传统企业,甚至互联网企业都可能在持续集成方面存在研发效率低、工具落后、发
检查节点kubelet服务是否运行正常。 18 节点内存检查异常处理 检查节点内存使用量是否超过90%。 19 节点时钟同步服务器检查异常处理 检查节点时钟同步服务器ntpd或chronyd是否运行正常。 20 节点OS检查异常处理 检查节点操作系统内核版本是否为CCE支持的版本。 21
网络概述 关于集群的网络,可以从如下两个角度进行了解: 集群网络是什么样的:集群由多个节点构成,集群中又运行着Pod(容器),每个Pod都需要访问,节点与节点、节点与Pod、Pod与Pod都需要访问。那集群中包含有哪些网络,各自的用处是什么,具体请参见集群网络构成。 集群中的Po
监控GPU资源指标 通过Prometheus和Grafana,可以实现对GPU资源指标的观测。本文以实际示例介绍如何通过Prometheus查看集群的GPU显存的使用。 本文将通过一个示例应用演示如何监控GPU资源指标,具体步骤如下: 访问Prometheus (可选)为Prom
CCE AI套件(NVIDIA GPU) 插件介绍 CCE AI套件(NVIDIA GPU)插件是支持在容器中使用GPU显卡的设备管理插件,集群中使用GPU节点时必须安装本插件。 字段说明 表1 参数描述 参数 是否必选 参数类型 描述 basic 是 object 插件基础配置参数。
后,能够获取宿主机上所有GPU设备的访问权限。 关于漏洞的详细信息,请参见CVE-2021-1056。 如果您的CCE集群中存在GPU(ECS)节点,并使用了CCE推荐的NVIDIA GPU驱动版本(Tesla 396.37),按照目前NVIDIA官方公告判断暂不受影响;如果您自行安装或更新过节点上的NVIDIA
NAT转换,所以适用于对带宽、时延要求极高的业务场景,比如:线上直播、电商抢购等。 大规模组网:云原生网络2.0当前最大可支持2000个ECS节点,10万个Pod。 核心技术 OVS IPVlan,VPC路由 VPC弹性网卡/弹性辅助网卡 适用集群 CCE Standard集群 CCE
CCE推荐的GPU驱动版本列表 对于CCE集群,各系统推荐使用驱动版本如下表,若使用非CCE推荐驱动版本,需要您自行验证机型、系统及驱动版本间的配套兼容性。您可以根据您的应用所使用的CUDA Toolkit版本,对照CUDA Toolkit与NVIDIA驱动的版本兼容性列表,选择合适的NVIDIA驱动版本。
-j DROP 如果集群不需要开启API Server不安全端口,可以将--insecure-port=0添加到kubernetes API服务器命令行来禁用端口。 如集群内运行有不受信的容器,需要manifest文件中关闭CAP_NET_RAW能力,可执行如下命令: securityContext:
名的映射关系。后续更新弹性IP可以继续使用双向认证+自定义域名访问集群,无需重新下载kubeconfig.json配置文件。 自建DNS服务器,自行添加A记录。 前提条件 已创建一个v1.19及以上版本的集群。 添加自定义SAN 登录CCE控制台。 在集群列表中单击集群名称,进入集群总览页。
使用容器网络配置为命名空间/工作负载绑定子网及安全组 操作场景 CCE Turbo集群支持以命名空间或工作负载粒度设置容器所在的容器子网及安全组,该功能通过名为NetworkAttachmentDefinition的CRD资源实现。如您想为指定的命名空间或工作负载配置指定的容器子