检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
本地持久卷仅支持以下挂载方式: 通过动态存储卷使用本地持久卷:即动态创建的方式,在创建PVC时通过指定存储类(StorageClass),即可自动创建对象存储和对应的PV对象。 在有状态负载中动态挂载本地持久卷:仅有状态工作负载支持,可以为每一个Pod关联一个独有的PVC及PV,当Pod被重新
公网访问CCE部署的服务并上传OBS,为何报错找不到host? 线下机器访问CCE部署的服务并上传OBS,报错找不到host,报错截图如下: 问题定位 服务收到http请求之后,向OBS传输文件,这些报文都会经过Proxy。 传输文件总量很大的话,会消耗很多资源,目前proxy分
在安装插件页面,根据需求选择“数据存储配置”,至少需要开启一项。 监控数据上报至AOM服务:将普罗数据上报至 AOM 服务。开启后,可选择对应的AOM实例。采集的基础指标免费,自定义指标将由AOM服务进行收费,详情请参见价格详情。对接AOM需要用户具备一定权限,目前仅华为云/华为账号
创建密钥。关于默认证书更多说明请参见Default SSL Certificate。 404服务:默认使用插件自带的404服务。支持自定义404服务,填写“命名空间/服务名称”,如果服务不存在,插件会安装失败。 日志采集:开启日志采集后,可快速进行日志查询与分析,并对接仪表盘进行可视化展示。详情请参见采集NGINX
配置管理 ConfigMap Secret
如果您需要对您所拥有的云容器引擎(CCE)进行精细的权限管理,您可以使用统一身份认证服务(Identity and Access Management,简称IAM),如果账号已经能满足您的要求,不需要创建独立的IAM用户,您可以跳过本章节,不影响您使用CCE服务的其它功能。 默认情况下,新建的IAM用户没有任何权
e,从而实现对外提供服务。 LoadBalancer:利用云服务提供商的负载均衡器,将Service暴露给外部网络。外部的负载均衡器可以将流量转发到集群中NodePort服务和ClusterIP服务。 DNAT:使用DNAT网关为集群节点提供网络地址转换服务,使多个节点可以共享使
集群视角的成本可视化最佳实践 CCE集群安全配置建议 节点/节点池相关 制作CCE节点自定义镜像 创建节点时执行安装前/后脚本 创建节点时使用OBS桶实现自定义脚本注入 选择合适的节点数据盘大小 通过Core Dump文件定位容器问题 将节点容器引擎从Docker迁移到Containerd
MountPointProblem 检查节点上的挂载点是否异常 异常定义:该挂载点不可访问(cd) 典型场景:节点挂载了nfs(网络文件系统,常见有obsfs、s3fs等),当由于网络或对端nfs服务器异常等原因导致连接异常时,所有访问该挂载点的进程均卡死。例如集群升级场景kubelet重启时扫描所有挂载点,当扫描到此异常挂载点会卡死,导致升级失败。
支持分钟级的负载发现与计费能力,让所有成本无一遗漏。 约束与限制 PVC存储费用:当前只统计云硬盘(EVS)类型存储费用,不支持对象存储类型(OBS)、本地持久卷、文件存储类型(SFS)、极速文件存储(SFS Turbo)。 节点成本按照CPU、内存进行成本拆分,暂不支持GPU
full 图5 otel组件报错信息 解决方案: 云日志服务(LTS)有免费赠送的额度,超出后将收费,报错说明免费额度已用完,如果需要继续使用,请前往云日志服务控制台“配置中心”,打开“超额继续采集日志”开关。 图6 配额设置 采集容器内日志,且采集目录配置了通配符,日志无法采集
LoadBalancer ) 选择服务类型,即服务访问的方式。不同的服务类型的差别请参见服务概述。 负载均衡器 类型:选择独享型。 可用区:至少选择一个可用区,如可用区1。 弹性公网IP:选择自动创建。 其余参数可保持默认。 如果已有负载均衡(ELB)实例,可以选择已有ELB。 如果
开启该兼容能力后,使用nvidia.com/gpu配额时等价于开启虚拟化GPU显存隔离,可以和显存隔离模式的工作负载共用一张GPU卡,但不支持和算显隔离模式负载共用一张GPU卡。同时,还需遵循GPU虚拟化的其他约束与限制。 未开启该兼容能力时,在工作负载中声明nvidia.com/gpu配额仅影响调度结果,并不
创建有状态负载时,实例间发现服务是指什么? 云容器引擎的实例间发现服务,在原生Kubernetes中称之为Headless Service。Headless Service也是一种Service,但是会在YAML中定义spec.clusterIP: None,也就是不需要Cluster
在“规格配置”下配置CoreDNS参数规格。您可以根据业务需求选择CoreDNS所能提供的域名解析QPS。 您也可以选择自定义规格,通过选择不同的副本数、CPU配额和内存配额,来定制集群的CoreDNS参数规格。 单击“确定”,完成配置下发。 排查项三:解析外部域名很慢或超时 如果域名解析失败率低于1/10
插件相关的描述信息 name 是 String 插件规格名称 resources 是 resources object 容器资源(CPU、内存)配额。 表3 custom 参数 是否必选 参数类型 描述 aom_enable 否 Boolean 是否对接AOM aom_instance_id
PU, 3 Insufficient nvidia.com/gpu. 在CCE控制台使用GPU资源,只需在创建工作负载时,选择使用的GPU配额即可。 图1 使用GPU GPU节点标签 创建GPU节点后,CCE会给节点打上对应标签,如下所示,不同类型的GPU节点有不同标签。 $ kubectl
通过kubectl连接集群时,其配置文件config如何下载? 登录CCE控制台,单击需要连接的集群名称,进入“集群信息”页面。 在“连接信息”版块中查看kubectl的连接方式。 在弹出的窗口中可以下载kubectl配置文件kubeconfig.json。 图1 下载kubeconfig
监控等各类云服务资源都存在依赖关系,因此当您首次登录CCE控制台时,CCE将自动请求获取当前区域下的云资源权限,从而更好地为您提供服务。服务权限包括: 计算类服务 CCE集群创建节点时会关联创建云服务器,因此需要获取访问弹性云服务器、裸金属服务器的权限。 存储类服务 CCE支持为
roller,它提供了微服务的弹性能力,并且和Serverless密切相关。 弹性伸缩是很好理解的一个概念,当微服务负载高(CPU/内存使用率过高)时水平扩容,增加pod的数量以降低负载,当负载降低时减少pod的数量,减少资源的消耗,通过这种方式使得微服务始终稳定在一个理想的状态。