检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
表1 StorageClass StorageClass名称 对应的存储资源 csi-disk 云硬盘 csi-disk-topology 延迟绑定的云硬盘 csi-sfs 文件存储 csi-obs 对象存储 csi-sfsturbo 极速文件存储 通过如下命令将所需的Storag
执行packer制作镜像过程,会自动从github获取最新Huawei Cloud ECS开源插件。此过程会由于网络环境原因导致获取失败,如下所示。 该问题可以通过如下两种方案解决: 在网络环境相对较优的香港等区域创建执行机,对接到原区域创建自定义镜像,例如北京4: export REGION_NAME=cn-north-4
造成Pod中容器重启。 建议参考表1在升级前修改业务容器的QosClass规避该问题。 v1.13升级至v1.15 vpc集群升级后,由于网络组件的升级,master节点会额外占一个网段。在Master占用了网段后,无可用容器网段时,新建节点无法分配到网段,调度在该节点的pod会无法运行。
VC的资源时,在集群迁移后,PVC状态会处于pending状态。 请确保CCE侧集群中没有与被迁移集群侧相同的资源,因为Velero工具在检测到相同资源时,默认不进行恢复。 为确保集群迁移后容器镜像资源可以正常拉取,请将镜像资源迁移至容器镜像服务(SWR)。 CCE不支持Read
高优先级业务正常调度。详情请参见优先级调度与抢占。 集群默认调度器设置为Volcano调度器时支持该配置。 基于优先级抢占调度能力与Pod延迟创建能力不可同时开启。 资源利用率优化调度(Volcano调度器支持) 装箱策略(Binpack) 启用该能力后,调度器优先选择具有最多请
MA节点之间进行内存访问时会产生延迟,开发者可以通过优化任务调度和内存分配策略,来提高内存访问效率和整体性能。 在云原生环境中,对于高性能计算(HPC)、实时应用和内存密集型工作负载等需要CPU间通信频繁的场景下,跨NUMA节点访问会导致增加延迟和开销,从而降低系统性能。为此,v
API接口,用户必须通过编程或第三方工具访问对象存储。 数据共享:服务器、嵌入式设备、IOT设备等所有调用相同路径,均可访问共享的对象存储数据。 公共/私有网络:对象存储数据允许在公网访问,满足互联网应用需求。 容量与性能:容量无限制,性能较高(IO读写时延10ms级)。 应用场景:适用于(基于OBS界面、OBS工具、OBS
Pod监控检查方法 登录CCE控制台。 单击集群名称进入集群,在左侧选择“工作负载”。 单击工作负载操作列的“监控”,即可查看Pod的CPU、内存、网络I/O等监控大盘。 登录容器的方法 登录CCE控制台。 单击集群名称进入集群,在左侧选择“工作负载”。 单击指定工作负载名称,在工作负载实例列表中,单击操作列的“更多
eus实例的日志,检查日志中是否存在报错日志。如果日志中含有remote_write相关的报错信息,则表示指标上报时失败,请检查指标上报的网络是否通畅。 父主题: 监控中心
com/apache/spark.git 修改/dev/make-distribution.sh文件,指定Spark版本,目的是为了让编译的时候跳过检测。 使用搜索找到 VERSION 所在行,查看版本号所在行数。 cat ./spark/dev/make-distribution.sh |grep
U Burst、出口网络QoS分级控制等。 为了兼容旧版本支持的资源超卖特性,仍然保留了通过人工设置kubelet参数来开启资源超卖的能力,详情请参见kubelet超卖兼容模式(不推荐),但该方案仅支持基础能力,且不再演进,不支持CPU Burst、出口网络QoS分级控制等后续新特性。
io/pid-pressure:节点存在 PID 压力。 node.kubernetes.io/network-unavailable:节点网络不可用。 node.kubernetes.io/unschedulable:节点不可调度。 node.cloudprovider.kubernetes
将多个集群对接到同一个Prometheus监控系统,如下所示,节约维护成本和资源成本,且方便汇聚监控信息。 前提条件 目标集群已创建。 Prometheus与目标集群之间网络保持连通。 已在一台Linux主机中使用二进制文件安装Prometheus,详情请参见Installation。 操作步骤 分别获取目标集群的bearer_token
privileged 启动特权容器。 hostPID hostIPC 使用主机命名空间。 hostNetwork hostPorts 使用主机网络和端口。 volumes 允许使用的挂载卷类型。 allowedHostPaths 允许hostPath类型挂载卷在主机上挂载的路径,通过
1及以上版本的插件支持开启公网访问,开启后需要选择一个负载均衡器作为Grafana服务入口。仅支持选择集群所在VPC下的负载均衡实例。如果使用独享型ELB,该实例还需要包含网络型规格。 须知: 开启公网访问将会把Grafana服务暴露至公网,建议评估安全风险并做好访问策略的管控。 设置插件实例的部署策略。 表2 插件调度配置
Autoscaler会每隔10s检查一次所有未调度的Pod,根据用户设置的策略,选择出一个符合要求的节点池进行扩容。 Autoscaler检测未调度Pod进行扩容时,使用的是与Kubernetes社区版本一致的调度算法进行模拟调度计算,若应用调度采用非内置kube-schedul
mespace,请不要备份名称为paas.elb的Secret。因为paas.elb的内容是会定期更新,备份后再恢复时可能已经失效,会影响网络存储相关功能。 挂载到容器的持久化存储。 由于Restic工具限制,不支持进行HostPath类型存储迁移,解决方法请参考无法备份HostPath类型存储卷。
在TFJob中指定GPU资源。 创建tf-gpu.yaml文件,示例如下: 该示例的主要功能是基于Tensorflow的分布式架构,利用卷积神经网络(CNN)中的ResNet50模型对随机生成的图像进行训练,每次训练32张图像(batch_size),共训练100次(step),记录每
容器组(Pod)是Kubernetes创建或部署的最小单位。一个Pod封装一个或多个容器(Container)、存储资源(Volume)、一个独立的网络IP以及管理控制容器运行方式的策略选项。 Pod使用主要分为两种方式: Pod中运行一个容器。这是Kubernetes最常见的用法,您可以
sysctl fs.inotify.max_user_watches netdev_max_backlog /etc/sysctl.conf 网络协议栈收包队列大小,参数值过小时极易不足。 查看参数: sysctl net.core.netdev_max_backlog net.core