检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
限制单个容器的主目录大小(默认为10GB),但节点上的所有容器还是共用节点的thinpool磁盘空间,并不是完全隔离,当一些容器使用大量thinpool空间且总和达到节点thinpool空间上限时,也会影响其他容器正常运行。 另外,在容器的主目录中创删文件后,其占用的thinpo
te,应改回RollingUpdate。 请检查NVIDIA_DRIVER_DOWNLOAD_URL字段是否与插件页面的GPU驱动版本一致,若不一致,请在页面上修改为正确的驱动版本。 父主题: 升级前检查异常问题排查
中事件的总数、趋势和排序信息;在“事件”中,可以查看事件的详细信息,包括事件名称、类型、内容,以及触发该事件的资源的相关信息等。 概览 “概览”页面默认展示集群中所有命名空间的事件统计信息,您也可以在右上角的下拉框中切换命名空间,以查看指定命名空间下的事件数据。 根据图1的事件统
需在工作负载中配置主机网络,在工作负载的yaml中的spec.spec.下加入hostNetwork: true字段。 多节点场景 如果集群下有多个节点时,除进行以上操作外,还需要设置节点的亲和策略,但工作负载创建后实例运行数不得超过亲和的节点数。 完成效果 进行如上设置并在工作
EulerOS 2.0 x86的节点上,非Huawei Cloud EulerOS 2.0 x86的节点不会部署agent。 默认节点池不支持修改混部配置。 云原生混部配置 云原生混部以节点池粒度进行管理,您需要在节点池打开混部开关并进行混部配置。默认的混部配置,会启用混部所有能力
上以及Prometheus的发展,开发者已经不满足于CPU和Memory,开发者需要应用自身的业务指标,或者是一些接入层的监控信息,例如:Load Balancer的QPS、网站的实时在线人数等。社区经过思考之后,定义了一套标准的Metrics API,通过聚合API对外提供服务。
亲和策略的节点,否则插件实例将无法运行。 容忍策略 容忍策略与节点的污点能力配合使用,允许(不强制)插件的 Deployment 实例调度到带有与之匹配的污点的节点上,也可用于控制插件的 Deployment 实例所在的节点被标记污点后插件的 Deployment 实例的驱逐策略。
请确保云日志服务LTS资源配额充足,LTS的默认配额请参见基础资源。 集群Kubernetes审计日志说明 表1 集群Kubernetes审计日志说明 类别 组件 日志流 说明 控制面审计日志 audit audit-{{clusterID}} 集群审计日志提供了与安全相关的、按时间顺序排列的记录集,记录每个用户使用Kubernetes
在“容器配置>基本信息”中设置xGPU配额: 显存:显存值单位为MiB,需为正整数,且为128的倍数。若配置的显存超过单张GPU卡的显存,将会出现无法调度状况。 算力:算力值单位为%,需为5的倍数,且最大不超过100。 当显存设置为单张GPU卡的容量上限或算力设置为100%时,将会使用整张GPU卡。 使用GP
/proc/xgpu/{GPU卡序号}/meminfo,注意替换命令中的{GPU卡序号}为步骤2获取的GPU卡序号,观测GPU虚拟化的可用显存。 比较步骤2和步骤3的可用显存。 由于GPU厂商的驱动程序,本身就会占用一定量的物理显存,量级在300MB左右,这属于正常现象。例如Tesla T4配套510
er节点的网络是否能够连通。 解决方法 如果是在集群外部执行kubectl,请检查集群是否绑定公网IP,如已绑定,请重新下载kubeconfig文件配置,然后重新执行kubectl命令。 如果是在集群内节点上执行kubectl,请检查节点的安全组,是否放通Node节点与Maste
场景、解决方案以及参考信息等内容外,CCE不提供有关漏洞细节的其他信息。 此外,CCE为所有客户提供相同的信息,以平等地保护所有客户。CCE不会向个别客户提供事先通知。 最后,CCE不会针对产品中的漏洞开发或发布可利用的入侵代码(或“验证性代码”)。 父主题: 漏洞公告
文件存储的场景,涉及链路的挂载参数(如timeo)仅在第一次挂载时生效。例如,节点上运行的多个Pod同时挂载同一文件存储,后设置的挂载参数不会覆盖已有参数值。针对上述场景希望设置不同的挂载参数,可以同时设置nosharecache挂载参数。 极速文件存储挂载参数 CCE的存储插件
节点关闭,并可以优雅地终止该节点的Pod。在此更新之前,当节点关闭时,其Pod没有遵循预期的终止生命周期,这导致了工作负载问题。现在kubelet可以通过systemd检测即将关闭的系统,并通知正在运行的Pod,使它们优雅地终止。 具有多个容器的Pod现在可以使用kubectl.kubernetes
节点关闭,并可以优雅地终止该节点的Pod。在此更新之前,当节点关闭时,其Pod没有遵循预期的终止生命周期,这导致了工作负载问题。现在kubelet可以通过systemd检测即将关闭的系统,并通知正在运行的Pod,使它们优雅地终止。 具有多个容器的Pod现在可以使用kubectl.kubernetes
ment)和有状态工作负载(StatefulSet)详情页的“访问方式”页签中显示。 此处的显示需要Service与工作负载有一定的关联: 工作负载中的一个标签必须是以"app"为key。 Service的标签和工作负载的标签保持一致。 父主题: API&kubectl
因此,在实际的部署环境中,需要根据应用环境的特点,选择适当的会话保持机制。 表1 会话保持类型 类型 说明 支持的会话保持类型 会话保持失效的场景 四层会话保持 当创建Service时,使用的协议为TCP或UDP,默认为四层会话保持。 源IP地址:基于源IP地址的简单会话保持,
固定值"PersistentVolumeClaim"。 spec.claimRef.name 与下一步创建的pvc的name一致。 spec.claimRef.namespace 与下一步创建的pvc的namespace一致。 PVC yaml文件配置示例: apiVersion: v1
oers.d/sudoerspaas文件,以获取sudo权限,更新节点上属主和属组为root的组件(例如docker、kubelet等)与相关配置文件。请登录节点执行如下命令,排查文件的可修改性。 lsattr -l /etc/sudoers.d/sudoerspaas /etc/sudoers
128Mi资源)的工作负载共用一张GPU卡,但不支持和算显隔离模式负载(即同时设置volcano.sh/gpu-mem.128Mi和volcano.sh/gpu-core.percentage资源)共用一张GPU卡。同时,还需遵循GPU虚拟化的其他约束与限制。 约束与限制 使用GP