检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
cpu,设置对应的容器规格。 启动命令添加python /home/caffeEx00.py。 挂载刚刚导入的OBS存储盘: 单击“创建”。等待job执行完成,进入OBS存储盘的outputimg下,可以看到推理使用的图片。 登录在集群中添加GPU节点添加的节点,执行docker
Turbo)创建的存储卷挂载到容器的某一路径下,以满足数据持久化的需求,极速文件存储具有按需申请,快速供给,弹性扩展,方便灵活等特点,适用于DevOps、容器微服务、企业办公等应用场景。 图1 CCE挂载极速文件存储卷 使用说明 符合标准文件协议:用户可以将文件系统挂载给服务器,像使用本地文件目录一样。 数据共享:多
用于海量小文件业务,例如DevOps、容器微服务、企业办公等应用场景。 SFS Turbo为用户提供一个完全托管的共享文件存储,能够弹性伸缩至320TB规模,具备高可用性和持久性,为海量的小文件、低延迟高IOPS型应用提供有力支持。 符合标准文件协议:用户可以将文件系统挂载给服务器,像使用本地文件目录一样。
度引擎、高性能异构芯片管理、高性能任务运行管理等通用计算能力,通过接入AI、大数据、基因、渲染等诸多行业计算框架服务终端用户,并针对计算型应用提供了作业调度、作业管理、队列管理等多项功能。 一般情况下,Kubernetes在调度工作负载时会使用自带的默认调度器,若需要使用Volc
活性。 CCE中设置的环境变量与Dockerfile中的“ENV”效果相同。 容器启动后,容器中的内容不应修改。如果修改配置项(例如将容器应用的密码、证书、环境变量配置到容器中),当容器重启(例如节点异常重新调度Pod)后,会导致配置丢失,业务异常。 配置信息应通过入参等方式导入容器中,以免重启后配置丢失。
efault命名空间下 标签 密钥附带的标签 参数名 取值范围 默认值 是否允许修改 作用范围 labels 无 无 允许 - 标签是资源对象的一种附加标识,可以通过标签进行过滤查询 配置建议: 用户按需将一些查询和管理维度(如密钥所属业务领域、微服务等)抽象为标签,方便对配置项进行过滤查询
如果您使用的CUDA库无法与当前的NVIDIA驱动版本匹配,您需要升级节点的驱动版本才可以正常使用GPU节点。建议您以节点池为粒度进行节点NVIDIA驱动版本的管理,创建应用时可调度到指定驱动版本的节点池,在升级驱动时,也可以根据节点池分批次控制升级。 通过节点池升级存量节点的NVIDIA驱动,本质上是在重启节
lt命名空间下 配置项标签 配置项附带的标签 参数名 取值范围 默认值 是否允许修改 作用范围 labels 无 无 允许 - 标签是资源对象的一种附加标识,可以通过标签进行过滤查询 配置建议: 用户按需将一些查询和管理维度(如配置项所属业务领域、微服务等)抽象为标签,方便对配置项进行过滤查询
使用的系统调用,从而减少潜在的攻击面。Linux操作系统提供了数百个系统调用,但并非所有这些调用对于容器化应用都是必需的。通过限制容器可以执行的系统调用,您可以显著降低应用程序受到攻击的风险。 Seccomp的核心原理是拦截所有系统调用,并仅允许那些被明确列入白名单的调用通过。容
计算角度:一个分区是一组“风火水电”相互隔离、但网络位置靠近(通常互访时延小于2ms)的数据中心可用区(available zone)的集合。将应用分散在一个分区内不同可用区可以实现应用高可用性。 网络角度:一个分区内节点和容器需要使用创建在该分区内可用区下的虚拟私有云(VPC)子网。为方便配置和管理,分
安装完成后,可以在CCE控制台查询到gitlab-runner的工作负载,等待一段时间后在Gitlab中可以看到连接信息,如下图所示。 创建应用 将您要创建的应用放到Gitlab项目仓库中,本文使用一个修改nginx的示例,具体请参见https://gitlab.com/c8147/cidemo/-/tree/main。
aom:*:get - AOM(应用运维管理)资源详情的查看权限。 aom:*:list - AOM(应用运维管理)资源列表的查看权限。 aom:autoScalingRule:* - AOM(应用运维管理)自动扩缩容规则的所有操作权限。 apm:icmgr:* - APM(应用性能管理服务)操作ICAgent权限。
Gt、Lt)。 In:亲和/反亲和对象的标签在标签值列表(values字段)中。 NotIn:亲和/反亲和对象的标签不在标签值列表(values字段)中。 Exists:亲和/反亲和对象存在指定标签名。 DoesNotExist:亲和/反亲和对象不存在指定标签名。 Gt:调度节点的标签值大于列表值
U利用率超过85%时,会自动分配到其他利用率较低的CPU上,进而保障了应用的响应能力。 开启增强型CPU管理策略时,应用性能优于不开启CPU管理策略(none),但弱于静态CPU管理策略(static)。 应用分配的优先使用的CPU并不会被独占,仍处于共享的CPU池中。因此在该P
会考虑应用的实际负载,如果应用负载不均匀可能导致某些节点的负载较高,而其他节点的负载较低。 Volcano调度器支持使用负载感知调度功能,感知集群内节点CPU、Memory的负载情况,将Pod优先调度到负载较低的节点,实现节点负载均衡,避免出现因单个节点负载过高而导致的应用程序或节点故障。详情请参见负载感知调度。
在CCE集群中使用镜像服务的安全配置建议 容器镜像是防御外部攻击的第一道防线,对保障应用程序、系统乃至整个供应链的安全至关重要。不安全的镜像容易成为攻击者的突破口,导致容器逃逸到宿主机。一旦容器逃逸发生,攻击者便能访问宿主机的敏感数据,甚至利用宿主机作为跳板,进一步控制整个集群或
实例作为目的端。 步骤一:获取数据上报地址 Prometheus提供了Remote Write标准接口,您可以在CCE云原生监控插件中填写数据上报地址(Remote Write URL),将本地采集到的监控数据远程存储到Prometheus中。 如果您用于接受数据的目的端为第三方
止日期,直到返回结果。 若用户未配置,默认值为1秒。升级后此字段生效,如果探测时间超过1秒,可能会导致应用健康检查失败并频繁重启。 升级前检查您使用了exec probe的应用的probe timeouts是否合理。 CCE的v1.19及以上版本的kube-apiserver要求客户侧webhook
数据处理能力,同时支持复杂事件处理和数据分析。在CCE集群中部署Flink,可以帮助您构建高效、可靠且灵活的数据处理系统,支持多样化的业务应用,并充分利用大数据环境中的集群资源。本示例将展示如何在CCE集群中部署Flink,并通过WordCount任务演示如何在CCE集群中运行Flink任务。示例中使用Flink
CCE中使用x86和ARM双架构镜像 应用现状 CCE支持在同一集群下创建x86节点及ARM架构节点。由于ARM和x86底层架构不同,通常ARM架构的镜像(也就是应用程序)无法在x86架构节点上运行,反之亦然。这就容易造成工作负载在拥有x86与ARM节点的集群上部署失败。 解决方案