检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
安装和使用MPI 弹性云服务器场景支持使用的MPI IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 弹性云服务器场景典型应用
重启节点 操作场景 当集群中某节点出现异常,可以使用节点重启的功能对该节点进行重启操作尝试恢复。 只有状态为“运行中”的节点可进行重启操作。 操作步骤 登录HPC-S²控制台。 单击左侧的“节点管理”。 在“节点管理”页面集群的下拉框切换到要进行节点操作的集群。 选择要进行停止操作的节点,单击操作中“更多
MPI 操作场景 本节指导用户在ECS上安装和使用Platform MPI应用(以版本platform_mpi-09.01.04.03r-ce为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装Platform MPI。 执行以下命令,安装需要的库文件。 # yum install
可以利用公有云的跨地域能力,共享计算资源,海量数据,并能实现云端大数据分析。 优化性能 性能比普通云服务器大幅提升。 通过虚拟化优化(SR-IOV、PCI直通)等,各类测试报告显示:大规模云化HPC性能损耗不大。 约束与限制 MPI和通讯库的版本需要提前适配RoCE,请联系技术支持进行操作,建议使用推荐版本运行STAR-CCM+。
基于STAR-CCM+部署HPC集群 方案概述 资源和成本规划 STAR-CCM+部署HPC集群流程图 实施步骤 附录 父主题: 弹性云服务器场景最佳实践
零复制:零复制网络技术使网卡可以直接与应用内存相互传输数据,从而消除了在应用内存与内核之间复制数据的需要。因此,传输延迟会显著减小。 内核旁路:内核协议栈旁路技术使应用程序无需执行内核内存调用就可向网卡发送命令。在不需要任何内核内存参与的条件下,RDMA请求从用户空间发送到本地网卡并通过网络发送给远
在HPC集群上运行Spectrum MPI 在HPC集群上运行Intel MPI 在HPC集群上运行Platform MPI 父主题: 弹性云服务器场景典型应用
qstat -f 作业ID 如图5所示,作业运行了3分03秒。由此可以看出,作业是从断点的位置进行续算的。 图5 中断后运行作业信息 父主题: 弹性云服务器场景最佳实践
上多个弹性云服务器(Elastic Cloud Server,ECS),容器(CCE&CCI),裸金属服务器(BMS)提供共享访问,能够弹性伸缩至320TB规模,具备高可用性和持久性,为海量的小文件、低延迟高IOPS型应用提供有力支持。 使用背景 STAR-CCM+运行需要提供一
MPI安装 Platform MPI安装 PlatformMPI使用STAR-CCM+自带的,不需要安装。 OpenMPI安装(可选) 若使用STAR-CCM+自带的,可不用安装。 cd /root tar zxvf openmpi-4.0.1.tar.gz cd openmpi-4
3的OS为例在单节点上运行MPI应用。 裸金属服务器场景支持使用的MPI 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用Spectrum MPI 安装和使用Intel MPI 安装和使用Platform MPI 父主题: 裸金属服务器场景典型应用
提供按需扩展的高性能文件存储。 华为 1 以华为云管理控制台显示为准。 6 虚拟私有云(VPC) 为云服务器等云上资源构建隔离、私密的虚拟网络环境。 华为 1 以华为云管理控制台显示为准。 7 云硬盘(EVS) 为ECS、BMS等计算服务提供持久性块存储的服务。 华为 >1 以华为云管理控制台显示为准。
实施步骤 创建HPC私有镜像 创建弹性云服务器 配置节点互信 创建SFS Turbo 挂载共享目录 通讯录安装 MPI安装 STAR-CCM+安装与运行 父主题: 基于STAR-CCM+部署HPC集群
基于融合以太网的特性,但是RoCE协议也可以使用在传统以太网网络或者非融合以太网络中。 应用场景 网络密集型应用,例如存储或者集群计算等,需要网络支持大带宽和低时延特性。RDMA的优势相比其他网络应用程序接口,例如Berkeley接口,就是低时延,低CPU负载和大带宽。RoCE可以比iWARP协议要实现更低的时延。
设置堆栈的最大值无限制(单位:kbytes):ulimit -s unlimited 验证方法: 执行ulimit -a 命令查看 关闭超线程 系统默认关闭,如果是打开的,需要进行关闭。 判断系统是否开启超线程。 通过查询系统的物理核数和逻辑核数的关系可以判断是否开启多线程,如果:逻辑核数 = 物理核数,说明没有开超线程;逻辑核数
本节指导用户在BMS上安装和使用社区OpenMPI(以3.1.1版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装HPC-X工具套件。 使用社区OpenMPI时,需要同时使用Mellanox的HPC-X 套件,适用于CentOS 7.3的HPC-X版本是“hpcx-v2
依次登录集群中所有ECS,重复执行步骤1.1~步骤1.3,关闭所有ECS的防火墙。 修改配置文件。 登录集群中任意一台ECS。 执行以下命令,查看ECS的主机名。 # hostname 图2 查看ECS的主机名 依次登录集群中所有ECS,重复执行步骤2.1~步骤2.2,获取所有ECS的主机名。
附录 常见问题 主要概念 父主题: 基于STAR-CCM+部署HPC集群
安装和使用MPICH 操作场景 本节指导用户在鲲鹏BMS集群上安装和使用MPICH应用(以版本mpich-3.3.2为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装MPICH。 下载MPICH。 下载地址:https://aur.archlinux
本节指导用户在BMS集群上安装和使用Platform MPI应用(以版本platform_mpi- 09.01.04.03r-ce.bin为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装Platform MPI 下载platformMPI,如:platform_mpi-