检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
MPI安装 Platform MPI安装 PlatformMPI使用STAR-CCM+自带的,不需要安装。 OpenMPI安装(可选) 若使用STAR-CCM+自带的,可不用安装。 cd /root tar zxvf openmpi-4.0.1.tar.gz cd openmpi-4
安装和使用MPICH 操作场景 本节指导用户在鲲鹏BMS集群上安装和使用MPICH应用(以版本mpich-3.3.2为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装MPICH。 下载MPICH。 下载地址:https://aur
安装和使用社区OpenMPI 操作场景 本节指导用户在BMS上安装和使用社区OpenMPI(以4.0.2版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装OpenMPI。 下载社区OpenMPI,版本号为“openmpi-4
在HPC集群上运行MPI应用(X86 BMS场景) 该任务指导以CentOS7.3的OS为例在集群上运行MPI应用。 IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 裸金属服务器场景典型应用
好处都是基于融合以太网的特性,但是RoCE协议也可以使用在传统以太网网络或者非融合以太网络中。 应用场景 网络密集型应用,例如存储或者集群计算等,需要网络支持大带宽和低时延特性。RDMA的优势相比其他网络应用程序接口,例如Berkeley接口,就是低时延,低CPU负载和大带宽。R
挂载共享目录 安装软件 yum install nfs-utils 挂载SFS Turbo 将SFS Turbo挂载到/opt/Siemens目录 mkdir /opt/Siemens # 在/etc/fstab中添加开启自动挂载 echo "192.168.0.15:/ /opt/Siemens
安装和使用MPICH 操作场景 该任务指导用户在BMS集群上运行MPICH应用(mpich-3.3.2版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装MPICH。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
Platform MPI 操作场景 该任务指导用户在BMS集群上运行Platform MPI应用(platform_mpi- 09.01.04.03r-ce.bin版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装Platform MPI。 操作步骤
/root/hostfile /usr/mpi/gcc/openmpi-3.0.0rc6/tests/imb/IMB-MPI1 PingPong 在两个节点的集群间运行Intel MPI benchmark,在RDMA网络下,最低时延应该在1.5 us(microseconds)以内: #--
弹性云服务器场景支持使用的MPI HPC当前支持的MPI包括: 驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 以下小节的内容详细介绍了MPI的安装与使用,您可以根据需要选择合适的MPI进行安装。 父主题: 安装和使用MPI
在HPC集群上运行Spectrum MPI 操作场景 该任务指导用户在已配置好的弹性云服务器上,运行Spectrum MPI应用(IBM Spectrum MPI v10.1)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。
在HPC集群上运行Intel MPI 操作场景 该任务指导用户在ECS集群(以CentOS7.3为例)上运行Intel MPI应用(l_mpi_2018.0.128版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。
STAR-CCM+启动相关问题 STAR-CCM+使用OpenMPI启动时,命令中有"-x"和"--mca"导致启动失败 问题现象: STAR-CCM+使用OpenMPI启动时候命令中同时有"-x"和"--mca"会启动失败,OpenMPI不支持"-x"参数和"--mca"同时使用,报错如下图所示。
Intel MPI 操作场景 该任务指导用户在BMS集群上运行Intel MPI应用(l_mpi_2017.3.196版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装Spectrum MPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
Spectrum MPI 操作场景 该任务指导用户在BMS集群上运行Spectrum MPI应用(10.01.01版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装Spectrum MPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
社区OpenMPI 操作场景 该任务指导用户在BMS集群上运行社区OpenMPI(以3.1.1版本为例)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装社区OpenMPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
STAR-CCM+部署HPC集群流程图 本文档介绍如何通过仿真软件STAR-CCM+部署HPC集群,流程如图1所示。 图1 基于STAR-CCM+部署HPC集群流程图 父主题: 基于STAR-CCM+部署HPC集群
/root/hostfile /usr/mpi/gcc/openmpi-3.0.0rc6/tests/imb/IMB-MPI1 PingPong 在两个节点的集群间运行Intel MPI benchmark,在RDMA网络下,最低时延应该在1.5 us(microseconds)以内: #--
安装和使用Spectrum MPI 操作场景 本节指导用户在BMS集群上安装和使用Spectrum MPI应用(以版本10.01.01为例)。 对于集群中的每台BMS,都需要执行该操作。 背景信息 IBM Spectrum MPI v10.1版本当前支持的操作系统列表如下: IBM
安装和使用社区OpenMPI 操作场景 本节指导用户在BMS上安装和使用社区OpenMPI(以3.1.1版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装HPC-X工具套件。 使用社区OpenMPI时,需要同时使用Mellanox的HPC-X