-
STAR-CCM+部署HPC集群流程图 - 高性能计算 HPC
STAR-CCM+部署HPC集群流程图 本文档介绍如何通过仿真软件STAR-CCM+部署HPC集群,流程如图1所示。 图1 基于STAR-CCM+部署HPC集群流程图 父主题: 基于STAR-CCM+部署HPC集群
-
安装和使用IB驱动自带的Open MPI - 高性能计算 HPC
安装和使用IB驱动自带的Open MPI 操作场景 本节操作指导用户在BMS上安装和使用IB驱动自带的Open MPI(以版本4.0.2a1为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 查询是否安装了IB驱动 执行以下命令,查询是否已成功安装IB驱动。
-
安装和使用社区OpenMPI - 高性能计算 HPC
安装和使用社区OpenMPI 操作场景 该任务指导用户在BMS集群上运行社区OpenMPI(以4.0.2版本为例))。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装社区OpenMPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
-
在HPC集群上运行Platform MPI - 高性能计算 HPC
在HPC集群上运行Platform MPI 操作场景 该任务指导用户在ECS集群(以CentOS7.3为例)上运行Platform MPI应用(以版本platform_mpi-09.01.04.03r-ce为例)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。
-
安装和使用IB驱动自带的Open MPI - 高性能计算 HPC
安装和使用IB驱动自带的Open MPI 操作场景 本节指导用户在BMS上安装和使用IB驱动自带的Open MPI(以版本3.1.0rc2为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 查询是否安装了IB驱动。 执行以下命令,查询是否已成功安装IB驱动。
-
在HPC集群上运行社区OpenMPI - 高性能计算 HPC
在HPC集群上运行社区OpenMPI 操作场景 该任务指导用户在已配置好的弹性云服务器上,运行社区MPI应用(3.1.1版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。 操作步骤 使用“PuTTY”,采用密钥对方式登录弹性云服务器。
-
在HPC集群上运行IB驱动自带的OpenMPI - 高性能计算 HPC
在HPC集群上运行IB驱动自带的OpenMPI 操作场景 该任务指导用户在已配置好的弹性云服务器上,运行IB驱动自带的MPI应用(3.0.0rc6版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。 操作步骤 使
-
IB驱动自带的OpenMPI - 高性能计算 HPC
IB驱动自带的OpenMPI 操作场景 该任务指导用户在BMS集群上运行IB驱动自带的MPI应用(3.1.0rc2版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装IB驱动自带的OpenMPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
-
鲲鹏裸金属服务器支持使用的MPI - 高性能计算 HPC
鲲鹏裸金属服务器支持使用的MPI HPC当前支持的MPI包括: 驱动自带的OpenMPI 社区OpenMPI MPICH 以下小节的内容详细介绍了MPI的安装与使用,您可以根据需要选择合适的MPI进行安装。 父主题: 安装和使用MPI(鲲鹏BMS场景)
-
安装和使用IB驱动自带的Open MPI - 高性能计算 HPC
安装和使用IB驱动自带的Open MPI 操作场景 该任务指导用户在鲲鹏BMS集群上运行IB驱动自带的MPI应用(以版本4.0.2a1为例)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装IB驱动自带的OpenMPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。
-
裸金属服务器场景支持使用的MPI - 高性能计算 HPC
裸金属服务器场景支持使用的MPI HPC当前支持的MPI包括: 驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 以下小节的内容详细介绍了MPI的安装与使用,您可以根据需要选择合适的MPI进行安装。 父主题: 安装和使用MPI(X86