-
安装和使用Platform MPI - 高性能计算 HPC
03r-ce.bin 安装Platform MPI。 # ./platform_mpi-09.01.04.03r-ce.bin 根据系统提示安装Platform MPI,默认安装到“/opt/ibm/platform_mpi”文件夹下。 图1 Platform MPI成功安装 配置环境变量。
-
安装和使用社区OpenMPI - 高性能计算 HPC
安装和使用社区OpenMPI 操作场景 本节指导用户在BMS上安装和使用社区OpenMPI(以3.1.1版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装HPC-X工具套件。 使用社区OpenMPI时,需要同时使用Mellanox的HPC-X
-
主要概念 - 高性能计算 HPC
主要概念 RDMA RoCE 父主题: 附录
-
通讯录安装 - 高性能计算 HPC
通讯录安装 Udapl安装和测试 Udapl安装 cd /root wget https://linux.mellanox.com/public/repo/mlnx_ofed/4.1-1.0.2.0/SRPMS/dapl-2.1.10mlnx-OFED.3.4.2.1.0.41102
-
在HPC集群上运行MPI应用 - 高性能计算 HPC
在HPC集群上运行Spectrum MPI 在HPC集群上运行Intel MPI 在HPC集群上运行Platform MPI 父主题: 弹性云服务器场景典型应用
-
RoCE - 高性能计算 HPC
RoCE RoCE概念 RDMA over Converged Ethernet (RoCE)是一种网络协议,允许应用通过以太网实现远程内存访问。目前RoCE有两个协议版本,v1和v2。其中RoCE v1是一种链路层协议,允许在同一个广播域下的任意两台主机直接访问。而RoCE v
-
挂载共享目录 - 高性能计算 HPC
第1个1表示备份文件系统,第2个1表示从/分区的顺序开始fsck磁盘检测,0表示不检测,_rnetdev 表示主机无法挂载直接跳过,避免无法挂载主机无法启动。 设置服务开机自启动 systemctl enable rpcbind systemctl enable nfs 父主题: 实施步骤
-
安装和使用Spectrum MPI - 高性能计算 HPC
如果选择手动接受IBM Spectrum MPI安装许可协议,执行以下命令: # export IBM_SPECTRUM_MPI_LICENSE_ACCEPT=no 安装License部分。 选择自动接受IBM Spectrum MPI安装许可协议的,执行以下命令: # rpm -ivh
-
在HPC集群上运行MPI应用(鲲鹏BMS场景) - 高性能计算 HPC
在HPC集群上运行MPI应用(鲲鹏BMS场景) 该任务指导以CentOS 7.6的操作系统为例在集群上运行MPI应用。 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用MPICH 父主题: 裸金属服务器场景典型应用
-
安装和使用IB驱动自带的Open MPI - 高性能计算 HPC
安装和使用IB驱动自带的Open MPI 操作场景 本节操作指导用户在BMS上安装和使用IB驱动自带的Open MPI(以版本4.0.2a1为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 查询是否安装了IB驱动 执行以下命令,查询是否已成功安装IB驱动。
-
常见问题 - 高性能计算 HPC
常见问题 RoCE网络问题 STAR-CCM+启动相关问题 父主题: 附录
-
安装和使用社区OpenMPI - 高性能计算 HPC
安装和使用社区OpenMPI 操作场景 该任务指导用户在BMS集群上运行社区OpenMPI(以4.0.2版本为例))。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装社区OpenMPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
-
安装和使用MPICH - 高性能计算 HPC
安装和使用MPICH 操作场景 该任务指导用户在BMS集群上运行MPICH应用(mpich-3.3.2版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装MPICH。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
-
在HPC集群上运行Platform MPI - 高性能计算 HPC
依次登录集群中所有ECS,重复执行步骤1.1~步骤1.3,关闭所有ECS的防火墙。 修改配置文件。 登录集群中任意一台ECS。 执行以下命令,查看ECS的主机名。 # hostname 图2 查看ECS的主机名 依次登录集群中所有ECS,重复执行步骤2.1~步骤2.2,获取所有ECS的主机名。
-
创建HPC私有镜像 - 高性能计算 HPC
创建HPC私有镜像 前提条件 创建镜像需选择ECS系统盘镜像。 需修改镜像属性才能在ECS创建界面的C6h规格中选择到相应的镜像。 镜像获取 请联系技术支持进行操作。 创建系统盘镜像 请使用镜像文件创建系统盘镜像,需注意镜像用途选择ECS系统盘镜像如图1,选择启动方式为UEFI图2,否则系统无法启动。
-
在HPC集群上运行Intel MPI - 高性能计算 HPC
依次登录集群中所有ECS,重复执行1.a~1.c,关闭所有ECS的防火墙。 修改配置文件。 登录集群中任意一台ECS。 执行以下命令,查看ECS的主机名。 # hostname 图2 查看主机名 依次登录集群中所有ECS,重复执行2.a~2.b,获取所有ECS的主机名。 登录集群中任意一台ECS。
-
STAR-CCM+安装与运行 - 高性能计算 HPC
Linux系统可以通过查询/proc/cpuinfo文件得到和cpu相关的信息,所需要参数解释如下: cat /proc/cpuinfo physical id:【处理器个数】物理cpu序列(最大序列为物理cpu数+1) core id:【cpu物理核数】物理核数序列(最大序列为物理核数+1) processor:
-
安装和使用IB驱动自带的Open MPI - 高性能计算 HPC
安装和使用IB驱动自带的Open MPI 操作场景 本节指导用户在BMS上安装和使用IB驱动自带的Open MPI(以版本3.1.0rc2为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 查询是否安装了IB驱动。 执行以下命令,查询是否已成功安装IB驱动。
-
Spectrum MPI - 高性能计算 HPC
操作场景 该任务指导用户在BMS集群上运行Spectrum MPI应用(10.01.01版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装Spectrum MPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
-
Intel MPI - 高性能计算 HPC
该任务指导用户在BMS集群上运行Intel MPI应用(l_mpi_2017.3.196版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装Spectrum MPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。