-
查看HPC集群 - 高性能计算 HPC
-
在HPC集群上运行社区OpenMPI - 高性能计算 HPC
已使用私有镜像创建多个弹性云服务器。 操作步骤 使用“PuTTY”,采用密钥对方式登录弹性云服务器。 登录用户为创建弹性云服务器时指定的用户名。 执行以下命令,防止系统超时退出。 # TMOUT=0 执行以下命令,验证参加测试的弹性云服务器之间是否可以免密码互相登录。 $ ssh 用户名@SERVER_IP
-
STAR-CCM+安装与运行 - 高性能计算 HPC
命令查看 关闭超线程 系统默认关闭,如果是打开的,需要进行关闭。 判断系统是否开启超线程。 通过查询系统的物理核数和逻辑核数的关系可以判断是否开启多线程,如果:逻辑核数 = 物理核数,说明没有开超线程;逻辑核数 = 2*物理核数,说明系统开启了多线程。 Linux系统可以通过查询/pr
-
挂载共享目录 - 高性能计算 HPC
执行mount -a 备注: 192.168.0.15:/ 是从sfs turbo console中获取到的挂载的路径。 第1个1表示备份文件系统,第2个1表示从/分区的顺序开始fsck磁盘检测,0表示不检测,_rnetdev 表示主机无法挂载直接跳过,避免无法挂载主机无法启动。 设置服务开机自启动
-
安装和使用Platform MPI - 高性能计算 HPC
04.03r-ce.bin 安装Platform MPI。 # ./platform_mpi-09.01.04.03r-ce.bin 根据系统提示安装Platform MPI,默认安装到“/opt/ibm/platform_mpi”文件夹下。 图1 Platform MPI成功安装
-
在HPC集群上运行Spectrum MPI - 高性能计算 HPC
已使用私有镜像创建多个弹性云服务器。 操作步骤 使用“PuTTY”,采用密钥对方式登录弹性云服务器。 登录用户为创建弹性云服务器时指定的用户名。 执行以下命令,防止系统超时退出。 # TMOUT=0 执行以下命令,验证参加测试的弹性云服务器之间是否可以免密码互相登录。 $ ssh 用户名@SERVER_IP
-
安装和使用IB驱动自带的Open MPI - 高性能计算 HPC
/usr/mpi/gcc/openmpi-4.0.2a1/tests/imb/IMB-MPI1 PingPong 图3 集群运行IB驱动自带OpenMPI 系统回显如图3所示,表示集群上运行IB驱动自带的OpenMPI成功。 父主题: 在HPC集群上运行MPI应用(鲲鹏BMS场景)
-
IB驱动自带的OpenMPI - 高性能计算 HPC
/usr/mpi/gcc/openmpi-3.1.0rc2/tests/imb/IMB-MPI1 PingPong 图4 集群运行IB驱动自带OpenMPI 系统回显如图4所示,表示集群上运行IB驱动自带的OpenMPI成功。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
-
在HPC集群上运行MPI应用(X86 BMS场景) - 高性能计算 HPC
在HPC集群上运行MPI应用(X86 BMS场景) 该任务指导以CentOS7.3的OS为例在集群上运行MPI应用。 IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 裸金属服务器场景典型应用
-
安装和使用MPI(X86 BMS场景) - 高性能计算 HPC
安装和使用MPI(X86 BMS场景) 该任务指导以CentOS7.3的OS为例在单节点上运行MPI应用。 裸金属服务器场景支持使用的MPI 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用Spectrum MPI 安装和使用Intel MPI 安装和使用Platform
-
在HPC集群上运行IB驱动自带的OpenMPI - 高性能计算 HPC
已使用私有镜像创建多个弹性云服务器。 操作步骤 使用“PuTTY”,采用密钥对方式登录弹性云服务器。 登录用户为创建弹性云服务器时指定的用户名。 执行以下命令,防止系统超时退出。 # TMOUT=0 执行以下命令,验证参加测试的弹性云服务器之间是否可以免密码互相登录。 $ ssh 用户名@SERVER_IP