-
在HPC集群上运行Intel MPI - 高性能计算 HPC
对集群中所有的ECS,执行以下命令,为IB驱动配置IP地址。 # ifconfig ib0 192.168.23.34/24 # ifconfig ib0 192.168.23.35/24 ... IP地址可随意指定,但需要在同一网段内。 在ECS中使用以下命令,验证连通性。 # ping 192.168
-
在HPC集群上运行Platform MPI - 高性能计算 HPC
对集群中所有的ECS,执行以下命令,为IB驱动配置IP地址。 # ifconfig ib0 192.168.23.34/24 # ifconfig ib0 192.168.23.35/24 ... IP地址可随意指定,但需要在同一网段内。 在ECS中使用以下命令,验证连通性。 # ping 192.168
-
在HPC集群上运行社区OpenMPI - 高性能计算 HPC
已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。 操作步骤 使用“PuTTY”,采用密钥对方式登录弹性云服务器。 登录用户为创建弹性云服务器时指定的用户名。 执行以下命令,防止系统超时退出。 # TMOUT=0 执行以下命令,验证参
-
方法一:购买高性能计算解决方案 - 高性能计算 HPC
S服务。 ICMP协议:用于ping云服务器之间的通信情况。 22端口:用于Linux云服务器的SSH方式登录。 3389端口:用于Windows云服务器的远程桌面登录。 网卡 在下拉列表中选择可用的子网。 弹性公网IP 弹性公网IP是指将公网IP地址和路由网络中关联的弹性云服务
-
STAR-CCM+启动相关问题 - 高性能计算 HPC
STAR-CCM+启动相关问题 STAR-CCM+使用OpenMPI启动时,命令中有"-x"和"--mca"导致启动失败 问题现象: STAR-CCM+使用OpenMPI启动时候命令中同时有"-x"和"--mca"会启动失败,OpenMPI不支持"-x"参数和"--mca"同时使用,报错如下图所示。
-
在HPC集群上运行Spectrum MPI - 高性能计算 HPC
已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。 操作步骤 使用“PuTTY”,采用密钥对方式登录弹性云服务器。 登录用户为创建弹性云服务器时指定的用户名。 执行以下命令,防止系统超时退出。 # TMOUT=0 执行以下命令,验证参
-
在HPC集群上运行IB驱动自带的OpenMPI - 高性能计算 HPC
执行以下命令,关闭弹性云服务器的防火墙。 # iptables -F # service firewalld stop 执行以下命令,退出root权限。 # exit 执行以下命令,添加hostfile文件。 # vi hostfile 添加的内容为弹性云服务器的IP地址或者主机
-
配置单个ECS免密登录 - 高性能计算 HPC
~/.ssh $ mv *.pem id_rsa 执行以下命令,给密钥文件配置权限。 $ sudo chmod 600 id_rsa 执行以下命令,查询主机名。 # hostname 执行以下命令,添加本主机私网IP地址和主机名。 # vi /etc/hosts 示例: 192.168
-
配置ECS集群互相免密登录 - 高性能计算 HPC
普通用户切换至管理员用户,请使用命令sudo su。 前提条件 已成功创建ECS集群,并绑定了弹性IP进行登录。 操作步骤 使用“PuTTY”,采用密钥对方式登录集群中任意一台ECS。 执行以下命令,防止系统超时退出。 # TMOUT=0 执行以下命令,添加集群中所有主机的私网IP地址和主机名。 #
-
安装和使用社区OpenMPI - 高性能计算 HPC
执行以下命令,导入配置的MPI环境变量。 $ source ~/.bashrc 执行以下命令,查看MPI环境变量是否正常。 $ which mpirun 图3 环境变量正常 回显如图3所示表示环境变量正常。 执行以下命令,在单个BMS上运行社区OpenMPI。 执行以下命令,生成可执行文件。
-
安装和使用Intel MPI - 高性能计算 HPC
128/lib64 执行下列命令,导入环境变量。 $ source ~/.bashrc 执行下列命令,查看是否导入成功。 $ which mpirun 图2 Intel MPI环境变量导入成功 回显结果如图2所示,表示环境变量导入成功。 执行以下命令,在单个BMS上运行Intel
-
Intel MPI - 高性能计算 HPC
128/lib64 执行下列命令,导入环境变量。 # source ~/.bashrc 执行下列命令,查看是否导入成功。 # which mpirun 图2 环境变量导入成功 回显结果如图2所示,表示环境变量导入成功。 执行以下命令,在单个ECS上运行Intel MPI。 执行以下命令,重新生成可执行文件。
-
Spectrum MPI - 高性能计算 HPC
将1中下载的MPI软件包上传至运行MPI的弹性云服务器内。 执行以下命令,切换至root用户。 $ sudo su - 执行以下命令,设置环境变量。 如果选择自动接受IBM Spectrum MPI安装许可协议,执行以下命令: # export IBM_SPECTRUM_MPI_LICENSE_ACCEPT=yes
-
安装和使用MPICH - 高性能计算 HPC
执行下列命令,导入环境变量。 $ source ~/.bashrc 执行下列命令,查看是否导入成功。 $ which mpirun 图2 MPICH环境变量导入成功 回显结果如图2所示,表示环境变量导入成功。 执行以下命令,在单个BMS上运行MPICH。 执行以下命令,生成可执行文件。
-
安装和使用Spectrum MPI - 高性能计算 HPC
执行以下命令,设置环境变量。 如果选择自动接受IBM Spectrum MPI安装许可协议,执行以下命令: # export IBM_SPECTRUM_MPI_LICENSE_ACCEPT=yes 如果选择手动接受IBM Spectrum MPI安装许可协议,执行以下命令: # export
-
安装和使用IB驱动自带的Open MPI - 高性能计算 HPC
0-rhel7.3-x86_64.tgz”。 下载地址:https://network.nvidia.com/products/infiniband-drivers/linux/mlnx_ofed/ 图2 IB驱动的下载页面 执行以下命令,安装软件包。 # yum install tk
-
安装和使用社区OpenMPI - 高性能计算 HPC
执行以下命令,导入配置的MPI环境变量。 $ source ~/.bashrc 执行以下命令,查看MPI环境变量是否正常。 $ which mpirun 图3 环境变量正常 回显如图3所示表示环境变量正常。 执行以下命令,在单个BMS上运行社区OpenMPI。 执行以下命令,生成可执行文件。
-
安装和使用IB驱动自带的Open MPI - 高性能计算 HPC
6alternate-aarch64.tgz”。 下载地址:https://network.nvidia.com/products/infiniband-drivers/linux/mlnx_ofed/ 图2 IB驱动的下载页面 执行以下命令,安装软件包。 # yum install tk
-
IB驱动自带的OpenMPI - 高性能计算 HPC
检查是否已安装IB驱动。 使用“PuTTY”,采用密钥对方式登录弹性云服务器。 执行以下命令,切换为root 用户。 $ sudo su 执行以下命令,防止系统超时退出。 # TMOUT=0 执行以下命令,查询是否已安装IB驱动。 # rpm -qa | grep mlnx-ofa #
-
创建支持IB网卡的弹性云服务器 - 高性能计算 HPC
传,允许云服务器操作系统直接访问底层存储介质。除了简单的SCSI读写命令,SCSI类型的云硬盘还支持更高级的SCSI命令。 说明: 如果不勾选,默认创建VBD类型的云硬盘,该类型云硬盘只支持简单的SCSI读写命令。 共享盘:勾选后,数据盘为共享云硬盘。该共享盘可以同时挂载给多台云服务器使用。