-
在HPC集群上运行Spectrum MPI - 高性能计算 HPC
host-192-168-0-75 /root/spe_hello 图1 在集群上通过Spectrum MPI运行可执行文件 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用
-
在HPC集群上运行Intel MPI - 高性能计算 HPC
/root/intel_hello hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 图3 集群上运行Intel MPI成功 父主题: 在HPC集群上运行MPI应用
-
在HPC集群上运行Platform MPI - 高性能计算 HPC
llo路径需为绝对路径,集群中所有可执行文件在同一路径下。 图3 集群上运行Platform MPI成功 父主题: 在HPC集群上运行MPI应用
-
在HPC集群上运行社区OpenMPI - 高性能计算 HPC
在HPC集群上运行社区OpenMPI 操作场景 该任务指导用户在已配置好的弹性云服务器上,运行社区MPI应用(3.1.1版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。 操作步骤 使用“PuTTY”,采用密钥对方式登录弹性云服务器。
-
在HPC集群上运行IB驱动自带的OpenMPI - 高性能计算 HPC
在HPC集群上运行IB驱动自带的OpenMPI 操作场景 该任务指导用户在已配置好的弹性云服务器上,运行IB驱动自带的MPI应用(3.0.0rc6版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。 操作步骤 使
-
创建裸金属服务器集群 - 高性能计算 HPC
创建裸金属服务器集群 操作场景 若您需要将您的服务部署在裸金属服务器上,首先需要购买裸金属服务器。 购买须知 专属物理资源 如果您希望裸金属服务器运行在隔离的专属区域,请您先申请专属云,再创建裸金属服务器。 了解和申请专属云,请参见《专属云用户指南》。 如果您希望裸金属服务器拥有独享
-
在HPC集群上运行MPI应用 - 高性能计算 HPC
在HPC集群上运行MPI应用 在HPC集群上运行IB驱动自带的OpenMPI 在HPC集群上运行社区OpenMPI 在HPC集群上运行Spectrum MPI 在HPC集群上运行Intel MPI 在HPC集群上运行Platform MPI 父主题: 弹性云服务器场景典型应用
-
创建支持IB网卡的弹性云服务器 - 高性能计算 HPC
{volumeId} 如果数据盘状态为可用,则可以将其挂载至弹性云服务器上。 执行以下命令,挂载可用的数据盘至弹性云服务器。 nova volume-attach {serverId} {volumeId} device_name 示例: nova volume-attach f6959ab0
-
在HPC集群上运行MPI应用(X86 BMS场景) - 高性能计算 HPC
在HPC集群上运行MPI应用(X86 BMS场景) 该任务指导以CentOS7.3的OS为例在集群上运行MPI应用。 IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 裸金属服务器场景典型应用
-
在HPC集群上运行MPI应用(鲲鹏BMS场景) - 高性能计算 HPC
在HPC集群上运行MPI应用(鲲鹏BMS场景) 该任务指导以CentOS 7.6的操作系统为例在集群上运行MPI应用。 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用MPICH 父主题: 裸金属服务器场景典型应用
-
创建弹性云服务器 - 高性能计算 HPC
购买弹性云服务器 登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 单击"",选择“计算 > 弹性云服务器”。 单击“购买弹性云服务器”,系统进入购买页后按图1步骤进行操作。 图1 购买弹性云服务器 父主题: 实施步骤
-
Platform MPI - 高性能计算 HPC
hostfile /home/rhel/hello 图3 BMS集群上Platform MPI运行成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
-
安装和使用MPICH - 高性能计算 HPC
1~步骤2.2执行以下命令, 在单个BMS上通过MPICH运行可执行文件。 $ mpirun -np 2 -hostfile /home/rhel/hostfile /home/rhel/hello 图2 集群上运行MPICH成功 hostfile文件在运行时需要指定路径,可执行文件he
-
安装和使用社区OpenMPI - 高性能计算 HPC
依次登录集群中所有BMS,重复执行步骤2.1~步骤2.2。 在任意一台BMS中执行以下命令,运行社区Open MPI。 以两个BMS为例: $ mpirun -np 2 --pernode -hostfile hostfile /home/rhel/hello 图2 集群上运行社区OpenMPI成功
-
Spectrum MPI - 高性能计算 HPC
hostfile /home/rhel/hello 图3 集群上运行Spetrum MPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
-
Intel MPI - 高性能计算 HPC
hostfile /home/rhel/hello 图3 BMS集群上运行Intel MPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
-
社区OpenMPI - 高性能计算 HPC
hostfile /home/rhel/hello 图3 集群上运行社区OpenMPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
-
弹性云服务器场景支持使用的MPI - 高性能计算 HPC
弹性云服务器场景支持使用的MPI HPC当前支持的MPI包括: 驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 以下小节的内容详细介绍了MPI的安装与使用,您可以根据需要选择合适的MPI进行安装。 父主题: 安装和使用MPI
-
STAR-CCM+部署HPC集群流程图 - 高性能计算 HPC
STAR-CCM+部署HPC集群流程图 本文档介绍如何通过仿真软件STAR-CCM+部署HPC集群,流程如图1所示。 图1 基于STAR-CCM+部署HPC集群流程图 父主题: 基于STAR-CCM+部署HPC集群
-
IB驱动自带的OpenMPI - 高性能计算 HPC
1.0rc2/tests/imb/IMB-MPI1 PingPong 图4 集群运行IB驱动自带OpenMPI 系统回显如图4所示,表示集群上运行IB驱动自带的OpenMPI成功。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)