检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
登录HPC-S²控制台。 单击左侧的“节点管理”。 在“节点管理”页上方的集群下拉框切换到要查看的集群,查看该集群的节点列表。 单击节点名称,跳转至对应的ECS列表页即可查看节点详细信息。 父主题: 查看HPC集群
查看集群扩容的进度 操作场景 集群扩容的命令下发之后,如需查看集群的扩容进度,可进入一站式HPC服务提供的“进度”页查看当前集群扩容的具体进展和详细信息。 操作步骤 登录HPC-S²控制台。 单击左侧的“集群管理”。 在“集群管理”页面选择要查看的集群,单击操作列的“进度”进入查看。
在HPC集群上运行Intel MPI 操作场景 该任务指导用户在ECS集群(以CentOS7.3为例)上运行Intel MPI应用(l_mpi_2018.0.128版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。
查看集群创建进度 操作场景 集群创建的命令下发之后,如需查看集群的创建进度,可进入一站式HPC服务提供的“进度”页查看当前集群创建的具体进展和详细信息。 操作步骤 登录HPC-S²控制台。 单击左侧的“集群管理”。 在“集群管理”页面选择要查看的集群,单击操作列的“进度”进入查看。
在“集群管理”页面选择要查看的集群,单击集群名称查看集群详情页。 在集群的详情页面可查看集群ID、状态、所在区域、虚拟私有云、安全组、节点信息以及共享存储以及集群的关系图等信息。 父主题: 查看HPC集群
在HPC集群上运行Platform MPI 操作场景 该任务指导用户在ECS集群(以CentOS7.3为例)上运行Platform MPI应用(以版本platform_mpi-09.01.04.03r-ce为例)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。
查看集群缩容的进度 操作场景 集群缩容的命令下发之后,如需查看集群的缩容进度,可进入一站式HPC服务提供的“进度”页查看当前集群缩容的具体进展和详细信息 操作步骤 登录HPC-S²控制台。 单击左侧的“集群管理”。 在“集群管理”页面选择要查看的集群,单击操作列的“进度”进入查看。
/root/spe_hello 图1 在集群上通过Spectrum MPI运行可执行文件 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用
4T-inletsystem-blockqian-case2.sim total_core_num:运行STAR-CCM+指定的物理核数。 ip1,ip2:运行STAR-CCM+指定的主机信息。 core_num1,core_num2:指定每个主机运行的物理核数。 MPI_HASIC_UDAPL:在/etc/dat
entering MPI_Finalize 在Linux集群上部署您自己的MPI 应用,并参考上述MPI运行方法,在Linux 集群中运行MPI 程序。 父主题: 在HPC集群上运行MPI应用
entering MPI_Finalize 在Linux集群上部署您自己的MPI应用,并参考上述MPI运行方法,在Linux集群中运行MPI程序。 父主题: 在HPC集群上运行MPI应用
执行以下命令,在BMS集群运行Intel MPI。 以两台BMS为例: $ mpirun -perhost 2 -np 12 -machinefile hostfile /home/rhel/hello 图3 BMS集群上运行Intel MPI成功 hostfile文件在运行时需要指定路径,
0rc2/tests/imb/IMB-MPI1 PingPong 图4 集群运行IB驱动自带OpenMPI 系统回显如图4所示,表示集群上运行IB驱动自带的OpenMPI成功。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
2执行以下命令, 在单个BMS上通过MPICH运行可执行文件。 $ mpirun -np 2 -hostfile /home/rhel/hostfile /home/rhel/hello 图2 集群上运行MPICH成功 hostfile文件在运行时需要指定路径,可执行文件hello路径
f。 执行以下命令,在BMS集群上运行社区OpenMPI。 $ mpirun -np 12 -machinefile hostfile /home/rhel/hello 图3 BMS集群上Platform MPI运行成功 hostfile文件在运行时需要指定路径,可执行文件hell
在任意一台BMS中执行以下命令,运行社区Open MPI。 以两个BMS为例: $ mpirun -np 2 --pernode -hostfile hostfile /home/rhel/hello 图2 集群上运行社区OpenMPI成功 hostfile文件在运行时需要指定路径,可执行
2a1/tests/imb/IMB-MPI1 PingPong 图3 集群运行IB驱动自带OpenMPI 系统回显如图3所示,表示集群上运行IB驱动自带的OpenMPI成功。 父主题: 在HPC集群上运行MPI应用(鲲鹏BMS场景)
执行以下命令,在单个BMS上通过Spectrum MPI运行可执行文件。 $ mpirun -np 2 -pernode --hostfile hostfile /home/rhel/hello 图3 集群上运行Spetrum MPI成功 hostfile文件在运行时需要指定路径,可执行文件hello
在任意一台BMS中执行以下命令,运行社区Open MPI。 以两个BMS为例: $ mpirun -np 2 --pernode -hostfile hostfile /home/rhel/hello 图3 集群上运行社区OpenMPI成功 hostfile文件在运行时需要指定路径,可执行