检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在HPC集群上运行Platform MPI 操作场景 该任务指导用户在ECS集群(以CentOS7.3为例)上运行Platform MPI应用(以版本platform_mpi-09.01.04.03r-ce为例)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。
在HPC集群上运行Intel MPI 操作场景 该任务指导用户在ECS集群(以CentOS7.3为例)上运行Intel MPI应用(l_mpi_2018.0.128版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。
host-192-168-0-75 /root/spe_hello 图1 在集群上通过Spectrum MPI运行可执行文件 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用
在部署/创建集群过程中出现某个节点未加入集群或者不存在需要怎么办? 问题描述 在部署/创建集群过程中,如果出现某个节点未加入集群或节点不存在,那么集群将无法正常部署/创建。 处理方法 可删除集群重新创建,选择其中创建成功的计算节点手动绑定EIP,然后和其他计算节点重新创建集群。
在HPC集群上运行IB驱动自带的OpenMPI 操作场景 该任务指导用户在已配置好的弹性云服务器上,运行IB驱动自带的MPI应用(3.0.0rc6版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。 操作步骤 使
集群创建提交失败,提示集群配额不足怎么办? 每个用户只能创建最多3个集群,当集群数量达到上限后会提示该错误,如需创建新集群,可先将不使用或者异常状态的集群进行删除,然后再重新创建集群。 父主题: 常见问题
依次登录集群中所有BMS,重复执行2.e~2.f。 执行以下命令,在单个BMS上通过Spectrum MPI运行可执行文件。 $ mpirun -np 2 -pernode --hostfile hostfile /home/rhel/hello 图3 集群上运行Spetrum MPI成功 hostfi
hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
hostfile /home/rhel/hello 图3 集群上运行社区OpenMPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
依次登录集群中所有BMS,重复执行2.e~2.f。 执行以下命令,在BMS集群上运行社区OpenMPI。 $ mpirun -np 12 -machinefile hostfile /home/rhel/hello 图3 BMS集群上Platform MPI运行成功 hostfile文件在
依次登录集群中所有BMS,重复执行步骤2.1~步骤2.2执行以下命令, 在单个BMS上通过MPICH运行可执行文件。 $ mpirun -np 2 -hostfile /home/rhel/hostfile /home/rhel/hello 图2 集群上运行MPICH成功 hostfile文件在运行时需
集群创建任务提交失败,提示“Insufficient EIP quota”怎么办? 问题描述 集群创建任务提交失败,提示“Insufficient EIP quota”。 处理方法 您可以选择以下任一处理方法: EIP配额不足,创建集群时“弹性公网IP”可选择“使用已有”项。 E
hostfile /home/rhel/hello 图2 集群上运行社区OpenMPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用(鲲鹏BMS场景)
0rc2/tests/imb/IMB-MPI1 PingPong 图4 集群运行IB驱动自带OpenMPI 系统回显如图4所示,表示集群上运行IB驱动自带的OpenMPI成功。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
2a1/tests/imb/IMB-MPI1 PingPong 图3 集群运行IB驱动自带OpenMPI 系统回显如图3所示,表示集群上运行IB驱动自带的OpenMPI成功。 父主题: 在HPC集群上运行MPI应用(鲲鹏BMS场景)
集群的管理节点为运行状态,但是集群异常提示“master node cannot reached”怎么办? 问题描述 集群的管理节点为运行状态,但是集群异常提示“master node cannot reached”。 处理方法 检查“/etc/ssh/sshd_config”配
为什么集群被删除后还在计费? 在部署/创建集群过程中出现某个节点未加入集群或者不存在需要怎么办? 集群云服务器节点创建完成,但在部署过程中失败了能否修复? 集群创建任务提交失败,提示“Insufficient EIP quota”怎么办? 集群创建提交失败,提示集群配额不足怎么办? 集群的管理
over InfiniBand),指利用物理IB网络(包括服务器上的IB卡、IB连接线、IB交换机等)通过IP协议进行连接,并进行数据传输。 它提供了基于RDMA之上的IP网络模拟层,允许应用无修改的运行在InfiniBand网络上。但是,IPoIB性能比RDMA通信方式性能要低,大多数
回显结果如图2所示,表示环境变量导入成功。 执行以下命令,在单个ECS上运行Intel MPI。 执行以下命令,重新生成可执行文件。 # cd # mpicc hello.c -o intel_hello 执行以下命令,在单个ECS上运行Intel MPI。 # mpirun -np 2
Platform MPI环境变量导入成功 执行下列命令,在单个ECS上运行Platform MPI。 执行以下命令,重新编译hello.c文件。 # mpicc hello.c -o platform_hello 执行以下命令,在单个ECS上运行Platform MPI。 # mpirun