检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
回显结果如图2所示,表示环境变量导入成功。 执行以下命令,在单个ECS上运行Intel MPI。 执行以下命令,重新生成可执行文件。 # cd # mpicc hello.c -o intel_hello 执行以下命令,在单个ECS上运行Intel MPI。 # mpirun -np 2 /root/intel_hello
执行以下命令,在单个BMS上运行Intel MPI。 执行以下命令,生成可执行文件。 $ mpicc hello.c -o hello 执行以下命令,在单个BMS上运行Intel MPI。 $ mpirun -np 2 /home/rhel/hello 图3 在单个BMS上运行Intel MPI
配置BMS集群互相免密登录 安装和使用MPI(X86 BMS场景) 安装和使用MPI(鲲鹏BMS场景) 在HPC集群上运行MPI应用(X86 BMS场景) 在HPC集群上运行MPI应用(鲲鹏BMS场景)
执行以下命令,在单个BMS上运行MPICH。 执行以下命令,生成可执行文件。 $ mpicc hello.c -o hello 执行以下命令,在单个BMS上运行MPICH。 $ mpirun -np 2 /home/rhel/hello 图3 在单个BMS上运行MPICH 父主题: 安装和使用MPI(鲲鹏BMS场景)
MPI环境变量导入成功 执行下列命令,在单个ECS上运行Platform MPI。 执行以下命令,重新编译hello.c文件。 # mpicc hello.c -o platform_hello 执行以下命令,在单个ECS上运行Platform MPI。 # mpirun -np
CPU架构采用RISC精简指令集(RISC),RISC是一种执行较少类型计算机指令的微处理器,它能够以更快的速度执行操作,使计算机的结构更加简单合理地提高运行速度,相对于X86 CPU架构具有更加均衡的性能功耗比。鲲鹏的优势是高密度低功耗,可以提供更高的性价比。 选择“管理节点配置”。 规格:公
which mpirun 图3 检查环境变量 在单个BMS上运行Platform MPI。 执行以下命令,重新编译hello.c文件。 $ mpicc hello.c -o hello 执行以下命令,在单个BMS上运行Platform MPI。 $ mpirun -np 2 /home/rhel/hello
不同版本的MPI运行的hello文件是不同的,都需要使用命令mpicc hello.c -o hello对hello.c文件重新编译。 执行以下命令,在单个BMS上运行社区OpenMPI。 $ mpirun -np 2 /home/rhel/hello 图4 社区OpenMPI运行成功 回
MPI运行可执行文件。 假设hello.c文件在“/home/rhel/”目录下,生成的可执行文件名为hello,执行以下命令: $ cd /home/rhel/ $ mpicc hello.c -o hello 执行以下命令,在单个BMS上通过Spectrum MPI运行可执行文件。
创建HPC私有镜像 创建弹性云服务器 配置节点互信 创建SFS Turbo 挂载共享目录 通讯录安装 MPI安装 STAR-CCM+安装与运行 父主题: 基于STAR-CCM+部署HPC集群
创建支持IB网卡的弹性云服务器 配置单个ECS免密登录 安装和使用MPI 制作私有镜像 创建应用集群 配置ECS集群互相免密登录 在HPC集群上运行MPI应用
安装和使用MPI(X86 BMS场景) 该任务指导以CentOS7.3的OS为例在单节点上运行MPI应用。 裸金属服务器场景支持使用的MPI 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用Spectrum MPI 安装和使用Intel MPI 安装和使用Platform
which mpirun 图3 查看IB驱动自带的Open MPI环境变量 如果回显如图3所示,表示环境变量配置成功。 执行以下命令,在单台BMS上运行IB驱动自带的Open MPI。 $ mpirun -np 2 -mca btl_openib_if_include "mlx5_0:1"
集群创建任务提交失败,提示“Insufficient EIP quota”怎么办? 集群创建提交失败,提示集群配额不足怎么办? 集群的管理节点为运行状态,但是集群异常提示“master node cannot reached”怎么办?
该节点状态为“运行中”。 该节点绑定了弹性IP。 该节点不在当前账号下的其他集群中。 选择“安全组” 安全组为选定的管理节点所使用的安全组策略,如果有多个策略,可根据需要选择。 选择“计算节点” 计算节点的筛选需要满足以下条件: 当前指定区域的ECS节点。 计算节点状态为“运行中”。 计算节点与管理节点为相同的CPU架构。
mpirun 图5 查看IB 驱动自带的Open MPI 环境变量 如果回显如图5所示,表示环境变量配置成功。 执行以下命令,在单台BMS上运行IB驱动自带的Open MPI。 #mpirun -np 2 -mca btl_openib_if_include "mlx5_0:1" -x
CPPFLAGS="-I/usr/include" make make install Udapl配置修改 在/etc/dat.conf首行(放在末尾运行STAR-CCM+会有异常)加入如下配置。 ofa-v2-cma-roe-enp177s0 u2.0 nonthreadsafe default
Service,简称HPC-S²),主要面向对大规模计算有需求的企事业单位,为用户提供一站式可扩展的高性能计算,同时集成基础服务、业务软件等,实现一键式开通部署等功能,支持常用作业调度软件,例如slurm、sge及华为多瑙(Huawei commercial HPC Donau Sc
执行以下命令,查看MPI环境变量是否正常。 # which mpirun 图2 查看MPI环境变量 系统回显结果如图2所示,则环境配置正常。 执行以下命令,在单个弹性云服务器上运行Intel MPI benchmark。 # mpirun --allow-run-as-root -np 2 /usr/mpi/gcc/openmpi-3
which mpirun 图2 查看社区OpenMPI环境变量 系统回显结果如图2所示,则环境配置正常。 执行以下命令,在单个弹性云服务器上运行Intel MPI benchmark。 $ mpirun --allow-run-as-root -np 2 /usr/mpi/gcc/openmpi-3