检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置单个ECS免密登录 操作场景 该任务指导用户在单个弹性云服务器内执行相关配置,使其可以免密登录。 背景信息 $:表示在普通用户下,执行相关操作。 #:表示在管理员用户下,执行相关操作。 普通用户切换至管理员用户,请使用命令sudo su。 前提条件 已成功创建弹性云服务器,并绑定了弹性IP进行登录。
# which mpirun 图2 查看社区OpenMPI环境变量 系统回显结果如图2所示,则环境配置正常。 执行以下命令,在单个弹性云服务器上运行Intel MPI benchmark。 $ mpirun --allow-run-as-root -np 2 /usr/mpi/gcc/openmpi-3
提交作业,且运行期间无中断 在不中断作业的情况下,提交作业并运行,查看作业运行时间。 执行以下命令,提交作业。 qsub job.pbs 作业运行结束后,执行以下命令,查看作业信息。 qstat -f 作业ID 如图3所示,可以看到作业一共运行了4分10秒。 图3 运行作业不中断 步骤5
安装和使用MPI 弹性云服务器场景支持使用的MPI IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 弹性云服务器场景典型应用
e~2.f。 执行以下命令,在BMS集群上运行社区OpenMPI。 $ mpirun -np 12 -machinefile hostfile /home/rhel/hello 图3 BMS集群上Platform MPI运行成功 hostfile文件在运行时需要指定路径,可执行文件
1~步骤2.2执行以下命令, 在单个BMS上通过MPICH运行可执行文件。 $ mpirun -np 2 -hostfile /home/rhel/hostfile /home/rhel/hello 图2 集群上运行MPICH成功 hostfile文件在运行时需要指定路径,可执行文件
STAR-CCM+部署HPC集群流程图 本文档介绍如何通过仿真软件STAR-CCM+部署HPC集群,流程如图1所示。 图1 基于STAR-CCM+部署HPC集群流程图 父主题: 基于STAR-CCM+部署HPC集群
执行以下命令,在BMS集群运行Intel MPI。 以两台BMS为例: $ mpirun -perhost 2 -np 12 -machinefile hostfile /home/rhel/hello 图3 BMS集群上运行Intel MPI成功 hostfile文件在运行时需要指定
执行以下命令,在单个BMS上通过Spectrum MPI运行可执行文件。 $ mpirun -np 2 -pernode --hostfile hostfile /home/rhel/hello 图3 集群上运行Spetrum MPI成功 hostfile文件在运行时需要指定路径
在任意一台BMS中执行以下命令,运行社区Open MPI。 以两个BMS为例: $ mpirun -np 2 --pernode -hostfile hostfile /home/rhel/hello 图3 集群上运行社区OpenMPI成功 hostfile文件在运行时需要指定路径,可执行
在任意一台BMS中执行以下命令,运行社区Open MPI。 以两个BMS为例: $ mpirun -np 2 --pernode -hostfile hostfile /home/rhel/hello 图2 集群上运行社区OpenMPI成功 hostfile文件在运行时需要指定路径,可执行
配置ECS集群互相免密登录 操作场景 该任务指导用户在ECS集群上进行相关设置,并使其可以相互免密登录。仅支持在使用密钥登录弹性云服务器的情况下配置ECS集群互相免密登录。 背景信息 $:表示在普通用户下,执行相关操作。 #:表示在管理员用户下,执行相关操作。 普通用户切换至管理员用户,请使用命令sudo
实施步骤 创建HPC私有镜像 创建弹性云服务器 配置节点互信 创建SFS Turbo 挂载共享目录 通讯录安装 MPI安装 STAR-CCM+安装与运行 父主题: 基于STAR-CCM+部署HPC集群
科研周期。 使用灵活 在镜像模板中预制MPI库、编译库及优化配置,加快环境部署。 企业分支、科研组织机构等跨全球地理位置进行及时协同工作,提高效率。 可以利用公有云的跨地域能力,共享计算资源,海量数据,并能实现云端大数据分析。 优化性能 性能比普通云服务器大幅提升。 通过虚拟化优
执行以下命令,查看MPI环境变量是否正常。 # which mpirun 图2 查看MPI环境变量 系统回显结果如图2所示,则环境配置正常。 执行以下命令,在单个弹性云服务器上运行Intel MPI benchmark。 # mpirun --allow-run-as-root -np 2 /usr/mpi/gcc/openmpi-3
基于STAR-CCM+部署HPC集群 方案概述 资源和成本规划 STAR-CCM+部署HPC集群流程图 实施步骤 附录 父主题: 弹性云服务器场景最佳实践
0rc2/tests/imb/IMB-MPI1 PingPong 图4 集群运行IB驱动自带OpenMPI 系统回显如图4所示,表示集群上运行IB驱动自带的OpenMPI成功。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
配置节点互信 配置节点互信免密登录 STAR-CCM+集群运行时候需要跨节点运行,推荐使用互信免密登录。 # 生成ssh公钥和私钥 ssh-key-gen # 拷贝公钥到指定主机的~/.ssh/authorized_key文件中 ssh-copy-id root@目标主机IP 例如:ssh-copy-id
据,从而消除了在应用内存与内核之间复制数据的需要。因此,传输延迟会显著减小。 内核旁路:内核协议栈旁路技术使应用程序无需执行内核内存调用就可向网卡发送命令。在不需要任何内核内存参与的条件下,RDMA请求从用户空间发送到本地网卡并通过网络发送给远程网卡,这就减少了在处理网络传输流时
(RoCE)是一种网络协议,允许应用通过以太网实现远程内存访问。目前RoCE有两个协议版本,v1和v2。其中RoCE v1是一种链路层协议,允许在同一个广播域下的任意两台主机直接访问。而RoCE v2是一种Internet层协议,即可以实现路由功能。虽然RoCE协议这些好处都是基于融合