检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
hostfile /home/rhel/hello 图3 集群上运行Spetrum MPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
hostfile /home/rhel/hello 图3 集群上运行社区OpenMPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
hostfile /home/rhel/hello 图3 BMS集群上运行Intel MPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
鲲鹏裸金属服务器支持使用的MPI HPC当前支持的MPI包括: 驱动自带的OpenMPI 社区OpenMPI MPICH 以下小节的内容详细介绍了MPI的安装与使用,您可以根据需要选择合适的MPI进行安装。 父主题: 安装和使用MPI(鲲鹏BMS场景)
1版本的OpenMPI为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装HPC-X工具套件。 下载需要的HPC-X工具套件以及OpenMPI。 使用社区OpenMPI时,需要同时使用Mellanox的HPC-X 套件,HPC-X 的下载需要参考弹性云服务器操作系统的版本以及IB驱动版本
集群云服务器节点创建完成,但在部署过程中失败了能否修复? 将集群删除,不要勾选“删除云服务器”,使用已有节点部署集群的方法重新部署集群。 父主题: 常见问题
c,关闭所有BMS的防火墙。 修改配置文件。 登录集群中任意一台BMS。 执行以下命令,查看BMS的主机名。 $ hostname 图2 查看BMS的主机名 依次登录集群中所有BMS,重复执行1.b~2.b,获取所有BMS的主机名。 登录集群中任意一台BMS。 执行以下命令,添加hosts配置文件。 # vi
弹性云服务器场景典型应用 创建支持IB网卡的弹性云服务器 配置单个ECS免密登录 安装和使用MPI 制作私有镜像 创建应用集群 配置ECS集群互相免密登录 在HPC集群上运行MPI应用
裸金属服务器场景典型应用 创建裸金属服务器集群 配置BMS集群互相免密登录 安装和使用MPI(X86 BMS场景) 安装和使用MPI(鲲鹏BMS场景) 在HPC集群上运行MPI应用(X86 BMS场景) 在HPC集群上运行MPI应用(鲲鹏BMS场景)
本节指导用户安装和使用IB驱动自带的OpenMPI(以版本3.0.0rc6为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 检查是否已安装IB驱动。 使用“PuTTY”,采用密钥对方式登录弹性云服务器。 执行以下命令,切换为root 用户。 $ sudo su 执行以下命令,防止系统超时退出。
裸金属服务器场景支持使用的MPI HPC当前支持的MPI包括: 驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 以下小节的内容详细介绍了MPI的安装与使用,您可以根据需要选择合适的MPI进行安装。 父主题: 安装和使用MPI(X86
确认关闭防火墙成功 依次登录集群中所有BMS,重复执行步骤1.2~步骤1.3,关闭所有BMS的防火墙。 修改配置文件。 登录集群中任意一台BMS, 执行以下命令,添加hosts配置文件。 # vi /etc/hosts 添加的内容为集群中所有BMS的私网IP和主机名,例如: 192.168
使用私有镜像创建的弹性云服务器创建成功后,您可以在弹性云服务器列表页查看详情,这些云服务器将被用作HPC集群。 API方式 以创建H2型ECS集群为例: URI POST /v1/{$tenant_id}/cloudservers 请求样例 假设需要批量创建4台弹性云服务器,则修改count值为4,请求样例如下:
弹性云服务器场景最佳实践 HPC断点续算计算方案 基于STAR-CCM+部署HPC集群
使用“PuTTY”,采用密钥对方式登录集群中任意一台ECS。 执行以下命令,防止系统超时退出。 # TMOUT=0 将ECS对应的密钥文件(.pem文件,假设为*.pem)拷贝至.ssh目录下,命名为“id_rsa”。 $ cd ~/.ssh $ mv *.pem id_rsa 执行以下命令,给密钥文件配置权限。 $
执行以下命令,在单个BMS上运行Intel MPI。 执行以下命令,生成可执行文件。 $ mpicc hello.c -o hello 执行以下命令,在单个BMS上运行Intel MPI。 $ mpirun -np 2 /home/rhel/hello 图3 在单个BMS上运行Intel MPI
mpicc hello.c -o hello 不同版本的MPI运行的hello文件是不同的,都需要使用命令mpicc hello.c -o hello对hello.c文件重新编译。 执行以下命令,在单个BMS上运行社区OpenMPI。 $ mpirun -np 2 /home/rhel/hello
器作为Server端,A机器作为Client端,dtest/rping测试RoCE网络仍异常。 解决方案: 1.请检查集群中每个节点的配置文件/etc/dat.conf中"ofa-v2-cma-roe-enp177s0"是否放在首行且每个节点都一致。 2.若以上方法无法解决,请联系技术支持处理。
STAR-CCM+15 tar zxvf STAR-CCM+15.02.009_01_linux-x86_64-r8.tar.gz cd starccm+_15.02.009 sh STAR-CCM+15.02.009_01_linux-x86_64-2.12_gnu7.1-r8.sh # 从STAR
在单个BMS上通过Spectrum MPI运行可执行文件。 假设hello.c文件在“/home/rhel/”目录下,生成的可执行文件名为hello,执行以下命令: $ cd /home/rhel/ $ mpicc hello.c -o hello 执行以下命令,在单个BMS上通过Spectrum