-
RoCE网络问题 - 高性能计算 HPC
RoCE网络问题 dtest或rping打流测试网络双向不通问题 问题现象: dtest/rping打流测试网络双向不通问题:A机器作为Server端,B机器作为Client端,dtest/rping测试RoCE网络异常;调换A、B机器角色,B机器作为Server端,A机器作为C
-
在HPC集群上运行社区OpenMPI - 高性能计算 HPC
TMOUT=0 执行以下命令,验证参加测试的弹性云服务器之间是否可以免密码互相登录。 $ ssh 用户名@SERVER_IP 执行以下命令,关闭弹性云服务器的防火墙。 # iptables -F # service firewalld stop 执行以下命令,给参与测试的弹性云服务器配置主机名。
-
在HPC集群上运行Spectrum MPI - 高性能计算 HPC
执行以下命令,防止系统超时退出。 # TMOUT=0 执行以下命令,验证参加测试的弹性云服务器之间是否可以免密码互相登录。 $ ssh 用户名@SERVER_IP 执行以下命令,关闭弹性云服务器的防火墙。 # iptables -F # service firewalld stop
-
通讯录安装 - 高性能计算 HPC
通讯录安装 Udapl安装和测试 Udapl安装 cd /root wget https://linux.mellanox.com/public/repo/mlnx_ofed/4.1-1.0.2.0/SRPMS/dapl-2.1.10mlnx-OFED.3.4.2.1.0.41102
-
在HPC集群上运行IB驱动自带的OpenMPI - 高性能计算 HPC
执行以下命令,防止系统超时退出。 # TMOUT=0 执行以下命令,验证参加测试的弹性云服务器之间是否可以免密码互相登录。 $ ssh 用户名@SERVER_IP 执行以下命令,关闭弹性云服务器的防火墙。 # iptables -F # service firewalld stop
-
配置BMS集群互相免密登录 - 高性能计算 HPC
免密登录BMS 系统回显结果如图1所示,可以无密钥登录本节点,表示权限配置成功。 依次登录集群中其他BMS,重复执行步骤1~5。 执行以下命令,验证参加测试的BMS之间是否可以免密码互相登录。 $ ssh 用户名@SERVER_IP 父主题: 裸金属服务器场景典型应用
-
方案概述 - 高性能计算 HPC
可以利用公有云的跨地域能力,共享计算资源,海量数据,并能实现云端大数据分析。 优化性能 性能比普通云服务器大幅提升。 通过虚拟化优化(SR-IOV、PCI直通)等,各类测试报告显示:大规模云化HPC性能损耗不大。 约束与限制 MPI和通讯库的版本需要提前适配RoCE,请联系技术支持进行操作,建议使用推荐版本运行STAR-CCM+。
-
配置ECS集群互相免密登录 - 高性能计算 HPC
$ ssh localhost $ ssh hostname1 依次登录集群中其他ECS,重复执行步骤1~4。 执行以下命令,验证参加测试的ECS之间是否可以免密码互相登录。 假设集群中有2个弹性云服务器,另一个云服务器的主机名为hostname2,则命令行为: $ ssh 用户名@SERVER_IP
-
STAR-CCM+启动相关问题 - 高性能计算 HPC
STAR-CCM+启动时,报错“udapl version check failed” 解决方案: 1.请参考通信库安装章节的Udapl安装和测试中在/etc/dat.conf首行加入相应配置,需注意加在首行,放在末尾会出现提示“udapl version check failed”。
-
社区OpenMPI - 高性能计算 HPC
本节指导用户安装和使用社区OpenMPI(以3.1.1版本的OpenMPI为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装HPC-X工具套件。 下载需要的HPC-X工具套件以及OpenMPI。 使用社区OpenMPI时,需要同时使用Mellanox的HPC-X 套件,HPC-X 的下载需要
-
HPC和公有云 - 高性能计算 HPC
可以利用公有云的跨地域能力,共享计算资源,海量数据,并能实现云端大数据分析。 优化性能 性能比普通云服务器提高30%。 通过虚拟化优化(SR-IOV、PCI直通)等,各类测试报告显示:大规模云化HPC性能损耗不大。 HPC与云服务的关系 表1 所需云服务 云服务 作用 弹性云服务器(ECS) 用于在公有云平台上创建高性能计算服务器。
-
Platform MPI - 高性能计算 HPC
操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。 # service firewalld stop # iptables -F 执行以下命令,查看防火墙是否关闭成功。 # service firewalld status 图1 确认关闭防火墙成功 依次登录集群中所有BMS,重复执行1
-
Spectrum MPI - 高性能计算 HPC
操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。 # service firewalld stop # iptables -F 执行以下命令,查看防火墙是否关闭成功。 # service firewalld status 图1 确认关闭防火墙成功 依次登录集群中所有BMS,重复执行1
-
Intel MPI - 高性能计算 HPC
操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。 # service firewalld stop # iptables -F 执行以下命令,查看防火墙是否关闭成功。 # service firewalld status 图1 确认关闭防火墙成功 依次登录集群中所有BMS,重复执行1
-
安装和使用社区OpenMPI - 高性能计算 HPC
操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。 # service firewalld stop # iptables -F 执行以下命令,查看防火墙是否关闭成功。 # service firewalld status 图1 确认关闭防火墙成功 依次登录集群中所有BMS,重复执行步骤1
-
安装和使用MPICH - 高性能计算 HPC
操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。 # service firewalld stop # iptables -F 执行以下命令,查看防火墙是否关闭成功。 # service firewalld status 图1 确认关闭防火墙成功 依次登录集群中所有BMS,重复执行步骤1
-
社区OpenMPI - 高性能计算 HPC
操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。 # service firewalld stop # iptables -F 执行以下命令,查看防火墙是否关闭成功。 # service firewalld status 图1 确认关闭防火墙成功 依次登录集群中所有BMS,重复执行1
-
IB驱动自带的OpenMPI - 高性能计算 HPC
操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。 # service firewalld stop # iptables -F 执行以下命令,查看防火墙是否关闭成功。 # service firewalld status 图1 确认关闭防火墙成功 依次登录集群中所有BMS,重复执行1
-
安装和使用IB驱动自带的Open MPI - 高性能计算 HPC
操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。 # service firewalld stop # iptables -F 执行以下命令,查看防火墙是否关闭成功。 # service firewalld status 图1 确认关闭防火墙成功 依次登录集群中所有BMS,重复执行步骤1
-
在HPC集群上运行Platform MPI - 高性能计算 HPC
已使用私有镜像创建多个弹性云服务器。 操作步骤 关闭防火墙。 登录集群中任意一台ECS。 执行以下命令,关闭ECS防火墙。 # systemctl stop firewalld.service 执行以下命令,查看防火墙是否关闭成功。 # systemctl status firewalld