检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
processes entering MPI_Finalize 在Linux集群上部署您自己的MPI 应用,并参考上述MPI运行方法,在Linux 集群中运行MPI 程序。 父主题: 在HPC集群上运行MPI应用
单个用户可创建集群的上限为3个。 单个集群中的计算节点的上限为2000个。 集群创建/扩容时,节点不能添加数据盘,如需使用,用户需手动挂载。 当前不支持集群恢复操作,创建失败或扩容失败的节点无法自动恢复。 集群创建/扩容时,公共镜像当前只支持CentOS 7系列。 集群/节点执行删除操
Platform MPI 操作场景 本节指导用户在ECS上安装和使用Platform MPI应用(以版本platform_mpi-09.01.04.03r-ce为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装Platform MPI。 执行以下命令,安装需要的库文件。
安装和使用Platform MPI 操作场景 本节指导用户在BMS集群上安装和使用Platform MPI应用(以版本platform_mpi- 09.01.04.03r-ce.bin为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。
3及其之后的版本 前提条件 已配置弹性云服务器免密登录。 操作步骤 获取软件包。 获取IBM Spectrum MPI软件包。 下载地址:https://www-01.ibm.com/marketing/iwm/iwm/web/preLogin.do?source=swerpsysz-lsf-3
“export PATH=/home/openmpi-run/openmpi-4.0.1/bin:$PATH” >> /root/.bashrc 验证MPI运行在RoCE网络上 执行以下命令,安装iproute2。 yum -y install iproute* 执行以下命令,查看RoCE上是否有流量。
操作场景 本节指导用户在ECS上安装和使用Intel MPI应用(以版本l_mpi_2018.0.128为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装Intel MPI。 下载Intel MPI。 下载地址:https://software.intel.com/en-us/intel-mpi-library
ip2:运行STAR-CCM+指定的主机信息。 core_num1,core_num2:指定每个主机运行的物理核数。 hiroce gids:查下设备名和index。 UCX_NET_DEVICES: hiroce gids查到的有ip一行的ib_dev的值,:后面的值为port的id。
本节指导用户在鲲鹏BMS集群上安装和使用MPICH应用(以版本mpich-3.3.2为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装MPICH。 下载MPICH。 下载地址:https://aur.archlinux.org/packages/mpich/
本节指导用户在BMS集群上安装和使用Intel MPI应用(以版本l_mpi_2018.0.128为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装Intel MPI。 下载Intel MPI。 下载地址:https://software.intel
常见的标准操作系统镜像,所有用户可见,包括操作系统以及预装的公共应用。请根据您的实际情况自助配置应用环境或相关软件。 私有镜像 用户基于弹性云服务器创建的个人镜像,仅用户自己可见。包含操作系统、预装的公共应用以及用户的私有应用。选择私有镜像创建弹性云服务器,可以节省您重复配置弹性云服务器的时间。
已配置BMS集群间互相免密登录。 操作步骤 安装OpenMPI。 下载社区OpenMPI,版本号为“openmpi-4.0.2.tar.bz2”。 下载地址:https://download.open-mpi.org/release/open-mpi/v4.0/openmpi-4.0.2.tar.bz2
在HPC集群上运行MPI应用 在HPC集群上运行IB驱动自带的OpenMPI 在HPC集群上运行社区OpenMPI 在HPC集群上运行Spectrum MPI 在HPC集群上运行Intel MPI 在HPC集群上运行Platform MPI 父主题: 弹性云服务器场景典型应用
在HPC集群上运行MPI应用(鲲鹏BMS场景) 该任务指导以CentOS 7.6的操作系统为例在集群上运行MPI应用。 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用MPICH 父主题: 裸金属服务器场景典型应用
在HPC集群上运行MPI应用(X86 BMS场景) 该任务指导以CentOS7.3的OS为例在集群上运行MPI应用。 IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 裸金属服务器场景典型应用
低时延应用,现有TCP/IP软硬件架构和应用高CPU消耗的技术特征根本不能满足应用的需求。 RDMA优势 零复制:零复制网络技术使网卡可以直接与应用内存相互传输数据,从而消除了在应用内存与内核之间复制数据的需要。因此,传输延迟会显著减小。 内核旁路:内核协议栈旁路技术使应用程序无
3的HPC-X版本是“hpcx-v2.2.0-gcc-MLNX_OFED_LINUX-4.3-1.0.1.0-redhat7.3-x86_64.tbz”。 下载地址:https://developer.nvidia.com/networking/hpc-x 将下载的软件包拷贝到BMS内(建议在“/home/rhel”目录下)。
IB驱动,执行3。 如果返回值与图1不同,表示弹性云服务器未安装IB驱动,执行2。 下载并安装对应的IB驱动。 在Mellanox官网https://network.nvidia.com/products/infiniband-drivers/linux/mlnx_ofed/,选
下载安装包“MLNX_OFED_LINUX-4.6-1.0.1.1-rhel7.6alternate-aarch64.tgz”。 下载地址:https://network.nvidia.com/products/infiniband-drivers/linux/mlnx_ofed/ 图2
安装和使用MPICH 操作场景 该任务指导用户在BMS集群上运行MPICH应用(mpich-3.3.2版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装MPICH。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。