检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
RDMA RDMA概念 远程直接内存访问(即Remote Direct Memory Access)是一种直接内存访问技术,它将数据直接从一台计算机的内存传输到另一台计算机,无需尤其是面对高性能计算HPC、大数据分析和浪涌型IO高并发、低时延应用,现有TCP/IP软硬件架构和应用
配置节点互信 配置节点互信免密登录 STAR-CCM+集群运行时候需要跨节点运行,推荐使用互信免密登录。 # 生成ssh公钥和私钥 ssh-key-gen # 拷贝公钥到指定主机的~/.ssh/authorized_key文件中 ssh-copy-id root@目标主机IP 例如:ssh-copy-id
安装和使用社区OpenMPI 操作场景 本节指导用户在BMS上安装和使用社区OpenMPI(以4.0.2版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装OpenMPI。 下载社区OpenMPI,版本号为“openmpi-4
在HPC集群上运行MPI应用(X86 BMS场景) 该任务指导以CentOS7.3的OS为例在集群上运行MPI应用。 IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 裸金属服务器场景典型应用
通讯录安装 Udapl安装和测试 Udapl安装 cd /root wget https://linux.mellanox.com/public/repo/mlnx_ofed/4.1-1.0.2.0/SRPMS/dapl-2.1.10mlnx-OFED.3.4.2.1.0.41102
RoCE网络问题 dtest或rping打流测试网络双向不通问题 问题现象: dtest/rping打流测试网络双向不通问题:A机器作为Server端,B机器作为Client端,dtest/rping测试RoCE网络异常;调换A、B机器角色,B机器作为Server端,A机器作为C
安装和使用Platform MPI 操作场景 本节指导用户在BMS集群上安装和使用Platform MPI应用(以版本platform_mpi- 09.01.04.03r-ce.bin为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。
安装和使用社区OpenMPI 操作场景 本节指导用户在BMS上安装和使用社区OpenMPI(以3.1.1版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装HPC-X工具套件。 使用社区OpenMPI时,需要同时使用Mellanox的HPC-X
创建HPC私有镜像 前提条件 创建镜像需选择ECS系统盘镜像。 需修改镜像属性才能在ECS创建界面的C6h规格中选择到相应的镜像。 镜像获取 请联系技术支持进行操作。 创建系统盘镜像 请使用镜像文件创建系统盘镜像,需注意镜像用途选择ECS系统盘镜像如图1,选择启动方式为UEFI图2,否则系统无法启动。
创建SFS Turbo 功能介绍 SFS Turbo提供按需扩展的高性能文件存储(NAS),可为云上多个弹性云服务器(Elastic Cloud Server,ECS),容器(CCE&CCI),裸金属服务器(BMS)提供共享访问,能够弹性伸缩至320TB规模,具备高可用性和持久性
安装和使用MPICH 操作场景 该任务指导用户在BMS集群上运行MPICH应用(mpich-3.3.2版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装MPICH。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
Platform MPI 操作场景 该任务指导用户在BMS集群上运行Platform MPI应用(platform_mpi- 09.01.04.03r-ce.bin版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装Platform MPI。 操作步骤
安装和使用社区OpenMPI 操作场景 该任务指导用户在BMS集群上运行社区OpenMPI(以4.0.2版本为例))。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装社区OpenMPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
在HPC集群上运行Platform MPI 操作场景 该任务指导用户在ECS集群(以CentOS7.3为例)上运行Platform MPI应用(以版本platform_mpi-09.01.04.03r-ce为例)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。
STAR-CCM+启动相关问题 STAR-CCM+使用OpenMPI启动时,命令中有"-x"和"--mca"导致启动失败 问题现象: STAR-CCM+使用OpenMPI启动时候命令中同时有"-x"和"--mca"会启动失败,OpenMPI不支持"-x"参数和"--mca"同时使用,报错如下图所示。
在HPC集群上运行Intel MPI 操作场景 该任务指导用户在ECS集群(以CentOS7.3为例)上运行Intel MPI应用(l_mpi_2018.0.128版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。
在HPC集群上运行Spectrum MPI 操作场景 该任务指导用户在已配置好的弹性云服务器上,运行Spectrum MPI应用(IBM Spectrum MPI v10.1)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。
在HPC集群上运行社区OpenMPI 操作场景 该任务指导用户在已配置好的弹性云服务器上,运行社区MPI应用(3.1.1版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。 操作步骤 使用“PuTTY”,采用密钥对方式登录弹性云服务器。
STAR-CCM+部署HPC集群流程图 本文档介绍如何通过仿真软件STAR-CCM+部署HPC集群,流程如图1所示。 图1 基于STAR-CCM+部署HPC集群流程图 父主题: 基于STAR-CCM+部署HPC集群
社区OpenMPI 操作场景 该任务指导用户在BMS集群上运行社区OpenMPI(以3.1.1版本为例)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装社区OpenMPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。