-
挂载共享目录 - 高性能计算 HPC
设置服务开机自启动 systemctl enable rpcbind systemctl enable nfs 父主题: 实施步骤
-
创建HPC私有镜像 - 高性能计算 HPC
创建HPC私有镜像 前提条件 创建镜像需选择ECS系统盘镜像。 需修改镜像属性才能在ECS创建界面的C6h规格中选择到相应的镜像。 镜像获取 请联系技术支持进行操作。 创建系统盘镜像 请使用镜像文件创建系统盘镜像,需注意镜像用途选择ECS系统盘镜像如图1,选择启动方式为UEFI图2
-
创建SFS Turbo - 高性能计算 HPC
创建SFS Turbo 功能介绍 SFS Turbo提供按需扩展的高性能文件存储(NAS),可为云上多个弹性云服务器(Elastic Cloud Server,ECS),容器(CCE&CCI),裸金属服务器(BMS)提供共享访问,能够弹性伸缩至320TB规模,具备高可用性和持久性,
-
通讯录安装 - 高性能计算 HPC
通讯录安装 Udapl安装和测试 Udapl安装 cd /root wget https://linux.mellanox.com/public/repo/mlnx_ofed/4.1-1.0.2.0/SRPMS/dapl-2.1.10mlnx-OFED.3.4.2.1.0.41102
-
在HPC集群上运行MPI应用(X86 BMS场景) - 高性能计算 HPC
IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 裸金属服务器场景典型应用
-
安装和使用社区OpenMPI - 高性能计算 HPC
安装和使用社区OpenMPI 操作场景 本节指导用户在BMS上安装和使用社区OpenMPI(以4.0.2版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装OpenMPI。 下载社区OpenMPI,版本号为“openmpi
-
配置节点互信 - 高性能计算 HPC
配置节点互信 配置节点互信免密登录 STAR-CCM+集群运行时候需要跨节点运行,推荐使用互信免密登录。 # 生成ssh公钥和私钥 ssh-key-gen # 拷贝公钥到指定主机的~/.ssh/authorized_key文件中 ssh-copy-id root@目标主机IP 例如
-
安装和使用Intel MPI - 高性能计算 HPC
安装和使用Intel MPI 操作场景 本节指导用户在BMS集群上安装和使用Intel MPI应用(以版本l_mpi_2018.0.128为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装Intel MPI。 下载Intel
-
在HPC集群上运行IB驱动自带的OpenMPI - 高性能计算 HPC
操作步骤 使用“PuTTY”,采用密钥对方式登录弹性云服务器。 登录用户为创建弹性云服务器时指定的用户名。 执行以下命令,防止系统超时退出。 # TMOUT=0 执行以下命令,验证参加测试的弹性云服务器之间是否可以免密码互相登录。
-
RoCE网络问题 - 高性能计算 HPC
RoCE网络问题 dtest或rping打流测试网络双向不通问题 问题现象: dtest/rping打流测试网络双向不通问题:A机器作为Server端,B机器作为Client端,dtest/rping测试RoCE网络异常;调换A、B机器角色,B机器作为Server端,A机器作为Client
-
集群云服务器节点创建完成,但在部署过程中失败了能否修复? - 高性能计算 HPC
集群云服务器节点创建完成,但在部署过程中失败了能否修复? 将集群删除,不要勾选“删除云服务器”,使用已有节点部署集群的方法重新部署集群。 父主题: 常见问题
-
STAR-CCM+部署HPC集群流程图 - 高性能计算 HPC
STAR-CCM+部署HPC集群流程图 本文档介绍如何通过仿真软件STAR-CCM+部署HPC集群,流程如图1所示。 图1 基于STAR-CCM+部署HPC集群流程图 父主题: 基于STAR-CCM+部署HPC集群
-
Spectrum MPI - 高性能计算 HPC
Spectrum MPI 操作场景 该任务指导用户在BMS集群上运行Spectrum MPI应用(10.01.01版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装Spectrum MPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令
-
Intel MPI - 高性能计算 HPC
Intel MPI 操作场景 该任务指导用户在BMS集群上运行Intel MPI应用(l_mpi_2017.3.196版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装Spectrum MPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令
-
社区OpenMPI - 高性能计算 HPC
社区OpenMPI 操作场景 该任务指导用户在BMS集群上运行社区OpenMPI(以3.1.1版本为例)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装社区OpenMPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙
-
在HPC集群上运行社区OpenMPI - 高性能计算 HPC
在HPC集群上运行社区OpenMPI 操作场景 该任务指导用户在已配置好的弹性云服务器上,运行社区MPI应用(3.1.1版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。
-
安装和使用社区OpenMPI - 高性能计算 HPC
安装和使用社区OpenMPI 操作场景 本节指导用户在BMS上安装和使用社区OpenMPI(以3.1.1版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装HPC-X工具套件。 使用社区OpenMPI时,需要同时使用Mellanox
-
安装和使用Spectrum MPI - 高性能计算 HPC
安装和使用Spectrum MPI 操作场景 本节指导用户在BMS集群上安装和使用Spectrum MPI应用(以版本10.01.01为例)。 对于集群中的每台BMS,都需要执行该操作。 背景信息 IBM Spectrum MPI v10.1版本当前支持的操作系统列表如下: IBM
-
安装和使用Platform MPI - 高性能计算 HPC
安装和使用Platform MPI 操作场景 本节指导用户在BMS集群上安装和使用Platform MPI应用(以版本platform_mpi- 09.01.04.03r-ce.bin为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。
-
安装和使用MPICH - 高性能计算 HPC
安装和使用MPICH 操作场景 该任务指导用户在BMS集群上运行MPICH应用(mpich-3.3.2版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装MPICH。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。