-
安装和使用Intel MPI - 高性能计算 HPC
MPI。 执行以下命令,生成可执行文件。 $ mpicc hello.c -o hello 执行以下命令,在单个BMS上运行Intel MPI。 $ mpirun -np 2 /home/rhel/hello 图3 在单个BMS上运行Intel MPI 父主题: 安装和使用MPI(X86
-
基于STAR-CCM+部署HPC集群 - 高性能计算 HPC
基于STAR-CCM+部署HPC集群 方案概述 资源和成本规划 STAR-CCM+部署HPC集群流程图 实施步骤 附录 父主题: 弹性云服务器场景最佳实践
-
IB驱动自带的OpenMPI - 高性能计算 HPC
0rc6/lib64 执行以下命令,导入配置的MPI环境变量。 # source ~/.bashrc 执行以下命令,查看MPI环境变量是否正常。 # which mpirun 图2 查看MPI环境变量 系统回显结果如图2所示,则环境配置正常。 执行以下命令,在单个弹性云服务器上运行Intel MPI
-
方案概述 - 高性能计算 HPC
示:大规模云化HPC性能损耗不大。 约束与限制 MPI和通讯库的版本需要提前适配RoCE,请联系技术支持进行操作,建议使用推荐版本运行STAR-CCM+。 目前仅c6h.22xlarge.2.physical、c6h.22xlarge.4.physical规格支持RoCE,其它规格暂不支持。
-
创建SFS Turbo - 高性能计算 HPC
Turbo 功能介绍 SFS Turbo提供按需扩展的高性能文件存储(NAS),可为云上多个弹性云服务器(Elastic Cloud Server,ECS),容器(CCE&CCI),裸金属服务器(BMS)提供共享访问,能够弹性伸缩至320TB规模,具备高可用性和持久性,为海量的小
-
安装和使用MPI(X86 BMS场景) - 高性能计算 HPC
3的OS为例在单节点上运行MPI应用。 裸金属服务器场景支持使用的MPI 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用Spectrum MPI 安装和使用Intel MPI 安装和使用Platform MPI 父主题: 裸金属服务器场景典型应用
-
资源和成本规划 - 高性能计算 HPC
6 虚拟私有云(VPC) 为云服务器等云上资源构建隔离、私密的虚拟网络环境。 华为 1 以华为云管理控制台显示为准。 7 云硬盘(EVS) 为ECS、BMS等计算服务提供持久性块存储的服务。 华为 >1 以华为云管理控制台显示为准。 8 对象存储服务(OBS) 提供海量、安全、高可靠、低成本的数据存储能力。
-
实施步骤 - 高性能计算 HPC
实施步骤 创建HPC私有镜像 创建弹性云服务器 配置节点互信 创建SFS Turbo 挂载共享目录 通讯录安装 MPI安装 STAR-CCM+安装与运行 父主题: 基于STAR-CCM+部署HPC集群
-
附录 - 高性能计算 HPC
附录 常见问题 主要概念 父主题: 基于STAR-CCM+部署HPC集群
-
MPI安装 - 高性能计算 HPC
验证MPI运行在RoCE网络上 执行以下命令,安装iproute2。 yum -y install iproute* 执行以下命令,查看RoCE上是否有流量。 rdma res show 若MPI运行中,回显结果中qp 数量较大(大于1),则证明运行在 RoCE 网络上: 无业务时
-
创建HPC私有镜像 - 高性能计算 HPC
创建镜像需选择ECS系统盘镜像。 需修改镜像属性才能在ECS创建界面的C6h规格中选择到相应的镜像。 镜像获取 请联系技术支持进行操作。 创建系统盘镜像 请使用镜像文件创建系统盘镜像,需注意镜像用途选择ECS系统盘镜像如图1,选择启动方式为UEFI图2,否则系统无法启动。 图1 创建系统盘镜像
-
主要概念 - 高性能计算 HPC
主要概念 RDMA RoCE 父主题: 附录
-
安装和使用MPICH - 高性能计算 HPC
c -o hello 执行以下命令,在单个BMS上运行MPICH。 $ mpirun -np 2 /home/rhel/hello 图3 在单个BMS上运行MPICH 父主题: 安装和使用MPI(鲲鹏BMS场景)
-
STAR-CCM+安装与运行 - 高性能计算 HPC
009-R8/mpi/openmpi/4.0.1-cda-002/linux-x86_64-2.12 执行以下命令,运行ldconfig。 ldconfig 执行以下命令,运行STAR-CCM+。 /opt/Siemens/15.02.009-R8/STAR-CCM+15.02.
-
通讯录安装 - 高性能计算 HPC
ofa-v2-cma-roe-enp177s0 -v -h 192.168.0.96 ofa-v2-cma-roe-enp177s0是上一步/etc/dat.conf中首行配置的名称; client端的192.168.0.96是server端的ip。 验证通过的观测指标:client和server端都出现DAPL
-
常见问题 - 高性能计算 HPC
常见问题 RoCE网络问题 STAR-CCM+启动相关问题 父主题: 附录
-
安装和使用社区OpenMPI - 高性能计算 HPC
ib 执行以下命令,导入配置的MPI环境变量。 $ source ~/.bashrc 执行以下命令,查看MPI环境变量是否正常。 $ which mpirun 图3 环境变量正常 回显如图3所示表示环境变量正常。 执行以下命令,在单个BMS上运行社区OpenMPI。 执行以下命令,生成可执行文件。
-
挂载共享目录 - 高性能计算 HPC
168.0.15:/ /opt/Siemens nfs vers=3,timeo=600,nolock 0 0" >> /etc/fstab 执行mount -a 备注: 192.168.0.15:/ 是从sfs turbo console中获取到的挂载的路径。 第1个1表示备份文件系
-
安装和使用Spectrum MPI - 高性能计算 HPC
/home/rhel/ $ mpicc hello.c -o hello 执行以下命令,在单个BMS上通过Spectrum MPI运行可执行文件。 $ mpirun -np 2 /home/rhel/hello 图2 单BMS上运行Spectrum MPI成功 父主题: 安装和使用MPI(X86
-
安装和使用Platform MPI - 高性能计算 HPC
如果存在多个pkey,使用英文逗号隔开。 执行以下命令,检查环境变量是否配置成功。 # which mpirun 图3 检查环境变量 在单个BMS上运行Platform MPI。 执行以下命令,重新编译hello.c文件。 $ mpicc hello.c -o hello 执行以下命令,在单个BMS上运行Platform