检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置BMS集群互相免密登录 操作场景 该任务指导用户在BMS集群上进行相关设置,并使其可以相互免密登录。 背景信息 $:表示在普通用户下,执行相关操作。 #:表示在管理员用户下,执行相关操作。 普通用户切换至管理员用户,请使用命令sudo su。 前提条件 已成功创建BMS,并绑定了弹性IP进行登录。
创建弹性云服务器 弹性云服务器C6h实例介绍 C6h实例为弹性云服务器下的一款裸金属产品,相比于普通的裸金属产品,C6h实例除了提供标准的以太网卡,还提供了一个支持RoCE协议的网卡,而RoCE协议相比于普通的以太协议最大的优势在于时延极低,特别适合HPC场景低时延业务。 购买弹性云服务器 登录管理控制台。
配置单个ECS免密登录 操作场景 该任务指导用户在单个弹性云服务器内执行相关配置,使其可以免密登录。 背景信息 $:表示在普通用户下,执行相关操作。 #:表示在管理员用户下,执行相关操作。 普通用户切换至管理员用户,请使用命令sudo su。 前提条件 已成功创建弹性云服务器,并绑定了弹性IP进行登录。
相互免密登录。仅支持在使用密钥登录弹性云服务器的情况下配置ECS集群互相免密登录。 背景信息 $:表示在普通用户下,执行相关操作。 #:表示在管理员用户下,执行相关操作。 普通用户切换至管理员用户,请使用命令sudo su。 前提条件 已成功创建ECS集群,并绑定了弹性IP进行登录。
bashrc 运行Platform MPI下的STAR-CCM+ 设置路径。 将/etc/ld.so.conf.d/ibm_mpi.conf中内容改为如下内容: /opt/Siemens/15.02.009-R8/STAR-CCM+15.02.009-R8/mpi/openmpi/4.0
企业分支、科研组织机构等跨全球地理位置进行及时协同工作,提高效率。 可以利用公有云的跨地域能力,共享计算资源,海量数据,并能实现云端大数据分析。 优化性能 性能比普通云服务器提高30%。 通过虚拟化优化(SR-IOV、PCI直通)等,各类测试报告显示:大规模云化HPC性能损耗不大。 HPC与云服务的关系
128.tgz # cd l_mpi_2018.0.128/ # ./install.sh 图1 Intel MPI安装成功 配置环境变量。 普通用户下,在“~/.bashrc”中添加如下语句: export PATH=$PATH:/opt/intel/impi/2018.0.128/bin64
128.tgz # cd l_mpi_2018.0.128/ # ./install.sh 图1 Intel MPI成功安装 配置环境变量。 普通用户下,在“~/.bashrc”中添加: export PATH=$PATH:/opt/intel/impi/2018.0.128/bin64
--with-mxm=/opt/hpcx-v2.2.0/mxm # make all install 图2 OpenMPI安装成功 配置MPI环境变量。 普通用户下,在“~/.bashrc”中添加如下环境变量: export PATH=$PATH:/opt/openmpi-310/bin export
CXXFLAGS=-fPIC FCFLAGS=-fPIC # make -j 128 && make install 图1 MPCHI成功安装 配置环境变量。 普通用户下,在“~/.bashrc”中添加: export PATH=/opt/mpich-332/bin: $PATH export LD_
/sys/class/infiniband/mlx5_0/ports/1/pkeys/* | grep -v 0000 图2 查询pkey值 普通用户下,在~/.bashrc中添加如下语句: export MPI_ROOT=/opt/ibm/platform_mpi export P
安装和使用Spectrum MPI 操作场景 本节指导用户在BMS集群上安装和使用Spectrum MPI应用(以版本10.01.01为例)。 对于集群中的每台BMS,都需要执行该操作。 背景信息 IBM Spectrum MPI v10.1版本当前支持的操作系统列表如下: IBM
--with-ucx=/opt/ucx160 # make -j 128 && make install 图2 OpenMPI安装成功 配置MPI环境变量。 普通用户下,在“~/.bashrc”中添加如下环境变量: export PATH=$PATH:/opt/openmpi-310/bin export
企业分支、科研组织机构等跨全球地理位置进行及时协同工作,提高效率。 可以利用公有云的跨地域能力,共享计算资源,海量数据,并能实现云端大数据分析。 优化性能 性能比普通云服务器大幅提升。 通过虚拟化优化(SR-IOV、PCI直通)等,各类测试报告显示:大规模云化HPC性能损耗不大。 约束与限制 MPI和通
/sys/class/infiniband/mlx5_0/ports/1/pkeys/* | grep -v 0000 图2 获取pkey 普通用户下,在~/.bashrc中添加: export MPI_ROOT=/opt/ibm/platform_mpi export PATH=$MPI_ROOT/bin:$PATH
修订记录 发布日期 修订记录 2022-08-10 第十次正式发布 新增基于STAR-CCM+部署HPC集群 2021-08-11 第九次正式发布。 新增 1.1-图解HPC解决方案 2019-02-15 第八次正式发布。 新增 配额调整 2018-09-30 第七次正式发布。 修改
HPC断点续算计算方案 操作场景 在HPC领域很多应用本身是支持断点续算功能的,例如LAMMPS, GROMACS。同时HPC常用的调度软件也对断点续算有集成支持,如PBS、Slurm与LSF等。 本节以LAMMPS为例,介绍如何在HPC进行断点续算。 步骤1 安装FFTW 依次执行以下命令,安装FFTW软件。
通讯录安装 Udapl安装和测试 Udapl安装 cd /root wget https://linux.mellanox.com/public/repo/mlnx_ofed/4.1-1.0.2.0/SRPMS/dapl-2.1.10mlnx-OFED.3.4.2.1.0.41102
HPC-S²与其他服务的关系 服务名称 HPC-S²与其他服务的关系 主要交互功能 弹性云服务器(ECS) 购买弹性云服务器创建HPC集群或使用已有弹性云服务器部署HPC集群。 自定义购买ECS 虚拟私有云(VPC) 同一个HPC场景的云服务器,都位于同一个VPC中,并且需要使用
社区OpenMPI 操作场景 该任务指导用户在BMS集群上运行社区OpenMPI(以3.1.1版本为例)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装社区OpenMPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。