检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
STAR-CCM+部署HPC集群流程图 本文档介绍如何通过仿真软件STAR-CCM+部署HPC集群,流程如图1所示。 图1 基于STAR-CCM+部署HPC集群流程图 父主题: 基于STAR-CCM+部署HPC集群
图解HPC解决方案 父主题: 简介
创建HPC私有镜像 前提条件 创建镜像需选择ECS系统盘镜像。 需修改镜像属性才能在ECS创建界面的C6h规格中选择到相应的镜像。 镜像获取 请联系技术支持进行操作。 创建系统盘镜像 请使用镜像文件创建系统盘镜像,需注意镜像用途选择ECS系统盘镜像如图1,选择启动方式为UEFI图2,否则系统无法启动。
STAR-CCM+启动相关问题 STAR-CCM+使用OpenMPI启动时,命令中有"-x"和"--mca"导致启动失败 问题现象: STAR-CCM+使用OpenMPI启动时候命令中同时有"-x"和"--mca"会启动失败,OpenMPI不支持"-x"参数和"--mca"同时使用,报错如下图所示。
方案概述 方案应用 HPC提供了超高浮点计算能力解决方案,可用于解决计算密集型、海量数据处理等业务的计算需求,如科学研究、气象预报、计算模拟、军事研究、CAD/CAE、生物制药、基因测序、图像处理等,缩短需要的大量计算时间,提高计算精度。 方案架构 方案优势 降低TCO 可以按需
查看集群详情页面 操作场景 集群创建完成后,如需查看集群的详细信息,可进入一站式HPC服务提供的“集群详情”页,查看例如当前集群的ID、状态、所在区域、虚拟私有云、安全组、节点信息以及共享存储以及集群的关系图等信息。 操作步骤 登录HPC-S²控制台。 单击左侧的“集群管理”。
什么是HPC-S² HPC解决方案服务 高性能计算(High-performance computing,简称HPC)是一个计算机集群系统,通过管理节点对计算任务进行分解,交给不同的计算节点进行计算,以此来解决大型计算问题。在科学研究、气象预报、仿真实验、生物制药、基因测序、图像处理等行业均有广泛的应用。
HPC简介 什么是HPC 高性能计算(High-performance computing,HPC)是一个计算机集群系统,它通过各种互联技术将多个计算机系统连接在一起,利用所有被连接系统的综合计算能力来处理大型计算问题,所以又通常被称为高性能计算集群。 HPC的业务特点 科学研究
安装和使用IB驱动自带的Open MPI 操作场景 本节操作指导用户在BMS上安装和使用IB驱动自带的Open MPI(以版本4.0.2a1为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 查询是否安装了IB驱动 执行以下命令,查询是否已成功安装IB驱动。
HPC断点续算计算方案 操作场景 在HPC领域很多应用本身是支持断点续算功能的,例如LAMMPS, GROMACS。同时HPC常用的调度软件也对断点续算有集成支持,如PBS、Slurm与LSF等。 本节以LAMMPS为例,介绍如何在HPC进行断点续算。 步骤1 安装FFTW 依次执行以下命令,安装FFTW软件。
安装和使用IB驱动自带的Open MPI 操作场景 本节指导用户在BMS上安装和使用IB驱动自带的Open MPI(以版本3.1.0rc2为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 查询是否安装了IB驱动。 执行以下命令,查询是否已成功安装IB驱动。
IB驱动自带的OpenMPI 操作场景 该任务指导用户在BMS集群上运行IB驱动自带的MPI应用(3.1.0rc2版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装IB驱动自带的OpenMPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
安装和使用Intel MPI 操作场景 本节指导用户在BMS集群上安装和使用Intel MPI应用(以版本l_mpi_2018.0.128为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装Intel MPI。 下载Intel
Intel MPI 操作场景 本节指导用户在ECS上安装和使用Intel MPI应用(以版本l_mpi_2018.0.128为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装Intel MPI。 下载Intel MPI。 下载地址:https://software.intel
安装和使用IB驱动自带的Open MPI 操作场景 该任务指导用户在鲲鹏BMS集群上运行IB驱动自带的MPI应用(以版本4.0.2a1为例)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装IB驱动自带的OpenMPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。
安装和使用Platform MPI 操作场景 本节指导用户在BMS集群上安装和使用Platform MPI应用(以版本platform_mpi- 09.01.04.03r-ce.bin为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。
安装和使用MPICH 操作场景 本节指导用户在鲲鹏BMS集群上安装和使用MPICH应用(以版本mpich-3.3.2为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装MPICH。 下载MPICH。 下载地址:https://aur
安装和使用社区OpenMPI 操作场景 本节指导用户在BMS上安装和使用社区OpenMPI(以4.0.2版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装OpenMPI。 下载社区OpenMPI,版本号为“openmpi-4
Platform MPI 操作场景 本节指导用户在ECS上安装和使用Platform MPI应用(以版本platform_mpi-09.01.04.03r-ce为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装Platform MPI。 执行以下命令,安装需要的库文件。
安装和使用社区OpenMPI 操作场景 本节指导用户在BMS上安装和使用社区OpenMPI(以3.1.1版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装HPC-X工具套件。 使用社区OpenMPI时,需要同时使用Mellanox的HPC-X