检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
STAR-CCM+部署HPC集群流程图 本文档介绍如何通过仿真软件STAR-CCM+部署HPC集群,流程如图1所示。 图1 基于STAR-CCM+部署HPC集群流程图 父主题: 基于STAR-CCM+部署HPC集群
physical id:【处理器个数】物理cpu序列(最大序列为物理cpu数+1) core id:【cpu物理核数】物理核数序列(最大序列为物理核数+1) processor: 逻辑核数序列(top看到的cpu数+1,包括超线程) 若 processor = [physical id]
not valid"。 解决方案: 1.请参照STAR-CCM+安装与运行中“运行OpenMPI下的STAR-CCM+”章节的命令填写正确的参数,注意如下参数取值和意义: total_core_num:运行STAR-CCM+指定的物理核数。 ip1,ip2:运行STAR-CCM+指定的主机信息。
tar -xvf l_mpi_2018.0.128.tgz # cd l_mpi_2018.0.128/ # ./install.sh 图1 Intel MPI成功安装 配置环境变量。 普通用户下,在“~/.bashrc”中添加: export PATH=$PATH:/opt/intel/impi/2018
为什么集群被删除后还在计费? 按需购买的集群删除时未勾选“删除云服务器”,因此只删除了集群信息,集群中的云服务器资源仍在继续扣费。 包周期类型的集群删除时只能删除集群信息,云服务器资源需要手动退订。 管理节点如使用购买EIP的选择,集群删除时,即使勾选了“删除云服务器”,绑定的EIP资源也不会删除,仍然正
裸金属服务器场景典型应用 创建裸金属服务器集群 配置BMS集群互相免密登录 安装和使用MPI(X86 BMS场景) 安装和使用MPI(鲲鹏BMS场景) 在HPC集群上运行MPI应用(X86 BMS场景) 在HPC集群上运行MPI应用(鲲鹏BMS场景)
裸金属服务器场景支持使用的MPI HPC当前支持的MPI包括: 驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 以下小节的内容详细介绍了MPI的安装与使用,您可以根据需要选择合适的MPI进行安装。 父主题: 安装和使用MPI(X86
鲲鹏裸金属服务器支持使用的MPI HPC当前支持的MPI包括: 驱动自带的OpenMPI 社区OpenMPI MPICH 以下小节的内容详细介绍了MPI的安装与使用,您可以根据需要选择合适的MPI进行安装。 父主题: 安装和使用MPI(鲲鹏BMS场景)
优化性能 性能比普通云服务器提高30%。 通过虚拟化优化(SR-IOV、PCI直通)等,各类测试报告显示:大规模云化HPC性能损耗不大。 HPC与云服务的关系 表1 所需云服务 云服务 作用 弹性云服务器(ECS) 用于在公有云平台上创建高性能计算服务器。 虚拟私有云(VPC)
在“集群管理”页面,对于不需要或异常的集群可进行删除操作。 按需类型集群 确定页可选择是否删除云服务器,如勾选,连同云服务器一同删除,如不勾选,则只删除集群信息,对应的云服务器节点仍保留,用户可通过弹性云服务器页面查看。 包周期类型集群 不能选择删除节点,包周期节点资源需手动退订。 混合类型集群删除
localhost 图1 免密登录BMS 系统回显结果如图1所示,可以无密钥登录本节点,表示权限配置成功。 依次登录集群中其他BMS,重复执行步骤1~5。 执行以下命令,验证参加测试的BMS之间是否可以免密码互相登录。 $ ssh 用户名@SERVER_IP 父主题: 裸金属服务器场景典型应用
3的OS为例在单节点上运行MPI应用。 裸金属服务器场景支持使用的MPI 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用Spectrum MPI 安装和使用Intel MPI 安装和使用Platform MPI 父主题: 裸金属服务器场景典型应用
我的配额”。 系统进入“服务配额”页面。 图1 我的配额 您可以在“服务配额”页面,查看各项资源的总配额及使用情况。 如果当前配额不能满足业务要求,请参考后续操作,申请扩大配额。 如何申请扩大配额? 登录管理控制台。 在页面右上角,选择“资源 > 我的配额”。 系统进入“服务配额”页面。 图2
HPC-S²与其他服务的关系 服务名称 HPC-S²与其他服务的关系 主要交互功能 弹性云服务器(ECS) 购买弹性云服务器创建HPC集群或使用已有弹性云服务器部署HPC集群。 自定义购买ECS 虚拟私有云(VPC) 同一个HPC场景的云服务器,都位于同一个VPC中,并且需要使用
6的操作系统为例在集群上运行MPI应用。 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用MPICH 父主题: 裸金属服务器场景典型应用
IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 裸金属服务器场景典型应用
FFLAGS=-fPIC CXXFLAGS=-fPIC FCFLAGS=-fPIC # make -j 128 && make install 图1 MPCHI成功安装 配置环境变量。 普通用户下,在“~/.bashrc”中添加: export PATH=/opt/mpich-332/bin:
yum install binutils-devel.x86_64 gcc-c++ autoconf automake libtool 图1 安装binutils-devel.x86_64等依赖包成功 执行以下命令,安装编译OpenMPI。 # ./openmpi-4.0.2/configure
status 图1 确认关闭防火墙成功 依次登录集群中所有BMS,重复执行1.b~1.c,关闭所有BMS的防火墙。 修改配置文件。 登录集群中任意一台BMS。 执行以下命令,查看BMS的主机名。 $ hostname 图2 查看BMS的主机名 依次登录集群中所有BMS,重复执行1.b~2
status 图1 确认关闭防火墙成功 依次登录集群中所有BMS,重复执行1.b~1.c,关闭所有BMS的防火墙。 修改配置文件。 登录集群中任意一台BMS。 执行以下命令,查看BMS的主机名。 $ hostname 图2 查看BMS的主机名 依次登录集群中所有BMS,重复执行1.b~2