检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
HPC-S²与其他服务的关系 服务名称 HPC-S²与其他服务的关系 主要交互功能 弹性云服务器(ECS) 购买弹性云服务器创建HPC集群或使用已有弹性云服务器部署HPC集群。 自定义购买ECS 虚拟私有云(VPC) 同一个HPC场景的云服务器,都位于同一个VPC中,并且需要使用
STAR-CCM+部署HPC集群流程图 本文档介绍如何通过仿真软件STAR-CCM+部署HPC集群,流程如图1所示。 图1 基于STAR-CCM+部署HPC集群流程图 父主题: 基于STAR-CCM+部署HPC集群
享存储以及集群的关系图等信息。 操作步骤 登录HPC-S²控制台。 单击左侧的“集群管理”。 在“集群管理”页面选择要查看的集群,单击集群名称查看集群详情页。 在集群的详情页面可查看集群ID、状态、所在区域、虚拟私有云、安全组、节点信息以及共享存储以及集群的关系图等信息。 父主题:
图解HPC解决方案 父主题: 简介
HPC的业务特点 科学研究、气象预报、仿真实验、生物制药、基因测序、图像处理等行业都涉及高性能计算集群来解决大型计算问题,管理节点对计算任务进行分解,交给不同的计算节点完成计算。 各种业务场景下,因数据处理量、计算任务关联关系等不同,对计算能力、存储效率、网络带宽及时延要求有各自侧重。 HPC的应用场景
在下拉列表中选择备份策略,或单击“管理备份策略”,在云服务器备份页面进行设置。如果您未创建任何备份策略,但是勾选了“使用自动备份”,系统将提供默认的备份策略,如图1所示。 图1 默认备份策略 更多关于裸金属服务器备份的信息,请参见《云服务器备份用户指南》。 设置“网络”,包括“虚拟私有云”、“安全组”、“网卡”等信息。
性能比普通云服务器提高30%。 通过虚拟化优化(SR-IOV、PCI直通)等,各类测试报告显示:大规模云化HPC性能损耗不大。 HPC与云服务的关系 表1 所需云服务 云服务 作用 弹性云服务器(ECS) 用于在公有云平台上创建高性能计算服务器。 虚拟私有云(VPC) HPC场景下所涉
执行ulimit -a 命令查看 关闭超线程 系统默认关闭,如果是打开的,需要进行关闭。 判断系统是否开启超线程。 通过查询系统的物理核数和逻辑核数的关系可以判断是否开启多线程,如果:逻辑核数 = 物理核数,说明没有开超线程;逻辑核数 = 2*物理核数,说明系统开启了多线程。 Linux系统
请联系技术支持进行操作。 创建系统盘镜像 请使用镜像文件创建系统盘镜像,需注意镜像用途选择ECS系统盘镜像如图1,选择启动方式为UEFI图2,否则系统无法启动。 图1 创建系统盘镜像 图2 选择启动方式 为创建的私有镜像打标签 登录到 API Explorer:https://apiexplorer
STAR-CCM+使用OpenMPI启动时候命令中同时有"-x"和"--mca"会启动失败,OpenMPI不支持"-x"参数和"--mca"同时使用,报错如下图所示。 解决方案: 1.请参照STAR-CCM+安装与运行章节的命令,在OpenMPI场景下不要使用"-x"命令行,使用"--mca"参数。
HPC提供了超高浮点计算能力解决方案,可用于解决计算密集型、海量数据处理等业务的计算需求,如科学研究、气象预报、计算模拟、军事研究、CAD/CAE、生物制药、基因测序、图像处理等,缩短需要的大量计算时间,提高计算精度。 方案架构 方案优势 降低TCO 可以按需租用,成本低,降低中小客户使用HPC的门槛。 提高效率
Scheduler)调度器的自动化部署,使用HPC-S²控制台可以方便的对集群、节点以及共享存储进行查看以及管理操作。 如图1所示,通过HPC-S²控制台用户可以管理多个VPC网络下的多个集群。 图1 HPC-S²架构示意图 HPC-S²功能简介 HPC-S²主要面向对大规模计算有需求的企事业单位,使用HPC-S
执行下列命令,导入环境变量。 $ source ~/.bashrc 执行下列命令,查看是否导入成功。 $ which mpirun 图2 Intel MPI环境变量导入成功 回显结果如图2所示,表示环境变量导入成功。 执行以下命令,在单个BMS上运行Intel MPI。 执行以下命令,生成可执行文件。
/usr/mpi/gcc/openmpi-4.0.2a1/bin/mpirun $ rpm -qa | grep mlnx-ofa 图1 检查IB驱动 查看回显结果。 如果回显如图1所示,表示已安装IB驱动,执行步骤3。 如果未安装IB驱动,执行步骤2。 安装IB驱动。 下载安装包“MLNX_OFED_LINUX-4
lammps-2Aug18/src vi MAKE/Makefile.mpi 根据图1、图2,修改红框标识中的内容。其中,版本号需根据实际情况进行填写。 只修改图1、图2中红框标识的内容。 图1 修改Makefile文件01 图2 修改Makefile文件02 执行以下命令,编译lammps,并
/usr/mpi/gcc/openmpi-3.1.0rc2/bin/mpirun $ rpm -qa | grep mlnx-ofa 图1 确认已安装IB驱动 查看回显结果。 如果回显如图1所示,表示已安装IB驱动,执行3。 如果未安装IB驱动,执行2。 安装IB驱动。 下载安装包“MLNX_OFED_LINUX-4
service firewalld status 图1 确认关闭防火墙成功 依次登录集群中所有BMS,重复执行1.b~1.c,关闭所有BMS的防火墙。 修改配置文件。 登录集群中任意一台BMS。 执行以下命令,查看BMS的主机名。 $ hostname 图2 查看BMS的主机名 依次登录集群中所有BMS,重复执行1
执行下列命令,导入环境变量。 # source ~/.bashrc 执行下列命令,查看是否导入成功。 # which mpirun 图2 环境变量导入成功 回显结果如图2所示,表示环境变量导入成功。 执行以下命令,在单个ECS上运行Intel MPI。 执行以下命令,重新生成可执行文件。 #
-mca btl_openib_if_include "mlx5_0:1" -x MXM_IB_USE_GRH=y hostname 图2 检查配置文件 回显如图2所示,显示集群中所有BMS的主机名,则表示hostfile文件配置成功。 在任意一台BMS中执行以下命令,运行MPI ben
form_mpi”文件夹下。 图1 Platform MPI成功安装 配置环境变量。 执行以下命令,获取pkey。 # cat /sys/class/infiniband/mlx5_0/ports/1/pkeys/* | grep -v 0000 图2 获取pkey 普通用户下,在~/