检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
安装和使用IB驱动自带的Open MPI 操作场景 该任务指导用户在鲲鹏BMS集群上运行IB驱动自带的MPI应用(以版本4.0.2a1为例)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装IB驱动自带的OpenMPI。 操作步骤 关闭防火墙。 登录集群中任意一台
IB驱动自带的OpenMPI 操作场景 该任务指导用户在BMS集群上运行IB驱动自带的MPI应用(3.1.0rc2版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装IB驱动自带的OpenMPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令
在HPC集群上运行Platform MPI 操作场景 该任务指导用户在ECS集群(以CentOS7.3为例)上运行Platform MPI应用(以版本platform_mpi-09.01.04.03r-ce为例)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录
在HPC集群上运行Intel MPI 操作场景 该任务指导用户在ECS集群(以CentOS7.3为例)上运行Intel MPI应用(l_mpi_2018.0.128版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器
RDMA RDMA概念 远程直接内存访问(即Remote Direct Memory Access)是一种直接内存访问技术,它将数据直接从一台计算机的内存传输到另一台计算机,无需尤其是面对高性能计算HPC、大数据分析和浪涌型IO高并发、低时延应用,现有TCP/IP软硬件架构和应用高
配置BMS集群互相免密登录 操作场景 该任务指导用户在BMS集群上进行相关设置,并使其可以相互免密登录。 背景信息 $:表示在普通用户下,执行相关操作。 #:表示在管理员用户下,执行相关操作。 普通用户切换至管理员用户,请使用命令sudo su。 前提条件 已成功创建BMS,并绑定了弹性
配置ECS集群互相免密登录 操作场景 该任务指导用户在ECS集群上进行相关设置,并使其可以相互免密登录。仅支持在使用密钥登录弹性云服务器的情况下配置ECS集群互相免密登录。 背景信息 $:表示在普通用户下,执行相关操作。 #:表示在管理员用户下,执行相关操作。 普通用户切换至管理员用户
创建应用集群 操作场景 您可以在几分钟之内,批量创建多台弹性云服务器。该任务指导用户使用制作的私有镜像创建应用集群,包括管理控制台方式和基于HTTPS请求的API(Application programming interface)方式。 管理控制台方式 登录管理控制台。 选择“计算
在HPC集群上运行Spectrum MPI 操作场景 该任务指导用户在已配置好的弹性云服务器上,运行Spectrum MPI应用(IBM Spectrum MPI v10.1)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器
查看集群的节点信息 操作场景 集群创建完成后,如需查看集群中节点的详细信息,可进入一站式HPC服务提供的“节点管理”页,查看例如当前集群中节点,包括节点名称和ID、节点类型、状态、规格、IP、共享存储挂载状态、可用区以及付费类型等信息。 操作步骤 前提条件:用户集群的节点列表不为空
配置单个ECS免密登录 操作场景 该任务指导用户在单个弹性云服务器内执行相关配置,使其可以免密登录。 背景信息 $:表示在普通用户下,执行相关操作。 #:表示在管理员用户下,执行相关操作。 普通用户切换至管理员用户,请使用命令sudo su。 前提条件 已成功创建弹性云服务器,并绑定了弹性
创建裸金属服务器集群 操作场景 若您需要将您的服务部署在裸金属服务器上,首先需要购买裸金属服务器。 购买须知 专属物理资源 如果您希望裸金属服务器运行在隔离的专属区域,请您先申请专属云,再创建裸金属服务器。 了解和申请专属云,请参见《专属云用户指南》。 如果您希望裸金属服务器拥有独享的存储设备
在HPC集群上运行社区OpenMPI 操作场景 该任务指导用户在已配置好的弹性云服务器上,运行社区MPI应用(3.1.1版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。 操作步骤 使用“PuTTY”,采用密钥对方式登录弹性云服务器
什么是HPC-S² HPC解决方案服务 高性能计算(High-performance computing,简称HPC)是一个计算机集群系统,通过管理节点对计算任务进行分解,交给不同的计算节点进行计算,以此来解决大型计算问题。在科学研究、气象预报、仿真实验、生物制药、基因测序、图像处理等行业均有广泛的应用
方法二:使用已有节点部署HPC集群 操作场景 如果用户需要使用已有的ECS节点资源构建HPC集群,可以使用该功能进行集群的部署。下面介绍如何使用已有节点部署HPC集群。 使用已有节点部署集群,首先选择管理节点,再选择计算节点,切换计算节点与管理节点需要有相同的CPU架构,需要在相同的虚拟私有云
资源和成本规划 所需资源如表1所示,具体资源的实际费用请以对应官网价格显示为准。 表1 资源和成本规划 序号 资源 资源说明 获取路径 数量 费用 1 STAR-CCM+ 使用STAR-CCM+15.02版本。 建议从官方网站获取 1 以官网显示价格为准。 2 MPI(可选) Plateform
STAR-CCM+启动相关问题 STAR-CCM+使用OpenMPI启动时,命令中有"-x"和"--mca"导致启动失败 问题现象: STAR-CCM+使用OpenMPI启动时候命令中同时有"-x"和"--mca"会启动失败,OpenMPI不支持"-x"参数和"--mca"同时使用
方案概述 方案应用 HPC提供了超高浮点计算能力解决方案,可用于解决计算密集型、海量数据处理等业务的计算需求,如科学研究、气象预报、计算模拟、军事研究、CAD/CAE、生物制药、基因测序、图像处理等,缩短需要的大量计算时间,提高计算精度。 方案架构 方案优势 降低TCO 可以按需租用
MPI安装 Platform MPI安装 PlatformMPI使用STAR-CCM+自带的,不需要安装。 OpenMPI安装(可选) 若使用STAR-CCM+自带的,可不用安装。 cd /root tar zxvf openmpi-4.0.1.tar.gz cd openmpi-
通讯录安装 Udapl安装和测试 Udapl安装 cd /root wget https://linux.mellanox.com/public/repo/mlnx_ofed/4.1-1.0.2.0/SRPMS/dapl-2.1.10mlnx-OFED.3.4.2.1.0.41102