检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
HPC-S²应用场景与使用限制 HPC-S²应用场景 计算资源创建:HPC-S²支持一键式报价和一键式购买HPC集群,并在创建集群时自动部署所配置的调度器、域控制器以及运行时的依赖。 计算资源配置:HPC-S²支持计算资源的多种配置管理,包括集群管理、节点管理、扩容集群节点及资源状态查看等。
弹性云服务器场景典型应用 创建支持IB网卡的弹性云服务器 配置单个ECS免密登录 安装和使用MPI 制作私有镜像 创建应用集群 配置ECS集群互相免密登录 在HPC集群上运行MPI应用
裸金属服务器场景典型应用 创建裸金属服务器集群 配置BMS集群互相免密登录 安装和使用MPI(X86 BMS场景) 安装和使用MPI(鲲鹏BMS场景) 在HPC集群上运行MPI应用(X86 BMS场景) 在HPC集群上运行MPI应用(鲲鹏BMS场景)
传统的HPC使用中存在如下问题: 投资成本高,扩容部署复杂,重复利用已有投资十分困难。 应用复杂,资源预测困难,灵活性差,亟待提升效率。 效率低下导致决策缓慢,失去市场、以及开发研究成果的良机。 应用计算量快速膨胀,对性能要求越来越高。 公有云上应用HPC场景,能充分利用云服务的优势。使用公有云进行高性能计算具有以下优势:
创建应用集群 操作场景 您可以在几分钟之内,批量创建多台弹性云服务器。该任务指导用户使用制作的私有镜像创建应用集群,包括管理控制台方式和基于HTTPS请求的API(Application programming interface)方式。 管理控制台方式 登录管理控制台。 选择“计算
公共镜像 常见的标准操作系统镜像,所有用户可见,包括操作系统以及预装的公共应用。请根据您的实际情况自助配置应用环境或相关软件。 选择“公共镜像”,并展开下拉框,选择所需的公共镜像。 私有镜像 用户基于弹性云服务器创建的个人镜像,仅用户自己可见。包含操作系统、预装的公共应用以及用户的私
它提供了基于RDMA之上的IP网络模拟层,允许应用无修改的运行在InfiniBand网络上。但是,IPoIB性能比RDMA通信方式性能要低,大多数应用都会采用RDMA方式获取高带宽低延时的收益,少数的关键应用会采用IPoIB方式通信。 无修改:指运行在IP协议上的应用不需要作任何修改,即可适配IB网络运行。
Intel MPI 操作场景 本节指导用户在ECS上安装和使用Intel MPI应用(以版本l_mpi_2018.0.128为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装Intel MPI。 下载Intel MPI。 下载地址:https://software.intel
Intel MPI 操作场景 该任务指导用户在BMS集群上运行Intel MPI应用(l_mpi_2017.3.196版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装Spectrum MPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
Spectrum MPI 操作场景 该任务指导用户在BMS集群上运行Spectrum MPI应用(10.01.01版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装Spectrum MPI。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
低时延应用,现有TCP/IP软硬件架构和应用高CPU消耗的技术特征根本不能满足应用的需求。 RDMA优势 零复制:零复制网络技术使网卡可以直接与应用内存相互传输数据,从而消除了在应用内存与内核之间复制数据的需要。因此,传输延迟会显著减小。 内核旁路:内核协议栈旁路技术使应用程序无
在HPC集群上运行MPI应用(X86 BMS场景) 该任务指导以CentOS7.3的OS为例在集群上运行MPI应用。 IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 裸金属服务器场景典型应用
在HPC集群上运行MPI应用 在HPC集群上运行IB驱动自带的OpenMPI 在HPC集群上运行社区OpenMPI 在HPC集群上运行Spectrum MPI 在HPC集群上运行Intel MPI 在HPC集群上运行Platform MPI 父主题: 弹性云服务器场景典型应用
processes entering MPI_Finalize 在Linux集群上部署您自己的MPI 应用,并参考上述MPI运行方法,在Linux 集群中运行MPI 程序。 父主题: 在HPC集群上运行MPI应用
processes entering MPI_Finalize 在Linux集群上部署您自己的MPI应用,并参考上述MPI运行方法,在Linux集群中运行MPI程序。 父主题: 在HPC集群上运行MPI应用
安装和使用MPICH 操作场景 该任务指导用户在BMS集群上运行MPICH应用(mpich-3.3.2版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装MPICH。 操作步骤 关闭防火墙。 登录集群中任意一台BMS。 执行以下命令,关闭BMS防火墙。
在HPC集群上运行MPI应用(鲲鹏BMS场景) 该任务指导以CentOS 7.6的操作系统为例在集群上运行MPI应用。 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用MPICH 父主题: 裸金属服务器场景典型应用
在HPC集群上运行Intel MPI 操作场景 该任务指导用户在ECS集群(以CentOS7.3为例)上运行Intel MPI应用(l_mpi_2018.0.128版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。
Platform MPI 操作场景 该任务指导用户在BMS集群上运行Platform MPI应用(platform_mpi- 09.01.04.03r-ce.bin版本)。 前提条件 已配置BMS集群间互相免密登录。 集群中所有的BMS,均已安装Platform MPI。 操作步骤
在HPC集群上运行Spectrum MPI 操作场景 该任务指导用户在已配置好的弹性云服务器上,运行Spectrum MPI应用(IBM Spectrum MPI v10.1)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。