正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
虚拟私有云(VPC) 为云服务器等云上资源构建隔离、私密的虚拟网络环境。 华为 1 以华为云管理控制台显示为准。 7 云硬盘(EVS) 为ECS、BMS等计算服务提供持久性块存储的服务。 华为 >1 以华为云管理控制台显示为准。 8 对象存储服务(OBS) 提供海量、安全、高可靠、低成本的数据存储能力。
该任务指导以CentOS7.3的OS为例在单节点上运行MPI应用。 裸金属服务器场景支持使用的MPI 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用Spectrum MPI 安装和使用Intel MPI 安装和使用Platform MPI 父主题: 裸金属服务器场景典型应用
实施步骤 创建HPC私有镜像 创建弹性云服务器 配置节点互信 创建SFS Turbo 挂载共享目录 通讯录安装 MPI安装 STAR-CCM+安装与运行 父主题: 基于STAR-CCM+部署HPC集群
计算密集型、海量数据处理等业务的计算需求,如科学研究、气象预报、计算模拟、军事研究、CAD/CAE、生物制药、基因测序、图像处理等,缩短需要的大量计算时间,提高计算精度。 方案架构 方案优势 降低TCO 可以按需租用,成本低,降低中小客户使用HPC的门槛。 提高效率 按需发放,快
执行以下命令,用“IP:Number”的形式作为MPI集群运行程序时的hostlist参数,在集群上通过Spectrum MPI运行可执行文件。其中, IP代表集群中的弹性云服务器IP地址。 Number代表该弹性云服务器的任务数。 假设集群中共有两个弹性云服务器,主机名分别是host-19
STAR-CCM+部署HPC集群流程图 本文档介绍如何通过仿真软件STAR-CCM+部署HPC集群,流程如图1所示。 图1 基于STAR-CCM+部署HPC集群流程图 父主题: 基于STAR-CCM+部署HPC集群
查看集群创建进度 操作场景 集群创建的命令下发之后,如需查看集群的创建进度,可进入一站式HPC服务提供的“进度”页查看当前集群创建的具体进展和详细信息。 操作步骤 登录HPC-S²控制台。 单击左侧的“集群管理”。 在“集群管理”页面选择要查看的集群,单击操作列的“进度”进入查看。
MPI安装 Platform MPI安装 PlatformMPI使用STAR-CCM+自带的,不需要安装。 OpenMPI安装(可选) 若使用STAR-CCM+自带的,可不用安装。 cd /root tar zxvf openmpi-4.0.1.tar.gz cd openmpi-4
附录 常见问题 主要概念 父主题: 基于STAR-CCM+部署HPC集群
该任务指导用户在已配置好的弹性云服务器上,运行社区MPI应用(3.1.1版本)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。 操作步骤 使用“PuTTY”,采用密钥对方式登录弹性云服务器。 登录用户为创建弹性云服务器时指定的用户名。
查看集群详情页面 操作场景 集群创建完成后,如需查看集群的详细信息,可进入一站式HPC服务提供的“集群详情”页,查看例如当前集群的ID、状态、所在区域、虚拟私有云、安全组、节点信息以及共享存储以及集群的关系图等信息。 操作步骤 登录HPC-S²控制台。 单击左侧的“集群管理”。
SFS Turbo提供按需扩展的高性能文件存储(NAS),可为云上多个弹性云服务器(Elastic Cloud Server,ECS),容器(CCE&CCI),裸金属服务器(BMS)提供共享访问,能够弹性伸缩至320TB规模,具备高可用性和持久性,为海量的小文件、低延迟高IOPS型应用提供有力支持。
在HPC集群上运行MPI应用(鲲鹏BMS场景) 该任务指导以CentOS 7.6的操作系统为例在集群上运行MPI应用。 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用MPICH 父主题: 裸金属服务器场景典型应用
1.1版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装HPC-X工具套件。 使用社区OpenMPI时,需要同时使用Mellanox的HPC-X 套件,适用于CentOS 7.3的HPC-X版本是“hpcx-v2
x86_64.rpm 下载地址:https://www-01.ibm.com/marketing/iwm/iwm/web/preLogin.do?source=swerpsysz-lsf-3 安装IBM Spectrum MPI。 将1.a中下载的MPI软件包上传至运行MPI的BMS内(建议“/home/rhel”目录下)。
主要概念 RDMA RoCE 父主题: 附录
96 ofa-v2-cma-roe-enp177s0是上一步/etc/dat.conf中首行配置的名称; client端的192.168.0.96是server端的ip。 验证通过的观测指标:client和server端都出现DAPL Test Complete. PASSED则表示验证通过
在HPC集群上运行MPI应用(X86 BMS场景) 该任务指导以CentOS7.3的OS为例在集群上运行MPI应用。 IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 裸金属服务器场景典型应用
常见问题 RoCE网络问题 STAR-CCM+启动相关问题 父主题: 附录
输流时内核内存空间与用户空间之间环境切换的次数。 没有CPU参与:应用程序可以访问远程内存,而不占用远程机器中的任何CPU。远程存储器将被读取,无需任何干预的远程进程(或处理器)。远程CPU中的缓存将不会被访问的内存内容填满。 基于消息的事务:数据被作为离散消息处理,而不是作为流