检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
2a1/tests/imb/IMB-MPI1 PingPong 图3 集群运行IB驱动自带OpenMPI 系统回显如图3所示,表示集群上运行IB驱动自带的OpenMPI成功。 父主题: 在HPC集群上运行MPI应用(鲲鹏BMS场景)
集群的管理节点为运行状态,但是集群异常提示“master node cannot reached”怎么办? 问题描述 集群的管理节点为运行状态,但是集群异常提示“master node cannot reached”。 处理方法 检查“/etc/ssh/sshd_config”配
22xlarge.4.physical 华为 >1 以华为云管理控制台显示为准。 5 SFS Turbo 提供按需扩展的高性能文件存储。 华为 1 以华为云管理控制台显示为准。 6 虚拟私有云(VPC) 为云服务器等云上资源构建隔离、私密的虚拟网络环境。 华为 1 以华为云管理控制台显示为准。 7
Turbo 1.在华为云控制台搜索“弹性文件服务 SFS”,并在弹性文件服务页面右上角选择“创建文件系统”。 图1 创建文件系统 2.在"创建文件系统"界面的"文件系统类型"选项中,根据业务需要,选择"HPC型"或"HPC缓存型"文件系统类型。 图2 选择文件系统类型 3.在"创建文件系
节点对计算任务进行分解,交给不同的计算节点进行计算,以此来解决大型计算问题。在科学研究、气象预报、仿真实验、生物制药、基因测序、图像处理等行业均有广泛的应用。 针对日益增长的HPC计算能力需求,华为云在现有基础设施之上推出了HPC解决方案服务(HPC Solution Servi
回显结果如图2所示,表示环境变量导入成功。 执行以下命令,在单个ECS上运行Intel MPI。 执行以下命令,重新生成可执行文件。 # cd # mpicc hello.c -o intel_hello 执行以下命令,在单个ECS上运行Intel MPI。 # mpirun -np 2
执行以下命令,在单个BMS上运行Intel MPI。 执行以下命令,生成可执行文件。 $ mpicc hello.c -o hello 执行以下命令,在单个BMS上运行Intel MPI。 $ mpirun -np 2 /home/rhel/hello 图3 在单个BMS上运行Intel
创建裸金属服务器集群 操作场景 若您需要将您的服务部署在裸金属服务器上,首先需要购买裸金属服务器。 购买须知 专属物理资源 如果您希望裸金属服务器运行在隔离的专属区域,请您先申请专属云,再创建裸金属服务器。 了解和申请专属云,请参见《专属云用户指南》。 如果您希望裸金属服务器拥有
over InfiniBand),指利用物理IB网络(包括服务器上的IB卡、IB连接线、IB交换机等)通过IP协议进行连接,并进行数据传输。 它提供了基于RDMA之上的IP网络模拟层,允许应用无修改的运行在InfiniBand网络上。但是,IPoIB性能比RDMA通信方式性能要低,大多数
执行以下命令,检查环境变量是否配置成功。 # which mpirun 图3 检查环境变量 在单个BMS上运行Platform MPI。 执行以下命令,重新编译hello.c文件。 $ mpicc hello.c -o hello 执行以下命令,在单个BMS上运行Platform MPI。 $ mpirun -np
检查MPI环境变量 在单个BMS上通过Spectrum MPI运行可执行文件。 假设hello.c文件在“/home/rhel/”目录下,生成的可执行文件名为hello,执行以下命令: $ cd /home/rhel/ $ mpicc hello.c -o hello 执行以下命令,在单个BMS上通过Spectrum
Platform MPI环境变量导入成功 执行下列命令,在单个ECS上运行Platform MPI。 执行以下命令,重新编译hello.c文件。 # mpicc hello.c -o platform_hello 执行以下命令,在单个ECS上运行Platform MPI。 # mpirun
执行以下命令,在单个BMS上运行MPICH。 执行以下命令,生成可执行文件。 $ mpicc hello.c -o hello 执行以下命令,在单个BMS上运行MPICH。 $ mpirun -np 2 /home/rhel/hello 图3 在单个BMS上运行MPICH 父主题:
安装和使用IB驱动自带的Open MPI 操作场景 本节操作指导用户在BMS上安装和使用IB驱动自带的Open MPI(以版本4.0.2a1为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 查询是否安装了IB驱动 执行以下命令,查询是否已成功安装IB驱动。
hello对hello.c文件重新编译。 执行以下命令,在单个BMS上运行社区OpenMPI。 $ mpirun -np 2 /home/rhel/hello 图4 社区OpenMPI运行成功 回显如图4所示,表示单个BMS上运行社区OpenMPI成功。 父主题: 安装和使用MPI(鲲鹏BMS场景)
安装和使用IB驱动自带的Open MPI 操作场景 本节指导用户在BMS上安装和使用IB驱动自带的Open MPI(以版本3.1.0rc2为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 查询是否安装了IB驱动。 执行以下命令,查询是否已成功安装IB驱动。
hello对hello.c文件重新编译。 执行以下命令,在单个BMS上运行社区OpenMPI。 $ mpirun -np 2 /home/rhel/hello 图4 社区OpenMPI运行成功 回显如图4所示,表示单个BMS上运行社区OpenMPI成功。 父主题: 安装和使用MPI(X86
站式完成集群的创建、配置,并在HPC-S²上完成高性能计算作业。 部署方式简介 购买高性能计算解决方案:根据实际计算需求购买HPC集群,可以在购买时同时指定管理节点配置与计算节点配置。 图1 购买HPC集群 使用已有节点部署HPC集群:在已有节点资源的前提下,指定管理节点与计算节点,完成HPC集群的部署。