检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
安装和使用MPI 弹性云服务器场景支持使用的MPI IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 弹性云服务器场景典型应用
操作步骤 使用“PuTTY”,采用密钥对方式登录集群中任意一台ECS。 执行以下命令,防止系统超时退出。 # TMOUT=0 将ECS对应的密钥文件(.pem文件,假设为*.pem)拷贝至.ssh目录下,命名为“id_rsa”。 $ cd ~/.ssh $ mv *.pem id_rsa
为防止资源滥用,平台限定了各服务资源的配额,对用户的资源数量和容量做了限制。如您最多可以创建多少台弹性云服务器、多少块云硬盘。 如果当前资源配额限制无法满足使用需要,您可以申请扩大配额。 怎样查看我的配额? 登录管理控制台。 单击管理控制台左上角的,选择区域和项目。 在页面右上角,选择“资源 > 我的配额”。
为什么集群被删除后还在计费? 按需购买的集群删除时未勾选“删除云服务器”,因此只删除了集群信息,集群中的云服务器资源仍在继续扣费。 包周期类型的集群删除时只能删除集群信息,云服务器资源需要手动退订。 管理节点如使用购买EIP的选择,集群删除时,即使勾选了“删除云服务器”,绑定的EIP资源也不会删除
ECS。 执行以下命令,防止系统超时退出。 # TMOUT=0 执行以下命令,添加集群中所有主机的私网IP地址和主机名。 # vi /etc/hosts 添加的内容为集群中所有ECS的私网IP地址和主机名,例如: 192.168.0.1 ecs-ff-0001 192.168.0
本节指导用户安装和使用社区OpenMPI(以3.1.1版本的OpenMPI为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装HPC-X工具套件。 下载需要的HPC-X工具套件以及OpenMPI。 使用社区OpenMPI时,需要同时使用Mellanox的HPC-X 套件,HPC-X 的下载需要参考弹性云服
3eval_170901-rh7_Apr11.x86_64.rpm 下载需要的HPC-X工具套件。 IBM MPI在EDR SR-IOV场景下的运行需要HPC-X提供的MXM库的支持,HPC-X 的下载需要参考弹性云服务器操作系统的版本以及IB驱动版本,例如,下载的HPC-X版本为:hpcx-v2.0.0-gcc-MLNX_OFED_LINUX-4
基于STAR-CCM+部署HPC集群 方案概述 资源和成本规划 STAR-CCM+部署HPC集群流程图 实施步骤 附录 父主题: 弹性云服务器场景最佳实践
操作步骤 使用“PuTTY”,采用密钥对方式登录集群中任意一台BMS。 执行以下命令,防止系统超时退出。 # TMOUT=0 将BMS对应的密钥文件(.pem文件)拷贝至.ssh目录下,命名为“id_rsa”。 $ cd ~/.ssh $ mv *.pem id_rsa 执行以下命令,给密钥文件配置权限。
此时,pbs作业回到queued状态,等待可用的计算资源。 开机2中关闭的计算节点,提供可用的计算资源。 此时,pbs作业会继续进行。 作业执行完成后,执行以下命令,查看作业信息。 qstat -f 作业ID 如图5所示,作业运行了3分03秒。由此可以看出,作业是从断点的位置进行续算的。 图5 中断后运行作业信息
在HPC集群上运行MPI应用 在HPC集群上运行IB驱动自带的OpenMPI 在HPC集群上运行社区OpenMPI 在HPC集群上运行Spectrum MPI 在HPC集群上运行Intel MPI 在HPC集群上运行Platform MPI 父主题: 弹性云服务器场景典型应用
计算密集型、海量数据处理等业务的计算需求,如科学研究、气象预报、计算模拟、军事研究、CAD/CAE、生物制药、基因测序、图像处理等,缩短需要的大量计算时间,提高计算精度。 方案架构 方案优势 降低TCO 可以按需租用,成本低,降低中小客户使用HPC的门槛。 提高效率 按需发放,快
附录 常见问题 主要概念 父主题: 基于STAR-CCM+部署HPC集群
实施步骤 创建HPC私有镜像 创建弹性云服务器 配置节点互信 创建SFS Turbo 挂载共享目录 通讯录安装 MPI安装 STAR-CCM+安装与运行 父主题: 基于STAR-CCM+部署HPC集群
安装和使用MPI(X86 BMS场景) 该任务指导以CentOS7.3的OS为例在单节点上运行MPI应用。 裸金属服务器场景支持使用的MPI 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用Spectrum MPI 安装和使用Intel MPI 安装和使用Platform
主要概念 RDMA RoCE 父主题: 附录
在HPC集群上运行MPI应用(鲲鹏BMS场景) 该任务指导以CentOS 7.6的操作系统为例在集群上运行MPI应用。 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用MPICH 父主题: 裸金属服务器场景典型应用
MPI安装 Platform MPI安装 PlatformMPI使用STAR-CCM+自带的,不需要安装。 OpenMPI安装(可选) 若使用STAR-CCM+自带的,可不用安装。 cd /root tar zxvf openmpi-4.0.1.tar.gz cd openmpi-4
本,v1和v2。其中RoCE v1是一种链路层协议,允许在同一个广播域下的任意两台主机直接访问。而RoCE v2是一种Internet层协议,即可以实现路由功能。虽然RoCE协议这些好处都是基于融合以太网的特性,但是RoCE协议也可以使用在传统以太网网络或者非融合以太网络中。 应用场景
/etc/fstab 执行mount -a 备注: 192.168.0.15:/ 是从sfs turbo console中获取到的挂载的路径。 第1个1表示备份文件系统,第2个1表示从/分区的顺序开始fsck磁盘检测,0表示不检测,_rnetdev 表示主机无法挂载直接跳过,避免无法挂载主机无法启动。