-
配置BMS集群互相免密登录 - 高性能计算 HPC
依次登录集群中其他BMS,重复执行步骤1~5。 执行以下命令,验证参加测试的BMS之间是否可以免密码互相登录。 $ ssh 用户名@SERVER_IP 父主题: 裸金属服务器场景典型应用
-
Platform MPI - 高性能计算 HPC
本节指导用户在ECS上安装和使用Platform MPI应用(以版本platform_mpi-09.01.04.03r-ce为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装Platform MPI。 执行以下命令,安装需要的库文件。 # yum install glibc.i686 libgcc-4
-
HPC断点续算计算方案 - 高性能计算 HPC
-f 作业ID 如图5所示,作业运行了3分03秒。由此可以看出,作业是从断点的位置进行续算的。 图5 中断后运行作业信息 父主题: 弹性云服务器场景最佳实践
-
在HPC集群上运行MPI应用 - 高性能计算 HPC
在HPC集群上运行Spectrum MPI 在HPC集群上运行Intel MPI 在HPC集群上运行Platform MPI 父主题: 弹性云服务器场景典型应用
-
方案概述 - 高性能计算 HPC
企业分支、科研组织机构等跨全球地理位置进行及时协同工作,提高效率。 可以利用公有云的跨地域能力,共享计算资源,海量数据,并能实现云端大数据分析。 优化性能 性能比普通云服务器大幅提升。 通过虚拟化优化(SR-IOV、PCI直通)等,各类测试报告显示:大规模云化HPC性能损耗不大。 约束与限制 MPI和通讯库的版本
-
附录 - 高性能计算 HPC
附录 常见问题 主要概念 父主题: 基于STAR-CCM+部署HPC集群
-
实施步骤 - 高性能计算 HPC
实施步骤 创建HPC私有镜像 创建弹性云服务器 配置节点互信 创建SFS Turbo 挂载共享目录 通讯录安装 MPI安装 STAR-CCM+安装与运行 父主题: 基于STAR-CCM+部署HPC集群
-
安装和使用MPI(X86 BMS场景) - 高性能计算 HPC
3的OS为例在单节点上运行MPI应用。 裸金属服务器场景支持使用的MPI 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用Spectrum MPI 安装和使用Intel MPI 安装和使用Platform MPI 父主题: 裸金属服务器场景典型应用
-
IB驱动自带的OpenMPI - 高性能计算 HPC
本节指导用户安装和使用IB驱动自带的OpenMPI(以版本3.0.0rc6为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 检查是否已安装IB驱动。 使用“PuTTY”,采用密钥对方式登录弹性云服务器。 执行以下命令,切换为root 用户。 $ sudo su 执行以下命令,防止系统超时退出。
-
主要概念 - 高性能计算 HPC
主要概念 RDMA RoCE 父主题: 附录
-
MPI安装 - 高性能计算 HPC
MPI安装 Platform MPI安装 PlatformMPI使用STAR-CCM+自带的,不需要安装。 OpenMPI安装(可选) 若使用STAR-CCM+自带的,可不用安装。 cd /root tar zxvf openmpi-4.0.1.tar.gz cd openmpi-4
-
在HPC集群上运行MPI应用(鲲鹏BMS场景) - 高性能计算 HPC
6的操作系统为例在集群上运行MPI应用。 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用MPICH 父主题: 裸金属服务器场景典型应用
-
RoCE - 高性能计算 HPC
RoCE RoCE概念 RDMA over Converged Ethernet (RoCE)是一种网络协议,允许应用通过以太网实现远程内存访问。目前RoCE有两个协议版本,v1和v2。其中RoCE v1是一种链路层协议,允许在同一个广播域下的任意两台主机直接访问。而RoCE v
-
挂载共享目录 - 高性能计算 HPC
挂载共享目录 安装软件 yum install nfs-utils 挂载SFS Turbo 将SFS Turbo挂载到/opt/Siemens目录 mkdir /opt/Siemens # 在/etc/fstab中添加开启自动挂载 echo "192.168.0.15:/ /opt/Siemens
-
常见问题 - 高性能计算 HPC
常见问题 RoCE网络问题 STAR-CCM+启动相关问题 父主题: 附录
-
资源和成本规划 - 高性能计算 HPC
建议从官方网站获取 1 - 3 通讯库 Ucx:1.6.0 Udapl:2.1.10mlnx 建议从官方网站获取 1 - 4 通用计算增强型弹性云服务器C6h系列 操作系统:CentOS 7.6 规格:c6h.22xlarge.4.physical 华为 >1 以华为云管理控制台显示为准。 5
-
安装和使用MPICH - 高性能计算 HPC
安装和使用MPICH 操作场景 本节指导用户在鲲鹏BMS集群上安装和使用MPICH应用(以版本mpich-3.3.2为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装MPICH。 下载MPICH。 下载地址:https://aur
-
RDMA - 高性能计算 HPC
空间与用户空间之间环境切换的次数。 没有CPU参与:应用程序可以访问远程内存,而不占用远程机器中的任何CPU。远程存储器将被读取,无需任何干预的远程进程(或处理器)。远程CPU中的缓存将不会被访问的内存内容填满。 基于消息的事务:数据被作为离散消息处理,而不是作为流,这消除了应用将流分成不同消息/事务的需要。
-
RoCE网络问题 - 高性能计算 HPC
RoCE网络问题 dtest或rping打流测试网络双向不通问题 问题现象: dtest/rping打流测试网络双向不通问题:A机器作为Server端,B机器作为Client端,dtest/rping测试RoCE网络异常;调换A、B机器角色,B机器作为Server端,A机器作为C
-
在HPC集群上运行MPI应用(X86 BMS场景) - 高性能计算 HPC
IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 裸金属服务器场景典型应用