检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
弹性云服务器场景典型应用 创建支持IB网卡的弹性云服务器 配置单个ECS免密登录 安装和使用MPI 制作私有镜像 创建应用集群 配置ECS集群互相免密登录 在HPC集群上运行MPI应用
安装和使用MPI(X86 BMS场景) 该任务指导以CentOS7.3的OS为例在单节点上运行MPI应用。 裸金属服务器场景支持使用的MPI 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用Spectrum MPI 安装和使用Intel MPI 安装和使用Platform
的内存内容填满。 基于消息的事务:数据被作为离散消息处理,而不是作为流,这消除了应用将流分成不同消息/事务的需要。 分散/收集条目支持: RDMA支持本地处理多个分散/收集条目,即读取多个内存缓冲区并将其作为一个流或获取一个流并将其写入多个内存缓冲区。 RDMA实现 常见的RDM
请检查集群中每个节点的配置文件/etc/dat.conf中"ofa-v2-cma-roe-enp177s0"是否放在首行且每个节点都一致。 2.若以上方法无法解决,请联系技术支持处理。 父主题: 常见问题
以太网的特性,但是RoCE协议也可以使用在传统以太网网络或者非融合以太网络中。 应用场景 网络密集型应用,例如存储或者集群计算等,需要网络支持大带宽和低时延特性。RDMA的优势相比其他网络应用程序接口,例如Berkeley接口,就是低时延,低CPU负载和大带宽。RoCE可以比iWARP协议要实现更低的时延。
IB驱动自带的OpenMPI 操作场景 本节指导用户安装和使用IB驱动自带的OpenMPI(以版本3.0.0rc6为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 检查是否已安装IB驱动。 使用“PuTTY”,采用密钥对方式登录弹性云服务器。 执行以下命令,切换为root
安装和使用Platform MPI 操作场景 本节指导用户在BMS集群上安装和使用Platform MPI应用(以版本platform_mpi- 09.01.04.03r-ce.bin为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。
社区OpenMPI 操作场景 本节指导用户安装和使用社区OpenMPI(以3.1.1版本的OpenMPI为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装HPC-X工具套件。 下载需要的HPC-X工具套件以及OpenMPI。 使用社区OpenMPI时,需要同时使用Mellanox的HPC-X
Platform MPI 操作场景 本节指导用户在ECS上安装和使用Platform MPI应用(以版本platform_mpi-09.01.04.03r-ce为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装Platform MPI。 执行以下命令,安装需要的库文件。
安装和使用MPICH 操作场景 本节指导用户在鲲鹏BMS集群上安装和使用MPICH应用(以版本mpich-3.3.2为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装MPICH。 下载MPICH。 下载地址:https://aur
Intel MPI 操作场景 本节指导用户在ECS上安装和使用Intel MPI应用(以版本l_mpi_2018.0.128为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装Intel MPI。 下载Intel MPI。 下载地址:https://software.intel
安装和使用Intel MPI 操作场景 本节指导用户在BMS集群上安装和使用Intel MPI应用(以版本l_mpi_2018.0.128为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装Intel MPI。 下载Intel
安装和使用IB驱动自带的Open MPI 操作场景 本节操作指导用户在BMS上安装和使用IB驱动自带的Open MPI(以版本4.0.2a1为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 查询是否安装了IB驱动 执行以下命令,查询是否已成功安装IB驱动。
为用户的弹性云服务器提供一个完全托管的共享文件存储,符合标准文件协议( NFS ),能够弹性伸缩至PB规模,具备可扩展的性能,为海量数据、高带宽型应用提供有力支持。 数据快递服务(DES) 是一种海量数据传输服务,它使用物理存储介质(USB或eSATA接口)向华为公有云传输大量数据。解决了海量数据在