检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
是基于融合以太网的特性,但是RoCE协议也可以使用在传统以太网网络或者非融合以太网络中。 应用场景 网络密集型应用,例如存储或者集群计算等,需要网络支持大带宽和低时延特性。RDMA的优势相比其他网络应用程序接口,例如Berkeley接口,就是低时延,低CPU负载和大带宽。RoCE可以比iWARP协议要实现更低的时延。
依次登录集群中所有BMS,重复执行1.b~1.c,关闭所有BMS的防火墙。 修改配置文件。 登录集群中任意一台BMS。 执行以下命令,查看BMS的主机名。 $ hostname 图2 查看BMS的主机名 依次登录集群中所有BMS,重复执行1.b~2.b,获取所有BMS的主机名。 登录集群中任意一台BMS。 执行以下命令,添加hosts配置文件。
查看集群缩容的进度 操作场景 集群缩容的命令下发之后,如需查看集群的缩容进度,可进入一站式HPC服务提供的“进度”页查看当前集群缩容的具体进展和详细信息 操作步骤 登录HPC-S²控制台。 单击左侧的“集群管理”。 在“集群管理”页面选择要查看的集群,单击操作列的“进度”进入查看。
弹性云服务器场景典型应用 创建支持IB网卡的弹性云服务器 配置单个ECS免密登录 安装和使用MPI 制作私有镜像 创建应用集群 配置ECS集群互相免密登录 在HPC集群上运行MPI应用
stop 执行以下命令,用“IP:Number”的形式作为MPI集群运行程序时的hostlist参数,在集群上通过Spectrum MPI运行可执行文件。其中, IP代表集群中的弹性云服务器IP地址。 Number代表该弹性云服务器的任务数。 假设集群中共有两个弹性云服务器,主机名
查看集群扩容的进度 操作场景 集群扩容的命令下发之后,如需查看集群的扩容进度,可进入一站式HPC服务提供的“进度”页查看当前集群扩容的具体进展和详细信息。 操作步骤 登录HPC-S²控制台。 单击左侧的“集群管理”。 在“集群管理”页面选择要查看的集群,单击操作列的“进度”进入查看。
查看集群的节点信息 操作场景 集群创建完成后,如需查看集群中节点的详细信息,可进入一站式HPC服务提供的“节点管理”页,查看例如当前集群中节点,包括节点名称和ID、节点类型、状态、规格、IP、共享存储挂载状态、可用区以及付费类型等信息。 操作步骤 前提条件:用户集群的节点列表不为空。
管理集群的共享存储信息 操作场景 集群创建完成后,如需查看集群所使用的共享存储的详细信息,可进入一站式HPC服务提供的“共享存储”页,查看例如集群所使用的SFS的名称和ID、存储协议、共享路径以及挂载点等信息。 操作步骤 登录HPC-S²控制台。 单击左侧的“共享存储”。 在“共
查看已有节点部署集群的进度 操作场景 使用已有节点部署集群的命令下发之后,如需查看集群的部署进度,可进入一站式HPC服务提供的“进度”页查看当前集群部署的具体进展和详细信息。 操作步骤 登录HPC-S²控制台。 单击左侧的“集群管理”。 在“集群管理”页面选择要查看的集群,单击操作列的“进度”
本节指导用户安装和使用社区OpenMPI(以3.1.1版本的OpenMPI为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装HPC-X工具套件。 下载需要的HPC-X工具套件以及OpenMPI。 使用社区OpenMPI时,需要同时使用Mellanox的HPC-X 套件,HPC-X
执行以下命令,防止系统超时退出。 # TMOUT=0 执行以下命令,添加集群中所有主机的私网IP地址和主机名。 # vi /etc/hosts 添加的内容为集群中所有ECS的私网IP地址和主机名,例如: 192.168.0.1 ecs-ff-0001 192.168.0.2 ecs-ff-0002
实施步骤 创建HPC私有镜像 创建弹性云服务器 配置节点互信 创建SFS Turbo 挂载共享目录 通讯录安装 MPI安装 STAR-CCM+安装与运行 父主题: 基于STAR-CCM+部署HPC集群
hostname 执行以下命令,添加本主机私网IP地址和主机名。 # vi /etc/hosts 示例: 192.168.0.1 ecs-ff-0001 执行以下命令,ssh方式登录本节点,验证是否可以不输入密码登录ECS。 假设本主机的主机名为hostname1,则命令行如下: $ ssh
操作场景 本节指导用户在ECS上安装和使用Platform MPI应用(以版本platform_mpi-09.01.04.03r-ce为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装Platform MPI。 执行以下命令,安装需要的库文件。 # yum install
Intel MPI 操作场景 本节指导用户在ECS上安装和使用Intel MPI应用(以版本l_mpi_2018.0.128为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装Intel MPI。 下载Intel MPI。 下载地址:https://software.intel
3eval_170901-rh7_Apr11.x86_64.rpm 下载需要的HPC-X工具套件。 IBM MPI在EDR SR-IOV场景下的运行需要HPC-X提供的MXM库的支持,HPC-X 的下载需要参考弹性云服务器操作系统的版本以及IB驱动版本,例如,下载的HPC-X版本为:hpcx-v2.0.0-gcc-MLNX_OFED_LINUX-4
MPI安装 Platform MPI安装 PlatformMPI使用STAR-CCM+自带的,不需要安装。 OpenMPI安装(可选) 若使用STAR-CCM+自带的,可不用安装。 cd /root tar zxvf openmpi-4.0.1.tar.gz cd openmpi-4
集群的管理节点为运行状态,但是集群异常提示“master node cannot reached”怎么办? 问题描述 集群的管理节点为运行状态,但是集群异常提示“master node cannot reached”。 处理方法 检查“/etc/ssh/sshd_config”配
常见问题 RoCE网络问题 STAR-CCM+启动相关问题 父主题: 附录
计算能力、存储效率、网络带宽及时延要求有各自侧重。 HPC的应用场景 HPC提供了超高浮点计算能力解决方案,可用于解决计算密集型、海量数据处理等业务的计算需求,如科学研究、气象预报、计算模拟、军事研究、CAD/CAE、生物制药、基因测序、图像处理等,缩短需要的大量计算时间,提高计算精度。