检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
1.1版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装HPC-X工具套件。 使用社区OpenMPI时,需要同时使用Mellanox的HPC-X 套件,适用于CentOS 7.3的HPC-X版本是“hpcx-v2
安装和使用MPICH 操作场景 本节指导用户在鲲鹏BMS集群上安装和使用MPICH应用(以版本mpich-3.3.2为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装MPICH。 下载MPICH。 下载地址:https://aur
在HPC集群上运行MPI应用(鲲鹏BMS场景) 该任务指导以CentOS 7.6的操作系统为例在集群上运行MPI应用。 安装和使用IB驱动自带的Open MPI 安装和使用社区OpenMPI 安装和使用MPICH 父主题: 裸金属服务器场景典型应用
本节指导用户在BMS集群上安装和使用Spectrum MPI应用(以版本10.01.01为例)。 对于集群中的每台BMS,都需要执行该操作。 背景信息 IBM Spectrum MPI v10.1版本当前支持的操作系统列表如下: IBM Spectrum MPI 10.1.0.1 Eval for x86_64
实施步骤 创建HPC私有镜像 创建弹性云服务器 配置节点互信 创建SFS Turbo 挂载共享目录 通讯录安装 MPI安装 STAR-CCM+安装与运行 父主题: 基于STAR-CCM+部署HPC集群
STAR-CCM+集群运行时候需要跨节点运行,推荐使用互信免密登录。 # 生成ssh公钥和私钥 ssh-key-gen # 拷贝公钥到指定主机的~/.ssh/authorized_key文件中 ssh-copy-id root@目标主机IP 例如:ssh-copy-id root@192
environment. MPI_Finalize(); } $ mpicc hello.c -o hello 不同版本的MPI运行的hello文件是不同的,都需要使用命令mpicc hello.c -o hello对hello.c文件重新编译。 执行以下命令,在单个BMS上运行社区OpenMPI。
B机器作为Server端,A机器作为Client端,dtest/rping测试RoCE网络仍异常。 解决方案: 1.请检查集群中每个节点的配置文件/etc/dat.conf中"ofa-v2-cma-roe-enp177s0"是否放在首行且每个节点都一致。 2.若以上方法无法解决,请联系技术支持处理。
/etc/fstab 执行mount -a 备注: 192.168.0.15:/ 是从sfs turbo console中获取到的挂载的路径。 第1个1表示备份文件系统,第2个1表示从/分区的顺序开始fsck磁盘检测,0表示不检测,_rnetdev 表示主机无法挂载直接跳过,避免无法挂载主机无法启动。
需修改镜像属性才能在ECS创建界面的C6h规格中选择到相应的镜像。 镜像获取 请联系技术支持进行操作。 创建系统盘镜像 请使用镜像文件创建系统盘镜像,需注意镜像用途选择ECS系统盘镜像如图1,选择启动方式为UEFI图2,否则系统无法启动。 图1 创建系统盘镜像 图2 选择启动方式 为创建的私有镜像打标签 登录到 API
主要概念 RDMA RoCE 父主题: 附录
本节指导用户在BMS集群上安装和使用Platform MPI应用(以版本platform_mpi- 09.01.04.03r-ce.bin为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装Platform MPI 下载platformMPI,如:platform_mpi-
常见问题 RoCE网络问题 STAR-CCM+启动相关问题 父主题: 附录
/etc/hosts 添加的内容为弹性云服务器的主机名及IP地址,例如 #cat /etc/hosts 192.168.1.3 vm1 192.168.1.4 vm2 ... 执行以下命令,添加hostfile文件。 # vi hostfile 添加的内容为集群中参与测试的弹性云服务器的主机名。 vm1
stop 执行以下命令,用“IP:Number”的形式作为MPI集群运行程序时的hostlist参数,在集群上通过Spectrum MPI运行可执行文件。其中, IP代表集群中的弹性云服务器IP地址。 Number代表该弹性云服务器的任务数。 假设集群中共有两个弹性云服务器,主机名
在HPC集群上运行MPI应用(X86 BMS场景) 该任务指导以CentOS7.3的OS为例在集群上运行MPI应用。 IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 裸金属服务器场景典型应用
96 ofa-v2-cma-roe-enp177s0是上一步/etc/dat.conf中首行配置的名称; client端的192.168.0.96是server端的ip。 验证通过的观测指标:client和server端都出现DAPL Test Complete. PASSED则表示验证通过
1~步骤1.3,关闭所有ECS的防火墙。 修改配置文件。 登录集群中任意一台ECS。 执行以下命令,查看ECS的主机名。 # hostname 图2 查看ECS的主机名 依次登录集群中所有ECS,重复执行步骤2.1~步骤2.2,获取所有ECS的主机名。 登录集群中任意一台ECS。
gids:查下设备名和index。 UCX_NET_DEVICES: hiroce gids查到的有ip值一行的ib_dev的值: port的值。 UCX_IB_GID_INDEX:hiroce gids查到的有ip值一行的idx的值。 2.若以上方法无法解决,请联系技术支持进行处理。 STAR-CCM+启动时,报错“udapl
gids查到的有ip一行的ib_dev的值,:后面的值为port的id。 UCX_IB_GID_INDEX:hiroce gids查到的有ip一行的idx的值。 /opt/Siemens/A-1.4T-inletsystem-blockqian-case2.sim:算例文件。 运行参数调优下的STAR-CCM+ 端口范围修改