检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在华为云控制台搜索“弹性文件服务 SFS”,并在弹性文件服务页面右上角选择“创建文件系统”。 图1 创建文件系统 2.在"创建文件系统"界面的"文件系统类型"选项中,根据业务需要,选择"HPC型"或"HPC缓存型"文件系统类型。 图2 选择文件系统类型 3.在"创建文件系统"界面的"选择
g”配置文件,确保配置文件中“AuthorizedKeysFile”添加了“/usr/local/.hpccluster/role/.ssh/authorized_keys”配置项。 检查“/usr/local/.hpccluster/role/.ssh/”目录下的文件,确保该目
1.1.tar.gz为例)拷贝至弹性云服务器内,并执行以下命令进行解压。 # tar -xzvf openmpi-3.1.1.tar.gz # cd openmpi-3.1.1 执行以下命令,安装需要的库文件。 # yum install binutils-devel.x86_64
启动、停止、重启、删除等管理功能。 共享存储 HPC-S²的管理控制台提供了HPC-S²集群所对应的存储信息,通过弹性文件服务(SFS)为集群中所有节点提供文件共享路径。 任务管理 HPC-S²的管理控制台提供了HPC-S²集群相关的任务队列、动态调度、亲和性调度、负载重组及基于
将下载的OpenMPI压缩包拷贝至BMS内(建议在“/home/rhel”目录下)。 执行以下命令,解压软件包。 # tar -xzvf openmpi-3.1.0.tar.gz # cd openmpi-3.1.0 执行以下命令,安装所需要的库文件,安装之前请确保BMS能与外网连通。 执行以下命令,安装依赖包。 #
} $ mpicc hello.c -o hello 不同版本的MPI运行的hello文件是不同的,都需要使用命令mpicc hello.c -o hello对hello.c文件重新编译。 执行以下命令,在单个BMS上运行社区OpenMPI。 $ mpirun -np 2
hostfile /home/rhel/hello 图3 集群上运行社区OpenMPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
安装MPICH。 下载MPICH。 下载地址:https://aur.archlinux.org/packages/mpich/ 执行以下命令,解压并安装MPICH。 以mpich-3.3.2.tar.gz为例: # tar -xvf mpich-3.3.2.tar.gz # cd mpich-3
# which mpirun 图3 查看环境变量 执行以下命令,在单个弹性云服务器上通过Spectrum MPI运行可执行文件。 执行以下命令,编辑文件。 # cd # vi hello.c 编辑内容如下: #include<mpi.h> #include<stdio.h> int
01.04.03r-ce为例)。 前提条件 已配置弹性云服务器免密登录。 操作步骤 安装Platform MPI。 执行以下命令,安装需要的库文件。 # yum install glibc.i686 libgcc-4.8.5-11.el7.i686 增加执行权限,例如安装包所在路径为/root。
拷贝公钥到指定主机的~/.ssh/authorized_key文件中 ssh-copy-id root@目标主机IP 例如:ssh-copy-id root@192.168.0.166 配置ssh第一次登录免输入yes 在~/.ssh/config文件中加入如下内容: StrictHostKeyChecking
HPC解决方案服务的管理控制台提供了弹性文件服务SFS的自定义挂载和卸载的功能。集群创建完成后,您可以在共享存储页面为集群挂载/卸载弹性文件服务。通过弹性文件服务SFS为集群提供共享存储的功能。 当集群为运行状态时,您可以选择挂载/卸载弹性文件服务。当集群在创建中或部署状态时,不支持挂载/卸载共享文件服务。 挂载共享存储
hostfile /home/rhel/hello 图3 集群上运行Spetrum MPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
下载Intel MPI。 下载地址:https://software.intel.com/en-us/intel-mpi-library 执行以下命令,解压并安装Intel MPI。 以l_mpi_2018.0.128.tgz为例: # tar -xvf l_mpi_2018.0.128.tgz
创建镜像需选择ECS系统盘镜像。 需修改镜像属性才能在ECS创建界面的C6h规格中选择到相应的镜像。 镜像获取 请联系技术支持进行操作。 创建系统盘镜像 请使用镜像文件创建系统盘镜像,需注意镜像用途选择ECS系统盘镜像如图1,选择启动方式为UEFI图2,否则系统无法启动。 图1 创建系统盘镜像 图2 选择启动方式
在单个BMS上通过MPICH运行可执行文件。 $ mpirun -np 2 -hostfile /home/rhel/hostfile /home/rhel/hello 图2 集群上运行MPICH成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。
下载Intel MPI。 下载地址:https://software.intel.com/en-us/intel-mpi-library 执行以下命令,解压并安装Intel MPI。 以l_mpi_2018.0.128.tgz为例: # tar -xvf l_mpi_2018.0.128.tgz
https://github.com/openucx/ucx/releases/download/v1.6.0/ucx-1.6.0.tar.gz 解压ucx包 # tar -xvf ucx-1.6.0.tar.gz 编译安装ucx # cd /opt/ucx-1.6.0 # yum install
hostfile /home/rhel/hello 图3 BMS集群上运行Intel MPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用(X86 BMS场景)
器作为Server端,A机器作为Client端,dtest/rping测试RoCE网络仍异常。 解决方案: 1.请检查集群中每个节点的配置文件/etc/dat.conf中"ofa-v2-cma-roe-enp177s0"是否放在首行且每个节点都一致。 2.若以上方法无法解决,请联系技术支持处理。