检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
执行以下命令,查看防火墙是否关闭成功。 # systemctl status firewalld.service 图1 成功关闭防火墙 依次登录集群中所有ECS,重复执行1.a~1.c,关闭所有ECS的防火墙。 修改配置文件。 登录集群中任意一台ECS。 执行以下命令,查看ECS的主机名。
单击“购买裸金属服务器”。 进入购买页面。 如果您已申请专属云,并希望将裸金属服务器部署在专属云中,则单击“在专属云中发放裸金属服务器”。 确认“当前区域”。 如果所在区域不正确,请单击页面左上角的进行切换。 选择“可用分区”。 可用分区指在同一地域下,电力、网络隔离的物理区域,可用分区
bashrc 验证MPI运行在RoCE网络上 执行以下命令,安装iproute2。 yum -y install iproute* 执行以下命令,查看RoCE上是否有流量。 rdma res show 若MPI运行中,回显结果中qp 数量较大(大于1),则证明运行在 RoCE 网络上: 无业务时
购买数量:待创建集群中弹性云服务器的数量。 单击“立即购买”。 在确认规格页面,您可以查看详情并提交申请。 如果确认信息无误,单击“提交订单”。 使用私有镜像创建的弹性云服务器创建成功后,您可以在弹性云服务器列表页查看详情,这些云服务器将被用作HPC集群。 API方式 以创建H2型ECS集群为例:
/lib 执行以下命令,导入配置的MPI环境变量。 # source ~/.bashrc 执行以下命令,查看MPI环境变量是否正常。 # which mpirun 图2 查看社区OpenMPI环境变量 系统回显结果如图2所示,则环境配置正常。 执行以下命令,在单个弹性云服务器上运行Intel
intel/impi/2018.0.128/lib64 执行下列命令,导入环境变量。 $ source ~/.bashrc 执行下列命令,查看是否导入成功。 $ which mpirun 图2 Intel MPI环境变量导入成功 回显结果如图2所示,表示环境变量导入成功。 执行以下命令,在单个BMS上运行Intel
intel/impi/2018.0.128/lib64 执行下列命令,导入环境变量。 # source ~/.bashrc 执行下列命令,查看是否导入成功。 # which mpirun 图2 环境变量导入成功 回显结果如图2所示,表示环境变量导入成功。 执行以下命令,在单个ECS上运行Intel
LD_LIBRARY_PATH=/opt/mpich-332/lib 执行下列命令,导入环境变量。 $ source ~/.bashrc 执行下列命令,查看是否导入成功。 $ which mpirun 图2 MPICH环境变量导入成功 回显结果如图2所示,表示环境变量导入成功。 执行以下命令,在单个BMS上运行MPICH。
根据界面提示,填写镜像的基本信息。 源:云服务器 弹性云服务器:保持系统默认值 名称:用户自定义镜像名称。 单击“立即申请”。 系统将自动跳转至镜像服务页面,您可以在此页面查看新创建的私有镜像。 API方式 URI POST /v2/cloudimages/action 请求样例 POST /v2/cloudimages/action
确定页可选择是否删除云服务器,如勾选,连同云服务器一同删除,如不勾选,则只删除集群信息,对应的云服务器节点仍保留,用户可通过弹性云服务器页面查看。 包周期类型集群 不能选择删除节点,包周期节点资源需手动退订。 混合类型集群删除 可选择删除节点,同时会有提示包周期节点需要手动退订,勾
且后面starccm使用platform方式启动时候需要使用该配置名称。 enp177s0为网卡名称,可以使用ip a或者ipconfig查看到。 验证Udapl(使用dtest测试RoCE网络) 使用 dtest 进行验证: server端(192.168.0.96):dtest
/opt/openmpi-310/lib 执行以下命令,导入配置的MPI环境变量。 $ source ~/.bashrc 执行以下命令,查看MPI环境变量是否正常。 $ which mpirun 图3 环境变量正常 回显如图3所示表示环境变量正常。 执行以下命令,在单个BMS上运行社区OpenMPI。
/opt/openmpi-310/lib 执行以下命令,导入配置的MPI环境变量。 $ source ~/.bashrc 执行以下命令,查看MPI环境变量是否正常。 $ which mpirun 图3 环境变量正常 回显如图3所示表示环境变量正常。 执行以下命令,在单个BMS上运行社区OpenMPI。
STAR-CCM+启动相关问题 STAR-CCM+使用OpenMPI启动时,命令中有"-x"和"--mca"导致启动失败 问题现象: STAR-CCM+使用OpenMPI启动时候命令中同时有"-x"和"--mca"会启动失败,OpenMPI不支持"-x"参数和"--mca"同时使用,报错如下图所示。
ssh $ mv *.pem id_rsa 执行以下命令,给密钥文件配置权限。 $ sudo chmod 600 id_rsa 执行以下命令,查询主机名。 # hostname 执行以下命令,添加本主机私网IP地址和主机名。 # vi /etc/hosts 示例: 192.168.0
# cat /sys/class/infiniband/mlx5_0/ports/1/pkeys/* | grep -v 0000 图2 查询pkey值 普通用户下,在~/.bashrc中添加如下语句: export MPI_ROOT=/opt/ibm/platform_mpi export
在HPC集群上运行Spectrum MPI 操作场景 该任务指导用户在已配置好的弹性云服务器上,运行Spectrum MPI应用(IBM Spectrum MPI v10.1)。 前提条件 已成功创建带IB网卡的弹性云服务器,并绑定了弹性IP进行登录。 已使用私有镜像创建多个弹性云服务器。
HPC和公有云 公有云上部署HPC的优势 传统的HPC使用中存在如下问题: 投资成本高,扩容部署复杂,重复利用已有投资十分困难。 应用复杂,资源预测困难,灵活性差,亟待提升效率。 效率低下导致决策缓慢,失去市场、以及开发研究成果的良机。 应用计算量快速膨胀,对性能要求越来越高。