检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
过两个连续字符的部分。 Test12$@ (可选)高级配置。 如需使用“高级配置”中的功能,请单击“现在配置”。否则,请单击“暂不配置”。 用户数据注入:主要用于创建裸金属服务器时向裸金属服务器注入用户数据。配置用户数据注入后,裸金属服务器首次启动时会自行注入数据信息。 设置“裸金属服务器名称”。
RoCE RoCE概念 RDMA over Converged Ethernet (RoCE)是一种网络协议,允许应用通过以太网实现远程内存访问。目前RoCE有两个协议版本,v1和v2。其中RoCE v1是一种链路层协议,允许在同一个广播域下的任意两台主机直接访问。而RoCE v
方法二:使用已有节点部署HPC集群 操作场景 如果用户需要使用已有的ECS节点资源构建HPC集群,可以使用该功能进行集群的部署。下面介绍如何使用已有节点部署HPC集群。 使用已有节点部署集群,首先选择管理节点,再选择计算节点,切换计算节点与管理节点需要有相同的CPU架构,需要在相
安装和使用IB驱动自带的Open MPI 操作场景 本节操作指导用户在BMS上安装和使用IB驱动自带的Open MPI(以版本4.0.2a1为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 查询是否安装了IB驱动 执行以下命令,查询是否已成功安装IB驱动。
B机器作为Server端,A机器作为Client端,dtest/rping测试RoCE网络仍异常。 解决方案: 1.请检查集群中每个节点的配置文件/etc/dat.conf中"ofa-v2-cma-roe-enp177s0"是否放在首行且每个节点都一致。 2.若以上方法无法解决,请联系技术支持处理。
STAR-CCM+启动时,报错“udapl version check failed” 解决方案: 1.请参考通信库安装章节的Udapl安装和测试中在/etc/dat.conf首行加入相应配置,需注意加在首行,放在末尾会出现提示“udapl version check failed”。 2.若以上方法无法解决,请联系技术支持处理。
--with-mxm=/opt/hpcx-v2.0.0/mxm # make all install 图1 安装OpenMPI 系统回显的安装过程如图1所示,且退出后无报错,说明安装OpenMPI成功。 配置MPI环境变量。 在“~/.bashrc”添加如下环境变量: export PATH=$P
HPC-S²应用场景 计算资源创建:HPC-S²支持一键式报价和一键式购买HPC集群,并在创建集群时自动部署所配置的调度器、域控制器以及运行时的依赖。 计算资源配置:HPC-S²支持计算资源的多种配置管理,包括集群管理、节点管理、扩容集群节点及资源状态查看等。 HPC-S²使用限制 HPC解
用户可使用系统自动创建的安全组,也可以根据需要自行创建一个安全组使用,安全组规则的配置会影响弹性云服务器的正常访问与使用。 为确保集群能正常创建/部署,需保证安全组规则22端口开放。具体配置方法请参见:为安全组添加安全组规则 一站式HPC服务使用弹性文件服务SFS作为文件共享
华为云SFS Turbo存放算例文件。 HPC仿真软件STAR-CCM+需要每个节点都安装,比较麻烦,可以将STAR-CCM+直接安装在NAS存储中,每个节点直接将NAS挂载到本地盘中,简化安装,使用更加方便。 购买SFS Turbo 1.在华为云控制台搜索“弹性文件服务 SFS
MPI安装 Platform MPI安装 PlatformMPI使用STAR-CCM+自带的,不需要安装。 OpenMPI安装(可选) 若使用STAR-CCM+自带的,可不用安装。 cd /root tar zxvf openmpi-4.0.1.tar.gz cd openmpi-4
查看已有节点部署集群的进度 操作场景 使用已有节点部署集群的命令下发之后,如需查看集群的部署进度,可进入一站式HPC服务提供的“进度”页查看当前集群部署的具体进展和详细信息。 操作步骤 登录HPC-S²控制台。 单击左侧的“集群管理”。 在“集群管理”页面选择要查看的集群,单击操
安装和使用MPICH 操作场景 本节指导用户在鲲鹏BMS集群上安装和使用MPICH应用(以版本mpich-3.3.2为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装MPICH。 下载MPICH。 下载地址:https://aur
安装和使用社区OpenMPI 操作场景 本节指导用户在BMS上安装和使用社区OpenMPI(以4.0.2版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装OpenMPI。 下载社区OpenMPI,版本号为“openmpi-4
安装和使用Intel MPI 操作场景 本节指导用户在BMS集群上安装和使用Intel MPI应用(以版本l_mpi_2018.0.128为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装Intel MPI。 下载Intel
STAR-CCM+部署HPC集群流程图 本文档介绍如何通过仿真软件STAR-CCM+部署HPC集群,流程如图1所示。 图1 基于STAR-CCM+部署HPC集群流程图 父主题: 基于STAR-CCM+部署HPC集群
03r-ce.bin 安装Platform MPI。 # ./platform_mpi-09.01.04.03r-ce.bin 根据系统提示安装Platform MPI,默认安装到“/opt/ibm/platform_mpi”文件夹下。 图1 Platform MPI成功安装 配置环境变量。
安装和使用社区OpenMPI 操作场景 本节指导用户在BMS上安装和使用社区OpenMPI(以3.1.1版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装HPC-X工具套件。 使用社区OpenMPI时,需要同时使用Mellanox的HPC-X
如果选择手动接受IBM Spectrum MPI安装许可协议,执行以下命令: # export IBM_SPECTRUM_MPI_LICENSE_ACCEPT=no 安装License部分。 选择自动接受IBM Spectrum MPI安装许可协议的,执行以下命令: # rpm -ivh