检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查看集群扩容的进度 操作场景 集群扩容的命令下发之后,如需查看集群的扩容进度,可进入一站式HPC服务提供的“进度”页查看当前集群扩容的具体进展和详细信息。 操作步骤 登录HPC-S²控制台。 单击左侧的“集群管理”。 在“集群管理”页面选择要查看的集群,单击操作列的“进度”进入查看。
安装和使用MPICH 操作场景 本节指导用户在鲲鹏BMS集群上安装和使用MPICH应用(以版本mpich-3.3.2为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装MPICH。 下载MPICH。 下载地址:https://aur
输流时内核内存空间与用户空间之间环境切换的次数。 没有CPU参与:应用程序可以访问远程内存,而不占用远程机器中的任何CPU。远程存储器将被读取,无需任何干预的远程进程(或处理器)。远程CPU中的缓存将不会被访问的内存内容填满。 基于消息的事务:数据被作为离散消息处理,而不是作为流
/etc/fstab 执行mount -a 备注: 192.168.0.15:/ 是从sfs turbo console中获取到的挂载的路径。 第1个1表示备份文件系统,第2个1表示从/分区的顺序开始fsck磁盘检测,0表示不检测,_rnetdev 表示主机无法挂载直接跳过,避免无法挂载主机无法启动。
本,v1和v2。其中RoCE v1是一种链路层协议,允许在同一个广播域下的任意两台主机直接访问。而RoCE v2是一种Internet层协议,即可以实现路由功能。虽然RoCE协议这些好处都是基于融合以太网的特性,但是RoCE协议也可以使用在传统以太网网络或者非融合以太网络中。 应用场景
STAR-CCM+集群运行时候需要跨节点运行,推荐使用互信免密登录。 # 生成ssh公钥和私钥 ssh-key-gen # 拷贝公钥到指定主机的~/.ssh/authorized_key文件中 ssh-copy-id root@目标主机IP 例如:ssh-copy-id root@192
environment. MPI_Finalize(); } $ mpicc hello.c -o hello 不同版本的MPI运行的hello文件是不同的,都需要使用命令mpicc hello.c -o hello对hello.c文件重新编译。 执行以下命令,在单个BMS上运行社区OpenMPI。
在HPC集群上运行MPI应用(X86 BMS场景) 该任务指导以CentOS7.3的OS为例在集群上运行MPI应用。 IB驱动自带的OpenMPI 社区OpenMPI Spectrum MPI Intel MPI Platform MPI 父主题: 裸金属服务器场景典型应用
96 ofa-v2-cma-roe-enp177s0是上一步/etc/dat.conf中首行配置的名称; client端的192.168.0.96是server端的ip。 验证通过的观测指标:client和server端都出现DAPL Test Complete. PASSED则表示验证通过
需修改镜像属性才能在ECS创建界面的C6h规格中选择到相应的镜像。 镜像获取 请联系技术支持进行操作。 创建系统盘镜像 请使用镜像文件创建系统盘镜像,需注意镜像用途选择ECS系统盘镜像如图1,选择启动方式为UEFI图2,否则系统无法启动。 图1 创建系统盘镜像 图2 选择启动方式 为创建的私有镜像打标签 登录到 API
SFS Turbo提供按需扩展的高性能文件存储(NAS),可为云上多个弹性云服务器(Elastic Cloud Server,ECS),容器(CCE&CCI),裸金属服务器(BMS)提供共享访问,能够弹性伸缩至320TB规模,具备高可用性和持久性,为海量的小文件、低延迟高IOPS型应用提供有力支持。
B机器作为Server端,A机器作为Client端,dtest/rping测试RoCE网络仍异常。 解决方案: 1.请检查集群中每个节点的配置文件/etc/dat.conf中"ofa-v2-cma-roe-enp177s0"是否放在首行且每个节点都一致。 2.若以上方法无法解决,请联系技术支持处理。
本节指导用户在BMS集群上安装和使用Spectrum MPI应用(以版本10.01.01为例)。 对于集群中的每台BMS,都需要执行该操作。 背景信息 IBM Spectrum MPI v10.1版本当前支持的操作系统列表如下: IBM Spectrum MPI 10.1.0.1 Eval for x86_64
1.1版本为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装HPC-X工具套件。 使用社区OpenMPI时,需要同时使用Mellanox的HPC-X 套件,适用于CentOS 7.3的HPC-X版本是“hpcx-v2
本节指导用户在BMS集群上安装和使用Platform MPI应用(以版本platform_mpi- 09.01.04.03r-ce.bin为例)。 对于集群中的每台BMS,都需要执行该操作。 前提条件 已配置BMS集群间互相免密登录。 操作步骤 安装Platform MPI 下载platformMPI,如:platform_mpi-
前提条件:用户集群的节点列表不为空。 登录HPC-S²控制台。 单击左侧的“节点管理”。 在“节点管理”页上方的集群下拉框切换到要查看的集群,查看该集群的节点列表。 单击节点名称,跳转至对应的ECS列表页即可查看节点详细信息。 父主题: 查看HPC集群
管理集群的共享存储信息 操作场景 集群创建完成后,如需查看集群所使用的共享存储的详细信息,可进入一站式HPC服务提供的“共享存储”页,查看例如集群所使用的SFS的名称和ID、存储协议、共享路径以及挂载点等信息。 操作步骤 登录HPC-S²控制台。 单击左侧的“共享存储”。 在“共
STAR-CCM+部署HPC集群流程图 本文档介绍如何通过仿真软件STAR-CCM+部署HPC集群,流程如图1所示。 图1 基于STAR-CCM+部署HPC集群流程图 父主题: 基于STAR-CCM+部署HPC集群
依次登录集群中所有BMS,重复执行1.b~1.c,关闭所有BMS的防火墙。 修改配置文件。 登录集群中任意一台BMS。 执行以下命令,查看BMS的主机名。 $ hostname 图2 查看BMS的主机名 依次登录集群中所有BMS,重复执行1.b~2.b,获取所有BMS的主机名。 登录集群中任意一台BMS。 执行以下命令,添加hosts配置文件。
依次登录集群中所有BMS,重复执行1.b~1.c,关闭所有BMS的防火墙。 修改配置文件。 登录集群中任意一台BMS。 执行以下命令,查看BMS的主机名。 $ hostname 图2 查看BMS的主机名 依次登录集群中所有BMS,重复执行1.b~2.b,获取所有BMS的主机名。 登录集群中任意一台BMS。 执行以下命令,添加hosts配置文件。