-
制作私有镜像 - 高性能计算 HPC
导用户怎样将Linux弹性云服务器转化为私有镜像,包括管理控制台方式和基于HTTPS请求的API(Application programming interface)方式。 前提条件 已确保Linux云服务器网卡设置为DHCP的方式动态获取网络地址。 已清理Linux云服务器中的udev配置规则。
-
STAR-CCM+安装与运行 - 高性能计算 HPC
STAR-CCM+15 tar zxvf STAR-CCM+15.02.009_01_linux-x86_64-r8.tar.gz cd starccm+_15.02.009 sh STAR-CCM+15.02.009_01_linux-x86_64-2.12_gnu7.1-r8.sh # 从STAR
-
通讯录安装 - 高性能计算 HPC
通讯录安装 Udapl安装和测试 Udapl安装 cd /root wget https://linux.mellanox.com/public/repo/mlnx_ofed/4.1-1.0.2.0/SRPMS/dapl-2.1.10mlnx-OFED.3.4.2.1.0.41102
-
Spectrum MPI - 高性能计算 HPC
1 Eval for x86_64 Linux Red Hat Enterprise Linux version 6.6及其之后的版本 Red Hat Enterprise Linux version 7.1及其之后的版本 SUSE Linux Enterprise Server
-
安装和使用社区OpenMPI - 高性能计算 HPC
tar -xvf hpcx-v2.2.0-gcc-MLNX_OFED_LINUX-4.3-1.0.1.0-redhat7.3-x86_64.tbz # mv hpcx-v2.2.0-gcc-MLNX_OFED_LINUX-4.3-1.0.1.0-redhat7.3-x86_64 /opt/hpcx-v2
-
安装和使用Spectrum MPI - 高性能计算 HPC
1 Eval for x86_64 Linux Red Hat Enterprise Linux version 6.6及其之后的版本 Red Hat Enterprise Linux version 7.1及其之后的版本 SUSE Linux Enterprise Server
-
安装和使用IB驱动自带的Open MPI - 高性能计算 HPC
下载安装包“MLNX_OFED_LINUX-4.6-1.0.1.1-rhel7.6alternate-aarch64.tgz”。 下载地址:https://network.nvidia.com/products/infiniband-drivers/linux/mlnx_ofed/ 图2
-
在HPC集群上运行社区OpenMPI - 高性能计算 HPC
9426.16 # All processes entering MPI_Finalize 在Linux集群上部署您自己的MPI 应用,并参考上述MPI运行方法,在Linux 集群中运行MPI 程序。 父主题: 在HPC集群上运行MPI应用
-
安装和使用IB驱动自带的Open MPI - 高性能计算 HPC
安装IB驱动。 下载安装包“MLNX_OFED_LINUX-4.3-1.0.1.0-rhel7.3-x86_64.tgz”。 下载地址:https://network.nvidia.com/products/infiniband-drivers/linux/mlnx_ofed/ 图2 IB驱动的下载页面
-
在HPC集群上运行IB驱动自带的OpenMPI - 高性能计算 HPC
9935.78 # All processes entering MPI_Finalize 在Linux集群上部署您自己的MPI应用,并参考上述MPI运行方法,在Linux集群中运行MPI程序。 父主题: 在HPC集群上运行MPI应用
-
IB驱动自带的OpenMPI - 高性能计算 HPC
d-drivers/linux/mlnx_ofed/,选择相应版本的InfiniBand网卡驱动下载,并根据Mellanox提供的操作指导进行安装。 以操作系统CentOS 7.3为例,推荐安装4.2.1版本的安装包,下载安装包“MLNX_OFED_LINUX-4.2-1.2.0
-
社区OpenMPI - 高性能计算 HPC
0.0-gcc-MLNX_OFED_LINUX-4.2-1.2.0.0-redhat7.3-x86_64.tbz。 执行以下命令,解压HPC-X工具套件。 # tar -xvf hpcx-v2.0.0-gcc-MLNX_OFED_LINUX-4.2-1.2.0.0-redhat7
-
Platform MPI - 高性能计算 HPC
PATH=$MPI_ROOT/bin:$PATH export LD_LIBRARY_PATH=/opt/ibm/platform_mpi/lib/linux_amd64 export MPI_IB_PKEY=步骤2.1中获取的pkey $source ~/.bashrc 如果存在多个pkey,使用英文逗号隔开。
-
安装和使用Platform MPI - 高性能计算 HPC
PATH=$MPI_ROOT/bin:$PATH export LD_LIBRARY_PATH=/opt/ibm/platform_mpi/lib/linux_amd64 export MPI_IB_PKEY=2.a中获取的pkey $source ~/.bashrc 如果存在多个pkey,使用英文逗号隔开。
-
方法一:购买高性能计算解决方案 - 高性能计算 HPC
常用端口与协议的用途如下,请按需开启: 80端口:浏览网页的默认端口,主要用于HTTP服务。 443端口:网页浏览端口,主要用于HTTPS服务。 ICMP协议:用于ping云服务器之间的通信情况。 22端口:用于Linux云服务器的SSH方式登录。 3389端口:用于Windows云服务器的远程桌面登录。 网卡 在下拉列表中选择可用的子网。
-
创建支持IB网卡的弹性云服务器 - 高性能计算 HPC
正常登录弹性云服务器。 密码 指使用设置root用户(Linux)和Administrator用户(Windows)的初始密码作为弹性云服务器的鉴权方式,如果选择此方式,您可以通过用户名密码方式登录弹性云服务器。 Linux操作系统时为root用户的初始密码,Windows操作系
-
创建裸金属服务器集群 - 高性能计算 HPC
影响您正常登录裸金属服务器。 密码 指使用设置初始密码方式作为裸金属服务器的鉴权方式,此时,您可以通过用户名密码方式登录裸金属服务器。Linux操作系统时为root用户的初始密码,Windows操作系统时为Administrator用户的初始密码。密码复杂度需满足表2要求。 Wi
-
方法二:使用已有节点部署HPC集群 - 高性能计算 HPC
已有节点部署集群,当前只支持密码方式,如果您使用“密钥”方式创建的云服务器,请手动设置登录密码,另外,使用密码方式时请增强密码的复杂度,保证密码符合要求,防止恶意攻击。 Linux操作系统时为root用户的初始密码,Windows操作系统时为Administrator用户的初始密码。密码复杂度需满足表2要求。 表2
-
管理集群的共享存储信息 - 高性能计算 HPC
集群创建完成后,如需查看集群所使用的共享存储的详细信息,可进入一站式HPC服务提供的“共享存储”页,查看例如集群所使用的SFS的名称和ID、存储协议、共享路径以及挂载点等信息。 操作步骤 登录HPC-S²控制台。 单击左侧的“共享存储”。 在“共享存储”页,查看集群对应的共享存储的详细信息。 父主题:
-
安装和使用社区OpenMPI - 高性能计算 HPC
/home/rhel/hello 图2 集群上运行社区OpenMPI成功 hostfile文件在运行时需要指定路径,可执行文件hello路径需为绝对路径,集群中所有可执行文件在同一路径下。 父主题: 在HPC集群上运行MPI应用(鲲鹏BMS场景)