检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
22端口:用于Linux云服务器的SSH方式登录。 3389端口:用于Windows云服务器的远程桌面登录。 网卡 在下拉列表中选择可用的子网。
设置“登录方式”。 已有节点部署集群,当前只支持密码方式,如果您使用“密钥”方式创建的云服务器,请手动设置登录密码,另外,使用密码方式时请增强密码的复杂度,保证密码符合要求,防止恶意攻击。
HPC断点续算计算方案 操作场景 在HPC领域很多应用本身是支持断点续算功能的,例如LAMMPS, GROMACS。同时HPC常用的调度软件也对断点续算有集成支持,如PBS、Slurm与LSF等。 本节以LAMMPS为例,介绍如何在HPC进行断点续算。 步骤1 安装FFTW 依次执行以下命令
操作步骤 登录HPC-S²控制台。 单击左侧的“集群管理”。 在“集群管理”页面,对于不需要或异常的集群可进行删除操作。
方案概述 方案应用 HPC提供了超高浮点计算能力解决方案,可用于解决计算密集型、海量数据处理等业务的计算需求,如科学研究、气象预报、计算模拟、军事研究、CAD/CAE、生物制药、基因测序、图像处理等,缩短需要的大量计算时间,提高计算精度。 方案架构 方案优势 降低TCO 可以按需租用
资源和成本规划 所需资源如表1所示,具体资源的实际费用请以对应官网价格显示为准。 表1 资源和成本规划 序号 资源 资源说明 获取路径 数量 费用 1 STAR-CCM+ 使用STAR-CCM+15.02版本。 建议从官方网站获取 1 以官网显示价格为准。 2 MPI(可选) Plateform
挂载共享目录 安装软件 yum install nfs-utils 挂载SFS Turbo 将SFS Turbo挂载到/opt/Siemens目录 mkdir /opt/Siemens # 在/etc/fstab中添加开启自动挂载 echo "192.168.0.15:/ /opt
RoCE RoCE概念 RDMA over Converged Ethernet (RoCE)是一种网络协议,允许应用通过以太网实现远程内存访问。目前RoCE有两个协议版本,v1和v2。其中RoCE v1是一种链路层协议,允许在同一个广播域下的任意两台主机直接访问。而RoCE v2
RDMA RDMA概念 远程直接内存访问(即Remote Direct Memory Access)是一种直接内存访问技术,它将数据直接从一台计算机的内存传输到另一台计算机,无需尤其是面对高性能计算HPC、大数据分析和浪涌型IO高并发、低时延应用,现有TCP/IP软硬件架构和应用高
MPI安装 Platform MPI安装 PlatformMPI使用STAR-CCM+自带的,不需要安装。 OpenMPI安装(可选) 若使用STAR-CCM+自带的,可不用安装。 cd /root tar zxvf openmpi-4.0.1.tar.gz cd openmpi-
通讯录安装 Udapl安装和测试 Udapl安装 cd /root wget https://linux.mellanox.com/public/repo/mlnx_ofed/4.1-1.0.2.0/SRPMS/dapl-2.1.10mlnx-OFED.3.4.2.1.0.41102
RoCE网络问题 dtest或rping打流测试网络双向不通问题 问题现象: dtest/rping打流测试网络双向不通问题:A机器作为Server端,B机器作为Client端,dtest/rping测试RoCE网络异常;调换A、B机器角色,B机器作为Server端,A机器作为Client
创建SFS Turbo 功能介绍 SFS Turbo提供按需扩展的高性能文件存储(NAS),可为云上多个弹性云服务器(Elastic Cloud Server,ECS),容器(CCE&CCI),裸金属服务器(BMS)提供共享访问,能够弹性伸缩至320TB规模,具备高可用性和持久性,
STAR-CCM+安装与运行 安装STAR-CCM+ yum install libXt libXext libSM libX11 cd /root unzip siemens.star-ccm15.zip cd Siemens.STAR-CCM+15 tar zxvf STAR-CCM
STAR-CCM+启动相关问题 STAR-CCM+使用OpenMPI启动时,命令中有"-x"和"--mca"导致启动失败 问题现象: STAR-CCM+使用OpenMPI启动时候命令中同时有"-x"和"--mca"会启动失败,OpenMPI不支持"-x"参数和"--mca"同时使用
STAR-CCM+部署HPC集群流程图 本文档介绍如何通过仿真软件STAR-CCM+部署HPC集群,流程如图1所示。 图1 基于STAR-CCM+部署HPC集群流程图 父主题: 基于STAR-CCM+部署HPC集群
Enterprise Server version 12及其之后的版本 IBM Spectrum MPI 10.1.0.2 Eval for Power 8 Linux Red Hat Enterprise Linux version 7.3及其之后的版本 前提条件 已配置BMS集群间互相免密登录
什么是HPC-S² HPC解决方案服务 高性能计算(High-performance computing,简称HPC)是一个计算机集群系统,通过管理节点对计算任务进行分解,交给不同的计算节点进行计算,以此来解决大型计算问题。在科学研究、气象预报、仿真实验、生物制药、基因测序、图像处理等行业均有广泛的应用
为什么集群被删除后还在计费? 按需购买的集群删除时未勾选“删除云服务器”,因此只删除了集群信息,集群中的云服务器资源仍在继续扣费。 包周期类型的集群删除时只能删除集群信息,云服务器资源需要手动退订。 管理节点如使用购买EIP的选择,集群删除时,即使勾选了“删除云服务器”,绑定的EIP
鲲鹏裸金属服务器支持使用的MPI HPC当前支持的MPI包括: 驱动自带的OpenMPI 社区OpenMPI MPICH 以下小节的内容详细介绍了MPI的安装与使用,您可以根据需要选择合适的MPI进行安装。 父主题: 安装和使用MPI(鲲鹏BMS场景)