首页 鸿研 需求 视频 产品 专栏 招聘 活动 社区 APP下载 登录/注册
鸿研云超算使用手册
材料人计算客服小张     2022-09-30 微信扫码分享  
本手册仅供鸿研云用户使用,如有问题请及时联系鸿研云工作人员

更新于:2023.10.11


集群配置

计算节点CPU:Intel 8375C 32 Cores * 2,内存256G

系统版本:CentOS 8.5

存储:62 TB 共享存储空间,用户默认磁盘配额500 G。 

网络:10 Gbps 计算网络

调度系统:Slurm 22.05.0 

环境管理:Modules 5.1.1


核时管理

材料人网个人中心超算管理查看每天核时消耗情况


常用工作目录 ( 普通用户权限:只读 )

/vol01/homes/               # 用户主目录

/vol01/public/              # 公用文件目录

/vol01/public/bin           # 可执行软件目录,已加入全局环境变量

/vol01/public/install       # 软件安装目录

/vol01/public/package       # 软件安装包存放目录

/vol01/public/scripts       # 常用脚本存放目录


Module环境管理常用命令

module avail                 # 查看所有可用module环境变量模块

module load icc/2022.1.0         # 加载icc

module load mpi/2021.6.0        # 加载intel mpi

module list                                # 查看已加载环境变量模块

module unload mpi/2021.6.0    # 取消加载intel mpi

module load openmpi/4.1.4      # 加载openmpi-4.1.4

module load oneapi/2022.2.0   # 加载intel oneapi环境变量,等效于下一行命令

source /vol01/public/install/intel/oneapi/setvars.sh intel64 # 使用oneapi自带setvar.sh文件加载intel oneapi环境变量


 

计算任务管理方法

¡提交任务:sbatch vasp-6.1.0.slurm.sh # 此处vasp-6.1.0.slurm.sh为提交脚本文件名  

¡删除任务:scancel 101 # 此处 101 为任务id  

¡查看任务:squeue

¡查看节点:sinfo


提交任务步骤

Step 1. 创建某软件的工作目录并进入(以下为命令示例)

mkdir vaspJob1  
cd vaspJob1

Step 2. 将运行该软件需要的相关文件上传到该文件夹下;
Step 3. 在该文件夹下编写作业脚本,并命名为vaspjob1.slurm.sh。脚本编写可以参考下方脚本文件示例。
Step 4. 提交作业;

sbatch vaspjob1.slurm.sh

 

计算任务slurm脚本文件示例


示例脚本文件下载:

sbatch_file.zip



VASP

vasp-6.1.0.slurm.sh任务脚本示例


#!/bin/bash

#SBATCH -J vasp          # 任务名为 vasp

#SBATCH -N 1               # 使用一个节点进行计算

#SBATCH -n 16              # 使用16核进行计算

#SBATCH -t 240:00:00   # 任务最长计算时间 240 h


ulimit -s unlimited


cd $SLURM_SUBMIT_DIR

srun hostname | sort > slurm.nodefile # 输出作业节点信息


module load vasp/6.1.0  # 加载icc环境


(time mpirun -hostfile slurm.nodefile -np $SLURM_NTASKS vasp_std.6.1.0 > slurm.out) 2>>slurm.log



1. 运行icc编译的vasp可执行程序前需先加载相应环境变量。执行命令 :

module load vasp/6.1.0 

2. vasp运行时,经常出现错误 forrtl: severe (174): SIGSEGV, segmentation fault occurred  

一般可通过执行命令 ulimit -s unlimited 解决。

3. vasp赝势库路径 /vol01/public/package/vasp/qvasp/qvasp-v2.22/exefile/POTCAR

4. qvasp 加载命令 module load qvasp/2.22

5. vaspkit 加载命令 module load vaspkit/1.3.5 如出现找不到~/.vaspkit文件的报错,请执行命令 cp /vol01/public/package/vasp/vaspkit/vaspkit.1.3.5/how_to_set_environment_variables ~/.vaspkit
6.如需要使用wannier版vasp,使用 module load vasp/6.1.0-wannier 命令加载环境变量

7. 加载NEB,module load vasp/6.1.0-vtst ,可执行程序名为vasp_std.6.1.0-vtst。


Lammps   

lammps-20200303.slurm.sh任务脚本示例

#!/bin/bash

#SBATCH -J lammps      # 任务名为 lammps

#SBATCH -N 1               # 使用一个节点进行计算

#SBATCH -n 16              # 使用16核进行计算

#SBATCH -t 240:00:00   # 任务最长计算时间 240 h


cd $SLURM_SUBMIT_DIR

srun hostname | sort > slurm.nodefile # 输出作业节点信息


module load lammps/20200303 # 加载lammps计算所需环境变量


(time mpirun -hostfile slurm.nodefile -np $SLURM_NTASKS lammps-20200303-cpu -in lmp.in > slurm.out) 2>>slurm.log


注:运行lammps前需先加载相应环境变量。执行命令 :

module load lammps/20200303


 

CP2K

cp2k-9.1.slurm.sh任务脚本示例


#!/bin/bash

#SBATCH -J cp2k          # 任务名为 cp2k

#SBATCH -N 1               # 使用一个节点进行计算

#SBATCH -n 16              # 使用16核进行计算

#SBATCH -t 240:00:00   # 任务最长计算时间 240 h


cd $SLURM_SUBMIT_DIR

srun hostname | sort > slurm.nodefile # 输出作业节点信息


module load cp2k/9.1 # 加载cp2k-9.1计算所需环境变量


(time mpirun -hostfile slurm.nodefile -np $SLURM_NTASKS cp2k.popt cp2k.inp > slurm.out) 2>>slurm.log


注:
1. 运行cp2k前需先加载相应环境变量。执行命令 :

module load cp2k/9.1

2. cp2k的赝势和基组位于目录 /vol01/public/package/cp2k/cp2k-9.1/data/


Quantum ESPRESSO

qe-7.0.slurm.sh任务脚本示例 


#!/bin/bash

#SBATCH -J qe              # 任务名为 qe

#SBATCH -N 1               # 使用一个节点进行计算

#SBATCH -n 16              # 使用16核进行计算

#SBATCH -t 240:00:00   # 任务最长计算时间 240 h


cd $SLURM_SUBMIT_DIR

srun hostname | sort > slurm.nodefile # 输出作业节点信息


module load qe/7.0 # 加载qe-7.0计算所需环境变量


(time mpirun -hostfile slurm.nodefile -np $SLURM_NTASKS pw.x < pwscf.in > slurm.out) 2>>slurm.log


注:1. 运行qe前需先加载相应环境变量。执行命令 :

module load qe/7.0     



ORCA

orca-5.0.3.slurm.sh任务脚本示例 


#!/bin/bash

#SBATCH -J orca           # 任务名为 orca

#SBATCH -N 1               # 使用一个节点进行计算

#SBATCH -n 16              # 使用16核进行计算

#SBATCH -t 240:00:00   # 任务最长计算时间 240 h


cd $SLURM_SUBMIT_DIR

srun hostname | sort > slurm.nodefile # 输出作业节点信息


module load orca/5.0.3 # 加载orca-5.0.3计算所需环境变量


(time /vol01/public/package/orca/orca_5_0_3_linux_x86-64_shared_openmpi411/orca orca.inp > slurm.out) 2>>slurm.log


注:

1. 运行orca前需先加载相应环境变量。执行命令 :

module load orca/5.0.3   

2. 并行运行时必须写明orca的绝对路径

3. 并行使用核数由orca in文件控制,须与slurm文件内SBATCH -n 参数保持一致



GROMACS

gromacs-2022.2.slurm.sh任务脚本示例 

 

#!/bin/bash

#SBATCH -J gromacs     # 任务名为 gromacs

#SBATCH -N 1               # 使用一个节点进行计算

#SBATCH -n 16              # 使用16核进行计算

#SBATCH -t 240:00:00   # 任务最长计算时间 240 h


cd $SLURM_SUBMIT_DIR

srun hostname | sort > slurm.nodefile # 输出作业节点信息


module load gromacs/2022.2 # 加载gromacs-2022.2计算所需环境变量


(time mpirun -hostfile slurm.nodefile -np $SLURM_NTASKS gmx_mpi_d mdrun > slurm.out) 2>>slurm.log



注:1. 运行gromacs前需先加载相应环境变量。执行命令 :

module load gromacs/2022.2     


ShengBTE

shengbte.slurm.sh任务脚本示例 


#!/bin/bash

#SBATCH -J shengbte   # 任务名为 shengbte

#SBATCH -N 1               # 使用一个节点进行计算

#SBATCH -n 16              # 使用16核进行计算

#SBATCH -t 240:00:00   # 任务最长计算时间 240 h


cd $SLURM_SUBMIT_DIR

srun hostname | sort > slurm.nodefile # 输出作业节点信息


module load shengbte/82b45776effa # 加载shengbte计算所需环境变量


(time mpirun -hostfile slurm.nodefile -np $SLURM_NTASKS ShengBTE > slurm.out) 2>>slurm.log

注:1. 运行shengbte前需先加载相应环境变量。执行命令 :

module load shengbte/82b45776effa



Anaconda及相关Python包


本集群已预装 Anaconda3-2022.05于目录 /vol01/public/machine-learning ,运行相关命令前需先加载相应环境变量。

执行命令 :

module load anaconda/2022.05     

source /vol01/public/machine-learning/python3.9.slurm.sh


并已预装pymatgen、ase、amset、pyhonopy、BoltzTraP2等工具包,加载anaconda-2022.05后可直接使用。


暂无留言
专栏最新文章