更新于:2023.10.11
集群配置
计算节点CPU:
node01-10 Intel 8375C 32 Cores * 2,内存256G
node11-15 Intel 8488C 48 Cores * 2,内存256G
node21-23 Intel 8581C 60 Cores * 2,内存256G
系统版本:CentOS 8.5
存储:62 TB 共享存储空间,用户默认磁盘配额500 G。
网络:10 Gbps 计算网络
调度系统:Slurm 22.05.0
环境管理:Modules 5.1.1
核时管理
材料人网个人中心超算管理查看每天核时消耗情况
常用工作目录 ( 普通用户权限:只读 )
/vol01/homes/ # 用户主目录
/vol01/public/ # 公用文件目录
/vol01/public/bin # 可执行软件目录,已加入全局环境变量
/vol01/public/install # 软件安装目录
/vol01/public/package # 软件安装包存放目录
/vol01/public/scripts # 常用脚本存放目录
Module环境管理常用命令
module avail # 查看所有可用module环境变量模块
module load icc/2022.1.0 # 加载icc
module load mpi/2021.6.0 # 加载intel mpi
module list # 查看已加载环境变量模块
module unload mpi/2021.6.0 # 取消加载intel mpi
module load openmpi/4.1.4 # 加载openmpi-4.1.4
module load oneapi/2022.2.0 # 加载intel oneapi环境变量,等效于下一行命令
source /vol01/public/install/intel/oneapi/setvars.sh intel64 # 使用oneapi自带setvar.sh文件加载intel oneapi环境变量
计算任务管理方法
¡提交任务:sbatch vasp-6.1.0.slurm.sh # 此处vasp-6.1.0.slurm.sh为提交脚本文件名
¡删除任务:scancel 101 # 此处 101 为任务id
¡查看任务:squeue
¡查看节点:sinfo
提交任务步骤
Step 1. 创建某软件的工作目录并进入(以下为命令示例)
mkdir vaspJob1 cd vaspJob1
Step 2. 将运行该软件需要的相关文件上传到该文件夹下;
Step 3. 在该文件夹下编写作业脚本,并命名为vaspjob1.slurm.sh。脚本编写可以参考下方脚本文件示例。
Step 4. 提交作业;
sbatch vaspjob1.slurm.sh
计算任务slurm脚本文件示例
示例脚本文件下载:
注1:如果希望指定节点计算,请在计算脚本中最后加入一行指定节点提交作业命令:
#SBATCH -w 节点名称
节点名称为 node11 及以上。
注2:每个任务请仅使用1个节点计算。
VASP
vasp-6.1.0.slurm.sh任务脚本示例
#!/bin/bash
#SBATCH -J vasp # 任务名为 vasp
#SBATCH -N 1 # 使用一个节点进行计算
#SBATCH -n 16 # 使用16核进行计算
#SBATCH -t 240:00:00 # 任务最长计算时间 240 h
ulimit -s unlimited
cd $SLURM_SUBMIT_DIR
srun hostname | sort > slurm.nodefile # 输出作业节点信息
module load vasp/6.1.0 # 加载icc环境
(time mpirun -hostfile slurm.nodefile -np $SLURM_NTASKS vasp_std.6.1.0 > slurm.out) 2>>slurm.log
注
1. 运行icc编译的vasp可执行程序前需先加载相应环境变量。执行命令 :
module load vasp/6.1.0
2. vasp运行时,经常出现错误 forrtl: severe (174): SIGSEGV, segmentation fault occurred
一般可通过执行命令 ulimit -s unlimited 解决。
3. vasp赝势库路径 /vol01/public/package/vasp/qvasp/qvasp-v2.22/exefile/POTCAR
4. qvasp 加载命令 module load qvasp/2.22
5. vaspkit 加载命令 module load vaspkit/1.3.5 如出现找不到~/.vaspkit文件的报错,请执行命令 cp /vol01/public/package/vasp/vaspkit/vaspkit.1.3.5/how_to_set_environment_variables ~/.vaspkit
6.如需要使用wannier版vasp,使用 module load vasp/6.1.0-wannier 命令加载环境变量
7. 加载NEB,module load vasp/6.1.0-vtst ,可执行程序名为vasp_std.6.1.0-vtst。
8. 使用vasp6.5 请加载module load vasp/6.5-cheng
Lammps
lammps-20200303.slurm.sh任务脚本示例
#!/bin/bash
#SBATCH -J lammps # 任务名为 lammps
#SBATCH -N 1 # 使用一个节点进行计算
#SBATCH -n 16 # 使用16核进行计算
#SBATCH -t 240:00:00 # 任务最长计算时间 240 h
cd $SLURM_SUBMIT_DIR
srun hostname | sort > slurm.nodefile # 输出作业节点信息
module load lammps/20200303 # 加载lammps计算所需环境变量
(time mpirun -hostfile slurm.nodefile -np $SLURM_NTASKS lammps-20200303-cpu -in lmp.in > slurm.out) 2>>slurm.log
注:运行lammps前需先加载相应环境变量。执行命令 :
module load lammps/20200303
CP2K
cp2k-9.1.slurm.sh任务脚本示例
#!/bin/bash
#SBATCH -J cp2k # 任务名为 cp2k
#SBATCH -N 1 # 使用一个节点进行计算
#SBATCH -n 16 # 使用16核进行计算
#SBATCH -t 240:00:00 # 任务最长计算时间 240 h
cd $SLURM_SUBMIT_DIR
srun hostname | sort > slurm.nodefile # 输出作业节点信息
module load cp2k/9.1 # 加载cp2k-9.1计算所需环境变量
(time mpirun -hostfile slurm.nodefile -np $SLURM_NTASKS cp2k.popt cp2k.inp > slurm.out) 2>>slurm.log
注:
1. 运行cp2k前需先加载相应环境变量。执行命令 :
module load cp2k/9.1
2. cp2k的赝势和基组位于目录 /vol01/public/package/cp2k/cp2k-9.1/data/
Quantum ESPRESSO
qe-7.0.slurm.sh任务脚本示例
#!/bin/bash
#SBATCH -J qe # 任务名为 qe
#SBATCH -N 1 # 使用一个节点进行计算
#SBATCH -n 16 # 使用16核进行计算
#SBATCH -t 240:00:00 # 任务最长计算时间 240 h
cd $SLURM_SUBMIT_DIR
srun hostname | sort > slurm.nodefile # 输出作业节点信息
module load qe/7.0 # 加载qe-7.0计算所需环境变量
(time mpirun -hostfile slurm.nodefile -np $SLURM_NTASKS pw.x < pwscf.in > slurm.out) 2>>slurm.log
注:1. 运行qe前需先加载相应环境变量。执行命令 :
module load qe/7.0
ORCA
orca-5.0.3.slurm.sh任务脚本示例
#!/bin/bash
#SBATCH -J orca # 任务名为 orca
#SBATCH -N 1 # 使用一个节点进行计算
#SBATCH -n 16 # 使用16核进行计算
#SBATCH -t 240:00:00 # 任务最长计算时间 240 h
cd $SLURM_SUBMIT_DIR
srun hostname | sort > slurm.nodefile # 输出作业节点信息
module load orca/5.0.3 # 加载orca-5.0.3计算所需环境变量
(time /vol01/public/package/orca/orca_5_0_3_linux_x86-64_shared_openmpi411/orca orca.inp > slurm.out) 2>>slurm.log
注:
1. 运行orca前需先加载相应环境变量。执行命令 :
module load orca/5.0.3
2. 并行运行时必须写明orca的绝对路径
3. 并行使用核数由orca in文件控制,须与slurm文件内SBATCH -n 参数保持一致
GROMACS
gromacs-2022.2.slurm.sh任务脚本示例
#!/bin/bash
#SBATCH -J gromacs # 任务名为 gromacs
#SBATCH -N 1 # 使用一个节点进行计算
#SBATCH -n 16 # 使用16核进行计算
#SBATCH -t 240:00:00 # 任务最长计算时间 240 h
cd $SLURM_SUBMIT_DIR
srun hostname | sort > slurm.nodefile # 输出作业节点信息
module load gromacs/2022.2 # 加载gromacs-2022.2计算所需环境变量
(time mpirun -hostfile slurm.nodefile -np $SLURM_NTASKS gmx_mpi_d mdrun > slurm.out) 2>>slurm.log
注:1. 运行gromacs前需先加载相应环境变量。执行命令 :
module load gromacs/2022.2
ShengBTE
shengbte.slurm.sh任务脚本示例
#!/bin/bash
#SBATCH -J shengbte # 任务名为 shengbte
#SBATCH -N 1 # 使用一个节点进行计算
#SBATCH -n 16 # 使用16核进行计算
#SBATCH -t 240:00:00 # 任务最长计算时间 240 h
cd $SLURM_SUBMIT_DIR
srun hostname | sort > slurm.nodefile # 输出作业节点信息
module load shengbte/82b45776effa # 加载shengbte计算所需环境变量
(time mpirun -hostfile slurm.nodefile -np $SLURM_NTASKS ShengBTE > slurm.out) 2>>slurm.log
注:1. 运行shengbte前需先加载相应环境变量。执行命令 :
module load shengbte/82b45776effa
Anaconda及相关Python包
本集群已预装 Anaconda3-2022.05于目录 /vol01/public/machine-learning ,运行相关命令前需先加载相应环境变量。
执行命令 :
module load anaconda/2022.05
或
source /vol01/public/machine-learning/python3.9.slurm.sh
并已预装pymatgen、ase、amset、pyhonopy、BoltzTraP2等工具包,加载anaconda-2022.05后可直接使用。