Skip to content

Commit 636784c

Browse files
committed
update: quick-start and apps usage
1 parent 3a3fbb5 commit 636784c

30 files changed

+835
-146
lines changed

docs/_images/app1.png

-33.3 KB
Binary file not shown.

docs/_images/app10.png

-27.7 KB
Binary file not shown.

docs/_images/app11.png

-16.3 KB
Binary file not shown.

docs/_images/app12.png

-27.9 KB
Binary file not shown.

docs/_images/app13.png

-20.2 KB
Binary file not shown.

docs/_images/app14.png

-30.9 KB
Binary file not shown.

docs/_images/app15.png

-26.3 KB
Binary file not shown.

docs/_images/app2.png

-20.2 KB
Binary file not shown.

docs/_images/app3.png

-27.9 KB
Binary file not shown.

docs/_images/app4.png

-24.6 KB
Binary file not shown.

docs/_images/app5.png

-25.4 KB
Binary file not shown.

docs/_images/app6.png

-27.1 KB
Binary file not shown.

docs/_images/app9.png

-35 KB
Binary file not shown.

docs/index.md

Lines changed: 10 additions & 11 deletions
Original file line numberDiff line numberDiff line change
@@ -7,20 +7,19 @@
77

88
由于受水平和时间所限,错误和不妥之处在所难免,欢迎指出错误和改进意见,我们将尽力完善。
99

10-
## 目录
11-
1210
本使用文档包含以下主要内容:
1311

1412
1. [平台简介](introduction/index.md):介绍平台资源
1513
2. [重大更新公告](introduction/updates.md): 汇总智算中心重大更新相关公告信息
16-
3. [开户流程](introduction/register.md): 介绍开户流程
17-
4. [用户登录与文件传输](usage/login.md):如何登录集群和进行文件传输
18-
5. [分区(队列)管理](usage/partition.md):分区和队列的设置和收费标准
19-
6. [SCOW算力平台](usage/scow.md):SCOW平台的使用说明
20-
7. [Slurm作业调度系统](slurm/index.md):详细介绍Slurm的各项功能和使用方法
21-
8. [应用软件及脚本](./usage/app.md):如何使用平台上的应用软件和编写脚本
22-
9. [注意事项](./information/notes.md):使用平台时需要注意的事项
23-
10. [故障排查](./information/troubleshooting.md):用户对可能遇到的故障进行排查的流程
24-
11. [常见问题](./information/faq.md): 用户经常遇到的问题汇总
14+
3. [快速上手](usage/quick-start.md): 用户快速上手流程
15+
4. [开户流程](introduction/register.md): 介绍开户流程
16+
5. [用户登录与文件传输](usage/login.md):如何登录集群和进行文件传输
17+
6. [分区(队列)管理](usage/partition.md):分区和队列的设置和收费标准
18+
7. [SCOW算力平台](usage/scow.md):SCOW平台的使用说明
19+
8. [Slurm作业调度系统](slurm/index.md):详细介绍Slurm的各项功能和使用方法
20+
9. [应用软件及脚本](./usage/apps/index.md):如何使用平台上的应用软件和作业脚本示例
21+
10. [注意事项](./information/notes.md):使用平台时需要注意的事项
22+
11. [故障排查](./information/troubleshooting.md):用户对可能遇到的故障进行排查的流程
23+
12. [常见问题](./information/faq.md): 用户经常遇到的问题汇总
2524

2625
希望本目录能帮助您快速找到所需信息,提升使用体验。

docs/introduction/register.md

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -7,7 +7,7 @@
77

88
嘉庚智算中心支持内部用户以课题组/项目组为单位开立“用户组”账户,一个课题组/项目组的“用户组”账户下可以开立多个“用户”账户。“用户组”账户下的“用户”账户将共享“用户组”账户内的充值金额。
99

10-
内部用户申请开立“用户组”账户或在“用户组”账户新增“用户”账户需将以下两项材料的扫描件通过厦门大学的邮箱发送至 [hpc@xmu.edu.cn](mailto:hpc@xmu.edu.cn),并抄送经费负责人:
10+
内部用户申请开立“用户组”账户或在“用户组”账户新增“用户”账户需将以下两项材料的扫描件通过厦门大学的邮箱发送至 [ikkemhpc@xmu.edu.cn](mailto:ikkemhpc@xmu.edu.cn),并抄送经费负责人:
1111

1212
1. **账户申请表**: 请先填写相关信息,而后请用户在“申请人”处签名,经费负责人在“单位/项目组负责人”处签名。
1313
2. **用户承诺书**: 请新开立“用户”账户的用户在“承诺人”处签名。
@@ -34,7 +34,7 @@ sbatch: error: Job submit/allocate failed: Invalid account or account/partition
3434

3535
### 续费
3636

37-
有续费需求的用户可发送邮箱至 [hpc@xmu.edu.cn](mailto:hpc@xmu.edu.cn) 邮箱或在微信服务群内告知,智算中心会主动联系,配合办理续费业务。
37+
有续费需求的用户可发送邮箱至 [ikkemhpc@xmu.edu.cn](mailto:ikkemhpc@xmu.edu.cn) 邮箱或在微信服务群内告知,智算中心会主动联系,配合办理续费业务。
3838

3939
## 初始密码与重置
4040

@@ -47,7 +47,7 @@ sbatch: error: Job submit/allocate failed: Invalid account or account/partition
4747

4848
## 销户
4949

50-
用户可用申请时的邮箱向 [hpc@xmu.edu.cn](mailto:hpc@xmu.edu.cn) 提出用户账户注销申请。注销申请发出前建议用户做好数据备份,避免因账户注销造成损失。
50+
用户可用申请时的邮箱向 [ikkemhpc@xmu.edu.cn](mailto:ikkemhpc@xmu.edu.cn) 提出用户账户注销申请。注销申请发出前建议用户做好数据备份,避免因账户注销造成损失。
5151

5252
!!! warning 特别提醒
5353
为提高资源的利用效率,嘉庚智算中心会对一年以内未使用的账户进行销户处理。

docs/usage/app.md

Lines changed: 0 additions & 128 deletions
This file was deleted.

docs/usage/apps/abaqus.md

Lines changed: 70 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,70 @@
1+
# Abaqus
2+
3+
ABAQUS是一种有限元素法软件,用于机械、土木、电子等行业的结构和场分析。
4+
5+
!!! info
6+
Abaqus 是商业授权软件,需要申请权限后使用。
7+
8+
```bash title="/public/slurmscript_demo/abaqus.slurm"
9+
#!/bin/bash
10+
#SBATCH --nodes=2 #节点数量
11+
#SBATCH --ntasks-per-node=8 #每个节点使用的核心数量
12+
#SBATCH --error=%j.err
13+
#SBATCH --output=%j.out
14+
#SBATCH --account=[budget] # Account name
15+
#SBATCH --partition=cpu # Partition name
16+
#SBATCH --qos=[qos] # QOS name
17+
18+
CURDIR=`pwd`
19+
rm -rf $CURDIR/nodelist.$SLURM_JOB_ID
20+
NODES=`scontrol show hostnames $SLURM_JOB_NODELIST`
21+
for i in $NODES
22+
do
23+
echo "$i:$SLURM_NTASKS_PER_NODE" >> $CURDIR/nodelist.$SLURM_JOB_ID
24+
done
25+
echo $SLURM_NPROCS
26+
27+
echo "process will start at : "
28+
date
29+
echo "++++++++++++++++++++++++++++++++++++++++"
30+
31+
##setting environment for abaqus-2019
32+
export PATH=/public/software/abaqus/abaqus-2019/DassaultSystemes/SIMULIA/Commands/:$PATH
33+
34+
cd $CURDIR
35+
rm -rf *.lck*
36+
rm -rf $CURDIR/nodefile
37+
np=$SLURM_NPROCS
38+
nu=$SLURM_NNODES
39+
cpuspernode=$SLURM_NTASKS_PER_NODE
40+
echo $cpuspernode
41+
echo $nu
42+
echo $np
43+
44+
for i in $NODES
45+
do
46+
echo "$i" >> $CURDIR/nodefile
47+
done
48+
49+
pie="'"
50+
machinelist=$(awk '{if( NR != '$nu' ) printf "['$pie'"$0"'$pie',"'$cpuspernode'"],"} {if(NR=='$nu') printf "['$pie'"$0"'$pie', "'$cpuspernode'"]"}' nodefile)
51+
echo "mp_host_list=[$machinelist]"
52+
echo "mp_rsh_command='ssh -n -l %U %H %C'" > abaqus_v6.env
53+
echo "mp_host_list=[$machinelist]" >> abaqus_v6.env
54+
55+
export MPI_IB_STRINGS=mlx5_0:1
56+
export MPIRUN_OPTIONS="-prot"
57+
58+
59+
unset SLURM_GTIDS
60+
inputfile=abaqus_suanli.inp
61+
abaqus job=ABAQUS cpus=$SLURM_NPROCS input=$inputfile interactive ask_delete=off > ./log
62+
63+
64+
echo "++++++++++++++++++++++++++++++++++++++++"
65+
echo "processs will sleep 30s"
66+
sleep 30
67+
echo "process end at : "
68+
date
69+
rm -rf $CURDIR/nodelist.$SLURM_JOB_ID
70+
```

docs/usage/apps/amber.md

Lines changed: 29 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,29 @@
1+
# amber
2+
3+
```bash title="/public/slurmscript_demo/amber-intel.slurm"
4+
#!/bin/bash -l
5+
#SBATCH --job-name=mpi_job_test # Job name
6+
#SBATCH --output=testSlurmJob.%j.out # Stdout (%j expands to jobId)
7+
#SBATCH --error=testSlurmJob.%j.err # Stderr (%j expands to jobId)
8+
#SBATCH -N 2 # Maximum number of node
9+
#SBATCH --ntasks-per-node=16 # Maximum number CPUs of each node
10+
#SBATCH --account=[budget] # Account name
11+
#SBATCH --partition=cpu # Partition name
12+
#SBATCH --qos=[qos] # QOS name
13+
14+
module load intel/oneapi2021.1
15+
module load amber/20
16+
17+
srun hostname >./hostfile
18+
echo $SLURM_NTASKS
19+
echo "Date = $(date)"
20+
echo "Hostname = $(hostname -s)"
21+
echo "Working Directory = $(pwd)"
22+
echo ""
23+
echo "Number of Nodes Allocated = $SLURM_JOB_NUM_NODES"
24+
echo "Number of Tasks Allocated = $SLURM_NTASKS"
25+
echo "Number of Cores/Task Allocated = $SLURM_CPUS_PER_TASK"
26+
echo $SLURM_NPROCS
27+
28+
mpirun -machinefile hostfile -np $SLURM_NTASKS pmemd.MPI -O -i mdin -o mdout -p prmtop -c inpcrd
29+
```

docs/usage/apps/comsol.md

Lines changed: 33 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,33 @@
1+
# COMSOL
2+
3+
!!! info
4+
COMSOL 是商业授权软件,需要申请权限后使用。
5+
6+
```bash title="/public/slurmscript_demo/comsol.slurm"
7+
#!/bin/bash
8+
#SBATCH --job-name="COMSOL"
9+
#SBATCH --output=testSlurmJob.%j.out # Stdout (%j expands to jobId)
10+
#SBATCH --error=testSlurmJob.%j.err # Stderr (%j expands to jobId)
11+
#SBATCH -N 2 # Maximum number of node
12+
#SBATCH --ntasks-per-node=1 # Maximum number CPUs of each node
13+
#SBATCH --account=[budget] # Account name
14+
#SBATCH --partition=cpu # Partition name
15+
#SBATCH --qos=[qos] # QOS name
16+
17+
# Set Comsol ENV
18+
module load comsol/5.6
19+
module load intel/2020.2
20+
21+
srun hostname >./hostfile
22+
echo $SLURM_NTASKS
23+
echo "Date = $(date)"
24+
echo "Hostname = $(hostname -s)"
25+
echo "Working Directory = $(pwd)"
26+
echo ""
27+
echo "Number of Nodes Allocated = $SLURM_JOB_NUM_NODES"
28+
echo "Number of Tasks Allocated = $SLURM_NTASKS"
29+
echo "Number of Cores/Task Allocated = $SLURM_CPUS_PER_TASK"
30+
echo $SLURM_NPROCS
31+
32+
comsol batch -nnhost 1 -np $SLURM_NTASKS -inputfile test.mph -outputfile outtest.mph -batchlog in.log
33+
```

docs/usage/apps/cp2k.md

Lines changed: 34 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,34 @@
1+
# CP2K
2+
3+
CP2K 是可用于DFT计算和分子动力学模拟的强大软件包。它支持多种计算方法,包括密度泛函理论(DFT)、半经验方法和经典力场。CP2K 以其高效的并行计算能力和灵活的输入文件格式而闻名,适用于从小分子到大规模材料系统的模拟。用户可以利用 CP2K 进行能量计算、几何优化、分子动力学模拟等多种任务。
4+
5+
## 嘉庚智算上的CP2K
6+
7+
!!! failure
8+
目前由于升级后 OpenMPI 的已知问题,目前集群上的 CP2K 仅 `cp2k/2024.3``cp2k/2024.3-generic` 版本可用。
9+
前者由于 Core Dump 等原因未能通过 Regtest(但无数值issue),后者由于17个测试任务的数值不匹配亦未能通过。
10+
11+
因此请各位用户在使用时注意自己的结果,我们正在积极解决升级后的集群与 CP2K 的兼容性问题。
12+
如对可靠性有较高要求,推荐使用 [CP2K 官方 Singularity 容器镜像](https://github.com/cp2k/cp2k-containers#apptainer-singularity)。
13+
14+
```bash title="/public/slurmscript_demo/cp2k-2024.3.slurm"
15+
#!/bin/bash
16+
#SBATCH --nodes=1 # 节点数量
17+
#SBATCH --ntasks-per-node=64 # 每个节点核心数量
18+
#SBATCH --job-name=hello # 作业名称
19+
#SBATCH --output=%j.out # 正常日志输出 (%j 参数值为 jobId)
20+
#SBATCH --error=%j.err # 错误日志输出 (%j 参数值为 jobId)
21+
#SBATCH --account=[budget] # Account name
22+
#SBATCH --partition=cpu # Partition name
23+
#SBATCH --qos=[qos] # QOS name
24+
#SBATCH --mem=251G # use full memory of node to avoid OOM
25+
26+
##############################################
27+
# Software Envrironment #
28+
##############################################
29+
module load cp2k/2024.3
30+
##############################################
31+
# Run job #
32+
##############################################
33+
mpirun cp2k.psmp cp2k.inp >> output
34+
```

0 commit comments

Comments
 (0)