Introduction
我们在做生物信息分析时,对于大规模的上游数据的处理,一般需要在大型服务器或集群上进行。我最早接触并使用的是一个基于SLURM调度系统的集群,在此记录一下基础使用方法。
高性能计算集群(High-Performance Computing Cluster,简称HPC集群)是一种计算系统,通过将多台计算机(通常称为节点)连接在一起,协同工作来解决需要大量计算资源的问题。这些集群被广泛应用于科学研究、工程计算、金融建模、大数据分析等领域。
SLURM(Simple Linux Utility for Resource Management)是一种开放源码的资源管理和任务调度系统,广泛应用于高性能计算(HPC)集群。SLURM负责分配计算资源、调度作业、监控系统状态和用户任务等工作,是HPC集群中不可或缺的一部分。
主要功能
-
资源分配:SLURM能够根据用户需求和集群资源情况,动态分配计算节点、CPU、内存和其他资源,确保资源的高效利用。
-
任务调度:SLURM可以将用户提交的计算任务按照优先级、依赖关系和资源需求进行调度,决定何时在何处执行这些任务。
-
任务管理:用户可以通过SLURM提交、监控和管理他们的任务,包括查看任务状态、取消任务、重新排队等操作。
-
负载均衡:SLURM通过智能调度算法,尽量均衡各节点的负载,避免资源浪费,提高集群的整体效率。
-
作业依赖管理:支持复杂的作业依赖关系管理,例如在一个作业完成后再启动另一个作业,或多个作业之间的依赖关系管理。
工作流程
- 提交作业:用户通过sbatch命令提交编写好的作业脚本,描述作业的资源需求(如节点数、CPU数、内存等)和执行命令。
- 资源分配:SLURM的调度器(slurmctld)根据当前的资源可用情况和作业队列中的优先级,分配资源给新提交的作业。
- 作业执行:分配到资源的作业通过srun命令在指定的节点上启动并运行。
- 作业监控:运行中的作业由slurmd守护进程进行监控,用户可以使用squeue命令查看作业的执行状态。
- 结果处理:作业完成后,输出结果通常会被保存到用户指定的文件中,用户可以通过slurm提供的命令查看和管理这些结果。
优势
- 高可扩展性:能够管理从几台到上百万台计算节点的集群。
- 开源和社区支持:丰富的文档和活跃的用户社区,便于问题解决和功能扩展。
- 灵活性和可配置性:支持多种调度策略和配置,适应不同的工作负载和需求。
基础使用
常用命令
-
sinfo: 查看队列状态和信息
- 用途: 显示集群的分区和节点状态信息。
- 选项:
- -s 简要格式输出
- -N 显示每个节点的信息
- -p
只显示特定分区的信息 - 输出字段:
- PARTITION: 分区名称
- AVAIL: 节点可用性状态(up/down)
- TIMELIMIT: 分区的时间限制
- NODES: 分区中的节点数量
- STATE: 节点状态:drain(节点故障),alloc(节点在用),idle(节点可用),down(节点下线),mix(节点被占用,但仍有剩余资源)
- NODELIST: 节点名称列表
-
sacct: 显示用户作业历史
- 用途: 查询作业历史记录,显示已完成和正在进行的作业信息。
- 选项:
- -j
查询特定作业 - -S
查询指定开始日期的作业 - -u
查询特定用户的作业 - 输出字段:
- JobID: 作业ID
- JobName: 作业名称
- Partition: 分区名称
- Account: 用户账户
- State: 作业状态(COMPLETED、FAILED、CANCELLED等)
- Elapsed: 作业运行时间
-
squeue: 显示当前作业状态
- 用途: 显示当前在队列中排队和运行的作业状态。
- 选项:
- -u
只显示特定用户的作业 - -p
只显示特定分区的作业 - 输出字段:
- JOBID: 作业ID
- PARTITION: 分区名称
- NAME: 作业名称
- USER: 用户名
- ST: 作业状态(PD排队;R运行;S挂起;CG正在退出)
- TIME: 作业运行时间
- NODES: 作业使用的节点数量
- NODELIST(REASON): 作业所在节点或排队原因
-
sbatch: 提交作业
- 用途: 提交批处理作业脚本。
- 示例:
sbatch my_job_script.sh
- 常用选项:
- --job-name=
设置作业名称 - --partition=
指定作业提交的分区 - --time=
-
scancel: 取消指定作业
- 用途: 取消一个或多个作业。
- 示例:
scancel 12345
- 选项:
- -u
取消特定用户的所有作业 - -p
取消特定分区中的作业 -
pestat: 节点使用信息
- 用途: 显示集群节点的使用情况和状态信息(此命令可能是集群特定的,或者通过管理员定义的别名)。
- 示例:
pestat
-
sacct -j
: 检查已完成作业的信息 - 用途: 查看特定作业的详细信息,包括如何完成或失败。
- 示例:
sacct -j 12345
-
seff
: 查看已完成任务的资源使用情况 - 用途: 显示特定作业的资源使用效率,包括CPU、内存等。
- 示例:
seff 12345
-
scontrol show job
: 显示作业细节 - 用途: 提供有关特定作业的详细信息,包括作业配置和当前状态。
- 示例:
scontrol show job 12345
- -u
- --job-name=
- -u
- -j
其他有用的SLURM命令
-
srun: 直接运行并行作业
- 用途: 在分配的资源上运行一个并行任务,通常用于交互式会话。
- 示例:
srun --partition=short --ntasks=4 my_program
-
scontrol: 管理SLURM系统
- 用途: 用于查询和更改SLURM系统的配置和状态。
- 常用命令:
- scontrol show partition 显示分区信息
- scontrol update NodeName=
State=RESUME 恢复节点 -
sreport: 生成使用报告
- 用途: 生成有关作业、用户和账户的资源使用报告。
- 示例:
sreport cluster utilization
作业参数
- #SBATCH --job-name 作业名称
- #SBATCH --output 标准输出文件:如/share/home/pengchen/work/%x_%A_%a.out
- #SBATCH --error ERROR输出文件:如/share/home/pengchen/work/%x_%A_%a.err
- #SBATCH --partition 工作分区,我们用cpu之类的
- #SBATCH --nodelist 可以制定在哪个节点运行任务
- #SBATCH --exclude 可以设置不放在某个节点跑任务
- #SBATCH --nodes 使用nodes数量
- #SBATCH --ntasks tasks数量,可能分配给不同node
- #SBATCH --ntasks-per-node 每个节点的tasks数量,由于我们只有1 node,所以ntasks和ntasks-per-node是相同的
- #SBATCH --cpus-per-task 每个task使用的core的数量(默认 1 core per task),同一个task会在同一个node
- #SBATCH --mem 这个作业要求的内存 (Specified in MB,GB)
- #SBATCH --mem-per-cpu 每个core要求的内存 (Specified in MB,GB)
在SLURM中,一个任务(task)被理解为一个进程(process),一个多进程(multi-process)程序由多个任务组成。相反,多线程(multithreaded)程序只有一个任务,但这个任务使用多个logical CPU。更好的理解ntasks,参考what does the ntasks or n tasks does in slurm
例子:
#!/bin/bash #SBATCH --job-name=myjob #SBATCH --output=/share/home/pengchen/work/%x_%A_%a.out #SBATCH --error=/share/home/pengchen/work/%x_%A_%a.err #SBATCH --partition=cpu #SBATCH --nodes=1 #SBATCH --tasks-per-node=1 #SBATCH --cpus-per-task=1 #SBATCH --mem-per-cpu=2g #SBATCH --time=14-00:00:00 echo start: `date +'%Y-%m-%d %T'` start=`date +%s` #################### do something #################### echo end: `date +'%Y-%m-%d %T'` end=`date +%s` echo TIME:`expr $end - $start`s
把上面的内容保存为myjob.sh文件,然后使用sbatch即可提交排队。
tmux+srun
tmux是一个 terminal multiplexer(终端复用器),它可以启动一系列终端会话。
在我们使用命令行时,打开一个终端窗口,会话开始,执行某些命令如sleep 100,关闭此终端窗口,会话结束,sleep命令会话随之被关闭而非等到正常结束。
当我们希望运行的程序不会受会话窗口的关闭而随之消失,我们会使用到类似于nohup这样的方式将运行的命令后台化的。
但集群并不可以如此:当我们申请节点资源后到该节点去执行nohup时看上去程序已经后台运行了,但当会话窗口关闭后作业将会被视为结束,节点则会运行相应的清理动作结束掉后台运行的程序;此时tmux的功能便显现出优势。
-
申请节点资源(使用SLURM调度器):
salloc -N 1 -n 1 --time=01:00:00
这条命令申请一个节点,时间为1小时。
-
在节点上启动tmux会话:
tmux new-session -s myjob # 新建一个名称为myjob的会话
-
运行任务:
./run_my_simulation.sh
-
分离会话:
可以在不影响任务运行的情况下关闭终端窗口或断开连接:
# Ctrl+b,然后按 d # 或者 tmux detach
-
重新连接到会话(如有需要):
tmux ls # 查看所有的会话 tmux attach-session # 默认进入第一个会话 tmux attach-session -t myjob # 进入到名称为myjob的会话
-
关闭会话。
会话的使命完成后是一定要关闭的;可以使用exit退出,快捷键Ctrl+d
或者使用tmux配合srun申请资源:
tmux srun -n 1 --pty /bin/bash tmux detach
此窗口作业会一直运行,直到手动退出/作业时间限制。
module
在SLURM集群环境中,模块管理系统(如Lmod或Environment Modules)常用于管理和切换不同的软件环境。模块系统可以简化软件依赖和版本控制,允许用户动态加载或卸载软件包和库。
模块系统使用模块文件来描述如何设置环境变量(如PATH、LD_LIBRARY_PATH等),以便使用特定的软件包或库。常用命令包括module load、module unload、module list等。
-
查看可用模块:
module avail
这将列出所有可用的模块。
-
加载模块:
module load module_name
例如,加载GCC编译器:
module load gcc
-
卸载模块:
module unload module_name
例如,卸载GCC编译器:
module unload gcc
-
显示已加载模块:
module list
这将显示当前会话中已加载的模块。
-
显示模块信息:
module show module_name
例如,查看GCC模块的详细信息:
module show gcc
在SLURM作业脚本中使用模块
在提交到SLURM的作业脚本中,可以使用模块命令来设置所需的软件环境。以下是一个示例SLURM作业脚本:
#!/bin/bash #SBATCH --job-name=myjob # 作业名称 #SBATCH --output=myjob.out # 标准输出和错误日志 #SBATCH --error=myjob.err # 错误日志文件 #SBATCH --ntasks=1 # 运行的任务数 #SBATCH --time=01:00:00 # 运行时间 #SBATCH --partition=compute # 作业提交的分区 # 加载模块 module load gcc module load python # 打印加载的模块 module list # 运行命令 python my_script.py
在这个脚本中,module load gcc 和 module load python 用于加载所需的GCC编译器和Python环境。module list命令将打印当前加载的模块,方便调试。
conda
集群上一般用户都没有root权限,无法使用普通服务器的sudo安装软件方法,也无法使用docker(但是可以用singularity,下次可以讲讲这个)。建议使用conda进行环境配置和软件安装:
Conda 是一个开源的软件包管理和环境管理系统,支持跨平台使用,包括Linux、macOS和Windows。Conda 可以用于安装、运行和更新各种软件包和依赖,并能在不同环境之间轻松切换。用户可以在自己的家目录中安装Miniconda,这是Conda的一个轻量级版本,只包含包管理系统和Python。
- 安装Miniconda
-
下载Miniconda安装脚本:
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
-
运行安装脚本:
bash Miniconda3-latest-Linux-x86_64.sh
-
按照提示完成安装。安装完成后,您可能需要重启终端或运行以下命令来激活Conda:
source ~/.bashrc
- 使用Conda创建和管理环境
-
创建新环境:
conda create --name myenv python=3.8
这将创建一个名为myenv的新环境,并安装Python 3.8。
-
激活环境:
conda activate myenv
激活后,所有在此环境下运行的命令都将使用该环境中的软件和库。
-
安装软件包:
conda install numpy scipy
这将在当前激活的环境中安装NumPy和SciPy。
-
列出已安装环境:
conda env list
-
停用环境:
conda deactivate
-
删除环境:
conda remove --name myenv --all
在提交到SLURM的作业脚本中,可以激活Conda环境以确保作业在正确的软件环境中运行。以下是一个示例SLURM作业脚本:
#!/bin/bash #SBATCH --job-name=myjob # 作业名称 #SBATCH --output=myjob.out # 标准输出和错误日志 #SBATCH --error=myjob.err # 错误日志文件 #SBATCH --ntasks=1 # 运行的任务数 #SBATCH --time=01:00:00 # 运行时间 #SBATCH --partition=compute # 作业提交的分区 # 加载Conda source ~/miniconda3/etc/profile.d/conda.sh # 激活环境 conda activate myenv # 运行命令 python my_script.py
Conda与其他工具的比较
-
Conda vs. Virtualenv:
- Conda不仅管理Python包,还能管理非Python软件包和库,如R、C++库等。
- Virtualenv专注于Python环境,轻量级但功能不如Conda全面。
-
Conda vs. Docker/Singularity:
- Conda在不需要root权限的情况下,为用户提供了灵活的软件管理方式。
- Docker需要root权限,但提供更隔离的容器化环境。集群上通常不能使用。
- Singularity与Docker类似,但更适合在HPC环境中使用,不需要root权限。将在后续讨论。
关注公众号 ‘bio llbug’,获取最新推送。
-
-
-
-
还没有评论,来说两句吧...