en:hpc
Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revisionNext revisionBoth sides next revision | ||
en:hpc [2022/05/06 07:41] – [Connection] rolnas | en:hpc [2022/07/04 08:32] – [Batch Processing of Tasks (SLURM)] grikiete | ||
---|---|---|---|
Line 81: | Line 81: | ||
* | * | ||
- | The **first time** you connect, you **will not** be able to run **SLURM | + | The **first time** you connect, you **will not** be able to run **SLURM |
====== Lustre - Shared File System ====== | ====== Lustre - Shared File System ====== | ||
Line 92: | Line 92: | ||
Please use these directories only for their purpose and clean them up after calculations. | Please use these directories only for their purpose and clean them up after calculations. | ||
+ | |||
+ | ====== HPC Partition ====== | ||
+ | |||
+ | ^Partition ^Time limit ^RAM | ||
+ | ^main | ||
+ | ^gpu ^48h | ||
+ | ^power | ||
+ | |||
+ | The time limit for tasks is **2h** in all partitions if it has not been specified. The table shows the maximum time limit. | ||
+ | |||
+ | The **RAM** column gives the amount of RAM allocated to each reserved **CPU** core. | ||
+ | |||
+ | ====== Batch Processing of Tasks (SLURM) ====== | ||
+ | |||
+ | To use computing resources of the HPC, you need to create task scenarios (sh or csh). | ||
+ | |||
+ | Example: | ||
+ | |||
+ | <code shell mpi-test-job.sh> | ||
+ | #!/bin/bash | ||
+ | #SBATCH -p main | ||
+ | #SBATCH -n4 | ||
+ | module load openmpi | ||
+ | mpicc -o mpi-test mpi-test.c | ||
+ | mpirun mpi-test | ||
+ | </ | ||
+ | |||
+ | Pateikus paraišką ITAPC ir gavus teigimą sprendimą, reikia susikurti naudotoją https:// | ||
+ | |||
+ | After submission and confirmation of your application to the ITOAC services, you need to create a user at https:// | ||
+ | |||
+ | <code shell mpi-test-job.sh> | ||
+ | #!/bin/bash | ||
+ | #SBATCH --account=alloc_xxxx_projektas | ||
+ | #SBATCH -p main | ||
+ | #SBATCH -n4 | ||
+ | #SBATCH --time=minutes | ||
+ | module load openmpi | ||
+ | mpicc -o mpi-test mpi-test.c | ||
+ | mpirun mpi-test | ||
+ | </ | ||
+ | |||
+ | |||
+ | Jame kaip specialūs komentarai yra nurodymai užduočių vykdytojui. | ||
+ | |||
+ | -p short - į kokią eilę siųsti (main, gpu, power). | ||
+ | |||
+ | -n4 - kiek procesorių rezervuoti (**PASTABA: | ||
+ | |||
+ | Užduoties pradinis einamasis katalogas yra dabartinis katalogas (**pwd**) prisijungimo mazge iš kur paleidžiama užduotis, nebent parametru -D pakeistas į kitą. Pradiniam einamajam katalogui naudokite PST bendros failų sistemos katalogus **/ | ||
+ | |||
+ | Suformuotą scenarijų siunčiame su komanda sbatch | ||
+ | |||
+ | '' | ||
+ | |||
+ | kuri gražina pateiktos užduoties numerį **JOBID**. | ||
+ | |||
+ | Laukiančios arba vykdomos užduoties būseną galima sužinoti su komanda squeue | ||
+ | |||
+ | '' | ||
+ | |||
+ | Su komanda scancel galima nutraukti užduoties vykdymą arba išimti ją iš eilės | ||
+ | |||
+ | '' | ||
+ | |||
+ | Jeigu neatsimenate savo užduočių **JOBID**, tai galite pasižiūrėti su komanda **squeue** | ||
+ | |||
+ | '' | ||
+ | |||
+ | Užbaigtų užduočių **squeue** jau neberodo. | ||
+ | |||
+ | Jeigu nurodytas procesorių kiekis nėra pasiekiamas, | ||
+ | |||
+ | Vykdomos užduoties išvestis (**output**) yra įrašoma į failą **slurm-JOBID.out**. Jei nenurodyta kitaip, tai ir klaidų (error) išvestis yra įrašoma į tą patį failą. Failų vardus galima pakeisti su komandos **sbatch** parametrais -o (nurodyti išvesties failą) ir -e (nurodyti klaidų failą). | ||
+ | |||
+ | Daugiau apie SLURM galimybes galite paskaityti [[https:// | ||
+ | |||
en/hpc.txt · Last modified: 2024/02/21 12:50 by rolnas