Felhasználói eszközök

Eszközök a webhelyen


slurm

Különbségek

A kiválasztott változat és az aktuális verzió közötti különbségek a következők.

Összehasonlító nézet linkje

Előző változat mindkét oldalon Előző változat
slurm [2014/10/28 11:04]
maulis
slurm [2021/03/03 00:26] (aktuális)
maulis hpc2019 aktualizálás
Sor 12: Sor 12:
   srun programname   srun programname
  
-  *sbatch scripten belül használva. Az ''sbatch'' által lefoglalt erőforrásban futtatja a megadott programot. Az MPICH programot képes futtatni. Amennyiben a program egy script, úgy minden allokált magon elindít egy példányt. +  *sbatch scripten belül használva. Az ''sbatch'' által lefoglalt erőforrásban futtatja a megadott programot. Amennyiben a program egy script, úgy minden allokált magon elindít egy példányt. 
-  * Interaktívan használva. Lefoglalja a kért erőforrásokat (node-okat). Az MPICH programot képes futtatni. Amennyiben a program egy script, úgy minden allokált magon elindít egy példányt. Megvárja, amíg a program(ok) véget érnek. Emiatt elsősorban rövidebb feladatokra, tesztelésre, hibakeresésre használható. +  * Interaktívan használva. Lefoglalja a kért erőforrásokat (node-okat). Amennyiben a program egy script, úgy minden allokált magon elindít egy példányt. Megvárja, amíg a program(ok) véget érnek. Emiatt elsősorban rövidebb feladatokra, tesztelésre, hibakeresésre használható. Ha éppen üres a queue
  
   salloc [param]   salloc [param]
-Interaktívan használható. lefoglalja a kívánt erőforrásokat és shellt ad az indítási gépen (a fejgépen). Programfejlesztésre ajánljuk csak. +Interaktívan használható. lefoglalja a kívánt erőforrásokat és shellt ad az indítási gépen (a fejgépen). Programfejlesztésre ajánljuk csak. Alkalmas arra, hogy a lefoglalt node -ra be lehessen interaktívan jelentkezni
  
   squeue   squeue
Sor 31: Sor 31:
  
 <file>-p partition</file> <file>-p partition</file>
-A futtató partíció neve. Lehetséges értékek: hpc2009hpc2005, atlasz, flocking +A futtató partíció neve. Lehetséges értékek: hpc2019login, flocking. 
-<file>-nodecount</file> +<file>--nodes nodecount</file> 
-Az allokálandó node-ok száma. Egyéb kapcsoló nélkül a slurm úgy gondolja, hogy node-onkét 1 program (pthread, openMP) fog futni. Lásd a ''-B'' kapcsolót. A hpc2009 és hpc2005 partíciókhoz ajánljuk.  +Az allokálandó node-ok száma. Egyéb kapcsoló nélkül a slurm úgy gondolja, hogy node-onkét 1 program (pthread, openMP) fog futni. Lásd a ''--ntasks-per-node'' kapcsolót. A hpc2019 partícióhoz ajánljuk. 
-<file>-B 2:4:2 -O</file> +
-Egy node-on 2 socket, 4core/socket, 2 thread/core allokáció. (vagyis 16 thread/node) hpc2009 partícióhoz.  +
-<file>-B 2:4:1</file> +
-Egy node-on 2 socket, 4core/socket allokáció. (vagyis 8 thread/node) hpc2009 partícióhoz. +
-<file>-B 2:2:1</file> +
-Egy node-on 2 socket, 2core/socket allokáció. (vagyis 4 thread/node) hpc2005 partícióhoz+
 <file>-n 3</file> <file>-n 3</file>
-3 processzormag allokálása. Az atlasz és a flocking partícióhoz ajánljuk. +3 processzormag allokálása. (3 szál indítása). A login, hpc2019 és a flocking partícióhoz ajánljuk. 
  
 ==Példák 16 szálú MPI programok indítására== ==Példák 16 szálú MPI programok indítására==
-Az alkalmazás természetétől függ, hogy melyik lesz a leggyorsabb. Előre megmondani nem lehetElképzelhető, hogy két nagyságrendet is változik a program futási sebessége csupán ettől.+Az alkalmazás természetétől függ, hogy hány szálon lesz a leggyorsabb. Előre megmondani nem tudjukAz eddig telsztelt MPI programok 100 szálon nem voltak gyorsabbak, mint 50 szálon. A leggyakoribb maximlális futásteljesítményt 20-50 szál között adták. Gyakori még, hogy a program logikája csak kettőhatvány szállal működik jól.
  
-  sbatch -1 -B 2:4:2 -scriptname.sh +  sbatch --nodes 1 --ntasks-per-node=16 scriptname.sh 
-Ez 1 node-ot allokál. Ezen a node-on indít 16 szálat. Minden szálnak 0.75 GiByte memóriája van (pontosabban összesen 12 GiByte)  +Ez 1 node-ot allokál. Ezen a node-on indít 16 szálat.  
-  sbatch -2 -B 2:4:1 scriptname.sh +  sbatch --nodes 2 --ntasks-per-node=8 scriptname.sh 
-Ez 2 node-ot allokál. Mindkét node-on indít 8-8 szálat. Minden szálnak 1.5 GiByte memóriája van.  +Ez 2 node-ot allokál. Mindkét node-on indít 8-8 szálat.  
-  sbatch -4 -B 2:2:1 scriptname.sh +  sbatch --nodes 4 --ntasks-per-node=4 scriptname.sh 
-Ez node-ot allokál. Mind a négy node-on indít 4-szálat. Minden szálnak 3 GiByte memóriája van.  +Ez node-ot allokál. Mindkét node-on indít 8-szálat.  
-  sbatch -N 8 -B 2:1:1 scriptname.sh +  sbatch --nodes 16 --ntasks-per-node=1 scriptname.sh 
-Ez node-ot allokál. Mind a nyolc node-on indít 2-szálat. Minden szálnak 6 GiByte memóriája van.  +Ez 16 node-ot allokál. Mind a 16 node-on indít 1-szálat. 
-  sbatch -16 -B 1:1:1 scriptname.sh +  sbatch -16 scriptname.sh 
-Ez 16 node-ot allokál. Mind a 16 node-on indít 1-szálat. Minden szálnak 12 GiByte memóriája van+Ez "valahogy" elindítja a programot 16 szálon. Ahogy a rendelkezésre álló erőforrások lehetővé teszik. 1 node-on az egészet, vagy 16 node-on egy-egy szálat.
  
 ==Másfajta (nem MPI) programok indítása== ==Másfajta (nem MPI) programok indítása==
  
 Bővebben a [[swquide]] oldalon. Bővebben a [[swquide]] oldalon.
slurm.1414490698.txt.gz · Utolsó módosítás: 2014/10/28 11:04 szerkesztette: maulis