====hpc2009 partíció==== Megszüntetve. Lásd [[hpc2019]]. Maximális teljesítmény: Rpeak=3119 Gflops Mindösszesen 1032 GiByte ram, 344 core. Node-ok nevei: cn01 .. cn43. Indulásként 44 node volt, de az egyik tönkrement a HW garanciális időszak után. Indulásként node-onként 12 GiB memória volt, ez 24-re lett bővítve. Ekkor ment tönkre az egyik node. ===Szolgáltatásai=== * csak [[slurm]] queue rendszeren keresztüli job feldolgozásra, interaktív belépés nincs * csak 24 [[GiB]] lokális memória van benne, az ennél többet igénylő feladatok elesnek. A /tmp is ebből a területből használ! * OpenMP, PVM, MPI alapú programok futtatására * A [[pvm-students|O.R.S.I. hallgatók]] nem használhatják. ===Limitek=== * a slurm rendszer egy job-nak maximálisan csak 26 node-ot enged lefoglani. * A slurm rendszer maximálisan 2 nap futásidőt enged meg ezen a partíción. Minden feladat felbontható időben kisebb részekre, ezáltal lehetővé válik más kutatók rövid programjainak lefutása a hosszú feladatok alatt is. ===Használata=== * [[slurm]] rendszeren keresztül, ez a "hpc2009" partíció, ''-p hpc2009'' opcióval a slurm parancsoknak. Ez a slurm default partíció. * Nincs ethernet kapcsolat a [[hpc2005]] partícióval, tehát közös MPI vagy PVM programok nem futtathatók egyszerre a két partíción. ===Hardver=== 11 darab HP Proliant SL6000 dobozban 22 HP SL2x170z G6 tálca, ami 43 egyforma node-ot jelent. 1 node konfigurációja: * 2x Intel Xeon E5520 cpu (összesen 8 mag, 2.27 GHz, 64 bit) HyperThreading on, összesen 16 vcore. * 24 [[GiB]] memória * Lokális diszk nincs, a /tmp/ a memóriából foglal helyet, max 16 [[GiB]] * alaplapi Gbit eth interface a fejgép irányába * Gbit eth interface a storage forgalomnak