Az előadás letöltése folymat van. Kérjük, várjon

Az előadás letöltése folymat van. Kérjük, várjon

Nagy teljesítményű számítástechnika és elosztott számítóhálózatok

Hasonló előadás


Az előadások a következő témára: "Nagy teljesítményű számítástechnika és elosztott számítóhálózatok"— Előadás másolata:

1 Nagy teljesítményű számítástechnika és elosztott számítóhálózatok
Ganzler Katalin, Máray Tamás, Németh Ervin Stefán Péter, Szalai Ferenc, Vitéz Gábor

2 Miről lesz szó? Kik vagyunk? Mivel foglalkozunk?
NIIF Program – NIIF Iroda. Problémák. Szuperszámítógépek. Felhasználók. ClusterGrid infrastruktúra felépítése. ClusterGrid statisztikák, monitorozás. A jövő...

3 Kik vagyunk? NIIF Program, feladata, eredményei. NIIF Iroda.
NIIF közösség. NIIF projektek: HBONE, VoIP, Videokonferencia, Névtár, Szuperszámítás-technika és grid.

4 Kik vagyunk?

5 Szuperszámítás-technika
Feladata: nagy számítási kapacitást igénylő feladatok körüli alap- és kiegészítő tevékenységek elvégzése. HPC, HTC. Elosztott számítási feladatok. Kiknek vannak ilyen feladataik? (K+F) Hogyan futnának ezek a feladatok egyetlen PC-n? (sokáig)

6 Hogyan fogalmazódnak meg HPC feladatok?
Van valaki, akinek problémája van (meteorológia, mérnöki tudományok), melyre megoldást keres. A megoldás matematikai formában megfogalmazható (formalizálás). Számítástechnikai modell, algoritmizálás. Elosztott számítástechnikai modell, párhuzamos programkódok. (Nem párhuzamosítható kódok, rekurzió.) Programkód. És itt kezdődik az igazi feladat...

7 Feladatok végrehajtása
Hol? Hogyan? Ezek jó kérdések.

8 Szuperszámítás-technikai szolgáltatások
Alapvetően kétféle technológia létezik: szuperszámító-gépek, elosztott számító-hálózatok, azaz a grid. A két technológia szoros szimbiózisban él egymással, a szélsőséges meggyőződésekkel ellentétben nem lehet az egyiket a másik rovására fejleszteni. Szuperszámítógépek: központosított szolgáltatások. Grid: elosztott szolgáltatások.

9 NIIF szuperszámítógép rendszere

10 Főbb paraméterek SUN platform: 2 E10K (US-II, 32 GB RAM), 1 E15K (US-III+, 130 GB RAM), 480 kiszolgáló. Klasszikus HPC cluster kivitelezés. Jelenleg processzor (jelenleg!!!). Kb. 180 Gflops teljesítmény. 4 TB diszk kapacitás. 2.5 TB kazetta. SMP felépítés: minden processzor látja a teljes memóriát. Adattárolás: T3 RAID-ek.

11 Hogyan működik?

12 A szoftver környezet Solaris 9 operációs rendszer.
Sparc-processzor specifikus fordítóprogramok (C, C++, Java, Fortran, ...). Szoftverek fejlesztésére alkalmas eszközök. Matematikai szoftverek, optimált könyvtárak. Debug-olásra alkalmas eszközök. Párhuzamosításra alkalmas eszközök: SUN ClusterTools, PVM. Erőforrás menedzser: SGE.

13 A felhasználás módja A rendszer 2001 február óta üzemel.
7/24 szolgáltatás, tervezett leállásokkal. Bárki ingyen hozzáférhet. Non-profit, kutatási célokra. Jelenleg 180 regisztrált felhasználó, 100 regisztrált projekt.

14 A felhasználás módja

15 Szoftver fejlesztés A felhasználónak van egy problémája.
Ehhez gyárt matematikai számítási-modellt. Elosztott számítási modellt (mivel a probléma nagy). A modell-t leprogramozza, vagy már kész szoftvert használ. Általában hasznosak a grafikus fejlesztői felületek: P-GRADE, de hagyományos eszközök is használhatók. A fejlesztés nyelve.

16 Párhuzamosítás A feladat jellege: Ténylegesen párhuzamos alkalmazás.
Tömb feladat (laza csatolású, csatolásmentes). Párhuzamos alkalmazások esetén van értelme. (Tömb feladatoknál felesleges.) Szabványos könyvtárak állnak rendelkezésre: PVM, MPI, OpenMP. Nagyon fontos: az alkalmazott algoritmusnak párhuzamosíthatónak kell lennie! (Moore törvény).

17 Portolás Egy kód adott környezetbe ültetése.
Látványtalan, nehezen automatizálható, nagy szakértelmet igényel, „rágós falat”. Fordítás, kód optimálás: általános kód vs. adott architektúrára optimált kód. Programok link-elése: önálló tudomány. Fortan-C link-elés. Statikus linkelés vs. dinamikus linkelés. Nagyon nehéz kérdés: futtatási környezet elmentése, illetve az erre való alkalmasság (checkpoint).

18 Hozzáférés Hozzáférés az erőforrás belépési pontjához: rendszerint hálózati hozzáférés. Hová léphet be a felhasználó? Milyen környezete van, és az hogyan biztosítható az összes lehetséges, a feladat futtatására alkalmas csomóponton (NFS).

19 Feladatok kreálása Végrehajtható állományok konfigurálása, input paraméterekkel való ellátása. Tranzitív kapcsolatok: workflow fogalom. A végrehajtási környezet definíciója. Feladat feladása, monitorozása, eredmények kiértékelése. Ütemezés kérdése.

20 Ha a feladat lefutott... A feladatok akár több hétig, akár hónapig is futhatnak. Az eredmény file-ok általában szöveges állományok („látványtalan világ”). A felhasználó ezeket értelmezi, majd az eredmények függvényében újabb feladatokat ad föl.

21 Grid rendszerek Mi hívja a grid rendszereket életre?
Egyrészt a felhasználói igény nagy, ráadásul folyamatosan nő (modell finomítás, számítási idő). Másrészt a központi szolgáltatások fizikailag korlátosak (pénz, hely, klíma, szűk keresztmetszetek, központi hibalehetőségek), így kapacitásuk praktikusan nem növelhető a végtelenségig. Harmadrészt kiaknázatlan számítási kapacitások is vannak (például egy PC labor éjszaka).

22 Grid rendszerek Kapcsoljuk össze, a feladatok futtathatósága és átjárhatósága szempontjából az egyes, különböző telephelyeken található rendszereket! Készítsünk egyszerű PC-laborokból „virtuális szuperszámítógépeket”! Ez szép cél, de rengeteg megoldásra váró feladat van. Probléma: grid definíciók. Mi is a grid? Megosztottság.

23 Grid projektek itthon és külföldön
Hazai grid projektek: Szuper Grid, JINI Grid, Demo Grid, ClusterGrid. Külföldi grid projektek: EGEE, LHC grid, NorduGrid, SEEGrid, GridLab.

24 A grid felépítése

25 A ClusterGrid infrastruktúra projekt
Rövid történeti áttekintés. A „működő grid” fogalma. A teljes réteg-spektrum áttekintése, nem szabad önmagában bizonytalan feltételezésekkel élni. Oktatási intézményekkel való intenzív együttműködés. Előbb centralizált, majd decentralizált architektúra.

26 Szerepek a ClusterGrid-ben

27 Egyedi megoldások A grid erőforrás alapja a megfelelően felépített cluster (hasonló a SUN cluster-hez). „Nappali”, „éjszakai” üzemmódok, multi-funkcionális felépítés. Nagy számú csomópont menedzselése.

28 Fizikai réteg Erről már részben volt szó.
Minden gépnek megvan a saját szerepe, és ez vagy fizikai gépen, vagy virtuális gépen működik. (Mi a virtuális gép?)

29 Kapcsolati réteg Hogyan kapcsoljunk össze biztonságosan, és hatékonyan, kellő sávszélességgel a laborok gépeit? Grid forgalom és a normál nappali forgalom elválik egymástól. VLAN technológiák.

30 Hálózati kiépítés réteg
A feladat az, hogy biztonságosan összekapcsoljuk az egyes erőforrásokat. Egy lehetséges megoldás: privát hálózati technológia. „Hálózat a hálózatban.” Több lehetőség is van: IPSec, OpenVPN, MPLS. Teljesítmény + biztonság + ésszerűség: MPLS. Miért nem az Internet? (Grid szoftverek gyerekcipőben.)

31 Operációs rendszer réteg
Az OS know-how rendkívül fontos. Linux. NFS-root kliensek. Helyi swap és scratch partíció. Hálózati boot, BIOS trükkök, PXE. Hálózati ébresztés. Dinamikus címkiosztás. Rugalmas file rendszer és kötet-menedzsment, LVM, XFS.

32 Erőforrás réteg E réteg fölött egységes számítási erőforrást látunk, alatta egyedi PC-ket. A párhuzamosítás szintje is egyben. Erőforrás menedzser: Mit csinál a feladatokkal?

33 Grid réteg Egy cluster szép, jó, de nem skálázható a végtelenségig.
Kb. 100 csomópont felett már bajok lehetnek. Megoldható az összekötés az erőforrás rétegben, de itt is súlyos bajok vannak (Condor „barátságtalan” pool-ok). Egyik alapvető probléma: hogyan vigyük át a felhasználó feladatának környezetét egyik gépről (esetleg egyik cluster-ből) a másikba?

34 Grid réteg Elosztott erőforrás-kezelési koncepció: grid információs rendszer, grid bróker, globális ütemező, ágens-alapú technológiák... Szolgáltatás alapú, illetve web tranzakció alapú megoldások. Itt már nagyon számít a platform-függetlenség, és a heterogén környezet hatása. Hol élnek a felhasználók és hol a feladataik? Erőforrás bróker és feladatai.

35 Grid réteg

36 Grid réteg A feladat és a felhasználó azonosításának elválasztása (user authentication, job identification). Speciális feladat-konstrukció: nemcsak a futtatandó bináris, hanem annak környezete is a feladat része.

37 A ClusterGrid, mint szolgáltatás
Jelenleg 18 intézmény tagja a rendszernek. A csomópontok száma: 800 (1100). A grid mérésekre alapozott közelítő számítási teljesítménye: 400 Gflops. A projektek száma: 12. A futtatott feladatok száma: >30000. Vidéki helyszínek: DE, DF, Georgikon, KEFO, NYME, PTE, SZIE, SZTE, VE. Budapesti helyszínek: BGF, BKF, BME, BMF, ELTE, HIK, MIE, SOTE, ZMNE.

38 A ClusterGrid fejlődése számokban

39 Monitorozás – statisztikák

40 Monitorozás – statisztikák

41 Hozzáférés A hozzáférés a felhasználók számára az ún. belépési pontokon keresztül lehetséges. Mind CLI, mind web felületen keresztül elérhető a szolgáltatás. Régi image – új image. A használata, a szupergépekhez hasonlóan, ingyenes.

42 Grid portál

43 Hogyan tovább? Mennyiségi és minőségi bővítések.
A régi image-dzsel üzemelő helyszínek fokozatos felváltása az újra. Szűk keresztmetszetek orvoslása, megfelelő szerverek telepítése.

44 Elképzelések Grid rendszerek közötti átjárhatóság fejlesztése.
Nagy, elosztott tárolókapacitás kialakítása (FS szinten, adatbázis szinten). Heterogén környezet kialakítása. Intelligens ütemezés kialakítása. Checkpointing fejlesztése. Virtuális rendszerek. Web portál továbbfejlesztés. Hálózati technológiák továbbvitele.

45 Köszönet Botka István, Ecsedi Kornél, Farkas István,
Gombás Gábor, Halász Péter, Kalmár Zoltán, Kiss Bence, Lajber Zoltán, Ormos Pál Szeberényi Imre, Tomka Gergely és még sokan mások...

46 Köszönet Köszönjük a figyelmet! www.niif.hu/szuper/


Letölteni ppt "Nagy teljesítményű számítástechnika és elosztott számítóhálózatok"

Hasonló előadás


Google Hirdetések