Alig tudja kezelni a ren­geteg adatot a CERN

Alig tudja kezelni a ren­geteg adatot a CERN

2014. november 9. 09:51, Vasárnap
Az atomok tanulmányozása elképesztő mennyiségű adatot generál, ami miatt jelentős mértékű fejlesztésekre lesz szükség a szervezet IT-rendszerében.

Az Európai Nukleáris Kutatási Szervezet (CERN) a következő években számos olyan kísérletet akar folytatni, amelyek hatalmas mennyiségű adatot generálhatnak majd. Az információk tárolása és kezelése már most is komoly feladatot jelent a CERN IT-szakembereinek, így előrelátható, hogy az új kihívások még nagyobb próbatétel elé fogják őket és az IT-infrastruktúrát állítani.

A szervezet archívumaiban jelenleg mintegy 100 petabyte adatot őriznek. Az idei év végéig ez a mennyiség további 27 petabyte információval növekszik. Összehasonlításul: az Amerikai Egyesült Államok egyetemi könyvtáraiban lévő adatmennyiség 2 petabyte. A kísérletek során a keletkező adatmennyiséget algoritmusok tanulmányozzák és a tudósok számára alig vagy egyáltalán nem érdekes információkat már azelőtt kiszűrik, mielőtt a tényleges elemzések egyáltalán elkezdődnének.

A szakemberek azzal számolnak, hogy a nagy hadronütköztető 2017-ben kezdődő és 2023-ig tartó kísérletei miatt 400 petabyte lesz az évente keletkező plusz adatmennyiség. Ezt azonban már aligha lehet majd eltárolni, még akkor sem, ha a számítástechnika folyamatosan fejlődni fog. Már a tároláshoz szükséges további szerverek hűtését sem lehetne megoldani, ezért jelenthet megoldást az OpenStack, egy cloud-infrastruktúra, amit már jelenleg is alkalmaznak és gőzerővel zajlik a továbbfejlesztése.

Tim Bell, a CERN IT-infrastruktúráért felelős vezetője közölte, hogy a szervezet most négy OpenStack-rendszert használ. A legnagyobb kereken 3000 szerverből áll. 2015 első negyedévéig további számítógép-központokat helyeznek majd üzembe.

Kapcsolódó linkek

Listázás a fórumban 
Adatvédelmi beállítások