"kvp: Igazad van, az oprendszer funkcióit is nagymértékben párhuzamosítani kell. De nem csak ennyibõl áll a probléma. A jelenleg elterjedt programozási eszközök (ide értve a nyelveket és az algoritmusokat is) nem arra lettek kitalálva, hogy 64 processzoron fussanak. Persze vannak kivételek (pl. haskell nyelv, non-locking párhuzamos algoritmusok) de általánosságban igaz, hogy a hardware ezen a ponton kicsit megelõzte a hozzá szükséges software színvonalat. Elmélet szintjén léteznek ilyen szoftware eszközök, de gyakorlatilag nem"
A nagygépes rendszerek már évek óta többprocesszorosak. A Unix kezelte és kezeli is a többprocesszoros rendszereket. A SUN már nagyon régen tudja, hogy az egyes processzorokat dinamikusan hozzá lehet adni v. el lehet venni az egyes virtuális szerverekhez. Ez nagyon jól tud jönni a változó napi terhelésû szervereknél, ahol ráadásul általában a rendszerleállás nem megengedett.
A Windows egy olcsóbb OS és kevesebbet is tud, mint a Unix. Ahol nincs szükség hatalmas számítási teljesítményre, oda jó a Windows is, de ahol kell, ott Unix-ot használnak v. Linux-ot.
A Linux-ot nem ismerem mélyebben, de szerintem kell neki kezelni a több processzort, mert Linux-os rendszer fut többezer párhuzamosan futó szerveren, ahol az egyes szerverekben ráadásul több mag is van.
Párhuzamosan futó programot szerintem nem annyira macerás írni, mint a legtöbben elképzelik. Csak kell írni hozzá egy keretprogramot, ami méri és kiosztja a task-okat. Ha ez jól van megírva, akkor a teljes program optimális idõn belül tud futni. A keretprogrammal lehet kísérletezgetni is, illetve automatikus kísérletezõ funkciót beépíteni, ami folyamatosan fut és próbálja finomhangolni a task kiosztást. (Állandóan változtatja, ami egy idõ múlva beáll az optimálisra...)
Pl. sokan nem tudják, de a processzorok nem akkor dolgoznak a leggyorsabban, ha 100%-ban vannak leterhelve, hanem akkor, ha kb. 80-90%-ban. A 100%-ban leterhelt gép teljesítménye meredeken zuhan.