Ha belegondolunk, hogy a Cell proci elvileg 250 GFlops körül teljesít, akkor sztem drága mulatság ez a PowerPc-s rendszer, hiszen elvileg Cellbõl jóval kevesebb kellene.
Hát, jah, ma már azért nem elektroncsöves gépek mûxenek 150 KW fogyasztással...
Azt bele lehet fordítani a programba, vagy hogy érted? Mert ha nem, akkor felesleges az SDK, a sima DX-ben is benne van, nem? (Én úgy emlékszem, mintha már próbálgattam volna.)
Ez így van, de nem értem, miért írtad le. Az nem csoda, hogy a legolcsóbb kártya esetén többnyire az lesz a korlát. Ha megnézed, én közepestõl felfelé esõ kártyákról beszéltem (mert ha már játék, akkor általában nem a legolcsóbb kártya kerül a gépbe). Ma ez azt jelenti, hogy 6600-tól, vagy x700-tól felfelé. Ezekkel a kártyákkal, ha megnézed a teszteket, szinte az összes játéknál van egy adott fps, aminél nem tudnak többet kihozni, a proci miatt. Ráadásul ezeket a teszteket általában igen jó, és drága procikkal csinálják (vagy akár a pillanatnyi legjobbal), amit nem engedhet meg mindenki magának, tehát nem az van egy átlag konfigban sem.
Téves, az IBM BlueGene architektúra nagyon kis fogyasztó más szuperszámítógépekhez képest, akár 100x is kevesebbet fogyaszt a többi TOP10 rendszerhez képest. A részleteket megtalálhatod a neten...
3 GFLOPS sustained 700 MHz-s procikkal az szuper vagyis nagyon szuper. Az x86 6-7 GFLOPS-a reális körülmények között 1-2 GFLOPS sustained és ez még jó eredmény, de persze párhuzamot vonni egy CPU között meg egy magassan optimizált multiprocesszoros szuperszámítógép teljesítménye között a legjobb esetben is komolytalan lenne, ezért el is kerülném a további per CPU vitát...
Az egyáltalán nem törvényszerû, hogy az elérhetõ max fps-t a processzor határozza meg, ugyanis egy elég csak egy gyengébb grafikus kártyára gondolni (mondjuk egy integráltra) és ott egy újabb játék sebességet garantáltan a videokártya fogja korlátozni még a legalacsonyabb felbontás mellett is. Viszont ugyanennél a konfignál egy régi fps esetén (mondjuk Q1)könnyen lehet, hogy megfordul és az alacsonyabb felbontásoknál még a processzor korlátoz és ahogy növeljük a felbontást úgy válik egyre inkább korláttá a vga.
Az, hogy éppen mi korlátoz, az egyaránt függ az adott konfigurációtól és attól, hogy mit futtatunk rajta.
Volt annak idején egy k6-2-õm voodoo3-mal, itt Q3 esetén a cpu volt a korlát, egészen addig míg nem vettem egy új alaplapot egy duronnal, ekkor ugyanis a vga vált korláttá, majd miután raktam bele egy GF3-at visszaállt a régi helyzet és a játékok alatt ismét a processzor fogta meg a gépet.
Aha, már látom. Azért egy kicsit érdekes megfogalmazás, mert azok a bizonyos "conventional systems"(-ek) is változatos "kiszerelésekben", és ettõl függõ teljesítményekben leledzenek. Mint ahogy a Blue Gene-nél is kvázi szabadon variálható, hány rackszekrényt használunk, ha jól veszem ki. Most úgy esett, hogy ez a BGW 20 rackszekrénybõl áll. Tehát, talán célszerûbb lett volna (és marketing szempontból is jobban hangzó), ha azt írják, hogy alapterületre számolva 6x-os tejlesítmény-arány. Bizonyára nem gondolta volna senki, hogy "de bizonyára sokkal kisebb is azoknál, így végeredményben lassabb". :) Áhh, végülis OK, így több adatot tömtek egy mondatba.
3 GFLOPS az nem olyan kevés. Egy gyosabb x86 6-7 körül van, egyedül - ilyen szintû párhuzamosítás esetén itt is leesne a felére a procinkénti teljesítmény, mert nem lehet tökéletesen párhuzamosítani, a gépek közötti adatcsere miatt, és más efféle tényezõk miatt.
Mi veszi le ennyire a teljesítményt? Vagy itt már exponenciális görbe mentén nõ a teljesítménynöveléshez szükséges procik száma?
be van linkelve a cikkbe
"BGW is comprised of 20 refrigerator-sized racks, less than 1/2 the size of conventional systems of comparable power and has 3 times the performance. "
Jajj, a cs azért nem mai gyerek már, jóhogy ennyivel megy.
Régen meg amikor meg még nem is volt 3d gyorsítás a monitorvezérlõ kártyákban, akkor is volt 3d, csak a proci számolta.
Én sem gondoltam, hogy fel lehetne rá egyáltalán rakni.
Azért ennyire hülyének ne nézzetek. :)
Már hogy lenne fordítva??? Nézd már meg a teszteket. A max. fps-t már egy ideje a proci szabja meg, és a leggyorsabb procival is szépen lekorlátozódik a legcsúcsabb kártya is (nem kapja olyan gyorsan az adatot, mint még elbírna vele).
Ja, és én átlagos esetrõl beszéltem, jelen idõben. ("jétékok"-at írt Archkoven, tehát nem csak a cs-rõl van szó, akár 1280-as bontásban is [17"-es LCD-n alapfelbontás, ezért írom], és persze kisebb felbontás felé haladva ez egyre inkább így van, mert egyre kevesebb múlik a grafkártyán).
Nyilván adott esetben a proci teljesítménye a min. fps-be is belejátszik, de nem ez a jellemzõ (hacsak nem túl lassú a proci). Hiszen a min. fps akkor jön létre, ha a grafkártya nem bírja már kiszámolni a kiszámolandót (túl sok shaderes pixel, túl sok látható poligon egyszere a képernyõn). A proci dolga nem sokat változik közben (átlagosan ugyanannyi poligon-adatot kell nyomnia, mivel nem õ dönt, hogy mennyi fog látszani az összesbõl, ami az adott scene-en van). A grafkártya helyett meg nem tud a proci dolgozni. (Mármint tudhatna, de vagy-vagy alapon megy ez [átkapcsolhatunk szoftver rendererre - mellesleg rohadt lassú].)
Egyébként, bár nem ismerem a 740-es Intel chipsetet, de úgy hiszem, azon nem fut fullosan a cs. Márpedig a shaderek, esetleg szûrõk sokat befolyásolnak a dolgokon (egyre inkább a GPU-tól függ az eredmény, nyilván - ma már ezek általánosan használt dolgok). Ha ezeket nem tudja az integrált cucc, eleve diszkvalifikálódik.
Hat ez szerintem nem igaz, de ha megis van benne igazsag akkor inkabb forditva.. Pl 1100 mhz-en hajtott duronom egy inteli740 4mb -os grafikus lassitoval fix 50-60 fps-t nyomott cs-ben. Ezt az 50-60-t ugy ertsd, hogy nem atlag ennyi, hanem ennyi volt a max kilenges (es nem vsync miatt nem ment feljebb, 100 hz-en ment a moncsi) Gyakorlatilag az akkor nagyon bikanak szamito proci vitte fel a min fps-t ilyen szintre.
Ja, egyébként talán egyszerûbb lett volna azt írni, hogy négyzet-/köbméterre számítva 6x-os teljesítményt nyújt... Megnézném én azt a közleményt, pontosan mit is ír... :P
Lehet, hogy van rá valami Win+x86 emulátor. OpenGL biztos van rá (akár szoftveres, ami itt túlszárnyal minden hardveres megoldást, ha elég procit utalnak ki erre a feladatra), tehát az OpenGL-es játékokkal nem lenne gond. A DirecX-es eset már nehezebb dió, mert ott külön programmal kellene emulálni a grafkártyát, amely program nem létezik.
És szerinted ezek a procik nem tudnák átvenni a grafkártya feladatait? Egy mai csúcskártya elméleti FLOPS értéke 1 TFLOPS körül van, szerintem egy ~20 TFLOPS-os gép szépen boldogulna vele. (Fõleg, hogy itt "némileg" több proci mûködik párhuzamosan, mint ahány futószallag van egy csúcs grafkártyában.)
(És ugye azt tudod, hogy bár a min. fps-ért [ami a szaggatásért felelõs] a grafkártya a felelõs, a max. fps-ért ma már szinte mindíg a proci.)
Tetszik ez a mondat, csak nem tudom hogy ertelmezni: "A 91,29 teraflopson teljesítõ rendszer a közlemény szerint pontosan húsz, hûtõszekrény méretû rack szekrénybõl áll, tehát csaknem feleakkora, mint a hasonló teljesítményt nyújtó szuperszámítógépek, miközben háromszoros teljesítményt nyújt."
Most vegul is hasonlo vagy 3x-os teljesitmenyu???