Pedig van: AMD FireStream™ 9170: Industry's First GPU with Double-Precision Floating Point
A gond csak az vele hogy, sehol nem írják(weboldalon,preziben) hogy DP-ben, mire is képes, errõl sejtelmesen hallgatnak. Mindnütt csak az szerepel hogy: "Up to 500 GFLOPs single precision performance" "Double Precision Floating Point" vagy "320 stream cores drive up to 500 GFLOPS single-precision performance" "Double-precision floating point for scientific and engineering codes"
De azt sehol nem írják DP-ben mennyi is a peak Gfloaps.
Kicsit olyan ez mint WiMAX-nál a jellemzõk között hogy maximum 70 Mbps, meg maximum 50km hatótál. Csak épp a kettõ kizárja egymás vagy közelre gyors, vagy távolra is elér de akkor már lassú.
A Cell esetén igen komolyan csökken a DP teljesítmény, ott is 250 Gfloaps SP-ben, DP-ben már csak a tizede. Kérdés ezek a GPU-k hogy viselkednek DP mellett.
ezek a highend gépek 64 biten számolnak, melyik gpu nyomul igy, én egyröl se tudok könnyü sok kis magot belapaszirozni csak nem jo semmire, azon kivül amire kitalálták
Az Nvidia vélhetõen a csúcs peak FLOPS-ra fog törekedni... A gyakorlatban persze nem lehet majd kihasználni, de a marketing anyagokban jól fog mutatni. Bár ez kevés a szuperszámítógépekben való alkalmazásra, máshová még elsüthetik. (A szuperszámítógépektõl lefelé fokozatosan egyre inkompetensebb vezetõk kezében van a döntés...)
Pár extra pipeline-t? Az kevés lesz. Egy CPU mag általános kód futtatására lett kitalálva, ezért sokkal nagyobb (több tranyó), mint a GPU-k számoló egységei. Egy CPU magban 1db FPU van (ami képes 4db 32 bites [SP], vagy 2db 64 bites FP [DP] mûveletet végezni SIMD-ben, sima scalar kódban meg 1-2-t), így egy négymagos egyszerre max. 16db 32 bites FP mûveletet tud. (De ez nagyon elméleti, a gyakorlatban csak egy részét tudja ennek.)
A GPU-k számoló tömbje kb. olyan, mintha egy CPU magból kiszednénk az FPU-t, és magában megsokszoroznánk.
Egy G80 egyszerre 128db 32 bites FP mûveletet tud, egy R600 meg akár 320-at... Igaz, kb. fele órajelen, mint a G80, aminek szintén kb. a fele az órajele egy gyors CPU-hoz képest. De még így is kb. 4x gyorsabbak ezek GPU-k a peak FLOPS-ban (a többit nem számolva), mint egy gyors 4-magos CPU. Ráadásul ebbõl jóval többet is tudnak kihozni a gyakorlatban, hacsak nincs valami akadályozó tényezõ, lásd alább. És a GPU-knak sokkal nagyobb a memória-sávszéle.
A GPU-k legnagyobb gyengesége jelenleg az ugró utasítások végrehajtása (fõleg a G80-nak, de az R600 is messze van ebben egy CPU-tól). Ezen kellene javítaniuk, bár akkor a felépítésük is bonyolódna, és máris nem férne el annyi számoló egység.
Az Intel Larrabee-je egy érdekes hibrid lesz: egyszerûsített CPU magok, de abból jópár darab (16-32, ilyesmi). Peak FLOPS-ban nem lesz annyi, mint egy akkori GPU, de általános jellegû számítási feladatokra mégis jobb lesz. (Ilyesmi a Cell is, csak annak még kisebbek a számoló magjai, így még több lehet belõlük, és kb. 2 év múlva, amikor megjelenik a Larrabee, sokmagos Cell is lesz.)
Hát, legalább lesz gép, amin fut a hû-de-jaj-de-jó Crysis..
Shabba: igen, ebben van igazság, de 1.: mi van, ha szövetkeznek a VIA-val? 2.: mi van, ha már 4 éve a legnagyobb csendben fejlesztik ez irányú megoldásaikat? 3.: mivan, ha 2012-ig kifejlesztenek egy nemrég indult project keretében egy hasonló megoldást?
ráadásul csak halkan jegyzem meg, hogy ami miatt veszik az nV kártyákat (értsd: játékipar), az meg is marad. Ugyanis egy jó részét az nV pénze mozgatja..
szóval jelen állás szerint úgy érzem, szebb jövõ vár ránk, ugyanis egy viszonylag kiegyensúlyozott 3szereplõs piac várható.. Sõt ez most fog elkezdõdni, az nV el van csúszva a 8xxx és 9xxx sorozataival, ATI talán magára talált a 3xxx-ekkel, jön a 4xxx, amiben ahogy hallani lehet, sok a potenciál, intel-nek jön a szép nevû Larabee-ja (hú, nagyon kíváncsi vagyok rá)..
Tényleg kíváncsi vagyok, nV-nek hoszabb távon mi lesz a válasza a GPGPU-ra [már, ha a másik két cégnek bejön, ugye... :) ]
Attól tartok Nvidianak ezen a piacon 2012-re nem sok babér fog teremni és szerintem azokon a piacokon is egyre kevesebb ahol most még piacelsõk. A konkurens cégek úgyis a saját GPGPU megoldásaira fognak építkezni, az AMD a Fusionra, az Intel a Larrabeera, az IBM a Cellre. Mivel az Nvidiának nincs saját CPU-ja elég nehéz lesz fölvennie a versenyt vagy olyan párt találnia, akivel közösen fel tudná használni saját megoldását.
Már nagyon felkéne találni a kvantumszámítógépeket :D
Elvileg az intel és AMD procikat is lehetne módosítani, hogy jobban megfeleljenek a supercomputer-ek igényeinek, de szvsz. nem éri meg pénzügyileg, ezért abból építik meg a supercomputereket, ami már megvan.
Szvsz. egyszerûbb egy CPU-ba beletenni pár extra pipeline-t, mint a GPU-t módosítani CPU-ra.
A legtöbb esélye ezen a piacon azoknak a cégeknek van, amelyek eleve szerver procikat gyártanak, mint pl. az IBM.
Az intel és az AMD inkább az árral tudnak versenybe szállni.
Ez csak a GPU gyártóknak lenne jó. Természetesen átmeneti megoldásként rendben van, amíg nem tudják kiáltalánosítani, hogy mely feladatok azok amikkel fel kell vértezni egy általános processzort, hogy hozni tudja ezt a teljesítményt. Mondjuk vannak rá elég jó próbálkozások, lásd Cell.