A Radeon vs. FX vitához, itt A legjobb magyarázat amit eddig találtam a témában, a HC Gamerrõl: (valamelyik ottani tag írta, sajna csak ennyit copyztam ki belõle)
"Látva a VGA által produkált értékeket és a Radeon sorozat elsöprõ fölényét, ezt erõsen kétlem..." Parancsolsz...? OpenGL alatt mindig is az nVidia volt elõrébb. Nézz meg Q3, ET teszteket, az 5700 Ultra gyakran 9800-as kártyákat hagy maga mögött...
Akkor nezz meg egy Pixel shadert hasznalo jatekot. Leirom pontosabban mire gondolok:
DX7/8 alatt (OpenGL nel nezzuk a megfeleloit technikailag, bar nincs DX7/8 specifikacio, azert a kartyak technikai tudasat elegge egyszeru ezekben merni, DX7 alatt foleg a fix funkcios T&L egysegre gondolok, DX8 alatt a PS/VS 1.1-1.3ra, DX 8.1 alatt PS 1.4re, DX9 alatt PS/VS 2.0ra.) nem tul fair hasonlitani a ket kartyat. Nincsen sok ertelme egy DX9 es kartyat egy DX 7 et is csak reszben meguto enginnel merni (Q3 engine a T&L-t is csak felig hasznalja ki, es az ET ugyanezt az engine-t hasznalja), igy a mai kartyak elmeletileg egy szinten vannak ebben a jatekban, csak hat ahogy emlitetted az ATi OpenGL-es driverei mindig is picit gyengebbek voltak.
Ahol mar problemas lesz az FX sorozat: DX9 (illetve a nemsokara hasznalt OpenGL2.0, ami a pixel shaderek megfelelo fragment shadereket hasznal, illetve a mar most letezo extensionokkel az OpenGL1.4ben).
Sajnos itt nagyon gyenge az FX, es itt nem csak az 5200/5600ra gondolok, hanem minden FXre, 5900-akat beleertve. Miert is van ez igy? A most elterjedt standard a floating point precisionoknel az 24 bit (24/csatorna, vagyis piros+kek+sarga+alpha blending = 96 bit), amit sajnos az nVidia nem volt hajlando betartani, igy csak 16+32bittet tamogat, mig az ATi 16+24bittet. Miert erdekes ez? Megirjak a jatekokat az alap 24 bitten, es alapbol emiatt a legmegfelelobb precisionre ugrik az FX, megpedig 32 bitre. Igy piszkosul lassu lesz a kartya. Volt az nVidianak egy csunya probalkozasa miszerint a driverek automatikusan raeroltettek a kartyara a _pp-tagek hasznalatat, ami a 16bittet jelenti (sajnos par esetben, mint pl a 3DMark03 INT12-t is hasznalt helyenkent, ami Integer 12-t jelent, magyarul nem egy lebegopontos (nem egesz szam) hanem egy integert hasznal, ez semmifele keppen nem DX9 specifikacio). Ezt anno meg csalasnak titulaltak es nagy botrany lett belole, mivel a teljesitmeny igy mar megkozelitette az ATi kartyaket DX8/9-alatt, de rontotta sajnos a kepminoseget.
Itt meg megemlitendo hogy a HL2 nem tud full precisionbe futni mert 32bit alatt tul gyenge az FX sorozat, igy automatikusan butitja a grafikat FXeken. Doom-3nal mas a helyzet picit mivel egy "mixed modeot" hasznal ami nagyon sok munkat jelent a programozonak, mert mindenhol meg kell irnija hogy eppen 32FP, 16FP, vagy akar INT12-t hasznaljon e a kartya. Ez a jatekfejlesztok nagyreszenel fel sem fog merulni mint lehetoseg annyi plusz munkat jelentene azert hogy az FXeken is turhetoen fusson udvoskejuk, amig az ATi kartyakon alapbeallitason is jobban fut mint az FX optimizalva. A Doom3 hala az nvidias jo OpenGLdrivereknek, es Carmack-ek mixed mode-janak egy szinten fut a Radeonokkal! De sajnos meg igy sem jobban, legalabbis Carmack irasai alapjan.
Ezenkivul sajnos az FX architekturaja sem az igazi, egy 4x2-es designt hasznal (4 pixel pipeline x 2 Texture managment unit (TMU)), az Radeon-ok (legalabbis a nagyobbak 9700+) egy 8x1-est. Ez azt jelenti hogy single texturingnel mindket kartya csip Mhz * 8 Mtexel-t dobal a kepre, mig multi-texturingben csak csip Mhz *4 Mtexel-t az nVidia kartyai reszerol. Az ATi itt tovabbra is az eredeti Mtexel szamnal marad.
Mindent egybevetve: Az FXek technologiaja nagyon fejlett (helyenkent jobb is mint a radeonok-e!), de sajnos nagyon elszurtak az architekturat, rossz helyeken sporoltak, es nem tartottak be az alapkovetelmenyeket.