A részrehajlásról: Szerintem azoknak fordul meg elõször (általában reflexbõl) a fejükben, akik maguk is elfogultak ugyanabban a témában a másik oldallal szemben.
Engem például valami hihetetlenül nem érdekel, hogy ki csinálja a gyorsabb kártyát, azt veszem meg amelyik a jobb. Kezdtem 3Dfx Voodoo1-2, amikor kijött a Voodoo3, váltottam TNT1-2, aztán geforceok, majd jott az FX széria, akkor lett Ati 9500Pro, most 9800pro van. Elfogult lennék? Azt vettem ami jobb, nem vagyok saját magam ellensége és mivel egyik kártyát sem én gyártottam, sõt pénzt sem kapok, hogy használjam, így semmi érdekem nem fûzõdik egyikhez sem, csak a saját felhasználói érdekeim. Régen kinõttem már abból, hogy gyõzködjem magam (és másokat) egy esetlegesen rossz beruházás után, (tudva, hogy basszus mégsem ezt kellett volna venni) hogy az enyém a jobb. Aki még ott tart azt (bizonyos kor felett) csak sajnálni tudom, mert egy kis agyatlan marketingzabáló fogyasztó lett (a szó rossz értelmében).
Ugyanígy gondolkodok én is. Akkor ebben egyetértünk.
Éppen ezért irtam lentebb a reakciókat az nv pr anyagában megjelentekre, illetve az NV40-rõl kiderült dolgokra.
"A 9600 vs g4 dolog is biztosan nem tõlem származik, szóval..." Nem is allitottam hogy toled jott, a "volt itt mar olyan hozzaszolo is"-ban nem latom hol szerepelsz.
Nekem nem veled van bajom (vagy barki massal), hanem a reszrehajlassal, akarkitol jon. En (es gondolom sokan masok is) azert jarok ide, hogy a gyartok PR rizsajatol mentes valodi infokat szerezzek olyanoktol, akik sajat borukon tapasztaltak hogy tenyleg azt tudja-e az adott cucc amit a gyarto allit. Namost ha itt is csak a PRt latom, akkor nem leszek okosabb.
Én egyszer sem állítottam a 6800-ról, hogy ne lenne jó. Valakivel összekeversz...
A 9600 vs g4 dolog is biztosan nem tõlem származik, szóval... Azt sem irtam, hogy felesleges lenne a SM3.0, de ami tény az tény, jódarabig nem lesz szükség még rá.
Ami jó az jó, én nem is vitattam ezt. De ha vannak negatívumok azt is el kell fogadni.
Itt nem arrol van szo hogy lesz vagy nem lesz. Hanem arrol hogy a DX9 kurvara fontos volt, mert azt csak az ATI tudta, igaz mostanaig semmi se tudta kihasznalni. A PS 3.0 meg "felesleges, minek az", mert az csak az Nvidia kartyajaban lesz (amikor bejelentettek, es ehhez a fikazas keszult, meg igy volt). Namost nehogymar attol fuggoen legyen valami jo vagy rossz, hogy azt a hazikedvenc vagy az osellenseg csinalja. Es ez csak 1 pelda, mert volt itt mar olyan hozzaszolo is, aki szerint egy mezei 9600 egy gf4et is alaz. Miert nem lehet elismerni vmirol akkor is hogy jo, ha (nemcsak) neked nem az van?
Utólag is elnézést mindenkitõl, akinek szúrná a szemét amit lejjebb OFF irtam. De eddig tartott a türelmem az illetõvel szemben. A jövõben igykszem tisztántartani az ilyen jellegû témáktól a topicot (és a többit is).
A B3D-sek is 450W táppal futtatták, és nekik elég volt. Amúgy írják azt is, hogy van csipogó a kártyán, ami jelez ha elégtelen a tápellátása. Szóval a védelemrõl úgymond gondoskodtak.
Ez csak azok számára problémás kérdés, akik egybõl felültek annak a PLETYKÁNAK, miszerint az R420-ban nem lesz SM3.0. Persze van rá minimális esély, hogy tényleg nem lesz, ami sajnálatos, de nem egetrengetõ hiány lenne.
A 9800XT elvileg 81W-ot eszik, a 6800Ultra 120W-ot.
Ami itt a probléma, az az, hogy a tápegységeknél nem úgy van, hogy összeadjuk az áramfelvételt, és ez legyen x watt, hanem bizonyos feszültségekre vonatkozólag van megadva, és ez van összeadva. Tehát ha megnézed a tápegységed oldalán a matricát, akkor a márkásabb tápoknál fel van sorolva, hogy mondjuk +5V a terhelés max. 2A, +12V esetén pedig 17A, és a többi. A gond az, hogy +12V-on most már egyre több eszköz vesz fel energiát, többek között újabban a molex csatikon át a videókártyák is. Az nVidia nem írhatja azt, hogy +12V-on mondjuk min. 20A-es terhelést vigyen a tápegység, mert nincs elõírás, hogy ezt fel kell tünteni. Ehelyett azt írja, hogy min. 480W-os tápegységet ajánl, mert egy ilyen táp már valószinüleg bírni fogja ezt a terhelést. Értelemszerûen ilyesmire pedig azért van szükség, mivel szeretnék valahogy védeni magukat az esetleges perek ellen, ha esetleg valaki ráköti egy noname 400W-os tápra a 6800Ultrát, és a táp elszáll, magával rántva az egész gépet... Ilyenkor védekezhet azzal, hogy mekkora volt a táp? 400W? Akkor a felhasználó hibája. Valószinüleg a márkásabb 420 v. 450W-os tápok is elviszik majd amúgy a kártyát...
Nem is allitottam hogy te irtad. Csak az nem teccik hogy egy "nem ATI" kartyanak mindig a negativumait kell kiemelni, az ATInak meg mindig a pozitivumait. Ilyen volt korabban a PS + VS 3.0, ami ugye nem nagy szam, mert csak az Nvidiaban lesz, de persze a DX9 alatti teljesitmeny az nagyon szamitott, mert abban az ATI domborit, pedig epphogy csak megjelent 1 ilyen jatek.
20 wattal eszik többet mint a 9800XT. Én nem értek hozzá szal lehet hogy az a +20 nagyon sokat számít:P Csak azt nem értem hogy ha egy 9800XT-nek elég volt egy 350W táp akkor a 6800-nak miért kell 480? 350+20 az 370 nem?
Egyszerûen elegem van belõle, hogy miattad már nem az elsõ topicban van ilyen vita. Érdekes, soha egyetlen másik topichoz nem tudsz hozzátenni semmit, de ha kötözködni meg okosítani kell, rögtön itt vagy szítani.
Ez a topic nem fog a másikak sorsára jutni, hiába próbálkozol.
Milyen fikázás? Én azt mondom, hogy a jelenlegi teszteredményektõl nem vagyok elszálva. Többet vártam, fõleg olyan dolgok miatt, mint a 100W feletti energiafelvétel. Azt vártam, hogy tényleg megkérdõjelezhetettlen lesz a kártya. Ennyi. Kissé csalódott vagyok. De ugyanígy csalódott leszek, ha az Ati Radeon X800 is kijön 100W-os energiaigénnyel és ehez hasonló teszteredményekkel...
Te szerencsétlen, még azt sem birod felfogni mit mond a másik! Takarodj már innen, mert tényleg elgurul a gyógyszerem tõled.
Semmi mást nem tudsz, csak ócsárolni másokat, meg kiforgatni a mások számára egyértelmû mondatokat. Rajtad kivül mindenki más fel tudta fogni, hogy nem PS2.0-van a képen, csak valami butított szar. De persze te ezen lovagolsz azóta is, mert ennyit tudsz.
Ettõl kezdve nekem sirhatsz hogy ki az admin meg ki nem, ugy penderitelek ki innen mint macskát szarni, aztán sirhatod el más topicban másoknak a hülyeségeidet. Eszem megáll rajtad.
30-35 éves embereket akarsz itt kioktatni,miközben még semmit nem tettél le az életben az asztalra,ez a nevetséges.
"Sem nvidia fan, sem atifan nem kell ide."
Akkor mit keresel itt?Milyen tényeket irsz te?Nincsen shader a képen?LOL Atyaéág,borg szerintem te nem 81-ben születtél hanem 2001-ben...
MEGALOL
Szánalom power basszus, hogy itt még mindig egyesek ott tartanak hogy ki nvidia meg ki atifan... Ekkora lámer egy társaságot, hihetetlen.
Még amikor valaki azt irja, hogy milyen jó lett a 6800, még akkor is ezzel jönnek egyesek. Azt persze nem veszi észre egyik sem, hogy õ maga nem tud mást hajtogatni az nvidia a királyon kivül, míg a másik legalább tényeket sorol fel, még ha nem is pozitiv mindegyik az nvidiára nézve...
Az ember azt hinné, hogy legalább abból tanulna egy pár, ahogy korábban, más topicokban égett mint a rongy a hülyeségei miatt, de nem... itt megint folytatni kell igaz? Nyissatok fantopicot a gumiban, aztán lehet tobzódni ott. Aki nem birja elviselni a tényeket, az a továbbiakban ne jöjjön ide, köszi. Sem nvidia fan, sem atifan nem kell ide.
PS: Senki nem mondta, hogy szar lenne a 6800. Ezt kéne észrevenni...
Nekem is 9800pro van most, de azert nem vagyok elszallva tole. Nem irtam ala a szamlval semmilyen ATI PR ugynoki szerzodest. Ami teny az teny, ne attol fuggjon mar hogy a "kis szeretett" vagy a "nagy satan" gyarto termekerol van-e szo.
Mire vártál volna jobbat?Nincsen játék ami a 98XT-n ne futna el full felbontáson,erre az Nvidia meg rátett uj játékok esetében 200%-ot,mihez kéne még nagyobb teljesitmény,szvsz még Doom3-on is full grafikával fog rajta futni elképesztö sebességgel,hozzáteszem valszeg 98xt-n is full grafban fog futni...Mind1 mennyit csinál uj ati karesz,mert ezek az eredmények már olyanok amit nem lehet kihasználni, 3 év mulva majd esetleg...
En meg annak hogy meg meg se jelent, de maris jon a fikazas az ATI fanoktol. Lehet hogy az x800 meg annyira siralmas lesz mint az nvidianak az fx, akkor mi lesz a magyarazat? Nem szamit se az fps, se semmi, csak a markanev? :)
Mondjuk bele lehetett volna meg venni a gf4-et, ami helyenkent (pl. NWN) meg a 9800prot is alazza (AA, AF nelkul termeszetesen), es akkor le lehetne vonni a konzekvenciat hogy a 9800pro szinte nem is jobb a gf4nel. :)
Hagyd te is az egészet, amíg nem pártatlan az admin, teljesen felesleges bármi érvet idírni! Szal' az a jó fórum, topic,összehasonlítás, amelyik az Ati-t hozza ki pozitívan a többi kamu...
Anno mikor az oroszok bebizonyították, hogy az nv35 annyit nem tud mint a 9800 , minden ettõl volt hangos! Most, hogy ugyanezek megemelik a kalapjukat a 6800 elött már kamu emberek...
Sima mezei user-ként aki ha vesz egy kártyát nem azzal kezd, hogy apró darabokra szedi, hanem megnézi az adott játéknál mit tud! Ez szoftveresen, vagy akár hogy csinálják, LÉNYEG a minõség!!!! Egyébként nem az átlag a 25-30% hanem NEM Nvidiás játékoknál mutat ennyit. Összegezve ha megnézem az eladási toplistát illetve az idei évi megjelenéseket , hamar levonva a konzekvenciákat hüje gyerek módjára rájövök, hogy az Nvidia jobb...
És szerinted itt az átlag 25-30% teljesítménykülönbség elég?
Nem tudom, valahogy én arra számítottam, hogy itt aztán kõ kövön nem marad, és a 6800Ultra sz@rrá aláz mindent. Ehez képest igazából csak 1600x1200-as felbontásban aláz keményen mindent, az alatt legtöbbször csak visszafogott elõnnyel rendelkezik....
Az elsõ helyet átvette, ez mondjuk eddig sem volt kérdéses - de mondjuk figyelmbe véve, hogy a 9800XT is egy finomitott R300 (ami ugye már két éve van a piacon) ez a minimum, amit elvártunk tõle. Viszont sok téren meglepetésre adott okott a belinkelt teszt: pl.: az IL-2:FB teszteredmény, ahol a 9800XT szépen tartotta a lépést, sõt magas felbontás és AA/AF bekapcsolása után még jobb is volt, mint a 6800 vagy a C&C Generals, ahol AA és AF nélkül szintén a 9800XT volt a legjobb. A 6800Ultra alig néhány játékban volt 2x jobb, mint a 9800XT (pl. FarCry, Halo), ami engem kicsit megrémiszt, mivel sok esetben volt képes a lépést tartani a Radeon (pl. Max Payne 2, Splinter Cell, Tron 2.0), ahol nem a CPU limit volt a probléma...
Shader nélkül semmit nem renderelsz,nem véletlen van minden objekten alabol egy shader,tehát amit lerendereltél és esetleg nem raktál rá shadert azon alap shader van prg-töl függ milyen,mayaban pl lambert az alap...
A legtöbb ember szemében(az enyémben is) nem az a jó kártya ami a legtöbb fícsört tudja hanem amelyiken gyorsabban fut a kvék. Nekem úgy rémlik hogy a 8500 volt az elsõ ATI amiben egyben volt a 2 cucc. A radeon9X széria meg egyértelmüen jobb volt az NV cuccoknal(talán az 5900XT volt az egyetlen értelmes FX kari).
De ha nincsen shader akkor max egy matt gömböt fogsz renderelni nem speculár fényt,tehát nem arrol volt szo, hogy lehet e shadert renderelni szoftveresen hanem arrol, hogy shader nélkül nem csinálsz speculár fényt glossinest stb...
3-1 semmiképpen nem lehet,márcsak azért sem mert az nvidia vezette be az egyik legfontosabb változást a vidkártyák terén alá T&L(transform and lightning) a GF256-ban...
mindenesetre teny hogy ugy 4 evig az ati volt folenyben feature-okben. (radeon256 vs gf2, 8500 vs gf4, 9700 vs fx)ez az elso kartyaja ahol a jelek szerint kicsit le van maradva kepessegekben. Nem kell frocsogni rogton, egyelore az allas 3-1. Most ezzel nem vedem az atit, mindenkepp keslelteti a jatekfejlodest, ha vmelyik kartya kevesbe skilles mint a masik. (foleg ha a piacvezeto szeriarol van szo)
"Csak nehogy az NV30 sorsára jusson... Baszott nagy lesz a selejtarány itt is:(" Az ATInal talan nem? szerinted honnan kerult elo hirtelen meg 8 pipeline? Biztos az Nvidia kedveert ujraterveztek a kartyajukat... Megmondom: 16 volt nekik is betervezve, de naluk is ugyanolyan nagy a selejtarany, de meggecibbek voltak az Nvidiannal, 1szeruen visszatartottak volna a 16 pipeosokat, eloszor eladjak neked a 8 meg 12est, majd hirtelen bejelentik a 16 pipeos "advanced" videokartyat, ami tulajdonkeppen a selejtmentes eredeti valtozat.
"Bravó! Adjuk el új featureként mindazt, amit az R300 már majd' 2 éve tud!" Ugye igy fogod ocsarolni az ATIt is, amikor vegre belerakja a PS 3.0t es VS3.0t a kartyaiba, mert azt az Nvidia mar x ideje tudja?
De inkább be is fejezem,itt még mindig fejetlenség uralkodik :)))
"Szimplán shader mentes az a kép"
Shader mentes képen nem lehetne glossines sem,speculár fény sem stb...Közöd nincsen a grafikához,legalább egy shadert tudtál volna életedbe összerakni,nem neked fogalmad nincsen az egészröl,és ne törölgessél,ne ezzel legyél nagy ember, gyere mutassál egy shadert amit te csináltál utána mutatok én is, okés???
Köszi! Mondjuk azért elég sok helyrõl lehet hallani ezekrõl a kis "optimalizálásokról" a driverekben nvidia felé, úgyhogy azért nem teljesen mondtam hülyeséget! :D
Ezt úgyis kimoderálod, de az R300 megjelenésekor, meg az NV30 megjelenésekor is folyton azzal jöttél hogy az nVidiának nincs rendes DX9-es cucca. Mindezt lassan másfél évvel ezelõtt. Ugyanaz a helyzet most 3.0-ás cuccokkal. Ha neked lehetett lovagolnod a dolgon, akkor mástól miért akarod elvenni az örömet? :)
Mondjuk ahelyett, hogy egyre jönnek ki ezek az új dolgok, inkább a régit kellene már több gameban alkalmazni, mert mint azt a Far Cry mutatja, hihetetlenül szép dolgokra képes már ez is, csak ugye kár, hogy nem minden game használja! :( Pedig milyen jó is volna!
Szvsz felesleges a hype a SM3.0 körül. Ahogy a B3D teszt is mutatja, inkább logikus finomítások sora, mintsem egetrengetõ újdonságoké. A directx9.0-ban is benne van már a lehetõség a használatukra, kiváncsi vagyok mi ez az ökörködés a directx 9.0c körül is.
De miután valaki elhintette a PLETYKÁT miszerint az R420ban nincs SM3.0, már ezen lovagol mindenki. Ha nem is lesz benne, senki nem fogja hiányolni még legalább 1 évig, semmi kétség, ugyanúgy mint a HDM-et az NV30ból. A valószínûbb viszont úgyis az, hogy benne lesz keményen. De majd kiderül.
Elég brutális kártya ez, de azok a tények azért keményen ott vannak, amit #212-ben irtam.
Ok, akkor benéztem. Amúgy nem tudtam, hogy elõtte teljesen normális volt, akkor viszont tényleg patch hiba! Na akkor ezt majd egy új patch-el korrigálják! :D No meg remélhetõleg használhatóvá válik az 3.0 verziójú shaderek!
Ezért nem álltam le vitázni DanielT-vel,ugyanis ö berakta azokat a képeket mint a kártya rossz képminöségének bizonyitéka,hozzáfüzte ,hogy gyalázatos a minöség stb,elolvasni pedig nem tudta ami oda van irva,igy akármit irok az lesz, hogy szar a kártya a minöség minden,hiába irom ,hogy már TNT-nél nem voltak ilyen pixelesek a játékok,ö azt mondja a toms-nak hisz,csak fogalma nincsen rola tomshardware mit irt rola és miért :DDD Ez a kártya betette az also polcra szépen az Ati 98xt-t(uj kártyáját is meg fogja enni,nem fog tudni 230%-al nagyobb teljesitményt kicsikarni uj atibol szvsz),nem véletlen ijedtek meg, és most gözeveröl probálják a nem aktiv futoszalagokat aktiválni uj ati kártyán,lásd SG cikk.
Annyira azért mégsem hülyék, hogy a butításuk ugy nézzen ki, hogy szinte minden shader effekt hiányozzon. Egyszerûen a FarCry nem tudja beazonosítani a kártyát (6800), hogy milyen módban fusson. Ezért besorolja alap 1.1/1.4 kártyának.
És ugyanez megeshet más programmal is még, amelyek netán NV3Xként ismerik fel, és úgy persze hogy gyorsabban fut a game rajtuk a butításokkal. Egyszerûen a játék-sebességtesztek most még nem mérvadóak.
De csak meg kell nézni a d3drightmark, és shadermark eredményeit, mint irtam, 3x gyorsabb az 5950 ultránál...
Nem valószínû. az nVidia kezdetektõl fogva nyomta a fejlesztést, akkor miért csak egy patchbe kerülnek bele ezek a "csalások"? Ráadásul a képminõséggel nem volt gond az 1.1-es patch elõtt. Úgy tûnik hogy a patch hatására a sebesség semmivel sem nõtt, ellenben rendszeres képhibák jönnek elõ FX-eken. Nem túl hatékony csalás, ha annak szánták. SZVSZ nincs itt semmi ilyen szándék, simán csak ellõttek valamit a patchben.
Na az eleje érthetetlen maradt! :D A lényeg, hogy szvsz az nvidia nyomására kerültek bele ezek a kis csalások, hogy jobb sebességet érjenek el a kártyák a dx9 game alatt!
Szerintem nem a Far Cry a hibás, hanem az, hogy ilyen kis dolgokkal érték el, hogy a régi NV3X kártyák is megfelelõ sebességet produkáljanak a game alatt és mivel ezek nem kikapcsolható kis okosságok, ezért még ennél az új kártyánál is jelen vannak. Majd ha az újabb patchel megcsinálják, hogy a game felismerje, hogy ez biza már egy új kártya és nincs szükség eféle kis csalásokra, akkor majd normális képminõséget produkál majd, természetesen elfogadható sebesség mellett, mivel erre nem igen lehet panasz a kártya esetében! :D
A Tomshardware-es képminõséggonddal kapcsolatban csak pár apróság, idézet onnan:
"However, with the current driver, the 6800 U was detected as PS1.1/2.0 hardware by the game" - Vagyis szinte 100% hogy az 1.1-es Far Cry patch hibája a képhiba. Ugyanaz figyelhetõ meg NV35 esetében is, márpedig kicsi az esélye hogy halál pontosan ugyanúgy nézne ki a dolog két eltérõ mag esetében. Ráadásul más játék vagy teszt esetében nyoma sincs a problémának. Ennek ellenére egyes, magukat hozzáértõnek tartó elvakult atisok máris csalást meg gyenge képminõséget emlegetnek. Mint az elmúlt pár év során minden egyes alkalommal amikor éppen nVidia kártya volt a toppon. Unalmas.
Most szemezgetek kicsit a beyond3d kitûnõ 6800 cikkébõl. Egyékét érdekesség:) A saját megjegyzéseimmel...
1 the NV40 is a big chip, fitting only about 190 full cores per 300mm wafer. In fact the chip is so large, you may wonder what their yields will be like and hence what the availability will be like [...] It may also be the case that rebranded NV40 ASICs will also, possibly temporarily at least, fill out one or two of these segments. The die size of NV40 is very large in comparison to other graphics chip dies, and it's very unlikely that all die on a wafer will come back clean and working (it may even be the case that dies operating with all 16 pipelines / 4 full quads will be in the minority); however, with multiple quads on the die it may be the case that NVIDIA will choose to operate a redundancy scheme in order to minimise cost for dies that are not fully functional to NV40 specification. Csak nehogy az NV30 sorsára jusson... Baszott nagy lesz a selejtarány itt is:(
2 Intellisample 3.0 Up to 4X Native Multi-sampling FSAA with rotated grid sampling Lossless color, texture, z-data compression Fast Z Clear Up to 16x Anisotropic Filtering Bravó! Adjuk el új featureként mindazt, amit az R300 már majd' 2 éve tud!
3 Support for FP16 Texture Formats with Filtering, FP32 without Szal ja. Aki reménykedett benne, hogy nem az NV3X szarságait folytatják, hát íme... mégis.
4 The sticker on the back of the board marks the RAM being used on this board as Samsung RAM, which we assume is Samsung's K4J55323QF as this is the only GDDR-3 memory they currently display. The speed also shows that the standard operation is 500MHz, though the specifications of 6800 Ultra call for 550MHz memory which indicates that, by default, the reference boards are running the memory with a 10% overclock. Szal ennyit a GDDR3 kiforrottságáról, elérhetõségérõl, és a kész kártyák tuningpotenciáljáról? Ez akkor gáz lesz ATI-éknál is...
5 when the PCI-Express version of NV40 (NV45?) becomes available you’ll likely find that only one internal power connector is required as PCI-Express can provide 75W of the power directly over the bus. Na itt leszek kiváncsi arra, hogy az ATI mit hoz ki az AGP8X-be. Szerintem ez a power req. kamu, szimplan ennyire rossz a yield még, vagy valami hasonlo lehet...
6 What we can see from the pipeline diagram is that NV40 features 6 distinct Vertex Shader engines, which equates to roughly twice the performance per clock of NV30, and 16 rendering pipelines. És nagyjából egyezik az R300/R350-ével...
7 (3DFx) Rampage's chief architect was in charge of NV40's texture and shader engine.
8 One optional element of DirectX9 that NV3x’s pixel shader pipeline didn’t support was Multiple Render Targets (MRTs), which allows up to 4 values to be outputted from the pixel shader as opposed to just one. NV4x does support MRTs, and the above image is taken from ATI’s Depth of Field demonstration which utilised MRTs to store colour information in one render target and depth / blur factor in another. This demo fails to operate on NV3x, but runs fine on NV40. És újra.. adjunk el egy featuret ujnak (MRT) amit az ATI már régen tud...
9 This also signifies that NV4x is only capable of 2 FSAA Multi-Sample samples per clock cycle, and indeed David Kirk confirmed this to be the case - as it has, in fact, been since NV20. To achieve 4X Multi-Sampling FSAA a second loop must be completed through the ROP over two cycles – memory bandwidth makes it prohibitive to output more samples in a cycle anyway. Unlike ATI, only one loop is therefore allowed through the ROP which continues to restrict NV4x to a native Multi-Sample AA of 4X – modes greater than 4X still require combined Super-Sampling and Multi-Sampling. [...] The 8X mode is somewhat curious. The application shows that this is a combination of 4X Super-Sampling and 2X Multi-Sampling. Tehát: NV40 AA-ja még mindig nem ér fel az R3x0 AA-val. Pluszként bevezették az ATI (eredetileg 3DFx) Rotated Grid mintavételezését, de a sebesség nem lett jobb, és a Gamma korrekciónak sincs nyoma (ami ugyancsak alap az R3x0-ben).
10 While ATI have been mapping some of their video processing over the Shader Core for some time NVIDIA have decided not to do this as they feel instructions required for video processing do not lend themselves well to the instruction set in the pixel shader pipeline; thus a dedicated unit may be more optimal for this type of work. When running video processing though the shaders this means the 3D core is active and consuming power as well, which may not be desirable in all situations, especially where mobile devices are concerned - the NV4x VP is a smaller unit dedicated to video processing so it should require less power for video processing than utilising the shader core. Érdekes. Tehát a shader egységek nem aktívak videófeldolgozás közben, így nem termel annyi hõt a chip. 2D/filmnézés közben tehét nem pörög fel így a brute hûtés. Kapott egy külön Video Processzort, ami ilyenkor bedolgozik. Jó megoldás. Persze annak a problémáját felveti, hogy mi lesz a low-end NV4x chipekkel, amik alacsonyabb frekin futnak... nem lesz videofeldolgozás, vagy lassabb? (vagy esetleg külön frekin fut majd az egység?) Note: Az ATI ugye a eddig pixel shaderen át intézi ezeket a feladatokat. Kiváncsi leszek mit lép erre az X800ban. (de pl az NV3X SEHOL sem intéz ilyesmit...)
11 For the purposes of benchmarking we will enable full Trilinear filtering on the 6800 Ultra as this is a high end board and quality compromises shouldn't be forced at this price point. However, the optimisations are still enabled for the GeForce FX series with no option to remove them so there will be a filtering disparity in the benchmarks shown. Na errõl beszéltem. Nem összegyeztethetõ a teljesítmény más kártyákkal, mert a beállításokat nem lehet elegendõen hangolni.
12 Looking at the key differences between 6800 Ultra and 5950 Ultra we see that although 6800 Ultra has a reasonably significantly lower clock speed than than 5950, it still has a whopping 237% pixel fill-rate advantage thanks to it having 4 time the number of pipelines. The difference in texture rates is only 68% because 5950 has twice the texture samplers per pipeline than 6800 Ultra does. The triangle rate is only 68% again because though 6800 Ultra has twice the number of vertex shaders, and the clock speed difference pulls it back somewhat. [...] With GeForce FX 5800 and 5900 there was some disagreements as to how NVIDIA had classified their pipelines then, as they described them as 8x1 (8 pixel pipes with one texture per pipe) yet they transpired to be "4x2" or "8x0" (4 pixel pipes with two texture per pipe, or 8 Z / Stencil pixel pipes). Ehhez no comment. Látszik, hogy fejlõdtek nagyot a srácok, de azt is mutatja, mekkora FOS az NV3X architektúra. Again. Csak a 6800 pixel shadere 3X gyorsabb az 5950ultránál, és ez csak sima PS2.0 alatt értendõ...
13 The table above highlights the FP16 and FP32 rendering performance of the boards and we can see that in fact 6800 Ultra is losing more performance for longer FP32 programs than 5950 is, relatively. It appears to be the case that NV40 may have a greater register space than NV38, meaning that slightly longer programs can execute with no registry limitations, but as the registry space is used up on longer programs the performance drops off at a greater rate. Magyarán: FP32 használata esetén többet veszít a teljesítményébõl százalékosan a 6800, mint az 5950u. Ezzel persze még mindig jóval gyorsabb, azonban újabb ok arra, hogy FP16 automatically by driver megint bejátsszon...
Egy szó mint ezer tehát, nem minden arany ami fénylik. Ahogy B3D-ék is összegzika conclusion-ben. Ellenben nagyon király a kártya, iszonyatos sebességekre képes. Ami a tesztbõl egyértelmûen kiderül, hogy az 5950Ultrára 2x ráver, de sok esetben akár 3x is. Csak nem tudom, hogy ez elég e. Ha belegondolok, hogy kellene ugye mainstream, meg low end kártya is NV4X-bõl, azok hova lesznek pozicionálva? Tekintve, hogy 480W (B3D szerint "runs fine on 450W") táp ekll az ultrához, nem egy " mindenki kártyája " megoldás lesz ebbõl. Az enyém biztosan nem. Ellenben ha a 6800 (sima) is ráver kb 2x az 5950 ultrára, és korrektül pozicionálják árban is, akkor elgondolkodtató ajánlat... LENNE ha, nem lenne ez a pár bottleneck a kártyában, amit fentebb írtam. Naja, minden eldõl 2-3 héten belül, ha kijön mit is tud az R420. Egyes új pletykák szerint igencask felejtõs lesz a megjelenés pillanatában az NV40, bár ne lenne így. Annak fényében ugyanis, hogy az NV40 fejlõdött ugyan, csak éppen az R350-hez képest nem eleget, ha az ATI ilyen léptékkel fejleszt, kurvára nem fog labdába rúgni az NV40, sajnos.
Geforce6800 tehát: pro -nagyon gyors, tud egykét új dolgot is kontra -sajnos csak az nV3X-hez képest fejlõdött nagyot, R3X0-hez képest max finomítottak és gyorsítottak rajta
-feltételezve hogy az ATI is legalább ekkora lépést tesz CSALÁDON BELÜL, akkor az NV40 kurvára nem fog labdába rúgni az R420hoz képest...:( Ugyanaz lesz a felállás mint most. R420 brutál gyors, kiváló és valóban új megoldásokkal, az NV40 pedig kullog utána az R350+NV30+RAMPAGE ötvözetébõl született gyors, de nem elég okos megoldásaival... (PR bullshitet félretéve)
Ne legyen igazam, de nagyon így fest a helyzet. Kiderül pár hét múlva...