De ha nincsen shader akkor max egy matt gömböt fogsz renderelni nem speculár fényt,tehát nem arrol volt szo, hogy lehet e shadert renderelni szoftveresen hanem arrol, hogy shader nélkül nem csinálsz speculár fényt glossinest stb...
A legtöbb ember szemében(az enyémben is) nem az a jó kártya ami a legtöbb fícsört tudja hanem amelyiken gyorsabban fut a kvék. Nekem úgy rémlik hogy a 8500 volt az elsõ ATI amiben egyben volt a 2 cucc. A radeon9X széria meg egyértelmüen jobb volt az NV cuccoknal(talán az 5900XT volt az egyetlen értelmes FX kari).
Shader nélkül semmit nem renderelsz,nem véletlen van minden objekten alabol egy shader,tehát amit lerendereltél és esetleg nem raktál rá shadert azon alap shader van prg-töl függ milyen,mayaban pl lambert az alap...
Az elsõ helyet átvette, ez mondjuk eddig sem volt kérdéses - de mondjuk figyelmbe véve, hogy a 9800XT is egy finomitott R300 (ami ugye már két éve van a piacon) ez a minimum, amit elvártunk tõle. Viszont sok téren meglepetésre adott okott a belinkelt teszt: pl.: az IL-2:FB teszteredmény, ahol a 9800XT szépen tartotta a lépést, sõt magas felbontás és AA/AF bekapcsolása után még jobb is volt, mint a 6800 vagy a C&C Generals, ahol AA és AF nélkül szintén a 9800XT volt a legjobb. A 6800Ultra alig néhány játékban volt 2x jobb, mint a 9800XT (pl. FarCry, Halo), ami engem kicsit megrémiszt, mivel sok esetben volt képes a lépést tartani a Radeon (pl. Max Payne 2, Splinter Cell, Tron 2.0), ahol nem a CPU limit volt a probléma...
És szerinted itt az átlag 25-30% teljesítménykülönbség elég?
Nem tudom, valahogy én arra számítottam, hogy itt aztán kõ kövön nem marad, és a 6800Ultra sz@rrá aláz mindent. Ehez képest igazából csak 1600x1200-as felbontásban aláz keményen mindent, az alatt legtöbbször csak visszafogott elõnnyel rendelkezik....
Sima mezei user-ként aki ha vesz egy kártyát nem azzal kezd, hogy apró darabokra szedi, hanem megnézi az adott játéknál mit tud! Ez szoftveresen, vagy akár hogy csinálják, LÉNYEG a minõség!!!! Egyébként nem az átlag a 25-30% hanem NEM Nvidiás játékoknál mutat ennyit. Összegezve ha megnézem az eladási toplistát illetve az idei évi megjelenéseket , hamar levonva a konzekvenciákat hüje gyerek módjára rájövök, hogy az Nvidia jobb...
Hagyd te is az egészet, amíg nem pártatlan az admin, teljesen felesleges bármi érvet idírni! Szal' az a jó fórum, topic,összehasonlítás, amelyik az Ati-t hozza ki pozitívan a többi kamu...
Anno mikor az oroszok bebizonyították, hogy az nv35 annyit nem tud mint a 9800 , minden ettõl volt hangos! Most, hogy ugyanezek megemelik a kalapjukat a 6800 elött már kamu emberek...
Mondjuk bele lehetett volna meg venni a gf4-et, ami helyenkent (pl. NWN) meg a 9800prot is alazza (AA, AF nelkul termeszetesen), es akkor le lehetne vonni a konzekvenciat hogy a 9800pro szinte nem is jobb a gf4nel. :)
En meg annak hogy meg meg se jelent, de maris jon a fikazas az ATI fanoktol. Lehet hogy az x800 meg annyira siralmas lesz mint az nvidianak az fx, akkor mi lesz a magyarazat? Nem szamit se az fps, se semmi, csak a markanev? :)
Mire vártál volna jobbat?Nincsen játék ami a 98XT-n ne futna el full felbontáson,erre az Nvidia meg rátett uj játékok esetében 200%-ot,mihez kéne még nagyobb teljesitmény,szvsz még Doom3-on is full grafikával fog rajta futni elképesztö sebességgel,hozzáteszem valszeg 98xt-n is full grafban fog futni...Mind1 mennyit csinál uj ati karesz,mert ezek az eredmények már olyanok amit nem lehet kihasználni, 3 év mulva majd esetleg...
Nekem is 9800pro van most, de azert nem vagyok elszallva tole. Nem irtam ala a szamlval semmilyen ATI PR ugynoki szerzodest. Ami teny az teny, ne attol fuggjon mar hogy a "kis szeretett" vagy a "nagy satan" gyarto termekerol van-e szo.
Szánalom power basszus, hogy itt még mindig egyesek ott tartanak hogy ki nvidia meg ki atifan... Ekkora lámer egy társaságot, hihetetlen.
Még amikor valaki azt irja, hogy milyen jó lett a 6800, még akkor is ezzel jönnek egyesek. Azt persze nem veszi észre egyik sem, hogy õ maga nem tud mást hajtogatni az nvidia a királyon kivül, míg a másik legalább tényeket sorol fel, még ha nem is pozitiv mindegyik az nvidiára nézve...
Az ember azt hinné, hogy legalább abból tanulna egy pár, ahogy korábban, más topicokban égett mint a rongy a hülyeségei miatt, de nem... itt megint folytatni kell igaz? Nyissatok fantopicot a gumiban, aztán lehet tobzódni ott. Aki nem birja elviselni a tényeket, az a továbbiakban ne jöjjön ide, köszi. Sem nvidia fan, sem atifan nem kell ide.
PS: Senki nem mondta, hogy szar lenne a 6800. Ezt kéne észrevenni...
MEGALOL
"Sem nvidia fan, sem atifan nem kell ide."
Akkor mit keresel itt?Milyen tényeket irsz te?Nincsen shader a képen?LOL Atyaéág,borg szerintem te nem 81-ben születtél hanem 2001-ben...
30-35 éves embereket akarsz itt kioktatni,miközben még semmit nem tettél le az életben az asztalra,ez a nevetséges.
Te szerencsétlen, még azt sem birod felfogni mit mond a másik! Takarodj már innen, mert tényleg elgurul a gyógyszerem tõled.
Semmi mást nem tudsz, csak ócsárolni másokat, meg kiforgatni a mások számára egyértelmû mondatokat. Rajtad kivül mindenki más fel tudta fogni, hogy nem PS2.0-van a képen, csak valami butított szar. De persze te ezen lovagolsz azóta is, mert ennyit tudsz.
Ettõl kezdve nekem sirhatsz hogy ki az admin meg ki nem, ugy penderitelek ki innen mint macskát szarni, aztán sirhatod el más topicban másoknak a hülyeségeidet. Eszem megáll rajtad.
Milyen fikázás? Én azt mondom, hogy a jelenlegi teszteredményektõl nem vagyok elszálva. Többet vártam, fõleg olyan dolgok miatt, mint a 100W feletti energiafelvétel. Azt vártam, hogy tényleg megkérdõjelezhetettlen lesz a kártya. Ennyi. Kissé csalódott vagyok. De ugyanígy csalódott leszek, ha az Ati Radeon X800 is kijön 100W-os energiaigénnyel és ehez hasonló teszteredményekkel...
Egyszerûen elegem van belõle, hogy miattad már nem az elsõ topicban van ilyen vita. Érdekes, soha egyetlen másik topichoz nem tudsz hozzátenni semmit, de ha kötözködni meg okosítani kell, rögtön itt vagy szítani.
Ez a topic nem fog a másikak sorsára jutni, hiába próbálkozol.
20 wattal eszik többet mint a 9800XT. Én nem értek hozzá szal lehet hogy az a +20 nagyon sokat számít:P Csak azt nem értem hogy ha egy 9800XT-nek elég volt egy 350W táp akkor a 6800-nak miért kell 480? 350+20 az 370 nem?
Nem is allitottam hogy te irtad. Csak az nem teccik hogy egy "nem ATI" kartyanak mindig a negativumait kell kiemelni, az ATInak meg mindig a pozitivumait. Ilyen volt korabban a PS + VS 3.0, ami ugye nem nagy szam, mert csak az Nvidiaban lesz, de persze a DX9 alatti teljesitmeny az nagyon szamitott, mert abban az ATI domborit, pedig epphogy csak megjelent 1 ilyen jatek.
A 9800XT elvileg 81W-ot eszik, a 6800Ultra 120W-ot.
Ami itt a probléma, az az, hogy a tápegységeknél nem úgy van, hogy összeadjuk az áramfelvételt, és ez legyen x watt, hanem bizonyos feszültségekre vonatkozólag van megadva, és ez van összeadva. Tehát ha megnézed a tápegységed oldalán a matricát, akkor a márkásabb tápoknál fel van sorolva, hogy mondjuk +5V a terhelés max. 2A, +12V esetén pedig 17A, és a többi. A gond az, hogy +12V-on most már egyre több eszköz vesz fel energiát, többek között újabban a molex csatikon át a videókártyák is. Az nVidia nem írhatja azt, hogy +12V-on mondjuk min. 20A-es terhelést vigyen a tápegység, mert nincs elõírás, hogy ezt fel kell tünteni. Ehelyett azt írja, hogy min. 480W-os tápegységet ajánl, mert egy ilyen táp már valószinüleg bírni fogja ezt a terhelést. Értelemszerûen ilyesmire pedig azért van szükség, mivel szeretnék valahogy védeni magukat az esetleges perek ellen, ha esetleg valaki ráköti egy noname 400W-os tápra a 6800Ultrát, és a táp elszáll, magával rántva az egész gépet... Ilyenkor védekezhet azzal, hogy mekkora volt a táp? 400W? Akkor a felhasználó hibája. Valószinüleg a márkásabb 420 v. 450W-os tápok is elviszik majd amúgy a kártyát...
Ez csak azok számára problémás kérdés, akik egybõl felültek annak a PLETYKÁNAK, miszerint az R420-ban nem lesz SM3.0. Persze van rá minimális esély, hogy tényleg nem lesz, ami sajnálatos, de nem egetrengetõ hiány lenne.
A B3D-sek is 450W táppal futtatták, és nekik elég volt. Amúgy írják azt is, hogy van csipogó a kártyán, ami jelez ha elégtelen a tápellátása. Szóval a védelemrõl úgymond gondoskodtak.
Utólag is elnézést mindenkitõl, akinek szúrná a szemét amit lejjebb OFF irtam. De eddig tartott a türelmem az illetõvel szemben. A jövõben igykszem tisztántartani az ilyen jellegû témáktól a topicot (és a többit is).
Itt nem arrol van szo hogy lesz vagy nem lesz. Hanem arrol hogy a DX9 kurvara fontos volt, mert azt csak az ATI tudta, igaz mostanaig semmi se tudta kihasznalni. A PS 3.0 meg "felesleges, minek az", mert az csak az Nvidia kartyajaban lesz (amikor bejelentettek, es ehhez a fikazas keszult, meg igy volt). Namost nehogymar attol fuggoen legyen valami jo vagy rossz, hogy azt a hazikedvenc vagy az osellenseg csinalja. Es ez csak 1 pelda, mert volt itt mar olyan hozzaszolo is, aki szerint egy mezei 9600 egy gf4et is alaz. Miert nem lehet elismerni vmirol akkor is hogy jo, ha (nemcsak) neked nem az van?
Én egyszer sem állítottam a 6800-ról, hogy ne lenne jó. Valakivel összekeversz...
A 9600 vs g4 dolog is biztosan nem tõlem származik, szóval... Azt sem irtam, hogy felesleges lenne a SM3.0, de ami tény az tény, jódarabig nem lesz szükség még rá.
Ami jó az jó, én nem is vitattam ezt. De ha vannak negatívumok azt is el kell fogadni.
"A 9600 vs g4 dolog is biztosan nem tõlem származik, szóval..." Nem is allitottam hogy toled jott, a "volt itt mar olyan hozzaszolo is"-ban nem latom hol szerepelsz.
Nekem nem veled van bajom (vagy barki massal), hanem a reszrehajlassal, akarkitol jon. En (es gondolom sokan masok is) azert jarok ide, hogy a gyartok PR rizsajatol mentes valodi infokat szerezzek olyanoktol, akik sajat borukon tapasztaltak hogy tenyleg azt tudja-e az adott cucc amit a gyarto allit. Namost ha itt is csak a PRt latom, akkor nem leszek okosabb.
A részrehajlásról: Szerintem azoknak fordul meg elõször (általában reflexbõl) a fejükben, akik maguk is elfogultak ugyanabban a témában a másik oldallal szemben.
Engem például valami hihetetlenül nem érdekel, hogy ki csinálja a gyorsabb kártyát, azt veszem meg amelyik a jobb. Kezdtem 3Dfx Voodoo1-2, amikor kijött a Voodoo3, váltottam TNT1-2, aztán geforceok, majd jott az FX széria, akkor lett Ati 9500Pro, most 9800pro van. Elfogult lennék? Azt vettem ami jobb, nem vagyok saját magam ellensége és mivel egyik kártyát sem én gyártottam, sõt pénzt sem kapok, hogy használjam, így semmi érdekem nem fûzõdik egyikhez sem, csak a saját felhasználói érdekeim. Régen kinõttem már abból, hogy gyõzködjem magam (és másokat) egy esetlegesen rossz beruházás után, (tudva, hogy basszus mégsem ezt kellett volna venni) hogy az enyém a jobb. Aki még ott tart azt (bizonyos kor felett) csak sajnálni tudom, mert egy kis agyatlan marketingzabáló fogyasztó lett (a szó rossz értelmében).
En hihetetlenul elfogult lehetek, mert mind2 fele kartyam volt, es egyiket se vedem.
Mint azt lejjebb már irtam,lehet hogy nekem is 6800 lesz a köv kártyám. Egyátalán nincs kizárva, noha nem az ultra, max a sima.
V1, tnt,gef2mx, gef2pro, 8500, 9600 után én részrehajló vagyok, egyértelmû. Mindig arra az oldalra, amelyik éppen jobb. Most is van egy 9600pro ti4200, 3db matrox G450, és egy 9000 kártyám is, amelyekbõl az elsõ itthon, a többi a céges gépekben amiken dolgozok, mert mindbe azt rendeltem, ami kellett, és akkor jónak tûnt. Mert nem szeretem átverni saját magamat a vásárlásnál. Lehet hogy fura, de magam keresem a pénzem már régóta, és annak a kártyájára fogom kiadni (fõleg itthonra), akié a jobbik kártya. Legyen az ATI, nv, vagy akár másé.
Éppen ezért ha valaki véleményt ír egy kártyáról, sõt, még ha az tényekre is alapul, akár negatívakra, akkor sem kell rögtön az idóta nv-ati fan dumával jönni.
És igen, védem, amelyiknek a tudásáról, és teljesítményérõl a tények alapján meg vagyok gyõzõdve. Mert a tévhitek terjesztését sem komálom. Rossz ember vagyok.
Így van. Amikor beharangozták a 9700PRO-t, akkor esett a 8500 50eFt-ra pl. Most is ez a helyzet. A megjelenést követõen pedig majd folyamatosan esik szépen az áruk.
Hát én a legújabbakban egyáltalán nem gondolkodom, az érdekelne hogy a 9600xt v. 9800pro -nál hány százalékos csökkenés várható? Érdemes várni egyáltalán?
A 9800XT várhatóan mondom olyan 50-60e köré fog esni, még a nyár folyamán. A többi pedig ezzel arányosan.
De ehhez még tudni kellene, hogy pontosan mikor lesznek elérhetõek nagy mennyiségben az új kártyák.
Szvsz a 9800XT meg fog szünni, mivel túl drága lenne (túl kicsi lenne rajta a haszonkulcs, pl. az extra hûtés miatt), és ahogy már most is látható, a 9800Pro-kat R360 VPU-val fogják szerelni.
Ez az 55-ért 9800 PRO csábítónak hangzik... Illetve hangozva ha még nem állna a mostani gépem és a videókártya csere között még egy betervezett proci-csere is :-(
Amint megjönnek az elsõ összehasonlító tesztek az ATI és nVidia új csúcskátyáiról, és amint megjelenik a jobbik kártya a boltban még aznap lecsapok rá :)
Addigra lesz pénzem rá :) Addig akadály-nem akadály... kell az a Barton.