Ezt most fõleg azért írtam, mert elsõ hallásra jó dolognak tûnik a képminõség, de úgyis azzal kezdem minden drivertelepítés után, hogy teljesítményorientált, kikapcs anizo, kikapcs aimbot izé... aa, meg kikapcs vsync. Ha R420 lenyomja Geforce urat ilyen beállításokkal mint a texiórát, hát akkor biza ATI-t vásárlnuk!
Most ez a legutóbbi "csalás" dolog elég röhelyes. Ha jól futottam át a cikket, annyirõl volt szó, hogy más mipmapot választ mint az ATI. Ejnye-bejnye. (Magánügy) Ezen alapon, akkor az egész pixelsnájder egy csít, mivel a legtöbb komplex számítást csak "közelítõleg" végzi el. Gondolom az ATI is (specifikációkba mind ott van, hogy approx). Akkor az is csíter! És pusztujjon!
Mennyi képet csináljak ati kártyával ami tök szar ultra gagyi fos?Már megint kezdik ezt a csalást,az ati féle anizotropikus szürésre azt mondták nem csalás,meg hogy ök nem tehetnek arrol hogy az nvidia kártyája ott is perecizios számolást végez ahol nem kéne,ha nvidia csinálja ugyanazt az kökemény csalás,nevetséges ez az egész...
Itt van egy jó kis teszt, ábrákkal az nVidia-ról, viszonylag korrekt oldal, annak ellenére, hogy nem az nV "szponzorálja..." ;-)
A 3Dmark03 pedig jó indikátor. Noha persze arra nem mérvadó, hogy milyen a sebesség, mert az játékokban a lényeges, de ha a képminõség szar, az igenis jelent valamit. Ha ebben csal, akkor nyugodtan máshol is.
Másrészt: az nvidia nagyonis tisztában van vele, hogy az "ipar" ezzel tesztel, és ennek a programnak az eredményeivel hasonlítja össze a kártyákat. És akár tetszik akár nem, a legtöbb ember is. Magyarán a kutya nem mossa le róluk a szándékos csalás vádját sem.
Amúgy a tomshardware, és a hardocp mint nvidia kézben lévõ oldalak, még jó hogy nem csinálnak ilyen tesztet. Persze bármi megeshet, de ennek a tesztnek az egyértelmû eredményeit nem igazán lehet kétségbe vonni. Ottvan kerek perec minden a képeken.
NAGYON DURVA a különbség! ATI majdnem a Rast Image képét nyújtja, nVidiánál meg tök gány az egész.
Hát itt az interaktív Flash tesztek engem meggyõztek arról, hogy tényleg csalnak :-( Ha pedig mindezt a legújabb deronátorral teszi a cucc, akkor az már tényleg gáz. Itt már nem lehet mondani azt, amit a Far Cry-nál, nem lehet mondani, hogy "na jó, de sima FX-nek ismeri fel az app". :-(
R420 lesz a nyerõ, úgy néz ki.
Hát nem tudom...
Ha csalt is ezidáig még 1 hardware oldal se erõsítette meg.
fcenter.ru Tom'sHardware.com Hard|OCP.com
1,A TOP10 játékoknál erõsen odab@sz az Ati-nak... 2, Mintha pár hozzászólással ezelött írtad volna,hogy a 3d mark nem mérvadó!;)
Hogy lehet ennyire hülyének nézni az embert?Kiadnak egy kártyát, csalnak orba-szájba, és még 120watott is eszik...
Szvsz mindenképp meg kell várni a bolti kártyákat, a végleges drivert, és a frissített programokat is. Majd utána *talán* változik a kép. De számomra egyelõre semmisek az eddigi teszteredményeik, mondhatnak akármit...
talan nem is olyan eros.. r420 ellen, lehet minden kis ocska csalasra szukseg lesz. abban meg mar komoly gyakorlatuk van. ugy latszik szarbol tenyleg nem lesz vaskarika
Its very clear to me that the 6800Ultra is not rendering the reference image as desired by 3Dmark, regardless of any performance impact and therefore isnt comparable to any other card. This in result is no different to the optimisations in previous drivers which Futuremark have frowned upon.
Ugyanúgy csal a detonator 6x.xx a 3dmark03-ban, bazz... Azt hittem ilyen erõs hardverrel már igazán nem lett volna szükség erre :(
Ez a ultrashadow amolyan "hint"-nek tekinthetõ. Programozásba kb 1 sort beszúrsz, és a kártya el tud kerülni fölösleges pixelrendereléseket, de ez nem igazán jelent hüdenagy szenvedéscsökkentést :) maximum a kártyának... Borg: GL sokkal hamarabb frissül mint a DirectX, minden egyes Detonátorral szinte új extensionok kerülnek bele, hamarabb lehet benn kihasználni a hardwert esetenként mint a DirectX-be. Plussz még a CG
Szerintem itt nem is nagyon keverte senki õket. Viszont ami tény, hogy a DX és a GL is csak API-k, amelyek maximum az alattuk dolgozó hardver tudásával tudnak élni, függnek tõle. Mi pedig itt ennek a hardvernek a tudását ecsetelgettük leginkább.
Végolvastam a topikot és megfájdult a szemem/fejem.
Ami most hirtelen eszembejutott: Nem muszály kevernünk az OpenGL-t a DirectX-el. Directx-be van PS meg VS GL-be vp és fp. Kicsit más. A Doom3 ugye OpenGL-s lesz, azér mondom. NV-nél a GL-t és a DirectX-es api-t nem ugyanolyan ütembe fejlesztik, hisz volt már olyan, hogy GL-be olyankoat lehetett csinálni amit DirectX-be még nem. Márpedig NV-nek rendkívül jó GL supportja van. A gond csak az, hogy az FX sorozattal kijött az FP opengl-be ami azt jelenetette, hogy immáron szinte szabadon írhatnak pixelprogramokat a kártyákra. Ez hatalmas elõrelépés volt, csak durván félkész. A Gef3-as,4-es GL-hez képest lekorlátozta a lehetõségeket, hogy látszott a kártyákon és az api-ján, hogy valambe belekezdtek de még nincs kész. És most a 6800-assal talán használhatóvá válik. Nagyon fontos példa a FP16/32-es textúrák blendelésének hiánya. Hiába tud például a FX5900-es lebegõpontos textúrát használni, alig valamire használható, a blend hiánya miatt. PS3.0 meg lehet hogy nem tudod elképzelni, de igenis fontos lehet.Hisz az ember egy nagyon elmés állat, és biztos olyan effekteket találunk ki amikhez már szûk lehet a ps3 is :p
Krém: Ultrashadow új verziót valszínû karmak bácsi sírására fejlesztették :) Arra jó, hogy a kisebb/közepes (irányított) fényforrásoknál fillrate-t csökkent fény/árnyékszámolásnál.
szerintem kb egy kamerás telefonnal lehetett felvéve ez a kis film, olyan rossz a minõsége... spec, amire én gondoltam az az, hogy hiába veszel föl egy lejátszott szép minõségû (DVD) filmet kamerával (VHS), mert az nem lesz DVD minõség! vagyis ez egy rossz minõségû film, ami semmit nem mond, csak annyit, hogy furcsa volt számomra a földön, hogy minden egyes kis kavicsnak meg volt csinálva a fényjátéka
Úgy tûnik nekem, hogy ez a Fort nevû pálya egy tovább szerkesztett változata.
Nézzétek meg ezt a kis rossz minõségû video-t. Én még nem láttam a FarCry-t "very high" settings-en, szóval ha így néz ki akkor bocsi!! Elvileg ez a video mutatja be a PS3.0 lehetõségei egy részét. Persze lehet nem értem jól! :)
A HWSW.hu-s agytágítás szerint a PS3.0 nem nyújt látványbeli különbséget, csak egyszerûbb programozni, szóval a PS3.0-ás effekteket meg lehet csinálni PS2.0-án is, csak éppen egy lépés helyett X lépésben.
A VS3.0-t minden valószínûség szerint az R420 is támogatni fogja, sõt, több mint valószínû, hogy a PS3.0-t is.
De ettõl eltekintve, ha utóbbit mégsem támogatná, az semmiféle hátrányt nem jelentene neki. ad1. mert a PS3.0 elõnyei is csak kb 2 év múlva jönnek majd elõ, ála PS2.0 most. ad2. mert a PS3.0 NEM JELENT KÉPMINÕSÉG BELI VÁLTOZÁST, csak optimalizálva lett benne ez-az, hosszabb shader utasítások stb stb lehetõsége lettek belerakva. ad3. Vedd csak alapul azt a vitatott FarCry képet, amit az NV propagandának próbált felhasználni, mondván a bal oldalt az 2.0 PS van, jobb oldalt meg a 3.0 amit õ tud. Ez eddig szép és jó, csak a valósághoz semmi köze nem volt. Egyrészt a bal oldalt nem PS2.0 van, de még csak nem is PS1.1, mert az a kép teljesen bumpmap mentes volt, amire így egy DX7 kártya is képes. Másrészt, amit a jobboldalt látunk, teljes mértékben megvalósítható PS2.0-val. Szóval humbuk volt az egész. Ha egy PS2.0 és PS3.0 képet raknának egymás mellé ugyanis, valószínûleg nem lenne felfedezhetõ különbség a képminõségben.
PS: konkrétan ez a kép ugye: http://games.tiscali.cz/images/news/farcryps.jpg
Most felötlött bennem egy kérdés: Jó-e ha az nv40 támogatja a PS/VS3.0-t az R420 meg nem és a játékok alkalmazzák is azt. Mert akkor ez ugye mit is eredményez? Az R420-on gyengéb képminõséget (hogy mennyivel azt most valószínûleg nehéz megmondani, de szerintem nem olyan õrült sokkal) kapunk magasabb FPS-sel, az NV40-en pedig jobb képet (="=) alacsonyabb FPS mellett. Javítsatok már ki hogy tévedek!!
Onnan, hogy a képen látható, hogy ez egy bolt. Külföldön meg szokás, hogy az "incoming", tehát a várható játékok/hardware-ek promociós (üres) dobozát kirakják, reklámnak. Itt is ilyesmirõl lehet szó... De ettõl még lehet, hogy csak egy-két hét vagy hónap múlva fog megjelenni. Anno a Half-Life 2 üres dobozok is kerültek ki a polcokra, még 2003 Szeptember elején...
Hát mennyi az a véglet, mert az innósak alig langyosodnak 250 körül. Az én kártyám alapórajelen megy, de hozamosabb terhelés után nem jó játék fogdosni a nyáklemez hátán lévõ bordát, úgyhoyg rátettem egy házcoolert.
Az nV News jóvoltából egy igen fontos kérdésre kaphatunk választ, arra, hogy mennyire melegszik az NVIDIA 222 millió tranzisztorból felépülõ új zászlóshajója.
A terhelés alatti értékeket Wolfenstein -- Enemy Territory demó futtatása közben mérték, zárt házban. Bár semmiképpen sem mondható hûvösnek a NVIDIA legújabb megoldása, azért az eredmények bõven a tûréshatáron belül maradtak, bár a szobahõmérséklet emelkedésével jelentõsen megnõtt a GPU hõmérséklete is, valószínûleg nyáron is stabil marad a rendszer külsõ beavatkozás nélkül is.
Mondjuk azért van fõtéma, hogy abból induljunk ki, de ha másfelé tévedünk az nem akkora baj, fõleg ha a fõtémából vezetüük le. Ha az a téma is kimerül akkor visszatérhetünk a fõtémához ahonnan újra elkanyarodhatunk amerre jólesik és eltelt az idõ. És ha látja valaki, hogy mások milyen hülyeségelet írnak akkor hajlandóbb megosztani hasznosabb tudását a tömeggel.
Certainly, all this time the command of development engineers NVIDIA did not sit idly - company stemilas' to take revenge in competitor. Rumors about the graphic processor- monster NV40 began to appear long before that how it was for the first time personified in silicon. Was discussed sixteen conveyors renderinga, support of piksel'nykh and apical sheyderov of version 3.0 and about other innovations. The circulated rumors were most diverse, up to the "reliable information" about the fact that the novelty will use memory GDDR3, which works at the frequency of 1600 MHz, in this case the frequency of nucleus will comprise to 600 MHz and, etc.
Tömören a lényeg: Az nV már az elején azt tûzte ki célul, hogy 16 pipeline és 3.0-ás PS és VS támogatás legyen (plusz további fejlesztések) az nV40-ben. A korai "megbízható forrásból származó" információk szerint a GDDR3 ramok 1600Mhz-en futottak volna, de a valóságban még a 600Mhz-et sem érik, stb.
Ha jól veszem ki, akkor a korai célkitûzések és a kész termék közötti különbséget ecsetelné...
Dehogynem, hogy ilyen sanyarú sorsunk volt, és már kijár a jóból!:D
Inkább a videókártyás topicba irogassátok ezt, semmi köze ennek a geforce6800hoz.
S3Trio->RivaTNT2 RivaTNT2->Voodoo2 Voodoo2->GF2TI(má nem tom hányas, de akkori csúcskari) GF2TI->GF4MX420 Ebben az idõszakban asszem volt vagy 20 ATI karim, mert haverral cserélgettünk, de már nem emléxem mik voltak pontosan... GF4MX420->GF4MX440 GF4MX440->GFFX 5600XT GFFX 5600XT->Ati Radeon 9800Pro, vagy várok én is a GF 6800-ra...
Trident V1000 -> Riva128 Riva128 -> Savage4 Pro Savage4 Pro -> GeForce 256 GeForce256 -> Ati Radeon 64DDR ViVo Ati Radeon 64DDR ViVo -> GeForce3 Ti200 GeForce3 Ti200 ?->? Ati Radeon 9800Pro ; vagy várok még és GeForce 6800