Onnan, hogy a képen látható, hogy ez egy bolt. Külföldön meg szokás, hogy az "incoming", tehát a várható játékok/hardware-ek promociós (üres) dobozát kirakják, reklámnak. Itt is ilyesmirõl lehet szó... De ettõl még lehet, hogy csak egy-két hét vagy hónap múlva fog megjelenni. Anno a Half-Life 2 üres dobozok is kerültek ki a polcokra, még 2003 Szeptember elején...
Most felötlött bennem egy kérdés: Jó-e ha az nv40 támogatja a PS/VS3.0-t az R420 meg nem és a játékok alkalmazzák is azt. Mert akkor ez ugye mit is eredményez? Az R420-on gyengéb képminõséget (hogy mennyivel azt most valószínûleg nehéz megmondani, de szerintem nem olyan õrült sokkal) kapunk magasabb FPS-sel, az NV40-en pedig jobb képet (="=) alacsonyabb FPS mellett. Javítsatok már ki hogy tévedek!!
Nem érted a lényeget.
A VS3.0-t minden valószínûség szerint az R420 is támogatni fogja, sõt, több mint valószínû, hogy a PS3.0-t is.
De ettõl eltekintve, ha utóbbit mégsem támogatná, az semmiféle hátrányt nem jelentene neki. ad1. mert a PS3.0 elõnyei is csak kb 2 év múlva jönnek majd elõ, ála PS2.0 most. ad2. mert a PS3.0 NEM JELENT KÉPMINÕSÉG BELI VÁLTOZÁST, csak optimalizálva lett benne ez-az, hosszabb shader utasítások stb stb lehetõsége lettek belerakva. ad3. Vedd csak alapul azt a vitatott FarCry képet, amit az NV propagandának próbált felhasználni, mondván a bal oldalt az 2.0 PS van, jobb oldalt meg a 3.0 amit õ tud. Ez eddig szép és jó, csak a valósághoz semmi köze nem volt. Egyrészt a bal oldalt nem PS2.0 van, de még csak nem is PS1.1, mert az a kép teljesen bumpmap mentes volt, amire így egy DX7 kártya is képes. Másrészt, amit a jobboldalt látunk, teljes mértékben megvalósítható PS2.0-val. Szóval humbuk volt az egész. Ha egy PS2.0 és PS3.0 képet raknának egymás mellé ugyanis, valószínûleg nem lenne felfedezhetõ különbség a képminõségben.
PS: konkrétan ez a kép ugye: http://games.tiscali.cz/images/news/farcryps.jpg
A HWSW.hu-s agytágítás szerint a PS3.0 nem nyújt látványbeli különbséget, csak egyszerûbb programozni, szóval a PS3.0-ás effekteket meg lehet csinálni PS2.0-án is, csak éppen egy lépés helyett X lépésben.
Nézzétek meg ezt a kis rossz minõségû video-t. Én még nem láttam a FarCry-t "very high" settings-en, szóval ha így néz ki akkor bocsi!! Elvileg ez a video mutatja be a PS3.0 lehetõségei egy részét. Persze lehet nem értem jól! :)
szerintem kb egy kamerás telefonnal lehetett felvéve ez a kis film, olyan rossz a minõsége... spec, amire én gondoltam az az, hogy hiába veszel föl egy lejátszott szép minõségû (DVD) filmet kamerával (VHS), mert az nem lesz DVD minõség! vagyis ez egy rossz minõségû film, ami semmit nem mond, csak annyit, hogy furcsa volt számomra a földön, hogy minden egyes kis kavicsnak meg volt csinálva a fényjátéka
Végolvastam a topikot és megfájdult a szemem/fejem.
Ami most hirtelen eszembejutott: Nem muszály kevernünk az OpenGL-t a DirectX-el. Directx-be van PS meg VS GL-be vp és fp. Kicsit más. A Doom3 ugye OpenGL-s lesz, azér mondom. NV-nél a GL-t és a DirectX-es api-t nem ugyanolyan ütembe fejlesztik, hisz volt már olyan, hogy GL-be olyankoat lehetett csinálni amit DirectX-be még nem. Márpedig NV-nek rendkívül jó GL supportja van. A gond csak az, hogy az FX sorozattal kijött az FP opengl-be ami azt jelenetette, hogy immáron szinte szabadon írhatnak pixelprogramokat a kártyákra. Ez hatalmas elõrelépés volt, csak durván félkész. A Gef3-as,4-es GL-hez képest lekorlátozta a lehetõségeket, hogy látszott a kártyákon és az api-ján, hogy valambe belekezdtek de még nincs kész. És most a 6800-assal talán használhatóvá válik. Nagyon fontos példa a FP16/32-es textúrák blendelésének hiánya. Hiába tud például a FX5900-es lebegõpontos textúrát használni, alig valamire használható, a blend hiánya miatt. PS3.0 meg lehet hogy nem tudod elképzelni, de igenis fontos lehet.Hisz az ember egy nagyon elmés állat, és biztos olyan effekteket találunk ki amikhez már szûk lehet a ps3 is :p
Krém: Ultrashadow új verziót valszínû karmak bácsi sírására fejlesztették :) Arra jó, hogy a kisebb/közepes (irányított) fényforrásoknál fillrate-t csökkent fény/árnyékszámolásnál.
Szerintem inkább sír az NV "karmark bácsinak" ezért az ultrashadow cuccért hisz eddig azt mondták emiatt többet kell szenvedniük a programozóknak.
Szerintem itt nem is nagyon keverte senki õket. Viszont ami tény, hogy a DX és a GL is csak API-k, amelyek maximum az alattuk dolgozó hardver tudásával tudnak élni, függnek tõle. Mi pedig itt ennek a hardvernek a tudását ecsetelgettük leginkább.
Ez a ultrashadow amolyan "hint"-nek tekinthetõ. Programozásba kb 1 sort beszúrsz, és a kártya el tud kerülni fölösleges pixelrendereléseket, de ez nem igazán jelent hüdenagy szenvedéscsökkentést :) maximum a kártyának... Borg: GL sokkal hamarabb frissül mint a DirectX, minden egyes Detonátorral szinte új extensionok kerülnek bele, hamarabb lehet benn kihasználni a hardwert esetenként mint a DirectX-be. Plussz még a CG
Its very clear to me that the 6800Ultra is not rendering the reference image as desired by 3Dmark, regardless of any performance impact and therefore isnt comparable to any other card. This in result is no different to the optimisations in previous drivers which Futuremark have frowned upon.
Ugyanúgy csal a detonator 6x.xx a 3dmark03-ban, bazz... Azt hittem ilyen erõs hardverrel már igazán nem lett volna szükség erre :(
most sírjak vagy nevessek?
talan nem is olyan eros.. r420 ellen, lehet minden kis ocska csalasra szukseg lesz. abban meg mar komoly gyakorlatuk van. ugy latszik szarbol tenyleg nem lesz vaskarika
Szvsz mindenképp meg kell várni a bolti kártyákat, a végleges drivert, és a frissített programokat is. Majd utána *talán* változik a kép. De számomra egyelõre semmisek az eddigi teszteredményeik, mondhatnak akármit...
Hogy lehet ennyire hülyének nézni az embert?Kiadnak egy kártyát, csalnak orba-szájba, és még 120watott is eszik...
Hát nem tudom...
Ha csalt is ezidáig még 1 hardware oldal se erõsítette meg.
fcenter.ru Tom'sHardware.com Hard|OCP.com
1,A TOP10 játékoknál erõsen odab@sz az Ati-nak... 2, Mintha pár hozzászólással ezelött írtad volna,hogy a 3d mark nem mérvadó!;)
Hát itt az interaktív Flash tesztek engem meggyõztek arról, hogy tényleg csalnak :-( Ha pedig mindezt a legújabb deronátorral teszi a cucc, akkor az már tényleg gáz. Itt már nem lehet mondani azt, amit a Far Cry-nál, nem lehet mondani, hogy "na jó, de sima FX-nek ismeri fel az app". :-(
R420 lesz a nyerõ, úgy néz ki.
NAGYON DURVA a különbség! ATI majdnem a Rast Image képét nyújtja, nVidiánál meg tök gány az egész.
Ha csalt is ezidáig még 1 hardware oldal se erõsítette meg.
A 3Dmark03 pedig jó indikátor. Noha persze arra nem mérvadó, hogy milyen a sebesség, mert az játékokban a lényeges, de ha a képminõség szar, az igenis jelent valamit. Ha ebben csal, akkor nyugodtan máshol is.
Másrészt: az nvidia nagyonis tisztában van vele, hogy az "ipar" ezzel tesztel, és ennek a programnak az eredményeivel hasonlítja össze a kártyákat. És akár tetszik akár nem, a legtöbb ember is. Magyarán a kutya nem mossa le róluk a szándékos csalás vádját sem.
Amúgy a tomshardware, és a hardocp mint nvidia kézben lévõ oldalak, még jó hogy nem csinálnak ilyen tesztet. Persze bármi megeshet, de ennek a tesztnek az egyértelmû eredményeit nem igazán lehet kétségbe vonni. Ottvan kerek perec minden a képeken.
Itt van egy jó kis teszt, ábrákkal az nVidia-ról, viszonylag korrekt oldal, annak ellenére, hogy nem az nV "szponzorálja..." ;-)
"Ottvan kerek perec minden a képeken."
Mennyi képet csináljak ati kártyával ami tök szar ultra gagyi fos?Már megint kezdik ezt a csalást,az ati féle anizotropikus szürésre azt mondták nem csalás,meg hogy ök nem tehetnek arrol hogy az nvidia kártyája ott is perecizios számolást végez ahol nem kéne,ha nvidia csinálja ugyanazt az kökemény csalás,nevetséges ez az egész...
az ati-k a referencia kepet nagyon jol megkozelitik. (ahogy ugye kineznie KELL). nem azt rajzolnak ki ami jolesik, mer ugy gyorsabb.
Most ez a legutóbbi "csalás" dolog elég röhelyes. Ha jól futottam át a cikket, annyirõl volt szó, hogy más mipmapot választ mint az ATI. Ejnye-bejnye. (Magánügy) Ezen alapon, akkor az egész pixelsnájder egy csít, mivel a legtöbb komplex számítást csak "közelítõleg" végzi el. Gondolom az ATI is (specifikációkba mind ott van, hogy approx). Akkor az is csíter! És pusztujjon!
Ezt most fõleg azért írtam, mert elsõ hallásra jó dolognak tûnik a képminõség, de úgyis azzal kezdem minden drivertelepítés után, hogy teljesítményorientált, kikapcs anizo, kikapcs aimbot izé... aa, meg kikapcs vsync. Ha R420 lenyomja Geforce urat ilyen beállításokkal mint a texiórát, hát akkor biza ATI-t vásárlnuk!
Ja, ez a zöld sárga színezés elsõ ránézésre mindenkinek sokat mond. Az a lényeg amit viszontlátsz a monitoron ha rángatod az egeret játék közben. Az vagy tetszik vagy nem, akár jobb is lehet ami szarabbnak tûnik.
To sum up, NVIDIA GeForce 6800 Ultra is the world’s fastest graphics card with plethora of “beyond-DirectX 9.0” capabilities that is able to satisfy your needs today and tomorrow. Probably one of the best things around money can buy!
We are now looking forward for games to deploy all the spectacular features the new graphics processors have...
" you will see that the RGB image shows major differences between the Referance image and the 6800Ultra image. "
legtobben szeretjuk ugy latni a jatekokat, ahogy a keszito kitalalta, nem ahogy az nvidia kiugyeskedi, hogy gyorsabban fusson a cuccukon. egy szabvany dx9 tesztnel ilyet csinalni pedig minimum a nem fair de inkabb a parasztsag kategoria.
Csak nehogy aztan az ATI is beszalljon a kepminoseg rongalo versenybe hogy sebessegben lepest tarthasson az nvidiaval. Ezek tuti 700 evre vallalnak csatornaepitest...
:DDDDD
1: nem nezett ki volna hulyen ha azt mondom szabvany dx8-9? 2: attol mert egy progi dx9-es meg nem vonja maga utan a ps2/vs2 hasznalatat. 3: probald meg elinditani a programot egy gepen dx9 nelkul es olvasd el mit ir az arcodba. 4: olvass vissza ha lemaradtal.
1. Az 1-2-3 tesztnek semmi köze a DX9-hez. Egyedül a Mother Nature használja, az is csak részben épül rá. Egyébként igazad van, csak nem kapcsolódik a dologhoz. 3. Természetesen nem fog elindulni, de nem azért mert technikai oldalról kell a DX9 (még mindig az elsõ 3 tesztrõl van szó), hanem mert egyszerûen azzal együtt tesztelték. Mint te is bizonyára tudod, minden játék az aktuálisan kint lévõ DX verzióhoz van optimalizálva, de ettõl még sok esetben semmit sem használ ki grafika fronton. Mint látható ez az 1-2-3 teszt esetében is. Mellesleg nem csak a grafika miatt kellhet neki DX9, ugye van annak még pár összetevõje a D3D-n kívül. 4. Valahol lemaradhattam, nem találom a 2.-es pontot.:)
Nem egy szón kell lovagolni (szokásod szerint). Mert az adaptív AF egyátalán nem csalás, hanem valóban optimalizáció, és ha jól tudom a kutya nem szólta meg GF6 kapcsán sem. Szimplán olyan helyekre nem rak AF-et, ahova nem feltétlen kell / nem látszik. És ez csak az egyik olyan technológia, amit az nvidia újként harangoz be most, holott az ATI kártyákban régóta ottvan már (HDM, Centroid Sampling, RGMSAA stb). Kiváncsi leszek pl hogy a gamma korrekciós AA-t mikor vezeti be végre az nvidia, mint saját találmányát...
Egyszerûen arról van szó, hogy valóban sajnálatos lesz, HA az ATI cucca nem támogatja majd a PS3.0-t, mert nem arról volt híres eddig, hogy fontos fejlesztéseket kihagyott volna, de legalább annyira nem fogja hiányolni senki még egy évig, mint az FX-bõl eddig a HDM-et. Magyarán egyátalán nem biztos, hogy fontos, és pont erre kellene gyúrni most.
Értem,de legyél öszinte,ugyanerröl szolt a fx féle optimalizácio is,ahol nem látszik ott nem számol... Mind1 ezen ne lovagoljunk,az igazság az, hogy akármi is jön atitol rossz biztos nem lesz,igazábol ezeket a teljesitményeket még 3 év mulva sem fogják kihasználni a játékok,nemhogy egy év mulva,szal ilyen szempontbol teljesen mind1 hogy 100-200-500fps-t csinál a játékban... Most azon van a hangsuly,hogy tudják e tartani a szoftver terén ezt a haladást,mert kétlem ,hogy amit most erre elkezdenek késziteni,az 2-éven belül megjelenne,kivéve talán doom3-at,ami használ majd minden szir-szart,meg aztán az erre a motorra épülö játékok,gondolom méregdréga lesz igy nem hiszem, hogy sokan kapkodnának érte.Szal hiába van 98xt valakinek,hiába veszi majd meg a legujabb legzoralabb kártyát,legyen az nvidia vagy ati,nem fogja tudni kihasználni,mintha egy 400km/h teljesitményü autot megvenne, miközben a legjobb uton sem tud 220-nál többet menni...
"Fx féle optimalizáció" alatt mit értesz? Az adaptív AF-et nem értheted, mert azt az nem tudja még. Akkor viszont ezt érted "ahol nem látszik ott nem számol" optimalizációnak?:
(Szimplán ugyanúgy butít a szinmélységen a 6800U mint az FX-ek, és a különbség látható. Na ez nem optimalizáció, max az nVidia nyelvén.)
Vegyük inkább a videókártyát az útnak (ne magyar utakból induljunk ki:), és akkor jobban szemléltethetõ a helyzet. Hiába építenek nagy hévvel olyan autópályát amin 400kmh-val lehet menni, ha nincs olyan autó, ami akár csak 250-el is birna rajta. Illetve az ember reakcióképessége folytán ez az elméleti 250kmh megintcsak nem tud kb 230 fölé menni, ami kb megyezik a CPU limitáltsággal a videokártyák körében.
igen, sajna az fx fele "precizitas" itt is befigyel. helyenkent eleg ocsmany az eredmeny.
K Andras: "ezeket a teljesitményeket még 3 év mulva sem fogják kihasználni a játékok"
Farcry mar megjelent, es jolesik neki ez a cucc. hl2 iden, szinten nem art. es meg mindig fel even belul vagyunk, hol van itt 3 ev.. Stalker is iden v. max jovo ev elso fele. (persze lehet mondani: 9800 is szepen viszi pl farcry-t 60-70-el de jon 5-6 ember a kepernyon, elkezdenek lovoldozni es maris lentvan 20-30-n...)
"amit most erre elkezdenek késziteni,az 2-éven belül megjelenne" szinte minden esetben meg joval a szukseges hw megjelenese elott elkezdik a jatek fejleszteset. emlithetnek parszaz peldat, de szerintem te is tudsz.
"kivéve talán doom3-at,ami használ majd minden szir-szart" a doom3 speciel tulnyomoresz dx8.1 -es featureoket hasznal, nem a dx9-re epit.
csak azert kotekszem mert ez a "minek az uj hardware-ek, folosleges, a regi gf4-em is mindent elvisz" szoveg elegge idejetmult mar. A vga-k 2 evig stagnaltak, a jatekok igenyei tenylegesen elkezdtek elhuzni, szukseg van az ujra.
Ha nem haragszol én az ilyen képeknek semmit nem hiszek el,akkor és ugy hamisitom meg öket ahogy és amikor akarom. Lehetett egy egyedi hiba,akármi... A másik példa viszont jo,lényeg az nem tudjuk kihasználni igy sem ugy sem szal hiába csinálják meg a legjobb kareszt,sok értelme nincsen...
Speciel nekem fx 5900 xt-m van, szal mindent elvisz szépen... Egyébként pedig a farcry-hoz nem videokártya kell elsösorban(persze kell egy jo) hanem sok és gyors memoria(1024 ajánlott),meg egy brutál proci,ha ez megvan akkor megnézem azt a 20-30 fps-t... Sokan azt hiszik,megveszik a 98xt-t és hude klafa milyen fasza lesz,holott ha nincsen alatta vas akkor nem sokat ér...
Most nem azért, de pont itt az SG-n láttam már a Far Cry topicban nvidiások által beszúrt screenshotokat, és pont úgy neztek ki, mint a tomshw-rõl Borg által beszúrt kép. Amúgy meg a tomshw nvidia párti magazinként ismert, szóval furcsa lenne, ha pont õk állítanának valótlant.
Montam már, hogy ne keverd szezont a fa*zonnal, semmi köze nincs d3dhez a Doom3-nak. Mongy GL1.5-öt ha már szakérteni akarod. Aki meg képminõséget akar dobja el a ratyi direktikszét, toljon be egy nv-t, és bámuljon nvtechdemókat. Utánna lehet sírni. (Ill még utánna se, mertugye a sebesség számít :)
Nos egyik másik nV-s techdemo ATi-n is fut, némi segítséggel - a Dawn még mindig fent van valahol a gépemen - és ugye itt is nagyon szépek... (míg úgye az ATi-s techdemok elvileg probléma és ügyeskedés nélkül is mennek nV kártyákon :))