Nem kell kételkedni, egy csomó olyan DX10 eljárás van ahol a GF8 korlátjai miatt semmire sem képes. Az AMD sem azért lassabb, mert szar az architektúra, hanem mert teljesen támogatja a DX10 követelményeit, amikhez szükséges egy Stream output gyorstár, Unified Shader szerû kialakítás... Erre mennek el az HD Radeonokban a tranzisztorok, míg az nV másra is fordíthatja, mert nincs stream output gyorstára és az Shader ütemezés nem éppen unified shader rendszer benyomását kelti...
Botrány csak akkor lesz belõle, ha kijön a Battlefield 3.
A Crysis-ben a DX10 a D3D10_GSparticle parancsban kimerül. Ez ugye a robbanások részecskeszimulációja illetve a vízfelverõdés a motorcsonakoknál, ezek képminõségben nem többek a scriptelt eljárásnál (GF8-on viszont lassúak a részecske szimulált eljárások, ezért vannak már tiltva driverbõl). Érdemes visszarakni pár verzióval ezelõtti nV drivert ott ugye nem volt a motorcsónakoknak vízfelverése, mert az GSParticle effekt volt. Az 1.1-es patch viszont csináltak rá fixed eljárást így arra van lecserélve az új driverekben. Tehát az nV sajna nem csinálja meg még azt az egy rohadt DX10-es effektet sem a Crysis-ban.
A Lost Planet és a Bioshock csak a többcsatornás Int16-os texturaformátum miatt gyorsabb DX10-ben a Radeonnál. Nyilván használhattak volna FP16-ot is a fejlesztõk, mert ebben a formátumban a Radeon majd 100%-al míg a Geforce 10-15%-al is gyorsabb és sokkal szebb a képminõség. Az Int16 viszont kézenfekvõ volt az nV-nek, mert a Radeon TMU-it FP32-es szûrésre készítették fel, így az Int16-os formátum a nem megfelelõ regiszterkialakítás miatt lassabban lesz leszámolva. Ez a Lost Planetben nem lehet visszahozni a shader erõbõl, mert ott kevés területen használnak komplex kódokat. A Bioshockban az új driverek már sokat dobtak a DX10-es eredményen, míg a DX9-eseken pedig egyenesen nincs ellenfele a HD3850-nek sem (akár küldhetnek ellene 8800Ultrát is).
A Company Of Heroes és a World In Conflict pár komplex Pixel shader kódnál használnak speciális utasítást, ami miatt helyenként az átlag sebességhez képpest belassul a GF8, mivel SFU teljesítmény jelentõsen kisebb a Radeon rendszerekhez képpest.
Inkább azért, mert a Techland nem volt hajlandó az nV kénye kedve szerint fejleszteni és világosan kijelentette, hogy használni fogja a DX10 újdonságait. Ezért vesztek össze az nV-vel, mert a zöldek még mindig nem prezentáltak valódi DX10-es VGA-t és még egy jó darabig nem is fognak. Éppen ezért csak a Call Of Juarez az egyetelen komolyabban DX10-es program. Jelenleg az 1.3-as patch teljesen kiüti az nVidia forceware kényszerítéseit, így a GF8-akon is lefutnak az Extra quality mód eljárásai. Teszt
BTW nem azért vettem új kártyát, hogy kiégesse a szemem a DX 10effektorgia (ami egy hoax mert a dx10 lényege nem ez lenne) hanem azért, hogy a Dx9-es gamek sokkal gyorsabban fussanak. Ez megadatott innentõl lefosom telibe, hogy melyik a gyorsabb. Ha pénzem lesz és lassúlnak nagyon a játékok váltok. Bár ez nem a közeljövõben lesz. Crysis-t meg leszarom. Útálok ArmA kivételével minden FPS-t.
Technológiailag az Ati jár az élen. 55nm VS 65 nm. Amint látom neked meg 8600GTS-ed van. Annál meg sokkal gyorsabb az Ati Hd 3850, pedig ugyanannyiba kerülnek.
Meg a f@szt gyorsebb a radeon!!! A COj ben csak azért gyorsabb, mert rendesen az ATi pénzelte a dx10 re fejlesztését... Amúgy, ha nem vennéd észre, sokkal gyengébb az ati mint az NV... Még azzal a 2 magos fosal is alig érik el az ultra sebességét...És majd ha jön a 9800 GTS/GTX ami elméletileg 3x gyorsabb az ultránál, akkor mi lesz? Ati megin eltûnik a francba.
Zolee pontossan! Ha egy jatekot elinditok,nem ezeket a szarokat futtatom.Azert se ertem sokan mire verik magukat hogy ennyi pont megy annyi. Jatekba bizonyitson:)
Ez fasság.... Senki se a 3d mark al játszik..-.- És aki eddíg NV s volt most is az marad...
Egy darabig biztos fognak futni párhuzamosan (ahogy néhány játék támogatja az SM2-tõl SM4ig is, de azt nemtudom hogy a dx10.1 SM 4.1-et kapott e, ha igen akkor elõbb utóbb a játékoknak biztos SM4.1l kell majd a futtatáshoz de az még amúgyis soká lesz...
HA nem fognak futni a DX10.1-es gamek ahogy kellene egy 8800GT-n akkor elmegyek Koreába és feldugom az Nvidia tervezõinek és programozóinak seggébe a videókártyáikat egyenként és sorban veszem le õket majd a gyártósorrol. Azután viszek egy raklapnyit redmondba is, hogy Billék se maradjanak ki a jóból.
Ebben én azért kételkednék. Ha nem tudnának az nvidia kártyái dx10-et ténylegesen, abból óriási botrány lett volna már. EZ biztosan hülyeség. Biztosan tökéletesen tudnak dx10-et, azt esetleg el tudom képzelni, hogy a driver botladozik. De sokkal inkább gyanakszok a vistára, az egy teljesen kiszámíthatatlan roskadozó bughalmaz, 15millió sor programkód, és az egész egy kalap szart sem ér. Egyébként meg az a 2600XT hol is teljesít jól dx10ben? Tudtommal az egy harmatgyenge kártya dx10-re, azon kívül, hogy tud olyat, nem tud sokat felmutatni.
Most jön ki hozzá az SP3. Azért itt most dícséret a Micro$oftnak, hogy a tömeg hangjára fejlesztgeti a nagy öreget. Csak a DX10 miatt az emberek többsége nem vált. Annyira latymatag a vista utáni érdeklõdés hogy elõbbre kellett hozniuk az utódja megjelenését.
DX10 meg csak Vistan van, ami meg emulálva futtatja a VGA drivereket másfél évnél régebbi alaplapokkal, tehát akkor ezt el lehet felejteni. Mondjuk a VGA-m amúgy sem tud DX10-et.
Na neee.... még egy "kinek van nagyobb farka" topic?
Amúgy tisztázzuk: DX10 -DX10 ugyanaz, mint a DX9, csak extra shaderek vannak benne(meg az összes régi shadert is meg az újakat is Unified(egyesített) shaderekkel oldják meg hardware szinten), de programozni ugyanúgy kell. Olyan nincs, hogy valami lassú DX10-ben. max a kártya lassan viszi a komolyabb shadereket
-DX10 alatt meg ne a régi M$ összegányolt vackát kell érteni ugye... hanem a normális kiforrott DX10.1-et. Az Ati 3850-es már elvileg tudja... nem teszteltem még olyat:D mert ugye a 8800GTX lehet k***a rdága de attól még szar, ahogy van. akkor is az volt, mikor megjelent, mert mindenki tudta, hogy jön a dx10.1 januárban. és jött is. (GYK: a régi DX10-es kártyák NEM dx10.1 kompatibilisek, bár az MS nagyon ígéri, hogy minden DX10-es játék a sima DX10-es karikkal is menni fog, mert megoldják driverszinten. fene tudja, talán grafikát butítanak, vagy letiltanak ezt-azt.. nemtom, bár teljesítmény úgyis újítani kell idõvel)
UI: nem vagyok ATI párti, csak azért említettem, mert ez már megjelent(nem vagyok 100%-osan biztos, abban se, hogy 10.1-es), asszem nvidiának is jön február végén vagy márciusban a 10.1-es karija. (azért megjegyzem, hogy mégis ATI párti vagyok, mert hiszitek, vagy nem, kompatibilitási szempontokból személyes tapasztalat alapján.. fura, mert elvileg az nvidiának van kompatibilisebb híre.. de mondtam személyes tapasztalat..)
egyébként 3DMark-al mindig is inkább a rendszer stabilitását lehetett tesztelni extrém használat esetén... a "kinek van több pontja" meg... hát... a díszfaszok versenye. (utóbbi cél... baromság, elõbbire meg nem kell topic:D)
Pl van olyan tesztprogi ami elég erõteljesen dx10-re van és ott a 8800GTX is olyan lassu mint az atom miközben egy középkategoriás 2600XT-n rögögve fut az a dx10-es teszt! Sokak szerint (csak olvastam) azért nincs normális dx10-re alapozo game mivel nvidia nem lenne a helyzet magaslatán.
Szerinted. Milliók szerint meg nem. Kiváló teszt pl loopban... mostani masinám 24 órán át izzasztottam vele, mielõtt kifizettem az alkatrészekért a pénzt. Nem véletlenül Gamer's benchmark... egy nagyon jó jövõkép, hogy 3 év múlva milyenek lesznek a játékok. Tuning õrülteknek különösen jó, hiszen nem csak egy vacak számot kapnak a végén, hanem folyamatosan figyelhetik, hogy x felbontásban y paraméterekkel mennyit gyorsult a vas a tuningtól.
ad1 Nem mondtam egy szóval sem hogy fog futni rendesen nálam hisz lehet ezért az egy progiért nemfogom a Vistát felrakni ha eddig se tettem. ad2 Ha normális dx10 lesz benne akkor talán lesz némi értelme látványvilág szempontjából. ad3 Soha nem is volt a 3d markoknak a célja hogy játékokhoz járuljon hozzá ad4 Ezt mindenki tudja.Ez tömény néplehuzás nem kell hangoztani.Ha megállna a jelenlegi szinten mindenféle cpu vga ffejlesztés és csak az adott dolgokra lennének csinálva a gamet akkor hidd el mindekinek jó lenne.De hát ennek fejlödni kell mert nekik valmibõl élni kell :D
itt már nem fognak tizen valahány ezrek repkedni:)
Ebben most tévedsz. Azt rebesgetik, hogy a motorját fel fogják használni játékokhoz, pont amiatt amit te is említesz, hogy elegük van, hogy csak tesztelésre használják.
ad1, nem fog futni normális sebességgel egy felhasználói pécén, magyarul pl nálad ad2, lényegében semmi értelme, csak a pontvadászat és a mellveregetés h milyen száz vagy több százerezers gépem van ad3, semmiben sem járul hozzá a pécé játékokhoz, hiszen használati célja nincs
ad4, lehet magyarázni a népnek h vegyé vgat mert akkor igy fog kinézni majd... lószart... a te gépedben levõ 8800 annyi fölösleges powát tartlamaz hogy pár évig simán lehetne áll ejtõs gémeket kihozni rá, csak sajnos ez nem a pécés ipar célja...
Ide is beirom ,mert sok helyre beirtam már de sehol még véletlenül sem reagáltak rá pedig nagyon érdekel kinek mi a véleménye errõl:
Belegondolva a dx10-be és két különbözö kártyagyártóba,kiváncsi leszek melyik gyártónak fog kedvezni a Vantage! Mármint abból a szempontból hogy milyen dx10-et fog majd nyújtani azt amit nvidia is tud vagy azt amit ATI (elméletileg e a rendes dx10 ugye) Mertha pártatlan marad a 3d markos cég és rendes fullos dx10-re gyúr figyelmen kivül hagyva az nvidia nyomorát akkor elfog hasalni a tisztelt Nvidia.
Vagy csak én látom ilyen hülyén a dolgot?
Fogalmam sincs nem minden évben adnak ki pl 2004-es sem volt.
A 3DMark 2008-as verziója 3DMark Vantage néven érkezik majd és dönti romba a legújabb 3d kártya tulajok büszkeségét.Csak dx10-es rendszereken fut az új benchmark.