A 3DMark 2008-as verziója 3DMark Vantage néven érkezik majd és dönti romba a legújabb 3d kártya tulajok büszkeségét.Csak dx10-es rendszereken fut az új benchmark.
Ide is beirom ,mert sok helyre beirtam már de sehol még véletlenül sem reagáltak rá pedig nagyon érdekel kinek mi a véleménye errõl:
Belegondolva a dx10-be és két különbözö kártyagyártóba,kiváncsi leszek melyik gyártónak fog kedvezni a Vantage! Mármint abból a szempontból hogy milyen dx10-et fog majd nyújtani azt amit nvidia is tud vagy azt amit ATI (elméletileg e a rendes dx10 ugye) Mertha pártatlan marad a 3d markos cég és rendes fullos dx10-re gyúr figyelmen kivül hagyva az nvidia nyomorát akkor elfog hasalni a tisztelt Nvidia.
Vagy csak én látom ilyen hülyén a dolgot?
Ez a világ leg értelmetlenebb dolga:)
ad1, nem fog futni normális sebességgel egy felhasználói pécén, magyarul pl nálad ad2, lényegében semmi értelme, csak a pontvadászat és a mellveregetés h milyen száz vagy több százerezers gépem van ad3, semmiben sem járul hozzá a pécé játékokhoz, hiszen használati célja nincs
ad4, lehet magyarázni a népnek h vegyé vgat mert akkor igy fog kinézni majd... lószart... a te gépedben levõ 8800 annyi fölösleges powát tartlamaz hogy pár évig simán lehetne áll ejtõs gémeket kihozni rá, csak sajnos ez nem a pécés ipar célja...
Ebben most tévedsz. Azt rebesgetik, hogy a motorját fel fogják használni játékokhoz, pont amiatt amit te is említesz, hogy elegük van, hogy csak tesztelésre használják.
ad1 Nem mondtam egy szóval sem hogy fog futni rendesen nálam hisz lehet ezért az egy progiért nemfogom a Vistát felrakni ha eddig se tettem. ad2 Ha normális dx10 lesz benne akkor talán lesz némi értelme látványvilág szempontjából. ad3 Soha nem is volt a 3d markoknak a célja hogy játékokhoz járuljon hozzá ad4 Ezt mindenki tudja.Ez tömény néplehuzás nem kell hangoztani.Ha megállna a jelenlegi szinten mindenféle cpu vga ffejlesztés és csak az adott dolgokra lennének csinálva a gamet akkor hidd el mindekinek jó lenne.De hát ennek fejlödni kell mert nekik valmibõl élni kell :D
Szerinted. Milliók szerint meg nem. Kiváló teszt pl loopban... mostani masinám 24 órán át izzasztottam vele, mielõtt kifizettem az alkatrészekért a pénzt. Nem véletlenül Gamer's benchmark... egy nagyon jó jövõkép, hogy 3 év múlva milyenek lesznek a játékok. Tuning õrülteknek különösen jó, hiszen nem csak egy vacak számot kapnak a végén, hanem folyamatosan figyelhetik, hogy x felbontásban y paraméterekkel mennyit gyorsult a vas a tuningtól.
Pl van olyan tesztprogi ami elég erõteljesen dx10-re van és ott a 8800GTX is olyan lassu mint az atom miközben egy középkategoriás 2600XT-n rögögve fut az a dx10-es teszt! Sokak szerint (csak olvastam) azért nincs normális dx10-re alapozo game mivel nvidia nem lenne a helyzet magaslatán.
Na neee.... még egy "kinek van nagyobb farka" topic?
Amúgy tisztázzuk: DX10 -DX10 ugyanaz, mint a DX9, csak extra shaderek vannak benne(meg az összes régi shadert is meg az újakat is Unified(egyesített) shaderekkel oldják meg hardware szinten), de programozni ugyanúgy kell. Olyan nincs, hogy valami lassú DX10-ben. max a kártya lassan viszi a komolyabb shadereket
-DX10 alatt meg ne a régi M$ összegányolt vackát kell érteni ugye... hanem a normális kiforrott DX10.1-et. Az Ati 3850-es már elvileg tudja... nem teszteltem még olyat:D mert ugye a 8800GTX lehet k***a rdága de attól még szar, ahogy van. akkor is az volt, mikor megjelent, mert mindenki tudta, hogy jön a dx10.1 januárban. és jött is. (GYK: a régi DX10-es kártyák NEM dx10.1 kompatibilisek, bár az MS nagyon ígéri, hogy minden DX10-es játék a sima DX10-es karikkal is menni fog, mert megoldják driverszinten. fene tudja, talán grafikát butítanak, vagy letiltanak ezt-azt.. nemtom, bár teljesítmény úgyis újítani kell idõvel)
UI: nem vagyok ATI párti, csak azért említettem, mert ez már megjelent(nem vagyok 100%-osan biztos, abban se, hogy 10.1-es), asszem nvidiának is jön február végén vagy márciusban a 10.1-es karija. (azért megjegyzem, hogy mégis ATI párti vagyok, mert hiszitek, vagy nem, kompatibilitási szempontokból személyes tapasztalat alapján.. fura, mert elvileg az nvidiának van kompatibilisebb híre.. de mondtam személyes tapasztalat..)
egyébként 3DMark-al mindig is inkább a rendszer stabilitását lehetett tesztelni extrém használat esetén... a "kinek van több pontja" meg... hát... a díszfaszok versenye. (utóbbi cél... baromság, elõbbire meg nem kell topic:D)
DX10 meg csak Vistan van, ami meg emulálva futtatja a VGA drivereket másfél évnél régebbi alaplapokkal, tehát akkor ezt el lehet felejteni. Mondjuk a VGA-m amúgy sem tud DX10-et.
Most jön ki hozzá az SP3. Azért itt most dícséret a Micro$oftnak, hogy a tömeg hangjára fejlesztgeti a nagy öreget. Csak a DX10 miatt az emberek többsége nem vált. Annyira latymatag a vista utáni érdeklõdés hogy elõbbre kellett hozniuk az utódja megjelenését.
Ebben én azért kételkednék. Ha nem tudnának az nvidia kártyái dx10-et ténylegesen, abból óriási botrány lett volna már. EZ biztosan hülyeség. Biztosan tökéletesen tudnak dx10-et, azt esetleg el tudom képzelni, hogy a driver botladozik. De sokkal inkább gyanakszok a vistára, az egy teljesen kiszámíthatatlan roskadozó bughalmaz, 15millió sor programkód, és az egész egy kalap szart sem ér. Egyébként meg az a 2600XT hol is teljesít jól dx10ben? Tudtommal az egy harmatgyenge kártya dx10-re, azon kívül, hogy tud olyat, nem tud sokat felmutatni.
HA nem fognak futni a DX10.1-es gamek ahogy kellene egy 8800GT-n akkor elmegyek Koreába és feldugom az Nvidia tervezõinek és programozóinak seggébe a videókártyáikat egyenként és sorban veszem le õket majd a gyártósorrol. Azután viszek egy raklapnyit redmondba is, hogy Billék se maradjanak ki a jóból.
Egy darabig biztos fognak futni párhuzamosan (ahogy néhány játék támogatja az SM2-tõl SM4ig is, de azt nemtudom hogy a dx10.1 SM 4.1-et kapott e, ha igen akkor elõbb utóbb a játékoknak biztos SM4.1l kell majd a futtatáshoz de az még amúgyis soká lesz...
Zolee pontossan! Ha egy jatekot elinditok,nem ezeket a szarokat futtatom.Azert se ertem sokan mire verik magukat hogy ennyi pont megy annyi. Jatekba bizonyitson:)
DX10-es játékokban a Radeon a gyorsabb. Mondjuk az is igaz, hogy csak a Call Of Juarez DX10-es játék jelenleg.
Meg a f@szt gyorsebb a radeon!!! A COj ben csak azért gyorsabb, mert rendesen az ATi pénzelte a dx10 re fejlesztését... Amúgy, ha nem vennéd észre, sokkal gyengébb az ati mint az NV... Még azzal a 2 magos fosal is alig érik el az ultra sebességét...És majd ha jön a 9800 GTS/GTX ami elméletileg 3x gyorsabb az ultránál, akkor mi lesz? Ati megin eltûnik a francba.
Technológiailag az Ati jár az élen. 55nm VS 65 nm. Amint látom neked meg 8600GTS-ed van. Annál meg sokkal gyorsabb az Ati Hd 3850, pedig ugyanannyiba kerülnek.
BTW nem azért vettem új kártyát, hogy kiégesse a szemem a DX 10effektorgia (ami egy hoax mert a dx10 lényege nem ez lenne) hanem azért, hogy a Dx9-es gamek sokkal gyorsabban fussanak. Ez megadatott innentõl lefosom telibe, hogy melyik a gyorsabb. Ha pénzem lesz és lassúlnak nagyon a játékok váltok. Bár ez nem a közeljövõben lesz. Crysis-t meg leszarom. Útálok ArmA kivételével minden FPS-t.
Inkább azért, mert a Techland nem volt hajlandó az nV kénye kedve szerint fejleszteni és világosan kijelentette, hogy használni fogja a DX10 újdonságait. Ezért vesztek össze az nV-vel, mert a zöldek még mindig nem prezentáltak valódi DX10-es VGA-t és még egy jó darabig nem is fognak. Éppen ezért csak a Call Of Juarez az egyetelen komolyabban DX10-es program. Jelenleg az 1.3-as patch teljesen kiüti az nVidia forceware kényszerítéseit, így a GF8-akon is lefutnak az Extra quality mód eljárásai. Teszt
A Crysis-ben a DX10 a D3D10_GSparticle parancsban kimerül. Ez ugye a robbanások részecskeszimulációja illetve a vízfelverõdés a motorcsonakoknál, ezek képminõségben nem többek a scriptelt eljárásnál (GF8-on viszont lassúak a részecske szimulált eljárások, ezért vannak már tiltva driverbõl). Érdemes visszarakni pár verzióval ezelõtti nV drivert ott ugye nem volt a motorcsónakoknak vízfelverése, mert az GSParticle effekt volt. Az 1.1-es patch viszont csináltak rá fixed eljárást így arra van lecserélve az új driverekben. Tehát az nV sajna nem csinálja meg még azt az egy rohadt DX10-es effektet sem a Crysis-ban.
A Lost Planet és a Bioshock csak a többcsatornás Int16-os texturaformátum miatt gyorsabb DX10-ben a Radeonnál. Nyilván használhattak volna FP16-ot is a fejlesztõk, mert ebben a formátumban a Radeon majd 100%-al míg a Geforce 10-15%-al is gyorsabb és sokkal szebb a képminõség. Az Int16 viszont kézenfekvõ volt az nV-nek, mert a Radeon TMU-it FP32-es szûrésre készítették fel, így az Int16-os formátum a nem megfelelõ regiszterkialakítás miatt lassabban lesz leszámolva. Ez a Lost Planetben nem lehet visszahozni a shader erõbõl, mert ott kevés területen használnak komplex kódokat. A Bioshockban az új driverek már sokat dobtak a DX10-es eredményen, míg a DX9-eseken pedig egyenesen nincs ellenfele a HD3850-nek sem (akár küldhetnek ellene 8800Ultrát is).
A Company Of Heroes és a World In Conflict pár komplex Pixel shader kódnál használnak speciális utasítást, ami miatt helyenként az átlag sebességhez képpest belassul a GF8, mivel SFU teljesítmény jelentõsen kisebb a Radeon rendszerekhez képpest.
Nem kell kételkedni, egy csomó olyan DX10 eljárás van ahol a GF8 korlátjai miatt semmire sem képes. Az AMD sem azért lassabb, mert szar az architektúra, hanem mert teljesen támogatja a DX10 követelményeit, amikhez szükséges egy Stream output gyorstár, Unified Shader szerû kialakítás... Erre mennek el az HD Radeonokban a tranzisztorok, míg az nV másra is fordíthatja, mert nincs stream output gyorstára és az Shader ütemezés nem éppen unified shader rendszer benyomását kelti...
Botrány csak akkor lesz belõle, ha kijön a Battlefield 3.
A 256-os GT-nek nyilván baj van a memóriakezelésével, ed ezen kívül szerintem teljesen partiban van a 8800GT a 3850/70-el. 1900*milliós felbontásokat meg hagyjuk már. :)
A Frostbite Engine-t teljesen DX10-re fejlesztették, közel 3 év munka van benne, elõször az R600-as Ruby demóban láthattuk képességeit. De van már róla technikai dokumentáció is. link Akármennyi zsét juttat el az nV 3 év munkát nem fognak kidobni. Bár azt aláírom, hogy maguk a fejlesztõk sem gondolták át mit csinálnak, mert ha a GT200 chip nem lesz DX10 (már pedig vélhetõleg nem lesz az), akkor úgy bukták a játékot, mint a Crysis fejlesztõi. A Microsoft-nak a DX10.1-es akciója pedig viccesen nem jöt be.
Most az AMD-nek annyi elõnye van a dologból, hogy az összes pénzt a gyártástechnológia fejlesztésére fordíthatja, nyilvánvaló, hogy az R600 architektúra elveihez több évig nem fognak komolyabban hozzányúlni. A DX11-re is tökéletesen alkalmas a felépítése. Asszem a GDC2007-en már volt dx11 elõadás. Az alapján nem sok minden fog változni. Újdonság lesz a Programozható Tesszalátor, programozható Blending, kiterjesztet SBAA eljárások, kiterjesztet Stream output kezelés és A-Buffer. Az A-Buffer az nV találmánya, azon kívül pedig, már mindegyiket támogatja valamilyen szinten az R600.
Valakit meg csak az érdekel, hogy élesben mit nyújtanak a VGA karik, és leszaraj az elméleteket. Mire kijön az ATI - állítólagos - elõnye, addigra már réges-régen új kártya lesz a gépünkben. Mondom ezt ATI 3850-es tulajként.
Az egy dolog hogy új kártya lesz a gépedbe ha lesz teljes dx10-es game és nvidia továbbra is azt csinálja amit most akkor bezárhatja a boltot mert szarra sem lesz jó.
ezzel a teóriával egy nagy gond van:még nincs,és még jó darabig nem is lesz igazi dx10-es játék!a dx9 is csak mostanra forrt ki igazán (cod4,u3e)megjelenés után kb 6!! évvel.(9.0c esetében 4 év...),mire az IGAZI dx10-es játékok jönnek,addigra már bõven 3-ik generációs dx10-es hardverek lesznek
tehát:ha tényleg arról van szó,hogy az nvidia még nem tudja igazán a dx10-et (ez szerintem hülyeség,ha tényleg csak a coj igazi dx10-es,akkor ez nem mérvadó,lehet õk csesztek el valamit!),mire eljutunk odáig,hogy még a passziánsz is dx10-es lesz,már az nvidia is kiforrott technológiát tud majd felmutatni hardver szinten.tehát megint az õ stratégiájuk a kifizetõdöbb...
a másik meg a dx10.1 körüli vita:honnan a francból veszitek,hogy annyire nagy a különbség?az ms-tõl a játékfejlesztõkön át mindenki hangoztatja,hogy ez nem így van.ha mégis,hát,lásd feljebb :)
A D3D10.1 szvsz semmi jelentõs újítást nem tartalmaz a D3D10-hez képest. Ami viszont fontos dolog benne az a Gather4 és a Cube map tömbök támogatásának a feltétele. Mindkettõ azért lett bevezetve, hogy az nV olyan rendszerrel álljon elõ aminek relatíve jó a Stream output kezelése (itt most senki nem várja el, hogy rögtön azt a teljesítményt adja a GPU GS-nél, mint a többi Shader típus alatt (bár ez lenne a Unified Shader lényege, de ezt most mellõzzük), de jó lenne ha nem a regiszterek tárolókapacítása határozná meg az egy TCP-n belül aktívan dolgozó Stream procik számát, ja és ne a memóriába legyenek az adatok mentve - bár ez remélem fel sem merült az nV-nél). A Gather4 pedig az Ati Fetch4-hez hasonlóan növelné a mintavételezés hatékonyságát (jó pár esetben elég a szûretlen minta a megfelelõ eredményhez, és még a GPGPU piacon is jól járnak a gyártók). Nyilván a Stream output kezelése és a Gather4 támogatása nem kevés tranyót zabál, ami igencsak negatívan hatna a textúraszûrõk számára (ez az a terület amibõl lehet elvenni, mivel a D3D10 elveinek alkalmazásakor kevésbé lesz igénybevéve).
Még annyi, hogy a Microsoft sincs kényelmes helyzetben. Elsõdlegesen õ a célpont azokért a problémákért ami mostanában (pl.: a Crysis gépigénye kapcsán) elõjött. Szar az API? ... Rosszak az irányvonalak? ... Egyik sem nyerõ feltételezés. Kivételesen nem Bill-ék rontották el a dolgokat. Az nV nem követte azokat az elveket amiket a DX10 letett. Az AMD/Ati sok rosszat nem csinált pusztán elõállt egy nem csak papíron DX10-es hardverrel. Azóta nV sikeresen meggyõzte a fejlesztõket (az hogy most pénzzel vagy anélkül, lényegtelen) az õ kártyáik támogatásáról, és kész a baj. A DX10 elvei ugyanis nem azért olyanok amilyenek, tökéletesen tudták az API kidolgozói, hogy csak az új elvek támogatásával lesznek egykártyás rendszereken játszhatók az olyan grafikájú programok, mint a Crysis.
Így elcseszni egy jó tesztet, szégyen! Csak DX10? LOL. Azért lehetne benne egy kis DX9-is legalább fifty-fiftyre.
most miért mondod? Hidd el, akinél elfut, annak úgyis DX10-es karija van. WinXP-t meg ki használ már? (akinek jó épe van az nem nagyon, persze mindig vannak az "elvbõl maradik")
Hm érdekes felfogás. "WinXP-t meg ki használ már?" Elnemtudod képzelni mennyien nem térnek átt a Vistára.Mivel én pl játékos szemmel nézve semmi olyat nem látok benne ami arra késztetne hogy tegyem fel.De ez már nem a témához tartozik.
Elsõk között tértem át XP-re(Milleniumot nagyon útáltam). Akkor se értettem miért használnak olyan sokan WinME-t meg 98-at... attól kékhalált dob, ha kiveszem a CD-t olvasás közben.. vááhhh...
Vista nekem még SOHA nem fagyott le(illetve egyszer, de a hardware hiba volt(szétsült a proci, el se indult többet:D))
WinXP-vel is sok bajom volt, ami vistával már nincs(WinXP-ben még ha bezárom is a programot, néha perceket kell várni, mire bezárja(ha a processt killelem az néha gyorsabb, de az se mindig. Vista mindent azonnal bezár, mutatja milyen program mit csinál a vinyót(mindig tudom miért teker, ha teker:D), Partition Magicre sincs már szükség(XP lemezkezelése még szánalmas volt) Egyetlen hibája van csak. régi cuccokhoz nem mindig van driver.(nyomtatókál scannereknél lehet gond, belsõnél mind1, mert régi alaplapon, meg videkarin, ilyeneket úgyse fut.) Vistára is elsõk között váltottam, nem is bántam meg. (Bár a régi 1.7 ghz-es gépemen amiben 768 ram volt... hát döcögött picit:D)
Nekem semmi ilyemi bajom nincs xp-vel amiket leirtál érdekes.No mindegy.Ugyis mindenki azt védi amit használ! Vistát max akkor ha lesznek full dx10-es gamek amik nem mennek xp-n.(No meg lehet a Vantage miatt kiprobáloba felteszem 1 nap erejéig)