Helló! Leszedtem valami Doom3 Féle játékot, és a betöltésnél kikapocsol a gépem és újraindul. HELP please, mert megbolondulok!! Gép adatai gigabyte 7n400pro, asus 9600xt 512mb 400 duál ddr Köszi
Mai LOL adagunk: A GeForce FX 5950 Ultra és az ATI Radeon X800Pro esete, avagy hogyan kap ki az "új generációs" ATI az eggyel megelõzõ generációhoz tartozó NVIDIA-tól, Doom 3-ban.
Csak a gyengébbek kedvéért mondom, hogy a tesztben szereplõ 6800-as csak egy NU! De így is kiüti a majd 2x annyiba kerülõ ATI-t!
(De A magam részérõl leginkább azt pártolom, ha soha semmilyen elõny és hátrány nincs leplezve. Ehhez persze igazán jól kellene ismerni mindkkét oldalt, ami nem igazán összeilleszthetõ az elfogultsággal. [Kivéve egy esetet, de azt most hagyjuk.])
Más egy általános számtech híroldalon/portálon egy cikk, és más egy magánweboldalon egy írás. Szerintem. De lehet, hogy nem. De ha nem, akkor nem tudom, az adminok, stb. milyen alapon várják, hogy a userek ne legyenek ilyenek, ill. ne nyilvánítsák ki.
Ha meg teljesen pártatlanként írja meg valaki a cikket, lehet hogy sokmindenkinek jobb lesz, de magát átveri vele. Mért van mindenki felháborodva sokszor, hogy így van-meg úgy van megírva egy cikk - Talán majd ha ti írtok egy jobbat. Ha pedig a lelketek mélyén nVidia-t pártoltok, és olyan cikket kéne írnotok amiben az Ati grafikonjai sokkal jobban mutatnak, nem hiszem hogy tudnátok dícsérni az Ati-t, sõt ellenpéldákat keresnétek.
Nincs a világon egy olyan ember sem, aki teljesen pártatlan.
Azér engem kissé bosszant, hogy van a gépemben egy 2,8-as P4, 512 ram, Radeon 9800 pro és kevés hozzá!!!Nekem ne mondja senki, hogy szar a gépem, de azt se hogy ilyen progikat kell írni, amit nem visz el egy ilyen hardver.BULLSHIT!
1 év múlva nem lesz még SM4.0. Ehhez DX10 (DX Next) kell, ami MS állítása szerint csak a Longhornhoz lesz, mert kell hozzá. Szóval szerintem addig még az ATI is kiad egy SM3.0-ás kártyát (pl. 90 nanon).
Nem mondod, hogy nem olvastad év eleje felé az ATI új nagyfõnökének (aki az elõzõ nagyfõnök helyébe lépett, pontosabban már egy ideje gyakorlatilag õ intézte az ügyeket) nyilatkozatát, amiben errõl is szó volt... !?
Már megbocsás de nem értem miröl beszélsz,az SM 3.0-nak gyakorlati haszna a programozhatoságában van,magyarul ha csinálsz egy effektet akkor kb fele annyi idöbe kerül megirni mintha sm2-re csinálnád...
Na akkor úgy nézem mindenkinek az lesz a legjobb, ha a megjelenés utáni cikk valahogy így fog kinézni - Ugye, mélyen tisztelt nVidia-fanok? - :
Az IstenCsászár NV 40 chipes brutálisan erõs és gyors csúcstechnológiás kártyák a Doom3-ban 1024X768-ban minden extra szûrõk mellett átlagosan 61 fps-t értek el! - ...Szünetet hagyok hogy legyen idõ még a talpaitokkal is tapsolni... - Amíg az Ati parasztkártyája, a rég elavult alsókategóriás *kurva* gyenge X800 (amit mellesleg arra sem méltatnék hogy szarás után a seggemet kitöröljem vele) mindössze 46 fps-t ért el! - ...Szünetet hagyok a gúnyos röhögésnek=... - az Ati természetesen mindezt cáfolja, de mi mindannyian tudjuk hogy az Ati lop, csal és hazudik, a Crytek adatbázisába is betört hogy lelopja megjelenés elõtt a Far Cry-t és elõre optimalizálja rá a kártyáit és drivereit, kiforgatják a drága kártyáikkal az embereket a pénzükbõl, és átverik õket a kecsegtetõ órajelekkel - mert ugye azt is mindannyian tudjuk hogy az órajel nem minden, hiába legyen egy Ati-s kártyának kétszer akkor órajele, az a lényeg hogy az nVidia kártyája támogatja a Soft Shadows-t meg a Pixel Shader 3.0-t, amivel 1,5 év múlva majdnem akkora teljesítményt ki tudunk hozni mint az Ati gyenge átverésével, a PS 2.0b-vel, amit természetesen egyik játék sem ismer, mert a fejlesztõk kerülik mert szar és kész. Az Atiról még az is nyílvánvaló hogy szarásig tömi pénzzel a Valve-t, míg szegény csóró nVidia minden pénzét arra áldozza hogy a lehetõ legjobb kártyákkal gazdagíthassa a népet a lehetõ legolcsóbban, és teljesen nyílvánvaló hogy az ID 5 éves fejlesztése alatt csakis az Ati kártyáira írták a játékot. Na most még annak is felmerült az alapos gyanúja, hogy az Ati nem rendelkezik semmilyen gyártástechnológiával, sokkal inkább strandpapucsban és bõ csövesnadrágban nagymennyiségben és féláron beszerzi az nVidia kártyáit a feketepiacon, lekaparják róla az nV jelet és ráragasztják a saját csúnya logójukat, és kicserélik a csomagolást... Ja, persze miután a feketepiacon beszerzett mx 440-es kártyák órajelét alattomosan megnövelik, és teknokollal ráragasztanak pluszba néhány pipe-ot, majd elnevezik X800XT-nek, hogy 6-szor akkora áron el tudják adni. Na de nem is feszegetem tovább ezt a... "Doom3 hírt", mert megint ide jön a sok degenerált Ati-fan, és anyázni fognak minket szerencsétlen és ártatlan nVidiásokat.
Errõl ennyit.
PS: ugyanugy nincs értelme, mint anno a PS2.0-nak az R300-ban. Annak a megjelenése után is még több mint 1 év eltelt az elsõ DX9 játékig. A SM3-ból 1 valaki fog profitálni, és az a játékfejlesztõ maga. Ugyanis van min tesztelnie az 1-2 éven belül megjelenõ új játékát.
Az hogy a vertex shader hozzáfér a textúra adatokhoz, a pixel shader pedig a vertex adatokhoz, egy nagyon szép és okos megoldás. Ha használná valami. Nem az SM3.0 mint technológia van kétségbe vonva, hanem a jelenlegi életképessége. Jelenleg 1 az az 1db játék van, amiben részlegesen támogatva van az SM3, és ott is csak foltozgatásokkal, nyomokban. Ráadásul ugye vissza is vonták már a patchet, mert az ATI még a PS 2.0b-vel is gyorsabb volt benne, mint a 6800 ultra a 3.0-val.. de ez más tészta.
Ugyanakkor, legalább 1 év el fog telni, mire olyan játék kerülhet piacra, amiben valóban komolyabb szinten ki vannak használva az SM3.0 elõnyei. Addig pedig az ATI (és az nVIDIA is) új VPU családot ad ki, amelyben már akár a SM4 is meg lesz valósítva. (Az eddigi pletykáka alapján meg lesz, és az egy valóban forradalmi megoldás, nem csak egy kiegészítés mint az sm3 a 2-höz képest.)
Szóval arról van szó, hogy JELENLEG az nVIDIA fölöslegesen áldozta be a gyárthatóságot, a jó kihozatalt az SM3 érdekében. Beletette a funkciót, amelyet semmi sem használ még vagy egy évig, cserébe egy tranzisztor óriás lett belõle, amibõl még az nv30-nál is rosszabb a kihozatali arány.
Na most akkor döntsd el, hogy kinek volt igaza? Az ATI ezzel szemben csinált egy SM2 VPU-t, ami gyorsabb a jelenlegi játékok 99%-ban mint az NV40 (XTvsUltra), ráadásul jó kihozatallal olcsón gyártható. Hiába a csillivilli SM3, mert lehet reklámozni hogy már azt is tudja, ha semmi értelme nincs MOST MÉG...
Most mirõl is beszélsz? Az R420 0,13 mikronos low-k technológiával készül. Szal kinek a fõnöke és mire mondta, hogy nem tudták 0,13-on megvalósítani? Azt ugye csak zárójelben jegyzem meg, hogy az ATI-nál potyognak a minták a 0,11mikronos gyárban is, ahol az új mainstream, és performance-mainstream VPU-k készülnek... Ugyancsak õk voltak az elsõk, akik FCPGA tokozásban gyártottak VPU-t anno, illetve az R420 VPU-ik is jóval magasabb frekvenciákon mûködnek, és jóval jobb kihozatal mellett mint az NV40. Szal kinek is vannak akkor gyártási nehézségei?:) Itt valamit elnéztél te...
Megint felsoroltál egy csomó baromságot csak, látszik hogy egyátalán nem vágod mirõl beszélgetünk itt. Jobb lenne ha inkább hanyagolnád a témát, ha már ennyire telik csak.
Borgnak hanyszor kell meg elmagyaraznia neked, hogy mi az igazsag?
-Az ATI-t kizarta JC mindenbol mar evekkel ezelott. -Az nV lepenzelt mindenkit, hogy hazudjanak -JC egy hazug es az allitasaval ellentetben az nV megkapta a timedemot ... mert Borg errol is tud. -A demo nv30 codepathot hasznalt, annak ellenere hogy mar nincs benne a jatekban ... Borg ezt latni velte a cikkben is. -nv30 mindig FP16-al mukodik mert csak. -ameddig nem jelenik meg olyan teszt ahol az ATI vezet addig semmit nem szabad elhinni -Ultrashadow semmit nem gyorsit a jatekon, mert ha gyorsitana akkor az ATI-ban is lenne. -minden hozzaszolast ami ezeket a TORVENYEKET megszegik ki kell torolni!
"Uzletpolitika, csak erteni kell hozza" Érdekes, GN valami kódellopásos mesével jött elõ. Tavaly szeptember közepén tutira állították hogy a hó végén megjelenik. Szerinted néhány nappal a megjelenés elõtt döbbentek rá, hogy "úr isten, NV-re még optimalizálni kell kb. egy évig!"
"Ami meg technologiak szintjen mindig is kevesebbet tudott." Akkor légy szíves mondj 1 olyan dolgot, amit OpenGL-ben nem lehet megcsinálni DX-ben viszont igen.
"A piaci igenyek, hasznalhatosag/hutes stb teruleten kezd az nvidia elszallni ha nem vigyaz." Nem uncsi nagyon már ez a duma? Kb. 2 éve ezt szajkózzák egyesek, ennek ellenére az NV meg sem rezdült, sõt legutóbb még növelni is tudta a piaci részesedését. A hûtést meg nem értem miért mondod, nem hallottál még az aszfaltolvasztó X800-asokról?
Érdekes amikor így duzzogva eloldalogsz. Senki sem akadályoz meg abban, hogy rámutass az OpenGL speckó idevágó részeire és ezzel alátámaszd az állításodat. Amíg ezt nem teszed meg, addig viszont buktad a dolgot.
Mellesleg az utalásod a hw belsõ pontosságára vonatkozóan már csak azért sem stimmel, mert eléggé jól ismert tény, hogy pl. ha egy NV35-öt és egy R350-es chippel szerelt kátya 2.0-ás shader teljesítményét összehasonlítjuk, akkor - néhány speciális kivételtõl pl. sincos eltekintve - az R350 akkor is gyorsabban hajtja végre ezeket a mûveleteket ha az NV35 FP16-ot használ. Ígyhát a belsõ pontossággal magyarázni az FX5950 elõnyét a 9800XT-vel szemben eleve halva született dolog.
"Na persze, az ATI arrol hires, hogy nem tud vmit megvalositani."
Maga a fõnök nyilatkozta, hogy 0.13 mikronon nem mertek belevágni, pont. Esetleg olvass utána.
Az már pletyka, hogy megpróbálták, ez lett volna az R400 (furcsa is, hogy most nem 50-nel oszható a köv. gen. száma), de nem ment, így összedobták az R420, ami az elõzõ gen. egységait használja, minimális kiegészítéssel, csak több van belõlük.
Na, benéztem, és ezt (is) találtam: "Mitõl lenne szebb? A 3.0 semmiféle grafikai újdonságot nem hoz, csak programozók sorsát könnyíti meg, és ezáltal *elvileg* gyorsabban futtatható kódokat lehet írni rá." (Borg)
Hát ez nem egészen így van. (Ezt csak néhány, egyértelmûen ATI által támogatott projektekben dolgozó kis fejlesztõcske mondja!) Itt van pl. a Texture Fetch a VS-ben (lehet vele többek között valódi HW displacement mappinget csinálni). Léteznek már egyéb, csak SM3.0-val megvalósítható effekteket bemztató techdemók is. És ha belegondolsz, jópár pillanatnyi számítási eredménytõl függõ elágazást tartalmazó algoritmust lehetetlen, jobb esetben igen körülményes és lassú megvalósítani. (Olvashatsz errõl pl. a beyond3d-n.) Ha a fentit hangoztatod, azzal az elfogultságodat bizonyítod... Mellesleg a FarCry nem lesz SM3.0 alapú egy peccstõl. Csak mutatóba használják.
"Az FX-ek és a 6800-as széria nem a Doom-ra lett kihegyezve, hanem nagyon erõsek a stencil buffering mûveletekben és az egyéb árnyékok számításához szükséges dolgokban (mellesleg a 6800-asok pedig minden másban is)."
>felhívja a figyelmet arra, hogy az nVIDIA driverei és kártyái is erõsen optimalizáltak a Doom 3 elvárásaira. Ennek az optimalizálásnak természetesen a Doom 3 programkódján belül is vannak nyomai, ugyanis Carmack különös hangsúlyt fektetett a különféle grafikus processzorokhoz egyedileg megírt, optimalizált kódokra<
"Szuper, hogy mennyire tudod, hogy mi miért csúszik."
Uzletpolitika, csak erteni kell hozza
"A D3 meg szegényke azért nem tud ilyeneket használni mert ezek mind DX-es fogalmak az meg OpenGL-t használ."
Ami meg technologiak szintjen mindig is kevesebbet tudott.
"Vagy azért mert nem volt képes elõállítani és gyártatni egy ilyen tudású chip-et és azt hitte, hogy ez az NVIDIA-nak sem sikerülhet. Hát ezt jól bebukta."
Na persze, az ATI arrol hires, hogy nem tud vmit megvalositani. A piaci igenyek, hasznalhatosag/hutes stb teruleten kezd az nvidia elszallni ha nem vigyaz.
Hát nem tudom, de még tavaly olvastam errõl, amikor még nem volt 6800. Késõbb, már egy 6800-as tesztben meg (látszatra) pont ugyanúgy nézett ki 6800-ason az a csempe. Errõl a "bug"-ról nem hallottam (igaz, utóbbi hónapokban nem is foglalkoztam a témával), van esetleg konkrét link?
"DE nem amcsik a tervezõk az nvnél és az atinál. Általában exportálják a tudósokat. Pl.:Afrikából :DDD"
Honnan veszed? Voltál már egy ilyen munkahelyen is? Az export szó jelentését meg nézd meg egy szótárban. Mert amit Te akartál írni az import lett volna.
"Az ati meg kanadai .DDDD Ugyan az :DDD"
Sok smiley ide, sok smiley oda, ebbõl látszik, hogy nem nagyon ismered a világot. De nem a Te hibád. Még tudsz rajta javítani. ;-)
Tiszta lol az egesz cikk meg a hozzaszolasok is. :D Mindegy en azert megvarnam a megjelenest, aztan kezdek vagdalkozni. Viszont mintha nekem ugy remlene, h a doom3 engine fejlesztese kozben carmack az atit partolta 1000l. Ati vs. Nvidiara csak annyit mondanek, vegyetek matroxot. ;P
A PR anyaggal a HardOCP-s tesztre utaltam. Minthogy ugye nvidia+carmack+kyle egy csapat, tehát a teszt eleve nem lehet objektív. Vagyis lehetett volna, de nem lett az, mert az ATI részérõl nem engedték meg a driver optimalizálásokat. Az nv miatt több mint valószínû, hogy nem lehetett d3-ban optimálisan sorbarendezni az ati kártyák számára is a kódot (nem engedhetik meg maguknak, hogy esetleg más eredmény szülessen). Külföldi fórumokon jó 10%-ra saccolják a gyorsulást ati kártyák esetében, a mostani grafikonokhoz képest.
A farcry esetében valszeg mást is elbaszarintottak a fejlesztõk. Egyébként nem FX esetén futottak benne PS 1.1 shaderek, hanem a 6800 esetén, az 1.1-es patchhel. Ugyanis a program akkor még nem ismerte fel rendesen a kártyát, és nem tudott hozzá renderpathet rendelni. Ezért visszaállt alap üzemmódba, ami PS1.1 az ilyen videokártyák (min. GeForce4-ek) elterjedtsége miatt. Szal az a csempe textúra (ha arra gondolsz) nem az FX kapcsán volt meglepõ, mert azzal ennyit tud az FP16. Ami bug volt, hogy 6800-al ugyanolyan, vagy még rosszabb képet mutatott. Persze az NV3x renderpath esetében más jellegû optimalizációk is vannak, azonban ezek minden más kártyára is megtalálhatóak, és nem hoznak ekkora szignifikáns gyorsulást, mint a PP.
Ja, és nem csak a PP lehet az NV3x path értelme. Miért csak ez lehetne? A shader programok szervezése (utasítások elrendezése, regiszterhasználat, stb.) is fontos dolog, ami kihat a sebességre. És lehetnek még más specifikumok is.
Van elérhetõsége ennek a PR anyagnak. Én csak ATI-s anyagot tudok errõl.
Egyébként egyátalán nem jelent akkora IQ romlást a PP, mint ahogy be van állítva. A fent említett anyagban is csak bizonyos esetekben látszik egyátalán, de akkor sem túlzottan.
Az elõzõ (1.1?) FarCry patch-et szokták ezzel kapcsolatban emlegetni, csakhogy ott szerintem nem PF16 van használva, hanem az INT12, mivel állítólag (tesztoldalak vizsgálatai szerint) PS1.1-es shaderek futnak FX esetén (2.0 helyett), márpedig elvileg a PS1.1 nem ismeri még az FP formátumot, csak az integert...
Én nem fórumozók véleményére vagyok kiváncsi (sem a tiédre), hanem az általad említett Carmack féle idézetre. Mert lehet, hogy mennek standard ARB2-vel az NV3X kártyák, csak messze nem a 9800XT szintjén. A jelen teszttel kapcsolatban egy szóval sem említette Carmack, hogy az NV3X renderpath (mert errõl beszélt viszont) milyen percizitást jelent. Márpedig ha NV3X renderpath van (és van), annak csak és kizárólag a PP lehet az értelme (ahogy azt a grafikon is mutatja). Valszeg nem véletlenül nem készültek egy nv pr anyagba IQ összehasonlító tesztek a 9800XT FP és az FX5950U PP között.
"Meg PS1.1-et meg PS1.4-et meg PS2.0a-t és elõbb utóbb PS3.0-t is. A D3 meg szegényke azért nem tud ilyeneket használni mert ezek mind DX-es fogalmak az meg OpenGL-t használ."
Bocs, de ez nem egészen így van. Ezek HW fogalmak. OpenGL2.0 alatt nincsenek még natívan támogatva, csak többnyire gyártó-specifikus extensionokkal.
A többivel egyetértek (mert konkrétan tudható is mindkét dolog).
A Beyond3D forumaban tobb topic is volt errol. Az nV3x vs R3xx alpha tesztekhez kepest, a vegleges teszten is latszik, hogy a brutalis elonybol sokat veszitett az nV.
ati vs nVidia...nekem ATI-n van már egy ideje, de eszembe sem jutott, hogy megemlítsem egy nVidia tulajdonosnak,hogy az xy teszt alapján ( nézd meg vazeg!!!) az ati 5 fps-sel jobb, különben is láma nVidia...szóval ilyesmit nem szoktam mondogatni, sem írogatni.
OFF: Viszont azért kíváncsi lennék, hogy az "amerikát" (USA) mennyien fikázzák (hogy csak az olajért mentek, meg g*ci lehúzós banda, a világhatalmi törekvéseik miatt, meg milyen hülyék, mert olyan dolgokat tanulnak a fõiskolán matekból, mint amit nélunk középiskolában tanítanak, stb) az nVidia fanok közül. Ugyanis az nVidia, ha jól tudom californiai székhelyû cég. Na most egy ilyen cégre kb. minden jellemzõ, ami egyébként az USA-ra.
üdv
Ennyi erõvel az amd is lassabb, mert kisesbb órajelû????????????
"Ami igazán meglepõ, az azonban csak itt következik, ugyanis a FarCry 1.2 tesztben 3.0-s shadereket használó GeForce 6800 Ultra kártyát több ízben is képes volt legyorsulni az X800XT SM 2.0b-vel. Utóbbi elõnye ugyan nem mindenhol egyértelmû, de olyannyira fej-fej mellett halad a két kártya, hogy igen kétségessé válik az nVIDIA kártyákon a Shader Model 3.0 értelme. Pont azokban az esetekben képes valamivel nagyobb teljesítményre az X800XT, ahol elméletileg az SM 3.0 elõnyeinek jobban meg kellene mutatkozniuk."
tegyük hozzá:
24/32 = 1.25
azaz "pont azokban az esetekben" ahol SM 3.0-t használ a játék, 25%-al több adat van. Miért is meglepõ, hogy az alacsonyabb órajelû GF6800 (Néha! nem is mindig) lassabb, mint a magassabb órajelû X800? Inkább meglepõ, hogy még így is sokszor gyõz.
Ez nem így van, a renderelõ mag már régen kész volt, JC saját bevallása szerint is már egy éve unatkozik (eddig Armadillo-zott, most már új technológiákon dolgozik) ergo egyáltalán nem nv-optimalizáción dolgozott.
Birom mikor sokan úgy szólnak hozzá a témához, hogy el sem olvassák a cikket aztán írnak sok okosságot és bölcsességet és megvannak róla gyõzõdve, hogy náluk senki sem tudhatja jobban.... :P
Nem tudom miért írtál le ennyi felesleges dolgot fx szar és kész.Igaz a fx megjelenése után már javítottak rajta....de ez most nem lényeg.
Ati optimalizációt hagyjuk, mert a d3 még se jelent meg.
A doom3 semmilyen pontossággal nem készül. -persze, de kihasználja az nv 32bites pontosságát.
Minden egyes grafikus processzoron külön renderpath fog mûködni, ami a maximumot hozza ki belõle.Ez igaz az NV40-re, és az összes ATI kártyára is... Ezzel kapcsolatban majd még írok....
Olvass utána hogy az id miért "tette" félre az atit.
Dehát ugye (most nem csak rád értve) akinek halvány gõze sincs a dolgok mûködésérõl, az pont ennyit tud hozzátenni a témához, hogy búúú atifan
Jajj de jót röhögtem ezen...a zárojelben már csak azt felejtetted ki, hogy: és én
Olyan végtelenül nem értesz a dolgokhoz, hogy az már fáj. A "részleges precizitás" valóban nem mond semmit sem, mert magyarul pl. tök értelmetlen más nyelvben meg nem létezik. Ha valaha elolvastál volna egy OpenGL specifikációt akkor tudnád hogy ott nincs ilyen fogalom! De nem olvastál, ezért nem is tudod.
Csak az a baj, hogy míg az ATI 24 bites pontossága jó teljesítménnyel és képminõséggel párosult, addig az nVidia kártyák lassúak voltak 32 biten 16 biten viszont rondák. Ezt a "hülyeséget" egy Carmack interjúból szedtem (ha jól emlékszem).
A doom3 semmilyen pontossággal nem készül. Minden egyes grafikus processzoron külön renderpath fog mûködni, ami a maximumot hozza ki belõle. Ez igaz az NV40-re, és az összes ATI kártyára is. Egyetlen egy család van amire nem igaz, és az az NV30. Az ugyanis kegyetlen szar teljes precizitás mellett, és így (minden eddig megjelent D3 tesztben!) csupán FP16-al ment. Mindössze ez az az apróság, amit az "nvidia a gyorsabb b+" nevû szakértõk itt rendre elfejejtenek. Mindamellett, hogy a jelenlegi tesztben az ATI kártyák sem mûködhettek teljes sebességen, mivel nem optimalizálhatta rá a drivert még az ATI. Pusztán emiatt a 2 szempont miatt nem érnek semmit a fenti grafikonok, akárki akármi atifanvsnvfan dolgot akarna belemagyarázni a dolgokba.
Dehát ugye (most nem csak rád értve) akinek halvány gõze sincs a dolgok mûködésérõl, az pont ennyit tud hozzátenni a témához, hogy búúú atifan. Ennyi a konzekvencia.
"impozáns – teljesen 32 bites lebegõpontos – architektúrát hoztak létre" ph!
Íme egy tipikus ember a sok közül, aki csak néz, de nem lát. Vagyis végignézted a grafikonokat, mint jelen esetben is, aztán azok alapján írták egy marha nagy baromságot. Olvasni is kellene ám néha.
Ha legalább arra vetted volna a fáradtságot, hogy Carmack szövegét elolvasd, akkor tudnád miért volt gyorsabb az "NV" az ATI-nál D3-ban, és miért gyorsabb most is. Mert a sebesség nem minden ugye, csak ezt szeretik elfelejteni, fõleg az nv ajnározók. Dehát a részleges precizitás mint fogalom gondolom semmit nem mond neked, szal kár is szót fecsérelni erre.
Ha már sokan osztják az észt akkor én is megosztom veletek:DD ati +d3???na mi ez???xbox2ben milesz??? ===ati+microsoft=d3 A microsoft a directxben a 24bites pontosságot erölteti. :DDD (hát persze hogy ez is egy májkroszoft -billibácsi- anyszülemény) A 6800 már 32bites pontossággal dolgozik. Újabb kérdés a Doom3 32vagy 24bites pontossággal készül???Hát persze hogy 32. nv6800 ban mér rengeteg újítás van...
Én még mindig pártatlan vagyok, csak nem bírom amit az ati csinál.Régen az nv csodálatos :( sorozata -FX után az nv fikáztam. Mindenesetre most szivesen vennék egy 9600xt ...
"Az a baj hogy mindnenki osztja itt az észt anélkül, hogy ismerné az elõzményeket." Amit ez után írtál az tökéletesen megfelel ennek. Sok ok miatt is teljesen hülyeség amit a 16-32 bit váltogatásáról írtál, de egyébként erre majdnem 2 év állt JC rendelkezésére. Másfelõl már az 1 évvel ezelõtti tesztekben is széjjelalázta az NV az ATI-t D3-ban, úgyhogy ez megint nem stimmel.
Azért tudom mert én olvasni is szoktam nem csak írni.
Egyáltalán nem más tészta. Az FX-ek és a 6800-as széria nem a Doom-ra lett kihegyezve, hanem nagyon erõsek a stencil buffering mûveletekben és az egyéb árnyékok számításához szükséges dolgokban (mellesleg a 6800-asok pedig minden másban is). A Doom 3 megvilágítási modellje pedig éppen ezekre épül. Szuper, hogy mennyire tudod, hogy mi miért csúszik.
"A HL2 csak PS2-t hasznal, mig a D3 meg azt se." Meg PS1.1-et meg PS1.4-et meg PS2.0a-t és elõbb utóbb PS3.0-t is. A D3 meg szegényke azért nem tud ilyeneket használni mert ezek mind DX-es fogalmak az meg OpenGL-t használ.
"Az ATI valoszinuleg epp azert fejlesztett eloszor a DirectX9ben es nem lepett tovabb mert ugy gondolta, hogy ugyse tudna a piac kihasznalni a PS3-at." Miért szerinted a PS3 minek a része a DX10-nek? Vagy azért mert nem volt képes elõállítani és gyártatni egy ilyen tudású chip-et és azt hitte, hogy ez az NVIDIA-nak sem sikerülhet. Hát ezt jól bebukta.