"A tesztelõk például kipróbálták a játékot egy 1,5 GHz-es Pentium 4 és egy GeForce 4 MX440 társaságában, és elmondásuk szerint meglepõen jó játékélményt nyújtott még ez a párosítás is. "
Igaz rédon 9700-am van, de kiváncsi vagyok, hogy az 1,46-ra tuningolt tualatinommal mit fog prezentálni :P
wow. hogy oda ne rohanjak meg vissza. egy év múlva ez is jó game lesz, arra már lesz egy paks-om otthon, amin jól fog futni... amúgy meg kicsit nvidia suxx, ati rulez szagú ez a cikk, bár ez szvsz volt...
Igen a cikkírója egyértemüen ráment az nVidia fikázására. Ez a demagóg minek a PS3.0 már egy kicsit unalmas. Amugy meg 20-án jött ki a geforce 6800 -hoz a stereo 3D driver, így már a DOOM 3 is játszható lesz sztereó 3D-s eszközökkel. Már készítem is az I-glasses PC 3D -met :))))
A fórumban olvasható az ATI válasza a D3 eredményekre. Ugyancsak nem meglepõ, fõleg azoknak ajánlom, akik bármi részrehajlást vélnek felfedezni a hírben...
Btw, amit itt látunk, az semmi más mint nVIDIA PR anyag. Míg õk optimalizálhattak rá, addig az ATInak nem volt beleszólása. Ezért születtek ezek az eredmények, amelyekkel az nVIDIA most még gyorsan felvág egész addig, míg az ATI ki nem adja a D3 javításokat/finomitásokat tartalmazó driverét (a nyilatkozat szerint 2 héten belül).
Ezt te sem gondolhatod komolyan!! Egyszerubb lenne azt irnod, hogy az nV termekek nem lehetnek gyorsabbak semmilyen korulmenyek kozt egy ATI termeknel, mert ATI Roxx es kesz.
Hazudik JC, az nV, a HardOCP, az osszes oldal aki lemeri kozolni az eredmenyeket es az osszes oldal - Beyond3D, 3Dcenter, stb. - akik nV kartyakat kivesezo cikkekben reszletesen taglaljak milyen technologiakat vet be az nV a Doom3 engine gyorsitasara. Az nV nem a Doom3 teljesitmeny miatt tette kockara a kartyait, nem erre fejlesztette a hardvereit eveken at! Nem! Itt csak hazugsagrol es csalasrol lehet szo!
Semmi ilyesmit nem irtam. De mond, te milyen kovetkezteteseket vonsz le abbol, hogy egy olyan tesztet kozolnek le, amiben csak nvidia optimalizacio van, az atinak pedig a d3-mat soha nem latott drivereivel teszteltek? Ha te ezt objektív tesztnek nevezet, hat hajra... engem hidegen hagy a velemenyed.
Még az a szerencse, hogy a Radeon 9800 XT és nV 5950 teljesen átlag kártya itthon (is) :))
Borg már teszetelte a Doom3at x800 és 6800 -zal.[br] De belenézett mindkét kártya driverébe és rájótt hogy nv optimalizalt. DE már itt tart a d3 forrásába is belenézett. Rájött nv csal!! Ati -részérõl nagy g**iség volt kihagynia kártyáiból a sm3.0 át. (Mielõtt valaki azt mondaná hogy istanítem az nv-t az téved.)
Kicsit unalmas már az SG vak nVidia gyûlölete. Ez egyébként önmagában még nem lenne baj, csak amikor a tényeket sem igazán veszik figyelembe és ezt még terjesztik is, az már - legalábbis számomra - aggasztó.
Valószínûleg semmivel. Azt nem válthatja ki, kétségtelen, hogy a 6800-as kártyákon jobban fog menni valamivel a D3. Azonban ez nem magyarázat sem a 6800u 32%-os elõnyére itt-ott, sem az fx 5950u elõnyére a 9800xt-vel szemben. Szerintem bõven 5%-alá csökken majd a valós különbség az x800 és 6800 kártyák között, amint az ATI is adhat ki optimalizált drivert. Carmack is irta, hogy vannak gondok a jelenlegivel, amitõl visszaesik a teljesítmény bizonyos helyeken. Nem beszélve arról, hogy az x800xt általánosan gyorsabb a többi játékban a 6800 ultránál is, elég csak megnézni a legújabb farcry 1.2 tesztet. Az 5950u pedig csak 16bitFP módban érhette el ezt a teljesítményt ez gondolom már egyértelmû mindenkinek, az eddigi játékok és tesztek alapján, tehát megintcsak nem objektív a teszt (tessék elolvasni az ati válaszát a tesztre, a fórumban) Szal errõl szólt az, hogy ez mindössze nv pr anyag, és nem használható, reális teszt. Persze távol álljon tõlem, hogy bárkit is meggyõzni próbáljak, ezen már rég túlvagyok. Ha valaki nem tudja levonni a maga következtetéseit...
Figyelj, olvasd már el Carmack nyilatkozatát! Õ maga mondja el, hogy nvidiára optimalizálva van driver oldalról is. "On the other hand, the Nvidia drivers have been tuned for Doom's primary light/surface interaction fragment program" Szal ennyit arról, hogy az nvidia hozzáfért-e... Nem értem mit lehet olyan nehezen felfogni? Az egyik fél optimalizálhatott már rá, a másik pedig nem. Ezért nem objektív a teszt, nem mutat semmit. Szal NEKED mi is a gondod? Mert nekem nincsen.
Ami számodra inkább aggasztó lehetne, hogy még mindig csak ott tartasz hogy atifan vs nvidiafan Ez a hozzáállás is csak arról árulkodik, hogy fogalmad sincs mirõl van szó, csak beírsz néha valamit.. de ne aggódj, ezzel nem vagy egyedül.
Bocs, de most ugye csak tippelsz, mennyit gyorsít ez az U.S. dolog (ami már FX-eken is volt)? Az egy másik dolog, hogy a játékok többsége nem használja.
u.i. én le tudom vonni a következtetéseimet. Több félét is. De(?) akkor is szeretem látni az érem mindkét oldalát.
" A tesztelõk például kipróbálták a játékot egy 1,5 GHz-es Pentium 4 és egy GeForce 4 MX440 társaságában, és elmondásuk szerint meglepõen jó játékélményt nyújtott még ez a párosítás is"
Azért nem bántam volna ha csinálnak 1videót hogy kb hogy ment rajta.
Ha valamit optimalizalnak egy technologiara az egeszen mas mint ha egy adott demo futasat optimalizaljak! Ehez nem kellett hozzafernie az nV-nek a timedemohoz. A technologiara meg az ATI is ugyanugy optimalizalhatott, ilyen kozlemeny nem jelent meg sehol, hogy az ID elzarkozott volna az ATI hardvereitol ... ez a te elmed szulemenye ...
de most te is elismerted hogy az nvidia technológiára optimalizálták a játékot, akkor nemértem min vitatkoztok az ati hónapokkkal ezelõtt kiadott kártyája viszont MÉG hátrányban van, az uj driverekig
Hagyd, ugyanezt elmondtam neki, de úgytûnik hiába. Szerinte különbség van a között, hogy az nvidia technológiáját optimalizálják a doom3-ra, és a között, hogy a doom3-mat optimalizálják az nvidia technológiájára. Ezen nem tudok segíteni. Pedig az eredmény ugyanaz, egy nvidia pr anyag, és egy játék, amelyen az õ logójuk díszeleg. Pedig még ezzel sincs baj, hiszen az ATI ugyanezt fogja eljátszani kb a HL2 megjelenése elõtt. A gond csak ott van, hogy egyesek vakon hisznek máris ezeknek a grafikonoknak...
Én a múltkor azon is meglepõdtem, hogy a Far Cry milyen jól futott az MX440-emen. (Ráadásul úgy, hogy egy pár dolog "medium"-on volt)
Lehet, hogy Doom 3-azni is ezzel fogok? :D
Nos. Nem igen akartam itt beleszólni a dolgokba, de függetlenként is látható hogy mennyire elfogult az ATI felé ez a cikk, és az nvidia prejudikációjáról, mindenáron történõ lehúzásáról szól. "egy nvidia pr anyag, és egy játék, amelyen az õ logójuk díszeleg." Ez a cikk szerintem meg erõsen SG- marketing PR anyag, amirõl csak az ATI logó hiányzik.
És tényleg távol álljon tõlem, engem egyik kártya sem érdekel, mivel már rég kinõttem belõle. Persze, lehet elfogultnak lenni egy egészséges szinten, de nem szabad átlépni egy bizonyos határt. És ezt, majdnem minden újságíró tudja.
A jatek evek ota ismert technologiajara otimalizaltak az nV kartyakat. A vita arrol szol, hogy Borg szerint az ATI-nak nem volt ra lehetosege az utobbi - hany is? - 4 evben?! De mind1, en kiszallok ... remenytelen ...
Borg, a Far Cry 1.1 lassabban ment az nvidia kártyákon eddig, mint az ATi kártyákon. Most _nagyon_ sokszor a 6800 a gyorsabb. Nem értem, miért kérdõjelezed meg (ráadásul ____egyetlen____ játék egyetlen peccse alapján) a SM 3.0 létjogosultságát. Elérte a célját? Utolérte sebességben az X800-at? Igen. Ennyi.
Azt mondta JC, hogy egyik sem férhetett hozzá a kódhoz. Hogy optimalizálsz olyanra, amihez nem férsz hozzá? Ha figyelembe vesszük, hogy 2002-es E3-on ATi kártyán mutatták be az alfát, akkor meg nem is tudom, kinek volt lehetõsége hozzáférni (kit is gyanúsítottak a kiszivárogtatással?).
"Carmack ezenkívül arra is felhívta a figyelmet, hogy a Doom 3 akár a videokártyák tuningkorszakának is véget vethet, az újdonság ugyanis teljesen új szemszögbõl közelíti meg a dolgokat, olyan újfajta programkódokat és eljárásokat alkalmaz, amelyek a legújabb videokártyák mindeddig kihasználatlan tranzisztorait is megmozgatják." Ez így van; "Ezáltal pedig egy komolyabb órajel emelésnek, vagy olyan tuningnak, ami eddig hibátlanul mûködött a videokártyánkon a Doom 3 esetében bizony komolyabb grafikai hibák is lehetnek a következményei."
ez viszont szerintem a softmoddolt kártyákra vonatkozik.
"Carmack ugyanis azt is elmondta, hogy néhány esetben pontosan meghajtó problémák vetették vissza az ATI kártyák eredményeit a teszt során. " ezért kikerülte õket.
kiváncsi vagyok mit értettek meglepõen jó játékélményen
a fejlesztõk vegyük alapul az elmúlt UT tech demót a 2-3 fpssel is elvannak:D
õk maguk meg csak a fél világ tudja hogy csak nv karikkal dolgoztak.... szevasz nyiss már csipát!
pedig valahol mondta, hogy csak ati kártyájuk volt a fejlesztés során (talán valamelyik doom3as cikk) és hogy atiból nuku, úgyhogy csak azzal dolgoztak
az ati meg épp úgy nem fért hozzá mint az nvidia
ettõl függetlenül viszont a játékírók nv-n csinálták
mi ebben a bonyolúlt
jó most fikázni a másikat a fan-ossága miatt aztán kijön a pecs és mindannian néztek egyet mert vodoo specifikus kódja lesz és dob6játok ki a karijaitokat:D
Most már eléggé lerágtátok a témát de egy-két dolgot még kérdeznék...
1. Ha az nVIDIA pénzzel szponzorálta a id Softwaret, miért ne kérhette volna hogy a Doom3 a saját kártyáira iródjon (jobban)? Ugye-ugye az ATI és a Half Life 2.... Ugyan ez az eset... 2. Hol ezzel a probléma? 3. "...marketing gépezet..." azt hiszem mostanában egyre inkább negatív tartalommal párosul (helytelenül) vagy negatív kontextusban tûnik fel (szintén helytelenül) ez a szó. Nem jó ez a tendencia, hiszen ha belegondoltok, ha ti gyártanátok valamit persze, hogy az elõnyeit próbálnátok kihangsúlyozni a hátrányai helyett. Hülyék lennének maguk ellen beszélni. Az hogy a dolgoknak csak az egyik oldalát világítják meg még nem jelenti azt hogy hazudnak vagy csalnak (sajnos mondjuk volt rá példa ) 4. Hogy vannak bizonyos "szakmai" oldalak akikrõl évek óta lehet tudni hogy melyik processzor vagy videokártya gyártó elkötelezettjei az természetes. Ezzel sincs probléma, csak képben kell lenni és nem kell mindent elhinni. Mert persze utána jön a csalódás és az anyázás. 5. Régebben volt egy jobb idõszak amikor vhogy eltûntek azok az emberek akik csak azért írnak be egy fórumra hogy a másikat köpködjék a véleménye miatt. Igaz hogy ez egy szabad ország és szabad a véleménynyilvánítás, de basszus azért mert különbözõ a véleményetek nem szabad egy bizonyos szint alá menni. Vitatkozni lehet normálisan ( tényekkel alátámasztva jól megindokolva, nem csak úgy idehordva a hülyeséget, abból van amúgy is elég). Jah a parasztok meg húzzanak... Visszaolvasva sztem leszûrhetõ hogy kire/kikre gondoltam. 6. Talán feleslegesen pazarolom itt a biteket, mivel [HUN]PAStheLoDnak volt igaza...
Bocs, egy kicsit félreérthetõ amit írtam a 2. kérdésemben, és részben válaszolok is rá.
Szóval: azzal nincs baj HA támogatnak. Azzal már inkább hogy az ESETLEGes optimalizálás miatt csúszik a game, vagy ezzel TALÁN a másik gyártó termékeit preferáló felhasználókat hozzák nagyságrendekkel rosszabb helyzetbe.
Sziasztok!
Nem birtam ki,hogy ne irjak pár sort. Gyerekek nem mindegy, hogy ki mire esküszik? Van akinek az Ati, van akinek az Nvidia jön be. Az Nvidia-s soha a büdös életben nem fog meggyõzni egy Ati-st, hogy jobb az Nvidia és az ATi-s sem az Nvidia-st. Már csak azért sem mert mindkettõ görcsösen ragaszkodik a maga kis elméletéhez. A helyzet az, hogy a végtelenségig lehetne bizonygatni mindkét fél részérõl a dolgot, hogy melyik a jobb.... Próbáljatok meg kiegyezni abban, hogy mindkét kártyának megvan a maga elõnye, haszna, jó és rossz tulajdonsága.
Üdv, Magnetic
Na ezt akartam én is mondani hogy sokan lökik a süket dumájukat a hozzászólásukkal, de valójában egyikük sem támasztja alá tényekkel a mondanivalóját.
Hehe, itt mindenkinek 19 colos képernyõje van 6800U vagy x800xt-vel, hogy azon veszekedtek, hogy 1600-as felbontásban melyik ír ki 5-el több FPS-t? Röhej. 68,5 és 51,8 FPS. Én például észre nem venném, a különbséget. Ismerek embereket, akiknek kilómnéterekkel jobb gépe van az enyémnél, de csak 15 és 17 colos képernyõjük van. Hát most õk nem fognak elkezdeni sírni, hogy nem tudnak 1600-as felbontásban játsszani. Én örülnék 800x600-as felbontásnak szûrõk meg élhomályosítólk nélkül 25-30 FPS-nek. A thief 3 8-10 FPS-el megy low-on, de mégis az árvaháznál járok, és alig zavar a szaggatás. Ez az 5-10 FPS különbség viszont a gyengébb kártyáknál fog jobban kijönni annál a határnál, amikor is már folyamatos képet látunk. Mondjuk a gyengébb kareszokról nincs teszt, hogy ott is jobban teljesít-e az nV.
Na hogy a végére valami értelmeset is írjak a Doomnál az nV-sek a HL2-nél az Atisok fognak jobban járni. Sajna az Ati nem tehet róla, hogy az nV dugig van pénzzel. Atifan vagyok, csak hozzátenném.
Tekintve a közeli megjelenést teszteltem már egy kicsit magamnak a DOOM3 beta2 nevezetû verzióját 2,6-osP4,FX5800,512MB RAM, 62.20-as driverrel (eddig csak 41-essel indult az meg nem ismerte a kártyám). 1280x104 4XAA,8XAF mellett (persze a játékban minden efekt be volt kapcsolva, maxra volt téve) igaz hogy csak átlag 20FPS mellett ment a játék mégis játszható volt. (Talán ez az a csodaoptimalizáció, hogy egyenletesen leadva az alacsony FPS is folyamatosnak látszik?) Ugyanezen beállítások mellett 1024X768-ban már viszont adta a 30-40FPs-t ahogy kell. Meglepõ, mert a képminõségen szinte semmi változást nem tapasztaltam, biztos szar a beta de 10-percet nem sajnáltam tõle. Vagyis nekem sem a gép miatt kell beszarnom ha játszani akarom.
"Ami azonban sokkal inkább meglepõ, hogy az FX 5950 Ultra fej-fej mellett volt képes teljesíteni a 9800XT-vel, sõt, komolyabb szûrõk használatával még valamelyest gyorsabb is volt nála." Egyáltalán nem meglepõ. Az NV35 megjelenése (majd másfél év óta) lehetett tudni hogy így lesz. Persze a fanatikus ATI-sok mindíg is habzó szájjal tagadták ezt, de most elérkezett az igazság pillanata és jól látszik, hogy ismét csúnyán beégtek.
1280-as felbontáson nem is tesztelték?
Azt lehagytam, hogy a játékosok nagy része nem rendelkezik 19 colos képernyõvel, de 17-el már igen, és õket inkább az 1280-as felbontás érinti.
...Nem is tudom mit mondjak... Azért számomra ez elszomorító, hogy itt összesen hárman vannak akik épp ésszel gondolkodnak, remélem tudjátok kikre gondolok. Nem kell ahhoz Ati fan-nak lenni, hogy az ember észrevegye a tényeket. nem tudom hogy az nV szája hogy fog majd állni, amikor megkapja az elsõ ütést az Ati optimalizált meghajtójától, majd a másodikat Gordon Freeman bácsi személyében = a HL 2 legalább ilyen grafikonokat mutat majd, annyi különbséggel, hogy ott az élen az Ati kártyái lesznek, ez az optimalizáció hatalma. Az a baj, hogy sokan ennyire elkötelezik magukat az nV mellett, ezt ahhoz tudom hasonlítani hogy az ember meggátolja a saját fejlõdését... Az Ati technológia sokkal elõnyösebb, itt megint azt mondom hogy gondoljunk a Half Life 2-re. Csak hasonlítsátok össze a gépigényét a Doom 3-éval. Majdnem annyi a különbség mint mondjuk a Mohaa és a Far Cry gépigénye között, de mégis, a HL2 sokkal változatosabb játékélményt és jobb hangulatot fog nyújtani, ha lenne 1000000+x forintom mindet rátenném arra, hogy sokkal jobban be fog válni, és ismét arra esküszök, hogy az nVidiára optimalizált D3 enginje csak egy technikai demó, ami nagy szórakozást nyújt majd az 500000 Ft-ot érõ erõmûvel rendelkezõ embereknek 20 órára, és a csodálatos grafikától eltekintve a játékélmény felejthetõ lesz.
Nem is értem, hogy miért kell állandóan a két tábornak fikázni egymást. Miért van mindenki a másik kártyájával elfoglalva? Kicsit olyan ez, mintha mindenki azt lesné, hogy mennyi fizetést kap a másik, nem pedig azt, hogy saját maga mennyit keres. Vagy megfelel, vagy nem. Ha nem, akkor kell váltani. Engem egyedül az érdekel, hogy az én gépemen hogyan fog menni. Attól nálam nem lesz sem jobb, sem rosszabb, hogy másnál hogyan megy. A közölt teszteredmény tényleg pr szagú, ráadásul az információtartalma közelít a nullához, mert elvárható lett volna különbözõ felbontásokon és beállításokkal tesztelni, de így... Mellesleg 17-es TFT-m van, amin 1600x1200-at még ha akarnék, akkor sem tudnék megjeleníteni. 1280-at tudok, de nekem az 1024x768 is megfelel. P4 3G + 9800Pro konfigon talán nem lesz döcögõs...
Más: Megjelent az index mellékletén (prohardware), hogy a Doom3 csak XP-n és W2k-n fog menni, egyéb wineken nem. Ez szerintem megalol hír, ami egyébként a szintén megalol Chip német oldalán közöltek.
Én nem vonnék le semmilyen következtetést addig amíg nem láttad egyik játékot sem. Ez így vagdalkozás. volt már Nvidia meg ATI kártyám is. És valszeg nem X800-at fogok venni, mert elõbb utóbb a PS 3.0-ra is szüksége lesz a játékoknak és én akkor csak amiatt nem akarok új káryát venni... Jelenleg ATI-m van... Egy BBA-s 9500PRo 9700-ként hajtva...
"Ha az nVIDIA pénzzel szponzorálta a id Softwaret, miért ne kérhette volna hogy a Doom3 a saját kártyáira iródjon (jobban)?"
Tulajdonkeppen ez tortent.
"Ugye-ugye az ATI és a Half Life 2.... Ugyan ez az eset..."
Az teljesen mas teszta. Az ATI kartyai erosek PixelShader2-ben, es mivel a HL2 motorja erosen hasznalja azt, ezert tudott jol teljesiteni. Nem tudok olyan inforol, hogy az ATI a PS2-t a HL2-ert erositette volna meg. Es olyanrol se, hogy a HL2 az ATI-ra lenne kihegyezve.
"azzal nincs baj HA támogatnak. Azzal már inkább hogy az ESETLEGes optimalizálás miatt csúszik a game, vagy ezzel TALÁN a másik gyártó termékeit preferáló felhasználókat hozzák nagyságrendekkel rosszabb helyzetbe"
Jeleneg ugy nez ki, hogy a HL2 azert csuszik, mert a nVidia kartyakra kell optimalizalni. Az NVidia nagyon eros nyomast gyakorolhatott a Valvera.
"És valszeg nem X800-at fogok venni, mert elõbb utóbb a PS 3.0-ra is szüksége lesz a játékoknak és én akkor csak amiatt nem akarok új káryát venni..."
Amugy ez egy jo vitatema lehetne. Az elkovetkezo par evben a jatekok tomege valoszinuleg a HL2 es a D3 grafikus motorjat hasznalja. A HL2 csak PS2-t hasznal, mig a D3 meg azt se. Igy inkabb az a kerdes, hogy azert a nehany jatekert erdmes-e nVidiat venni. Kiveve persze ha amugy is gyorsabb az nVidia kartya bar ez sok esetben kerdeses. Az ATI valoszinuleg epp azert fejlesztett eloszor a DirectX9ben es nem lepett tovabb mert ugy gondolta, hogy ugyse tudna a piac kihasznalni a PS3-at.
Az a baj hogy mindnenki osztja itt az észt anélkül, hogy ismerné az elõzményeket. Ezt az eredményt már régen megjósolták. Az ID már több mint egy éve fáradozik azon, hogy az engine-jében gyakorlatilag cheat szerûen váltogatva a 16 és 32 bites pontosságot, jó eredményt érjen el az nVidia kártyákkal, a 24 bitet használó ATi kártyákkal szemben. Ezért csúszott ennyit a Doom3 !
Egyáltalán nem más tészta. Az FX-ek és a 6800-as széria nem a Doom-ra lett kihegyezve, hanem nagyon erõsek a stencil buffering mûveletekben és az egyéb árnyékok számításához szükséges dolgokban (mellesleg a 6800-asok pedig minden másban is). A Doom 3 megvilágítási modellje pedig éppen ezekre épül. Szuper, hogy mennyire tudod, hogy mi miért csúszik.
"A HL2 csak PS2-t hasznal, mig a D3 meg azt se." Meg PS1.1-et meg PS1.4-et meg PS2.0a-t és elõbb utóbb PS3.0-t is. A D3 meg szegényke azért nem tud ilyeneket használni mert ezek mind DX-es fogalmak az meg OpenGL-t használ.
"Az ATI valoszinuleg epp azert fejlesztett eloszor a DirectX9ben es nem lepett tovabb mert ugy gondolta, hogy ugyse tudna a piac kihasznalni a PS3-at." Miért szerinted a PS3 minek a része a DX10-nek? Vagy azért mert nem volt képes elõállítani és gyártatni egy ilyen tudású chip-et és azt hitte, hogy ez az NVIDIA-nak sem sikerülhet. Hát ezt jól bebukta.
Azért tudom mert én olvasni is szoktam nem csak írni.
"Az a baj hogy mindnenki osztja itt az észt anélkül, hogy ismerné az elõzményeket." Amit ez után írtál az tökéletesen megfelel ennek. Sok ok miatt is teljesen hülyeség amit a 16-32 bit váltogatásáról írtál, de egyébként erre majdnem 2 év állt JC rendelkezésére. Másfelõl már az 1 évvel ezelõtti tesztekben is széjjelalázta az NV az ATI-t D3-ban, úgyhogy ez megint nem stimmel.
Ha már sokan osztják az észt akkor én is megosztom veletek:DD ati +d3???na mi ez???xbox2ben milesz??? ===ati+microsoft=d3 A microsoft a directxben a 24bites pontosságot erölteti. :DDD (hát persze hogy ez is egy májkroszoft -billibácsi- anyszülemény) A 6800 már 32bites pontossággal dolgozik. Újabb kérdés a Doom3 32vagy 24bites pontossággal készül???Hát persze hogy 32. nv6800 ban mér rengeteg újítás van...
Én még mindig pártatlan vagyok, csak nem bírom amit az ati csinál.Régen az nv csodálatos :( sorozata -FX után az nv fikáztam. Mindenesetre most szivesen vennék egy 9600xt ...
Íme egy tipikus ember a sok közül, aki csak néz, de nem lát. Vagyis végignézted a grafikonokat, mint jelen esetben is, aztán azok alapján írták egy marha nagy baromságot. Olvasni is kellene ám néha.
Ha legalább arra vetted volna a fáradtságot, hogy Carmack szövegét elolvasd, akkor tudnád miért volt gyorsabb az "NV" az ATI-nál D3-ban, és miért gyorsabb most is. Mert a sebesség nem minden ugye, csak ezt szeretik elfelejteni, fõleg az nv ajnározók. Dehát a részleges precizitás mint fogalom gondolom semmit nem mond neked, szal kár is szót fecsérelni erre.
"impozáns – teljesen 32 bites lebegõpontos – architektúrát hoztak létre" ph!
A doom3 semmilyen pontossággal nem készül. Minden egyes grafikus processzoron külön renderpath fog mûködni, ami a maximumot hozza ki belõle. Ez igaz az NV40-re, és az összes ATI kártyára is. Egyetlen egy család van amire nem igaz, és az az NV30. Az ugyanis kegyetlen szar teljes precizitás mellett, és így (minden eddig megjelent D3 tesztben!) csupán FP16-al ment. Mindössze ez az az apróság, amit az "nvidia a gyorsabb b+" nevû szakértõk itt rendre elfejejtenek. Mindamellett, hogy a jelenlegi tesztben az ATI kártyák sem mûködhettek teljes sebességen, mivel nem optimalizálhatta rá a drivert még az ATI. Pusztán emiatt a 2 szempont miatt nem érnek semmit a fenti grafikonok, akárki akármi atifanvsnvfan dolgot akarna belemagyarázni a dolgokba.
Dehát ugye (most nem csak rád értve) akinek halvány gõze sincs a dolgok mûködésérõl, az pont ennyit tud hozzátenni a témához, hogy búúú atifan. Ennyi a konzekvencia.
Csak az a baj, hogy míg az ATI 24 bites pontossága jó teljesítménnyel és képminõséggel párosult, addig az nVidia kártyák lassúak voltak 32 biten 16 biten viszont rondák. Ezt a "hülyeséget" egy Carmack interjúból szedtem (ha jól emlékszem).
Olyan végtelenül nem értesz a dolgokhoz, hogy az már fáj. A "részleges precizitás" valóban nem mond semmit sem, mert magyarul pl. tök értelmetlen más nyelvben meg nem létezik. Ha valaha elolvastál volna egy OpenGL specifikációt akkor tudnád hogy ott nincs ilyen fogalom! De nem olvastál, ezért nem is tudod.
Nem tudom miért írtál le ennyi felesleges dolgot fx szar és kész.Igaz a fx megjelenése után már javítottak rajta....de ez most nem lényeg.
Ati optimalizációt hagyjuk, mert a d3 még se jelent meg.
A doom3 semmilyen pontossággal nem készül. -persze, de kihasználja az nv 32bites pontosságát.
Minden egyes grafikus processzoron külön renderpath fog mûködni, ami a maximumot hozza ki belõle.Ez igaz az NV40-re, és az összes ATI kártyára is... Ezzel kapcsolatban majd még írok....
Olvass utána hogy az id miért "tette" félre az atit.
Dehát ugye (most nem csak rád értve) akinek halvány gõze sincs a dolgok mûködésérõl, az pont ennyit tud hozzátenni a témához, hogy búúú atifan
Jajj de jót röhögtem ezen...a zárojelben már csak azt felejtetted ki, hogy: és én
Birom mikor sokan úgy szólnak hozzá a témához, hogy el sem olvassák a cikket aztán írnak sok okosságot és bölcsességet és megvannak róla gyõzõdve, hogy náluk senki sem tudhatja jobban.... :P
JC honapokkal ezelott bejelentette hogy az nV3x kartyak is standard ARB2-vel mennek az elozoleg tervezett speci nV3xpath helyett.
Az ilyen kitoreseiddel csak magadat egeted ... a rosszabbik lehetoseg ha meg valaki komolyan is veszi amit irsz.