Az a baj hogy mindnenki osztja itt az észt anélkül, hogy ismerné az elõzményeket. Ezt az eredményt már régen megjósolták. Az ID már több mint egy éve fáradozik azon, hogy az engine-jében gyakorlatilag cheat szerûen váltogatva a 16 és 32 bites pontosságot, jó eredményt érjen el az nVidia kártyákkal, a 24 bitet használó ATi kártyákkal szemben. Ezért csúszott ennyit a Doom3 !
"És valszeg nem X800-at fogok venni, mert elõbb utóbb a PS 3.0-ra is szüksége lesz a játékoknak és én akkor csak amiatt nem akarok új káryát venni..."
Amugy ez egy jo vitatema lehetne. Az elkovetkezo par evben a jatekok tomege valoszinuleg a HL2 es a D3 grafikus motorjat hasznalja. A HL2 csak PS2-t hasznal, mig a D3 meg azt se. Igy inkabb az a kerdes, hogy azert a nehany jatekert erdmes-e nVidiat venni. Kiveve persze ha amugy is gyorsabb az nVidia kartya bar ez sok esetben kerdeses. Az ATI valoszinuleg epp azert fejlesztett eloszor a DirectX9ben es nem lepett tovabb mert ugy gondolta, hogy ugyse tudna a piac kihasznalni a PS3-at.
"Ha az nVIDIA pénzzel szponzorálta a id Softwaret, miért ne kérhette volna hogy a Doom3 a saját kártyáira iródjon (jobban)?"
Tulajdonkeppen ez tortent.
"Ugye-ugye az ATI és a Half Life 2.... Ugyan ez az eset..."
Az teljesen mas teszta. Az ATI kartyai erosek PixelShader2-ben, es mivel a HL2 motorja erosen hasznalja azt, ezert tudott jol teljesiteni. Nem tudok olyan inforol, hogy az ATI a PS2-t a HL2-ert erositette volna meg. Es olyanrol se, hogy a HL2 az ATI-ra lenne kihegyezve.
"azzal nincs baj HA támogatnak. Azzal már inkább hogy az ESETLEGes optimalizálás miatt csúszik a game, vagy ezzel TALÁN a másik gyártó termékeit preferáló felhasználókat hozzák nagyságrendekkel rosszabb helyzetbe"
Jeleneg ugy nez ki, hogy a HL2 azert csuszik, mert a nVidia kartyakra kell optimalizalni. Az NVidia nagyon eros nyomast gyakorolhatott a Valvera.
Én nem vonnék le semmilyen következtetést addig amíg nem láttad egyik játékot sem. Ez így vagdalkozás. volt már Nvidia meg ATI kártyám is. És valszeg nem X800-at fogok venni, mert elõbb utóbb a PS 3.0-ra is szüksége lesz a játékoknak és én akkor csak amiatt nem akarok új káryát venni... Jelenleg ATI-m van... Egy BBA-s 9500PRo 9700-ként hajtva...
Nem is értem, hogy miért kell állandóan a két tábornak fikázni egymást. Miért van mindenki a másik kártyájával elfoglalva? Kicsit olyan ez, mintha mindenki azt lesné, hogy mennyi fizetést kap a másik, nem pedig azt, hogy saját maga mennyit keres. Vagy megfelel, vagy nem. Ha nem, akkor kell váltani. Engem egyedül az érdekel, hogy az én gépemen hogyan fog menni. Attól nálam nem lesz sem jobb, sem rosszabb, hogy másnál hogyan megy. A közölt teszteredmény tényleg pr szagú, ráadásul az információtartalma közelít a nullához, mert elvárható lett volna különbözõ felbontásokon és beállításokkal tesztelni, de így... Mellesleg 17-es TFT-m van, amin 1600x1200-at még ha akarnék, akkor sem tudnék megjeleníteni. 1280-at tudok, de nekem az 1024x768 is megfelel. P4 3G + 9800Pro konfigon talán nem lesz döcögõs...
Más: Megjelent az index mellékletén (prohardware), hogy a Doom3 csak XP-n és W2k-n fog menni, egyéb wineken nem. Ez szerintem megalol hír, ami egyébként a szintén megalol Chip német oldalán közöltek.
...Nem is tudom mit mondjak... Azért számomra ez elszomorító, hogy itt összesen hárman vannak akik épp ésszel gondolkodnak, remélem tudjátok kikre gondolok. Nem kell ahhoz Ati fan-nak lenni, hogy az ember észrevegye a tényeket. nem tudom hogy az nV szája hogy fog majd állni, amikor megkapja az elsõ ütést az Ati optimalizált meghajtójától, majd a másodikat Gordon Freeman bácsi személyében = a HL 2 legalább ilyen grafikonokat mutat majd, annyi különbséggel, hogy ott az élen az Ati kártyái lesznek, ez az optimalizáció hatalma. Az a baj, hogy sokan ennyire elkötelezik magukat az nV mellett, ezt ahhoz tudom hasonlítani hogy az ember meggátolja a saját fejlõdését... Az Ati technológia sokkal elõnyösebb, itt megint azt mondom hogy gondoljunk a Half Life 2-re. Csak hasonlítsátok össze a gépigényét a Doom 3-éval. Majdnem annyi a különbség mint mondjuk a Mohaa és a Far Cry gépigénye között, de mégis, a HL2 sokkal változatosabb játékélményt és jobb hangulatot fog nyújtani, ha lenne 1000000+x forintom mindet rátenném arra, hogy sokkal jobban be fog válni, és ismét arra esküszök, hogy az nVidiára optimalizált D3 enginje csak egy technikai demó, ami nagy szórakozást nyújt majd az 500000 Ft-ot érõ erõmûvel rendelkezõ embereknek 20 órára, és a csodálatos grafikától eltekintve a játékélmény felejthetõ lesz.
Engem ugyan úgy zavar az alacsony fps mint régebben a quake3ban.
"Ami azonban sokkal inkább meglepõ, hogy az FX 5950 Ultra fej-fej mellett volt képes teljesíteni a 9800XT-vel, sõt, komolyabb szûrõk használatával még valamelyest gyorsabb is volt nála." Egyáltalán nem meglepõ. Az NV35 megjelenése (majd másfél év óta) lehetett tudni hogy így lesz. Persze a fanatikus ATI-sok mindíg is habzó szájjal tagadták ezt, de most elérkezett az igazság pillanata és jól látszik, hogy ismét csúnyán beégtek.
Tekintve a közeli megjelenést teszteltem már egy kicsit magamnak a DOOM3 beta2 nevezetû verzióját 2,6-osP4,FX5800,512MB RAM, 62.20-as driverrel (eddig csak 41-essel indult az meg nem ismerte a kártyám). 1280x104 4XAA,8XAF mellett (persze a játékban minden efekt be volt kapcsolva, maxra volt téve) igaz hogy csak átlag 20FPS mellett ment a játék mégis játszható volt. (Talán ez az a csodaoptimalizáció, hogy egyenletesen leadva az alacsony FPS is folyamatosnak látszik?) Ugyanezen beállítások mellett 1024X768-ban már viszont adta a 30-40FPs-t ahogy kell. Meglepõ, mert a képminõségen szinte semmi változást nem tapasztaltam, biztos szar a beta de 10-percet nem sajnáltam tõle. Vagyis nekem sem a gép miatt kell beszarnom ha játszani akarom.
Hehe, itt mindenkinek 19 colos képernyõje van 6800U vagy x800xt-vel, hogy azon veszekedtek, hogy 1600-as felbontásban melyik ír ki 5-el több FPS-t? Röhej. 68,5 és 51,8 FPS. Én például észre nem venném, a különbséget. Ismerek embereket, akiknek kilómnéterekkel jobb gépe van az enyémnél, de csak 15 és 17 colos képernyõjük van. Hát most õk nem fognak elkezdeni sírni, hogy nem tudnak 1600-as felbontásban játsszani. Én örülnék 800x600-as felbontásnak szûrõk meg élhomályosítólk nélkül 25-30 FPS-nek. A thief 3 8-10 FPS-el megy low-on, de mégis az árvaháznál járok, és alig zavar a szaggatás. Ez az 5-10 FPS különbség viszont a gyengébb kártyáknál fog jobban kijönni annál a határnál, amikor is már folyamatos képet látunk. Mondjuk a gyengébb kareszokról nincs teszt, hogy ott is jobban teljesít-e az nV.
Na hogy a végére valami értelmeset is írjak a Doomnál az nV-sek a HL2-nél az Atisok fognak jobban járni. Sajna az Ati nem tehet róla, hogy az nV dugig van pénzzel. Atifan vagyok, csak hozzátenném.
Nem mondod?:) Amúgy 8500-asoknál lényegében csak órajelbeli különbségek voltak (275Mhz helyett 250, illetve "LELE" esetén 230).
Nem birtam ki,hogy ne irjak pár sort. Gyerekek nem mindegy, hogy ki mire esküszik? Van akinek az Ati, van akinek az Nvidia jön be. Az Nvidia-s soha a büdös életben nem fog meggyõzni egy Ati-st, hogy jobb az Nvidia és az ATi-s sem az Nvidia-st. Már csak azért sem mert mindkettõ görcsösen ragaszkodik a maga kis elméletéhez. A helyzet az, hogy a végtelenségig lehetne bizonygatni mindkét fél részérõl a dolgot, hogy melyik a jobb.... Próbáljatok meg kiegyezni abban, hogy mindkét kártyának megvan a maga elõnye, haszna, jó és rossz tulajdonsága.
Üdv, Magnetic
Bocs, egy kicsit félreérthetõ amit írtam a 2. kérdésemben, és részben válaszolok is rá.
Szóval: azzal nincs baj HA támogatnak. Azzal már inkább hogy az ESETLEGes optimalizálás miatt csúszik a game, vagy ezzel TALÁN a másik gyártó termékeit preferáló felhasználókat hozzák nagyságrendekkel rosszabb helyzetbe.
úgyhogy nem a cégek optimalizáltak hanem a játékfejlesztõk és nem a driver lett igazítva a gémhez
Most már eléggé lerágtátok a témát de egy-két dolgot még kérdeznék...
1. Ha az nVIDIA pénzzel szponzorálta a id Softwaret, miért ne kérhette volna hogy a Doom3 a saját kártyáira iródjon (jobban)? Ugye-ugye az ATI és a Half Life 2.... Ugyan ez az eset... 2. Hol ezzel a probléma? 3. "...marketing gépezet..." azt hiszem mostanában egyre inkább negatív tartalommal párosul (helytelenül) vagy negatív kontextusban tûnik fel (szintén helytelenül) ez a szó. Nem jó ez a tendencia, hiszen ha belegondoltok, ha ti gyártanátok valamit persze, hogy az elõnyeit próbálnátok kihangsúlyozni a hátrányai helyett. Hülyék lennének maguk ellen beszélni. Az hogy a dolgoknak csak az egyik oldalát világítják meg még nem jelenti azt hogy hazudnak vagy csalnak (sajnos mondjuk volt rá példa ) 4. Hogy vannak bizonyos "szakmai" oldalak akikrõl évek óta lehet tudni hogy melyik processzor vagy videokártya gyártó elkötelezettjei az természetes. Ezzel sincs probléma, csak képben kell lenni és nem kell mindent elhinni. Mert persze utána jön a csalódás és az anyázás. 5. Régebben volt egy jobb idõszak amikor vhogy eltûntek azok az emberek akik csak azért írnak be egy fórumra hogy a másikat köpködjék a véleménye miatt. Igaz hogy ez egy szabad ország és szabad a véleménynyilvánítás, de basszus azért mert különbözõ a véleményetek nem szabad egy bizonyos szint alá menni. Vitatkozni lehet normálisan ( tényekkel alátámasztva jól megindokolva, nem csak úgy idehordva a hülyeséget, abból van amúgy is elég). Jah a parasztok meg húzzanak... Visszaolvasva sztem leszûrhetõ hogy kire/kikre gondoltam. 6. Talán feleslegesen pazarolom itt a biteket, mivel [HUN]PAStheLoDnak volt igaza...
pedig valahol mondta, hogy csak ati kártyájuk volt a fejlesztés során (talán valamelyik doom3as cikk) és hogy atiból nuku, úgyhogy csak azzal dolgoztak
az ati meg épp úgy nem fért hozzá mint az nvidia
ettõl függetlenül viszont a játékírók nv-n csinálták
mi ebben a bonyolúlt
jó most fikázni a másikat a fan-ossága miatt aztán kijön a pecs és mindannian néztek egyet mert vodoo specifikus kódja lesz és dob6játok ki a karijaitokat:D
kiváncsi vagyok mit értettek meglepõen jó játékélményen
a fejlesztõk vegyük alapul az elmúlt UT tech demót a 2-3 fpssel is elvannak:D
"Carmack ugyanis azt is elmondta, hogy néhány esetben pontosan meghajtó problémák vetették vissza az ATI kártyák eredményeit a teszt során. " ezért kikerülte õket.
"Carmack ezenkívül arra is felhívta a figyelmet, hogy a Doom 3 akár a videokártyák tuningkorszakának is véget vethet, az újdonság ugyanis teljesen új szemszögbõl közelíti meg a dolgokat, olyan újfajta programkódokat és eljárásokat alkalmaz, amelyek a legújabb videokártyák mindeddig kihasználatlan tranzisztorait is megmozgatják." Ez így van; "Ezáltal pedig egy komolyabb órajel emelésnek, vagy olyan tuningnak, ami eddig hibátlanul mûködött a videokártyánkon a Doom 3 esetében bizony komolyabb grafikai hibák is lehetnek a következményei."
ez viszont szerintem a softmoddolt kártyákra vonatkozik.
Azt mondta JC, hogy egyik sem férhetett hozzá a kódhoz. Hogy optimalizálsz olyanra, amihez nem férsz hozzá? Ha figyelembe vesszük, hogy 2002-es E3-on ATi kártyán mutatták be az alfát, akkor meg nem is tudom, kinek volt lehetõsége hozzáférni (kit is gyanúsítottak a kiszivárogtatással?).
Borg, a Far Cry 1.1 lassabban ment az nvidia kártyákon eddig, mint az ATi kártyákon. Most _nagyon_ sokszor a 6800 a gyorsabb. Nem értem, miért kérdõjelezed meg (ráadásul ____egyetlen____ játék egyetlen peccse alapján) a SM 3.0 létjogosultságát. Elérte a célját? Utolérte sebességben az X800-at? Igen. Ennyi.
A jatek evek ota ismert technologiajara otimalizaltak az nV kartyakat. A vita arrol szol, hogy Borg szerint az ATI-nak nem volt ra lehetosege az utobbi - hany is? - 4 evben?! De mind1, en kiszallok ... remenytelen ...
Nos. Nem igen akartam itt beleszólni a dolgokba, de függetlenként is látható hogy mennyire elfogult az ATI felé ez a cikk, és az nvidia prejudikációjáról, mindenáron történõ lehúzásáról szól. "egy nvidia pr anyag, és egy játék, amelyen az õ logójuk díszeleg." Ez a cikk szerintem meg erõsen SG- marketing PR anyag, amirõl csak az ATI logó hiányzik.
És tényleg távol álljon tõlem, engem egyik kártya sem érdekel, mivel már rég kinõttem belõle. Persze, lehet elfogultnak lenni egy egészséges szinten, de nem szabad átlépni egy bizonyos határt. És ezt, majdnem minden újságíró tudja.
Én a múltkor azon is meglepõdtem, hogy a Far Cry milyen jól futott az MX440-emen. (Ráadásul úgy, hogy egy pár dolog "medium"-on volt)
Lehet, hogy Doom 3-azni is ezzel fogok? :D
Bocs , de ha jól emlékszem az nv6800 jelent meg elõbb. Igaz a boltok polcain már az ati x800pro volt hamarabb. :)
Az ati mindent elobb csinált, kiadta az x800 at elobb (néhány dolgot kihagyott belõle) és most akkor miért is sírnak hogy hátrányban van?????
Na ha egy Gef4MX-en jól fut (természetesen megfelelõ beállításokkal), akkor nekem sincs félnivalóm R8500LE-vel
Hagyd, ugyanezt elmondtam neki, de úgytûnik hiába. Szerinte különbség van a között, hogy az nvidia technológiáját optimalizálják a doom3-ra, és a között, hogy a doom3-mat optimalizálják az nvidia technológiájára. Ezen nem tudok segíteni. Pedig az eredmény ugyanaz, egy nvidia pr anyag, és egy játék, amelyen az õ logójuk díszeleg. Pedig még ezzel sincs baj, hiszen az ATI ugyanezt fogja eljátszani kb a HL2 megjelenése elõtt. A gond csak ott van, hogy egyesek vakon hisznek máris ezeknek a grafikonoknak...
de most te is elismerted hogy az nvidia technológiára optimalizálták a játékot, akkor nemértem min vitatkoztok az ati hónapokkkal ezelõtt kiadott kártyája viszont MÉG hátrányban van, az uj driverekig
Ha valamit optimalizalnak egy technologiara az egeszen mas mint ha egy adott demo futasat optimalizaljak! Ehez nem kellett hozzafernie az nV-nek a timedemohoz. A technologiara meg az ATI is ugyanugy optimalizalhatott, ilyen kozlemeny nem jelent meg sehol, hogy az ID elzarkozott volna az ATI hardvereitol ... ez a te elmed szulemenye ...
" A tesztelõk például kipróbálták a játékot egy 1,5 GHz-es Pentium 4 és egy GeForce 4 MX440 társaságában, és elmondásuk szerint meglepõen jó játékélményt nyújtott még ez a párosítás is"
Azért nem bántam volna ha csinálnak 1videót hogy kb hogy ment rajta.
Ezt akár rád is lehetett volna mondani... Nem bírod elviselni, hogy az nv valamiben jó és kész. Te egybõl kötekedsz---csal, ez nem lehet, stb.
"hogy még mindig csak ott tartasz hogy atifan vs nvidiafan " Hát igen TE tartasz még mindig itt. De sebaj másol nincs így- ph!
Carmack meg az Fps pápa, aki az nvidiát favorizálja, emésszétek meg.
elõbb jöjjön ki , addig nem fecsérelek énse szót ilyen cikkekre :))
Bocs, de most ugye csak tippelsz, mennyit gyorsít ez az U.S. dolog (ami már FX-eken is volt)? Az egy másik dolog, hogy a játékok többsége nem használja.
u.i. én le tudom vonni a következtetéseimet. Több félét is. De(?) akkor is szeretem látni az érem mindkét oldalát.
Ami számodra inkább aggasztó lehetne, hogy még mindig csak ott tartasz hogy atifan vs nvidiafan Ez a hozzáállás is csak arról árulkodik, hogy fogalmad sincs mirõl van szó, csak beírsz néha valamit.. de ne aggódj, ezzel nem vagy egyedül.
Tudjuk borg te voltál a másik fejlesztõ carmack mellett.
Figyelj, olvasd már el Carmack nyilatkozatát! Õ maga mondja el, hogy nvidiára optimalizálva van driver oldalról is. "On the other hand, the Nvidia drivers have been tuned for Doom's primary light/surface interaction fragment program" Szal ennyit arról, hogy az nvidia hozzáfért-e... Nem értem mit lehet olyan nehezen felfogni? Az egyik fél optimalizálhatott már rá, a másik pedig nem. Ezért nem objektív a teszt, nem mutat semmit. Szal NEKED mi is a gondod? Mert nekem nincsen.
Valószínûleg semmivel. Azt nem válthatja ki, kétségtelen, hogy a 6800-as kártyákon jobban fog menni valamivel a D3. Azonban ez nem magyarázat sem a 6800u 32%-os elõnyére itt-ott, sem az fx 5950u elõnyére a 9800xt-vel szemben. Szerintem bõven 5%-alá csökken majd a valós különbség az x800 és 6800 kártyák között, amint az ATI is adhat ki optimalizált drivert. Carmack is irta, hogy vannak gondok a jelenlegivel, amitõl visszaesik a teljesítmény bizonyos helyeken. Nem beszélve arról, hogy az x800xt általánosan gyorsabb a többi játékban a 6800 ultránál is, elég csak megnézni a legújabb farcry 1.2 tesztet. Az 5950u pedig csak 16bitFP módban érhette el ezt a teljesítményt ez gondolom már egyértelmû mindenkinek, az eddigi játékok és tesztek alapján, tehát megintcsak nem objektív a teszt (tessék elolvasni az ati válaszát a tesztre, a fórumban) Szal errõl szólt az, hogy ez mindössze nv pr anyag, és nem használható, reális teszt. Persze távol álljon tõlem, hogy bárkit is meggyõzni próbáljak, ezen már rég túlvagyok. Ha valaki nem tudja levonni a maga következtetéseit...
Kicsit unalmas már az SG vak nVidia gyûlölete. Ez egyébként önmagában még nem lenne baj, csak amikor a tényeket sem igazán veszik figyelembe és ezt még terjesztik is, az már - legalábbis számomra - aggasztó.
Lehet, hogy mostanság nem egyedûl én fogok gépet 'újítani' :)
Borg már teszetelte a Doom3at x800 és 6800 -zal.[br] De belenézett mindkét kártya driverébe és rájótt hogy nv optimalizalt. DE már itt tart a d3 forrásába is belenézett. Rájött nv csal!! Ati -részérõl nagy g**iség volt kihagynia kártyáiból a sm3.0 át. (Mielõtt valaki azt mondaná hogy istanítem az nv-t az téved.)
Még az a szerencse, hogy a Radeon 9800 XT és nV 5950 teljesen átlag kártya itthon (is) :))
Semmi ilyesmit nem irtam. De mond, te milyen kovetkezteteseket vonsz le abbol, hogy egy olyan tesztet kozolnek le, amiben csak nvidia optimalizacio van, az atinak pedig a d3-mat soha nem latott drivereivel teszteltek? Ha te ezt objektív tesztnek nevezet, hat hajra... engem hidegen hagy a velemenyed.
Ezt te sem gondolhatod komolyan!! Egyszerubb lenne azt irnod, hogy az nV termekek nem lehetnek gyorsabbak semmilyen korulmenyek kozt egy ATI termeknel, mert ATI Roxx es kesz.
Hazudik JC, az nV, a HardOCP, az osszes oldal aki lemeri kozolni az eredmenyeket es az osszes oldal - Beyond3D, 3Dcenter, stb. - akik nV kartyakat kivesezo cikkekben reszletesen taglaljak milyen technologiakat vet be az nV a Doom3 engine gyorsitasara. Az nV nem a Doom3 teljesitmeny miatt tette kockara a kartyait, nem erre fejlesztette a hardvereit eveken at! Nem! Itt csak hazugsagrol es csalasrol lehet szo!
Btw, amit itt látunk, az semmi más mint nVIDIA PR anyag. Míg õk optimalizálhattak rá, addig az ATInak nem volt beleszólása. Ezért születtek ezek az eredmények, amelyekkel az nVIDIA most még gyorsan felvág egész addig, míg az ATI ki nem adja a D3 javításokat/finomitásokat tartalmazó driverét (a nyilatkozat szerint 2 héten belül).
A fórumban olvasható az ATI válasza a D3 eredményekre. Ugyancsak nem meglepõ, fõleg azoknak ajánlom, akik bármi részrehajlást vélnek felfedezni a hírben...
Igen a cikkírója egyértemüen ráment az nVidia fikázására. Ez a demagóg minek a PS3.0 már egy kicsit unalmas. Amugy meg 20-án jött ki a geforce 6800 -hoz a stereo 3D driver, így már a DOOM 3 is játszható lesz sztereó 3D-s eszközökkel. Már készítem is az I-glasses PC 3D -met :))))
wow. hogy oda ne rohanjak meg vissza. egy év múlva ez is jó game lesz, arra már lesz egy paks-om otthon, amin jól fog futni... amúgy meg kicsit nvidia suxx, ati rulez szagú ez a cikk, bár ez szvsz volt...
"A tesztelõk például kipróbálták a játékot egy 1,5 GHz-es Pentium 4 és egy GeForce 4 MX440 társaságában, és elmondásuk szerint meglepõen jó játékélményt nyújtott még ez a párosítás is. "
Igaz rédon 9700-am van, de kiváncsi vagyok, hogy az 1,46-ra tuningolt tualatinommal mit fog prezentálni :P