áááááá szokásos nVIDIA dizájn.... legalább utolérik a radeon8500at:)
Anee! Nemá! A bitboys fiúk meg már 5 éve gyorsabb kártyát csináltak, mi? Nyugodjál már le! Miért nem fogy az a Radeon, ha olyan jó? Én mindenhol csak Geffeket látok, ha teljesítmény kell.
igen sok boltban azt se tudják hogy van új radeon......de akkor is jobb beláthsatod csak nvidia buzi a nép mertt mindenhol azt látják hogy vég gf/2/3at...
Asszem én kivétel vagyok. Én végre el tudtam adni az GF2MX-em és veszek mást, ami nem nvidia. Igaz még van esély rá, hogy egy GF2Ti/GTS lesz belőle, de inkább a Radeon 32DDR felé kacsintgatok és persze a Butterfly KYROII felé.
Különbözõ források szerint a GeForce4 januári debütálásával kapcsolatban korábban megjelent híradások megjelenésük idõpontjában hitelt érdemlõek voltak, vagyis az Nvidia eredetileg már a jövõ héten Las Vegasban megrendezésre kerülõ CES (Consumer Electronics Show) szakkiállítás keretein belül kívánta bemutatni újdonságait, azonban a cég vezetõi végül különbözõ ismeretlen indokok miatt a debütálás mintegy egy hónappal történõ elhalasztásáról döntöttek. Az Nvidia képviselõi az ExtremeTech munkatársainak egyébként egyelõre semmilyen konkrét információt nem adtak a GeForce3 utódjáról, sõt még azt sem kívánták megerõsíteni, hogy az újdonságnak GeForce4 lesz a végleges neve, igaz ezt cáfolni sem kívánták. Szakértõk szerint teljesen biztosra vehetõ, hogy az Nvidia GeForce4-nek hívja majd aktuális nagyágyúját, ugyanis ez mindenképpen logikus lépésnek bizonyulna, másrészt az Nvidia partnereitõl a közelmúltban több olyan dokumentum is kiszivárgott, mely GeForce4-ként hivatkozik a cég újdonságára
hát 1GHz es duci hoz még elég az a v3-) és csak egy driver kell hozzá...bár még sosem volt nvidiám, és hacsak nem használják fel a már felvásárolt voodoo nevet (amire ugyan csekély az esély de van) akkor nem is lesz nvidiám...nem kell mondanom hogy miért-)
Hát ha ennyire unod vegyél radeon8500LE-t.:-) Amúgy V3hoz elég jó driverek vannak amíg nem lesz új azzal is lehet sokat csiholni
En taboron kivul leszek:))) Es mert gondolod mert sokat kell buzizni a radeonokkal erre azt mondom vegre:))))) Unom mar hogy a nvidiat berakom es ot perc mulva belottem mindent csukott szemmel lehet hogy hulye vagyok de ez van:D
Hmm...NVidia avagy 3Dfx? Egyik se! ;) Mindkettő egy rakás szar. Csak azt nem tudom eldönteni, melyik a gagyibb: Az MX400 vagy a V3! Látszólag a válasz egyszerű, tehát a V3, de szerintem az MX400 sokkalta nagyobb égés, mert két generációval újabb mint a V3, de olyan fos képe van, amit még egy TNT2-nél se kéne szó nélkül hagyni. Na, azért a V3-at se kell félteni, hisz a tök homály, nevetségesen mosott és randa kép előállításában még mindig Ő az úr... Ó, az MX400 meg épp az ellenkezője! A Z-Buffer egy akkora kupac fekália itt, hogy az akkora cakkokkal, mint amekkorákat az MX Z-Buffer-e produkál, jobb helyeken mammutfenyőket lehetne fűrészelni, no de az auto mipmap-ra se lehet panasz, hisz az iszonyú recékkel-cakkokkal szétszabdalt, meggyötört képet még megspékeli egy nyolc rétegből álló ködfelhővel, úgyhogy valamennyire még kivehető képet csak az orrod elött láthatsz, távolabb már csak a rendkívül nagy objektumok láthatóak - vagyis a cakkok! Jee...a modern technika két remekbe szabott példánya... Még szerencse, hogy az NVidia felvásárolta a 3Dfx-et - két hülye, egy pár...
Az MX a tippikus olcsókártya. A V3 közel sem volt az a maga idejében. A V3-hoz szerintem minimum egy GTS-t kellene hasonlítanod. Minimum.
Olcsó kártya vagy sem az MX, a GTS-be se implementáltak se jobb Z-Buffer-t, sem pedig normális auto mipmap funkciót csak az órajeleken bütyköltek egy csomót, meg minimális driver változtatásokat eszközöltek, ennyi. Én most nem a gyorsaságról beszéltem, hanem a képminőségről - márpedig az mindkettőnél nevetséges!
Nem, nem Randomot. ViperII-őt (még mindig), ami lazán lenyomja az MX-et, ha egyenlő feltételek mellet tesztelik őket (vagyis T&L nélkül futtatom a tesztet az MX-nél, lévén a Savage2000-ben D3D alatt nem müxik a T&L), ami nem feltétlenül azt jelenti, hogy a Savage olyan jó volna, hanem inkább azt, hogy az MX egy nagy rakás szar (csak a T&L bekapcsolásával tudja némileg lekörözni a T&L-t nem használó Savage-t...)!! A Savage egy generációval idősebb (sima GeForce256-ossal egyidős), mégis lenyomja az MX-et, de ráadásul 1000000x szebb képet produkál és ez nálam jóval fontosabb szempont, mint az, hogy milyen gyors. A V3 meg szót se érdemel - szánalmas...
Ja, én aztán egy tökéletes sznob vagyok - egy elit Savage2000-rel, hát persze. Egyébként soha nem fikáztam az Intel-t (csak az AMD-t... :D), a MS-t is csak mértékkel (mert azért néha tényleg adnak rá okot), utálom a tömegcikkeket, tehát mindezekből bizonyosan kiderült: Igen, ő egy igazi, hamisítatlan sznob! Júúj, lebuktam... Én nem passzióból fikázom az NVidia-t, hanem azért, mert szar kártyákat gyárt, amiket a remek marketinggel mégis el tud adni sajnos. A képminőség (vagyis inkább annak hiánya) önmagáért beszél, nem kell semmi fiktívet koholnom, hisz ott van az orrom elött a borzadály (mígnem az is az auto mipmap második rétegének ködébe vész...)
Hat igen nagyon jo az nvidia lenne leht hogy voodoo2 tolockodna mindenki:DDnajo e eros volt:)) DE figy beraksz egy nvidia kartyat megy minden egyszeruen es jol.
telleg jo lehet egy olyan videokartya amihez 3 eve nemtudnak normalis drivert irni... w2k drivert meg meg nem lattam hozza... xp driver is csak nemhivatalos van.
Hihi.
Beszálljak??????????
Nos, nem hinném, hogy a COPAQ-EVO-ba szar, noname MX-et raknának...és tényleg nem!
Amúgy elmondom még egyszer: Itt nem a gyorsaságról beszélek, hanem a képminőségről és az adott, mivel a chip képességeit tükrözi. A brand MX-hez képest legfeljebb a Butterfly MX-nek lehet szarabb képe, mert azok még drivert se írnak hozzá, de különben jórészt csak teljesítménykülönbség tapasztalható s mint már mondottam, az nem érdekel annyira, sokkal inkább, hogy mit is kell bámulnom, ha elindítok egy gamét.
Ha ez nekem szólt, akkor alaposan el vagy tévedve ám! Inkább nézz utána a dolgoknak, aztán írogass: Az egyetlen, MicroFos által is legalizált Viper II-es driver pont Win2k alá készült, úgyhogy ez nem jött be. Mint azt már leírtam, nekem nem szükséges fiktív információkat koholni ahhoz, hogy le lehessen hordani a GF2-t, elég arra a rendelkezésre álló tényanyag is. Ha javasolhatom, legközelebb te is tényekkel próbálkozz, abba már nehezebb belekötni!
szerintem az teny hogy nem latam hozza w2k drivert... mert telleg nem latam kerestem egynehany oldalon de nincs... ezekszerint van egyket eldugott oldalon driver hozza... mindegy sok sikert a csudijo videokartyadhoz :)
Ja, a roppantul eldugott, világéletében underground voltát hangoztató és a csupán másfélmillió ember által meglátogatott SavageNews (mely nevével ellentétben semmiféle kapcsolatban nem áll(t) a néhai S3-mal) oldalon elég nagy bőséggel állnak rendelkezésedre akár Linux alá is Savage2000 driver-ek. Hja, az hogy béna vagy még nem jelenti azt, hogy nincs is driver. Én kb. két prec alatt rátaláltam, de hát nem mindenki egyforma...
Lehet, hogy nem az NVidia honlapján kellett volna driver után kutakodnod Savage-hez, vagy esetleg nem azt kellett volna beírni a Google-ba, hogy "Vájper kettő windóz kétezer drájver" és meg is találta volna...
Az egyetlen itt elhangzott tény az, hogy tehetségtelen vagy, nem az, hogy nincs driver...
Én a Radeon driverein vagyok kiakadva... Beállítom OpenGl-t maxra (mindent 4x AA +isothropic filtering max) Belépek Q3-ba erre ugyanaz a fos kép. kilépek ellenőrzök. hát a marha visszarakott mindent defaultra.kipróbáltam mindent. R3d tweak, driver(8008). Szoktam lan partikra járni ( no nem eq) és ott rajtam kívül mindenkinek nVidiája van ( Elsa gef256-2xAbit gef2 MX400 64DDR) és azokon gyönyörű a kép ha be van állítva. én meg itt sz@rakodok a 60000Ft-os DDR-es ViVo-s kártyával és az istennek nem akarja produkálni ugyanazt. Jó mondjuk sebességben mint a sz@r úgy hagyja le a Geforcokat , de azért a képminőség nekem sokat számítana.
Jesszus, ha neked a GeForce-ok által generált kép gyönyörű, bele se merek gondolni, vajon milyen lehet akkor a Radeoné... :)) A Geforce2 dobozára rá kéne írni: Vigyázat! Túlzott használata a monitor károsodásához vezet. Életveszélyes méretű/élességű recék és cikcakkok a képernyőn, hozzáérni tilos! ;)
Ó dehogy, ugyanazon a monitoron, mitöbb, ugyanazon a gépen ahol a mostani kártyám is van, mivel kíváncsiságból áttettem tesztelni az egyik gépből a másikba, csakhogy tisztességes legyen a dolog. Ezek után állítom, hogy a GF2 képminősége a béka segge alatt van (vagy tán ott se) a régi kártyáméhoz képest. Ha a saját kártyámat ilyen vehemensen fikázom (megjegyzem, nem én választottam, akart a fene NVidia-t), akkor nem gondolod, hogy nem divatból vagy unalomból teszem, hanem mert LÁTOM, hm?!
"Az a baj, hogy az érveid egyszerűen nem igazak. Olyan, mintha azt állítanád egy labdáról, hogy az bizony kocka. Egyszerűen nem igaz! Engem nem érdekelnek a műszaki adatok, hanem a végeredmény. És az jó!" Neked úgy tűnik nincs összehasonlítási alapod. Úgy persze tényleg nehéz megérteni, miről is beszélek... Egyébként egészen eddig azon téptem a számat, hogy nálam is a képminőség a fontosabb, nem a sebesség, erre visszaírsz úgy, mintha csak száraz adatokkal és teszteredményekkel bombáztalak volna...
nemtom GF3 ti200 képe sajnos nem éri el a radeonét annak meg aszongyák hogy jobb mint a gf2nek...szóval lehetne szépiteni nVIDIAéknál
nézd szerintem az utolsó nvidia kártya , aminek ordenáré volt a képe az a TnT2-volt. azóta ,jó lehet hogy nem a legszebb de azért nem kéne még pocskondiázni. egyébiránt nekem is radeonom van (mily meglepő) és tudom hogy sokkal szebb a képe, de mint említettem a geforcé sem olyan rossz mint mondjátok.
ha szar lenne a képe ki sem adnák..... így csak egy erős közepes
Erős közepes????? Na, ha eddig nem sikerült meggyőznöm a kétkedőket verbálisan, most vizuálisan talán sikerülni fog:
Ezek a képek a saját MX400-am és Savage2000-rem képei, 640x480x16bit-en, tehát kisarkítva, így elég látványos az eltérés. Azt ugye mondanom sem kell, hogy a "kicsit rosszabb" képek az MX400 képei, a második, negyedik és hatodik kép pedig a ViperII képe.
Ha ez nektek közepes képminőség, én megeszem a kalapom!!
Várj türelmesen, jönnek azok, csak elég nagyok, mert nem akartam őket letömöríteni Jpeg-be, akkor romlik a minőség és nem hiteles. Ha végképp nem jön be, írd le hogyan töltsem fel és hová, mivel én csak Tár-ra szoktam, ezt nem ismerem.
Asszem ebből mégse lesz semmi, mivel ez az ftp olyan qurrva lassú, hogy képtelenség bármit is megnyitni illeve feltölteni. Azért még próbálkozom, de nekem meg ez a szar és nem a Tár.
Végül mégis sikerült feltölteni, de nem tudom, hogy ftp-ről működni fog-e a belinkelés...mindjárt meglátjuk. Egyébként az ftp://supergames.hu/upload/MX400vsViperII könyvtárban megtalálható.
ha jollatom ez a 3dmark 2000 nos ezt utoljara a tnt2 m ön futtatam, de hogy ott is szebb volt mint neked a mx el az tuti. lehet el van allitva a drver a sebessegre, nem pedig a kepminosegre
Nem, nincs. Vegyes-re van állítva, ami lefordítva 0.0-ás dbias értéket jelen, tehát az alapbeállítást. A Savage is 0.0-ás dbias-on ment, tehát az eredmény a valóságot tükrözi. Ha a Savage-en -1.0-re, az MX-nél pedig legjobb minőségre állítom a drivert, az megint korrekt lett volna, csakhogy én azt akartam megmutatni, hogy alapbeállításokkal milyen ocsmány is az MX mipmap kezelése.
mindenesetre ez a kep az elsö amit ilyen ocsmany homalyosnak lattam... pedig neztem 1-2 kartyaval mar a programot... a riva128 nak is elesebb kepe van :)
es ha joltudom a driverben az alapertelemzett a minosegi rendereles nem pedig a normal, tehat ennel lenyegesen szebb kepet kepes kesziteni alap beallitasokkal.
Tuti nálad van a hiba. 3 haveromnak is Mx-e van és nekik olyan mint a jobbik képeken. Szal vagy noname-fos a kártlya vagy az alaplap vagy a driver van szarul felrakva...vagy mi :)))
ha
Késöbb belinkelem neked, csak most fullon van az ftp, nem enged be senkit.
Akkor most elmondom minden hibát sejtő egyénnek, hogy valójában miért ilyen a kép. Azonban még mielött tovább folyatná valaki a noname gyártó/driverhiba témát, elmondanám még egyszer: A gép egy COMPAQ-EVO P4-es, a benne lévő MX400 pedig egy eredeti, Nvidia és a COMPAQ által összeállított kártya, Winbond RAM-mal (ez elég jónak számít), noname vagy nem noname gyártó közbeiktatása nélkül, tehát egy a közvetlenül a gyártótól (Nvidia) a megrendelő felé készült speciális darab, személyre szabott, COMPAQ-EVO-s drivercsomaggal. Ennyit erről.
A kép: Az alább feltüntetett képek minőségét abszolút nem befolyásolja sem a driver, sem pedig a gyártó márkás avagy noname mivolta, hisz maga a fő chip akkor is Nvidia s a kép minőségének okát itt kell kerenünk, egészen pontosan a GeForce2 mipmap-generálási eljárásában, ennek pedig semmi köze a chip köré épített perifériáknak vagy bármiféle drivernek. Nos ugye a mip-mapping eljárás lényege, hogy a látható képet nyolc, nem egyenlő méretű részre osztjuk, és az egyes szintekhez különböző minőségű (a kiindulóponttól távolodva egyre gyengébb) textúrákat rendelünk hozzá, tehermentesítve ezzel a kártyát, hisz így nem kell az egész képre ugyanazt a részletes textúrát kiszámítani. Ehhez a nyolc réteghez kapcsolódik a "dBias" nevű fogalom, ami tulajdonképpen az egyes rétegek egymáshoz viszonyított nagyságát jelenti, mivel ezek közel sem egyforma méretűek. alaphaelyzetben, vagyis 0.0-ás dBias értéknél az első mipmap réteg a legnagyobb (ez a legrészletesebb) a 0.0-tól mondjuk 0.5-ig tart, a következő, kevésbé részletes mipmap réteg 0.5-től mondjuk 0.7-ig az azt követő 0.7-től 0.8-ig stb. Fontos tudni, hogy a mipmap rétegek értéke csak 0-tól 1-ig terjed, ezen belül lehet variálni a különbüző rétegek kiterjedését, nagyságát illetően. Nyilván mindenki szeretné, hogy a legrészletesebb réteg legyen a legnagyobb, így a dBias érték csökkenthető, így az első és második, legrészletesebb rétegek lesznek a legnagyobbak, cserébe viszont a kártya teljesítménye romlik, hisz a részletesebb textúrából többet kell kiszámítania, ezért némileg lelassul. Ugyanez a helyzet fordítva is igaz, tehát ha növeljük a dBias értéket, avval teljesítménynövekedést érhetünk el, cserébe viszont mosottabb lesz a kép.
Itt egy pontosabb magyarázat, ha valaki az enyémet nem értené: "The dBias setting is a little difficult to explain, but here goes... In 3D, distances actually range from 0.0 to 1.0. When a game uses mipmaps, each mipmap level has a certain range of distances associated with it. For example, let's say the game assigns mipmap level 0 (the biggest, most detailed mipmap) to distances from 0.0 to 0.5. The game then assigns mipmap level 1 (the next most detailed mipmapp) to 0.5 to 0.7, mipmap level 2 to 0.7 to 0.8, mipmap level 3 to 0.8 to 0.9, and so on. The driver basically adds the dBias setting to an object's distance before looking up which mipmap to use. So if an object is at distance 0.6, it would normally use mipmap level 1. But if you set dBias to -0.2, then 0.6 - 0.2 = 0.4, so the driver would use mipmap level 0 instead.
The upshot of all this is that 0.0 is the default, while -1.0 causes the most detailed mipmaps to be used at all times, and 1.0 causes the least detailed mipmap to be used. If you're familiar with Quake, this is similar to the gl_picmip parameters. Choosing a positive number for dBias can increase your rendering speed somewhat, in exchange for a blurrier picture. Setting dBias to 1.0 will usually cause all your textures to be totally blurry and very strange looking!" Az MX400-nál a driverben a "legjobb képminőség" a -1.0-es, míg a "legjobb teljesítmény" az 1.0-es értéket jelöli, a vegyes pedig az alap, vagyis a 0.0. Ők tehát nem beszélnek dBias-ról, csak szöveget írnak, de a lényeg ugyanaz.
Tehát amikor ti "szép" képet láttok az MX400-on, az nem más, mint a felturbózott minőség (mely természetesen valós, ezt nem szándékozom kétségbe vonni, bát a ViperII képe így is jóval szebb, késöbb szó lesz arról, miért), a normális értéket pedig alább láthatjátok a képeken, vagyis attól mosottab az MX400 képe, hogy a Viper-rel megegyező mipmap szintje jóval rosszabb minőségűm, ez pedig hardverese beépített rutinok szerint kerül kiszámításra, ezzel csalni, ügyeskedni nem lehet, s javítani sem javít rajta egyetlen driver vagy BIOS-update sem!
A magyarázat az eltérő minőségre az eltérő módszerben keresendő, amivel a Savage és az MX a mipmap szinteket kiszámolja, generálja.
A GeForce és a Voodoo család az egymást követő mipmap szinteket egész számok alapján viszonyítja egymáshoz, mossa egybe őket, így a végeredmény az lesz, hogy nyolc, egymástól nagyon elütő és egymáshoz képest jóval rosszabb minőségű mipmap képet kapunk, míg a ViperII-nél a piacon egyedülálló módon (a Radeon-ok eljárásáról nem tudok semmit, úgyhogy lehetséges, hogy visszaszívom) a mipmap szintek átlagolással kerülnek kiszámításra, így itt tényleg egybeolvadásról lehet beszéni, hisz az egyes szintek nem ütnek el egymástól nagymértékben, és az egyes szintek minősége jóval meghaladja mind a GeForce, mind a Voodoo minőségét. Ebből az eljárásból következik az is, hogy a ViperII mind -1.0-es (legjobb minőségű), mind 1.0-es (legrosszabb minőség) dBias beállításnál is szinte ugyanazt a minőséget produkálja (az eltérés tényleg minimális, alig látható), míg ugyanezt a GeForce-ról közel sem lehet elmondani!! Az általatok látott kép azért volt ilyen iszonyúan mosott, mert a normál beállításra téve a kártyát (vagyis 0.0-ás dBias), a megjelenített kép kívül esett az első vagy második -ezt nem tudtam pontosan megállapítani- mipmap szinten s ti a második/harmadik réteg minőségét láthatjátok itt. Ebből következik, hogy a GeForce2 elfogadható képet csak a legmagasabb fokozaton képes produkálni, alapbeállításnál már hatalmas romlá észlelhető. És akkor még nem is beszéltem a legrosszabb minőségű (1.0-ás) beállításról...inkább hagyjuk! Ezzel szemben a Viper képét mindig ilyennek látnátok, akármilyen beállítást használjatok is, de érthető módon emiatt sebességnövekedést sem lehet elérni az eljárás mibenléte miatt, az MX-nél viszont igen. Hát, "dióhéjban" ennyi.
A ViperII másik nagy előnye az MX-el szemben a Z-buffer eljárása, mely ugyancsak felülmúlja a GeForce-ét (ami mondjuk nem meglepő, hisz minden más típus felülmúlja, hisz a GeForce köztudottan ótvar Z-buffer-rel rendelkezik...ezért alkalmazza erősszeretettel az Nvidia a különböző Anti-Alias módszereket a kártyáiban...:D), de erről egy külön oldalt lehetne írni, úgyhogy inkább nem folytatnám...
Nekem is Geforce kártyám van (remélem egyelőre). De olyan gyér egy kártyatípus ez (legalábbis az MX400), hogy csalódtam is benne nagyot.
azért egy radeon sdr is többet nyújt s eggy árban van vele
Hát azt azért elmondhatnád, hogy kapcsolod ki a mipmap-okat...ugyanis ha ezt teszed, semmilyen képet sem fogsz látni, hisz 0 réteg textúra az 0 réteg textúra, vagyis a nagy semmi! :)) Talán inkább az auto-mipmap funkcióra gondoltál, nem? Az kicsit más... ;)
Hát igen, az auto-mipmapping már sok bonyadalmat okozott különböző progikban, megértelek. Ja, és azúton tudatom mindenkivel, aki Diablo II-vel játszik (ha még játszik vele egyáltalán valaki...:D), sürgősen kapcsolja ki a fent említett funkciót ha teheti, már ha csak nem 5 FPS-sel akar játszani, hanem elfogadható sebességen. Azt biztosan tudom, hogy a Radeont iszonyúan lelassítja Diablo II alatt, csakúgy mint a Savage2000-ret, GeForce2-őt nem tudom, mindenesetre ha van valaki, aki eddig nem értette, miért lassú néhány játék csak nála, próbálja kikapcsolni az auto-mipmap-ot.
Nekem MX-em van. Ha a Mipmap detail level lenne az auto mipmap, akkor az nekem Best image quality-n van és anno még a Diablo 2 is jól futott. Most meg minden más. És nem csúnya a képe.
A két fogalom nem ugyanazt jelenti: A "mipmap detail level" a már általam lentebb említett "dBias", az auto-mipmapping pedig csak egy eljárás, amivel az adott program maga próbálja beállítani a helyes mipmap értéket (ergo:hogy szép is legyen meg gyors is), s ez sokszor összetűzéshez vezet a kártya saját és az adott program mipmap eljárása között. Ez nálam, a Savage2000-nél feltehetően azért van, mert különleges mipmapping-ot használ, Radeon-nál nem tudom, erről egy Radeon-használót kéne megkérdezni. Szóval a kettőnek nincs köze egymáshoz, egyébként pedig ha elolvasod amit lejjebb írtam, megtudod, hogy csak "best quality" beállításnál elfogadható a kép (bár a Diablo 2, félig 3D-s, félig izometrikus engine-jéből kifolyólag nem használ úgy mipmapping-ot, mint mondjuk a Quake3, vagy legalábbis nemigen látszik rajta).
NEM csúnya. Közepes. Legmagasabb fokozaton. Közepes. És normálon...vagy ne is! Mondjuk inkább "legjobb teljesítményen"! Én a magam részéről jót röhögtem rajta...:))) Szerintem sovány vigasz felturbózva csak közepes képminőséget elérni, de te tudod... ;-)
Értem. Akkor ezek szerint a Radeonoknál is van különbség. Akinek gondja volt vele, az sima Radeont használt (a legelső típus, nem tudom a pontos megnevezését), nem tudom neked milyen van. Úgy tűnik javították a késöbbi típusoknál, vagy csak a driver lett jobb.
nemtom mert hiszed azt hogy mindenkinel mindent jobban tudsz, de biztos igy van...
Hagyjad már! Ha meg van győződve róla, hogy a világ legnagyobb darabszámait produkáló PC-s grafkártya-gyártó csak rossz képminőségű kártyákat gyárt, hát egye fene. higgye csak :)
az nVIDIA-t mondjuk SENKI sem a képminőség miatt veszi én feláldoztam 5-10 fps-t s 100%osan a legjobb képet kaptam van akinek ez kell van akinek a speed
És ha már a Viper II Diamond, akkor ezzel az Asus GeForce-val hasonlítsuk össze, ne noname-ekkel. És nem vagyok benne biztos, hogy azoké sokkal rosszabb. Egyébként mainruler, noname savage 2000 képét mi sem láttuk még, lehet, hogy az az eddig látott legrosszabb képminőség lenne. Szóval szerintem sem olyan szar a GeForce, ahogyan azt folyton beállítod.
hat nemtom volt matrox om... 3d kepben semi extra 2d kepe tenyleg szep, de az en egyszeü kis samu 755df monitoromon bolhaszarnyi különbseg sem vehetö eszre egy nvidia és a matrox között, sem élességben, sem a szinek gazdagságában. lehet 1600*1200 és fölötte sokkal élesebb a matrox, de ez engem egyaltalan nem zavar, meg sosem kapcosltam a monitort akkora felbotasra.
ugyhogy videokartya teren tenyleg csak az ati és az nvidia van. jelen pillanatban, kb több érv szolna az ati mellett, csak a legfontosabb nem. az pedig az ára. ilyen
jah igen egy tróger bolhafasznyit sem használt prgiban lassabb.... de megint ...KIt érdekel hogy néha 10-15 fpssel lasabb?ha ennyire sebességbuzivagy nemtom mi a faszért egy MXel okoskodsz
Nem vagyok sebességőrűlt csupán szeretem, ha egy kártya minél többet nyújt a pénzemért. Miért MX? Mert verhetetlen ár/teljesítményben és még kiélégíti az igényeimet. Csupán azért, hogy 500fps-ben lássam a DOOM-ot, nem veszek 200ezerért videokártyát.
Az a 10-15 fps meg akkor kezd igazán számítani, ha éppen 30 fps helyett 15-tel kell nézned a dolgaidat. :-PPPP
Jó hát nem k6-2t kell alárakni avagy nem 1600*1200*2AA*Anisotropic Filter 128 kell.... Hát ha most vitatkozhatunk mi éri meg jobban egy KYROII vagy egy MX..:-)
amúgy ha megnézed nagyfelbontásban mindenhol veri kisfelbontásnál meg nemnagyon megy 30 közelébe/jó azuanox meg ha bekapcsolod az fsaa-t/s ott már inkább a minőség mint s speed..amúgy szerintem a radeon8500at is úgyanúgy finomhangolni kell mint a sima radeonokat hogy kiadja sebességét
Egyértelműen MX. A Kryo II még hullámzóbb teljesítményt ad és tudomásom szerint a supportja sem 100-as.