neked is ezt tudom mondani! EREDETI OLDALRÓL LINKELJETEK KÉPEKET, nem saját amire azt tesztek föl amit akartok, úgy megszerkesztve, ahogy az nektek tetszik
Mirõl beszész te szerencsétlen? (Bocs, de amit írtál ez a hangnem a válasz)
Az a baj, hogy saját linkrõl tettem be a képet? Nos elárulom neked, hogy azért mert Tom-tól nem lehet linkelniés a te képed helyén rajtad kívül mindenki csak egy kalapácsot lát. Vegyél vissza.
4. Egyes játékokban még mindig a jóöreg FP16-F12 stb figyel be, mivel NEM ISMERIK az új kártyát. Csak bele kell gondolni: Az adott játékot megirták RADEONra meg GeforceFX-re. Utóbbira ugye minden igényesebb programban született egy külön renderpath, hogy rendes teljesítményt lehessen kicsikarni belõle, a képminõség árán (színmélység butítás). Ezek a programok most egész egyszerûen ezzel az NV3X renderpath megoldással futtatják a dolgokat a Geforce 6800 Ultrán is. Ekkor pedig ugye nem kell ecsetelnem, mennyire is hihetõek az adott játékokkal készült tesztek.
Nemtom ki hogy van vele, de szvsz talán ez az a pont, ami a legjobban közelít a valósághoz most.
Tisztán látszik, hogy a 6800 U a tesztben nem teljes színmélységben dolgozik. Ez 3 dologtól lehet: 1. Szar a driver még, és/vagy szar a kártya is. Késõbb jobb lesz. 2. Megint a csalás esete forog fent, és driverbõl butít szépen alacsonyabb színmélységre. 3. Az új adaptív AF akkora rakás szar lett, mint ahogy megjósolták. Többen is irták azóta, hogy ez valójában butítást jelent az eddigiekhez képest.
(azonkon a baromságokon, amit meg a mélyen tisztelt fõgeforcefxfan írt, megint jókat röhögtem... pixelek-tnt2... LOL)
Btw, EZÉRT is nem tartom még jó ötletnek, a teszteket tényként kezelni. Nekem több játék alapján is úgy tûnik, hogy a drivereknek még vannak komoly gondjai. Így pedig jó közelítéssel is csak nagyjából lehet rangsorolni a kártyát, fõleg akkor, ha a fentebb írt pontokból az elsõ 2 valamelyike jönne be ugye... (bár szvsz a 3. lesz).
Jóvammá emberek, tudjátok: "Get a life". Nekem van :) Szerezzetek ti is egyet, és akkor megtudjátok mit jelent az, hogy "nem érek rá" :) A tegnapi tekeparty (meg 1L jäger után) inkább nem ültem ide pötyögni...
Á, szerintem Borg-nak semmi baja mostanában az NV cuccokkal, valami más miatt vár, hisz ezt a topicot is õ nyitotta (miután az én hasonlómat bezárta) az FX-ekével együtt.
8. A tévedés, és a változtatás jogát fenntartom, az adatok tájékoztató jellegûek. Ha valaki teszteredményekkel alá tudja támasztani, hogy valamely felsorolt kártya átlagos tudása nemjól lett besorolva, írja meg nekem privát üzenetben, és természetesen javítom azt. (ne csak 1 játék, vagy 1 weboldal tesztje alapján!) 8. Bizonyos kártyákról nem találtam (még) mérvadó teszteredményeket, ha valaki mégis ilyennel tudna szolgálni, azt is írja meg, és aktualizálom a táblázatot. Ennek megfelelõen igyekszek majd minden új belépõt is feltüntetni a táblázatban, illetve a mostaniak pozícióját is javítani, amennyiben újabb teszteredményeket találok róluk. 9. Nem fogom bizonygatni amit a táblázatban feltüntettem! Akinek nem tetszik, ellenérvekkel, linkekkel lehet bizonyítani az ellenkezõjét!
Én már ezek után a tesztek után csak arra lennék kíváncsi, hogy ha a CPU elégtelen sebeessége miatt nem bír kis felbontásban szûrõk nélkül annyit pörögni a kártya akkor az új kártyákat miért nem tesztelik egy dualprocesszoros alaplapon két 2 db 3,6GHz-s P4-el vagy AMD-vel is? Persze nem sok embernek akad ijen otthon, de...
Szerintem meg legyünk naprakészek.
Ilyen alapon megvárhatjuk az idei év teljes felhozatalát mindkét kártyától...
Amit õ belinkelt az van a Tom's Hardware oldalon is!!! Inkább az a gyalázatos, hogy egybõl nekiugrotok, elõbb talán olvassátok el a cikket és utána rájöttök, hogy miröl is van szó!!! Minden másban odaver a 9800XT-nek az új GF méghozzá közel 2x teljesítményt nyújtva. Ez a kis gikszer, pedig inkább driver, meg a régi GF-ek optimalizálásából ered, gondolom javítani fogják! A teljesítmény igen meggyõzõ, reméljük ezt a képminõségbeli problémát hamarosan orvosolják!
GYK: Egy gépen humbuk nélkül CSAK video kártya csere!
ÉS A LINK: #94" TARGET=_fnew>http://www.fcenter.ru/articles.shtml?videos/9015#94
sorra ezeket linkelted be: http://www.freeweb.hu/danielt/kepek/farcry1.jpg http://www.freeweb.hu/danielt/kepek/farcry2.jpg http://www.freeweb.hu/danielt/kepek/farcry3.jpg a gyalázatos az, amit te mûvelsz! szándékosan megtévesztesz mindenkit! nem ez az elsõ alkalom, jó lenne, ha leszoknál róla!
Azért azt el ne képzeljétek,hogy ilyen szar a képminöség,miközben ezek a pixelek már tnt korában nem látszottak,de biztos még annál is rosszabb a kártya,meg majd el is hisszük...
LOL,kezdödik az ati fanok ámokfutása...Nekem 59 XT-m van de ilyen minöséget nemhogy FX-en nem láttam,de anno a tnt-n sem...Ilyen képet százat csinálok atirol,aztán lehet mondani, hogy ati milyen szar...
Szvsz ez az 500W tápigény szörnyû, megengedhetetlen.
nVIDIA Quadro FX3000G - ez egy professzioniális kártya, a HWSW.hu-ról származó info szerint olyan laza 3000$ (600e Ft felett) körüli árom már hozzá is juthatsz. Igaz jobbára videó- és 3D mûhelyekben alkalmazzák.
Most ezen a Leadtek A400 Ultra kártyán a más gyártókhoz hasonló kártya meg hûtés fölé tettek egy hálózati kártyát az elfoglalt PIC slotokért cserébe? És az is az AGP meg PCI-E-en keresztül fog mûködni?
Az már van a mostani PixelView kártyákon is. Egy az egyben ugyanez a hûtés, csak alatta geforcefx asszem. Még irtam róla anno SG-re hirt is, ha jol emlékszek.
aki ilyen kártyát vesz, annak nem 15-17 colos monitorja van.manapság egy 19-es sem egetrengetõ összeg, és most már a 21-esek is elérhetõ áron vannak. aki meg 100.000 felett vesz videókártyát, annak telik monitorra is
Kicsit durva ez a hütés rá! Szerintem az ATI-n nem lesz ekkora soha se! :-)) Egyszer az életbe az Nvidiás csávók már igazán megoldhatnák hogy ne melegedjen anyira a VGA!!!
nV Quadro FX3000G - gondolom két UTP és az utolsó meg egy "genlock" nevezetû dolog, ami arra való, hogy a többkijelzõs megjelenítésnél Szinkronban legyen a képfrissités ("house sync").
Azért azt se felejtsük el, hogy az is CSAK PLETYKA volt, miszerint az X800-ban nem lesz PS/VS 3.0. Még bármi lehet. Nem véletlenül várt ki az ATI eddig.
Nézegettem a leírást, az 500W-os tápigény felfog6atlan. Ok, egy mikrosütõ az 800W, de egy szg. is felvesz ennyit, ha 500-at ad le.
Személy szerint csak találgatok, de valószinüleg a képminõségre fognak ráfeküdni, élsimitás és anizotróp szûrés minél nagyobb mértékben - ezek ugye nem befolyásolják a CPU-t, szóval AA nélkül és 6xAA (esetleg 8x?) ill. 16xAF bekapcsolása mellett is azonos FPS-t fog kinyomni magából - csak éppen látványosan jobb képminõség mellett...
Igazat adok:)Mindenesetre akárki akármit mond, valódi fejlõdést mutattak fel a srácok ezzel a kártyával.Az is kezd érdekelni, hogy a shader 3-as miújságok hiányát hogyan ellensúlyozzák majd az Ati-nál.Mert ha az általad is említett proci általi visszafogás miatt plusz sebességnövekedést nem nagyon fognak tudni felmutatni, akkor mi az öreganyám térdkalácsát?
Nem errõl van szó, hanem arról, hogy a tesztek alanyai legtöbb esetben CPU limitáltak alacsony felbontásban (pl. UT2k3/UT2k4 esetén látványos, hogy minden kártya kb. azonos teljesítményt nyújt). Inkább az új, GFX-igényesebb játékok esetén tûnik fel rendesen az erõkülönbség (pl. FarCry). Az viszont tény, hogy az nV40 a felbontás növelésével viszonylag keveset veszít sebességébõl, ami azért egy igen kellemes dolog... És aki egy ilyen kártyát megvesz, az valószinüleg nem 15"-17"-os moncsival rendelkezik...
Egyéb iránt visszatérve, szerintem az, hogy a kártya 1600x1200 ban adja a legnagyobb teljesítményt, kevesek szívét fogja megdobogtatni.Mert azért manapság a monitorok többsége még mindig 15-17"-os, amin a standard felbontás 1024x768.De ugye mindig a jövõre kell tekintenünk és nem a múltba:) De azért én láttam olyan tesztet is, ahol alulmaradt a GeForce 6800 egy 9800xt-vel szemben.Tehát a ma és a közelmult játékaiban, sõt talán még a közeljövõ gammáiban sincs szükség erre a kareszra...Mindazonáltal uralkodik:)
A FarCry állítólag már most tudja a PS/VS 3.0 kezelését, csak engedélyezni kell benne.
Teljesitményben jó kárty ez venném is ha miller lennék. A negativum csak az hogy sokat fogyaszt két tápcsati meg ami még titeket zavar ha van még olyan mert nekem csak ez a kettõ a zaveró ja meg az ára.
Azt motyogják, hogy csak év végén várható ezek beszerzése! Igaz?
A vampire játék tudtommal HL2 motort használ, a Driver 3 meg a Driv3r meg ugyanaz :)
Az nV prezentáción egy érdekes képet vettem észre, amelyen a PS3.0-át használó játékok voltak felsorolva, ezen ezek szerepeltek:
-Lord of the Rings, Battle for Middle Earth -STALKER: Shadow of Chernobyl -Vampire: Bloodlines (õõõ... ez nem a Doom3 engine-s játék???) -Splinter Cell X (???) -Tiger Woods 2005 -Madden 2005 -Driver 3 (nem inkább Driv3r?) -Grafan -Painkiller (??????) -FarCry -...and many more
Felteszem, hogy az nV pénzt nem kímélve próbálja rávenni a fejlesztõket a PS3.0 minél korábbi használatára, akár utólagos patchekkel is. Figyelmbe véve, hogy anno a TR:AoD esetén is érvényesíteni tudták akaratukat nem csodálkoznék, ha valami ilyesmi lenne a háttérben. Ez végülis jó, mert itt nem lesz olyan iszonyítos késés, mint ami a PS2.0 esetén volt, ráadásul keményen alá fog vágni az ATi R420-nak, ha az tényleg nem fog PS3.0 támogatással rendelkezni...
Tudom! De arra értettem, hogy más játékokba is beletetetik, de gondolom nem ingyen, ha olyan kurva sok vele a munka.