Hi! Kártyacsere elõtt állok. Már elég sok dolgot összeszedtem a két kártyacsaládról, de képi bizonyítékokat még nem találtam. Most geforce-om van és érdekelne a másik tábor is. Tud valaki olyan oldalról, ahol a screenshotokkal is összehasonlítják a kártyákat? Esetleg ha valakinek Radeonja van, betehetne néhány képet.
www.xbit-labs.com www.beyond3d.com www.rage3d.com
Pontosan mire is mennél azzal ha beillesztenék ide képet (és mirõl is)? :)
A technika paramétereket már simerem. Most arra lennék kíváncsi, hogy látványban mit nyújt többet a Radeon. Játék screenshotokra lennék kíváncsi, ahol látványosan szembetûnik, hogy szebb a Radeon képe.
Namost, figy. Gondolkodj logikusan. 1. neked nvidiád van, tehát akármilyen képet rakok be ide, te csak annak a képminöségével nézheted:) 2. bármit berakok ide, az nem BMP-ben lesz, hanem tömöritett képen (JPG) tehát megintcsak nem ér semmit:)
A lényeg annyi, hogy az ATI szabványaitól eltérõen az nvidia kártyáknál a gyártók (mivel itt ugye nincs built by nvidia, csak külsõ gyártó) a kiszolgáló elektronikán spórolva gyártják a tucatkártyáikat (MSI, asus, inno, dunát lehet rekeszteni a kártyáikkal). Az nvidia mindig is a sebességre ment inkább, mind a GPU-it, mind a köré épülõ kártyákkal szemben támasztott elõirásait tekintve.
Az ATI GPU/VPU köré épülõ kártyák viszont komoly elvárásoknak megfelelõen készülnek, és inkább a sebességen spórolnak az ATI kiadott paramétereinek megfelelõen, mint a minõségen. Ugye az ATI kártyákat két részre osztjuk, a BBA és a PBA. ATI által épitett kártya, és nem ATI által épitett kártya, de mindkettõn ATI GPU/VPU van. Elõbbieket is a sappire, újabban pedig a club3d gyártja, de az ATI szigorú specifikációi szerint. Ez annyit tesz, hogy 1024-es felbontás felett (és nagyobb frissitésen) az ATIknak sokkal élesebb képük van, valamint általában élénkebbek a szineik is, mint az nvidia kártyáknak. Persze egy igénytelen monitoron 1024ben vagy az alatt ezt nemigen veszed észre.
A többi különbség a driverekbõl, és a GPU/VPUk felépitésébõl adódik. Driverekbõl is adódóan ATI és Nvidiák másképp számolnak, másképp jelenitenek meg bizonyos dolgokat. Pl anizotropikus szûrés, vagy trilinear/bilinear filtering, vagy ezekhez hasonló eljárásokat más más módon használnak ki a kártyák, és a tesztek szerint ez megintcsak az ATI kártyák képminöségének javára szolgál. Ilyen összehasonlitásokat pl a beyond3d-n, vagy az xbitlabson találsz. Nem nagy különbségekrõ van szó, de avatottabb szem felismeri.
És végül, ha 9500/9700 esetleg újabb radeont veszel majd, ezek már DX9-es VPU-k, ami annyit takar, hogy az egész architektúrán át lebegõpontosan számol (128bitig), igy sokkal több szint tud megjeleniteni, mint fixpontosan, ez mind a számolási szinveszteségek csökkenésével, mint a megjelenithetõ szinekben is megjelenik. A fixpontos ugye csak 32biten tud maximum számolni. Ki lehet számolni, hogy melyiken hány szint lehet ábrázolni. Utóbbiaknál tehát sokkal szembetûnõbb a minõségbeli különbség, mint amit a lowcost kiszolgáló elektronika okoz az nvidia kártyákon. Tehát egy fixpontos nvidia és ati között max 1024ben nagy frissitéssel, vagy magasabb felbontáson veszed észre a különbséget, illetve csak minimálisan 3D-s játékokban, amelyek komolyabb grafikai megjelenésûek. Ezen kártyáknál a 8500as a leggyorsabb, ez majdnem a Ti4200 szintjént jelenti. (más kérdés, hogy bekapcsolt anizotropikus szûréssel a 8500 gyorsabb mint a Ti4600.) FP kártyák eddig csak ATItól érhetõk el, az nvidia egyelõre nem tud felmutatni használható, illetve elérhetõ DX9-es kártyát, szal ezen a téren mind sebességben mind képminöségben egyértelmû az ATI vezetése.
(Személyes tapasztalatomat tekintve, mikor anno GTS-rõl 8500ra váltottam (19" 96khz FSC monitor) már a karakteres képernyõ szinei is szembetûnõek voltak, nemhogy játékokban, vagy akár a win desktopon, ami nálam 1280ban megy kizárólag. Emelett a tapasztalatok azt mutatják, hogy a gef3 esetében még rosszabb a képminöség mint a gef2nél, a gef4 esetében pedig minimálisan ugyan, de javult, viszont messze nem éri el az ATIk szintjét igy sem. Ezeknél rosszabb képminösége már csak a SIS Xabre-knak van, dehát ez már nem téma itt.)
Azt meg tudod mondani nekem,hogy egy Ati 9500 melyik Gf ti nek felel meg?? És az is érdekelne,hogy játékoknál mennyire gyors a kártya! Ha teszteket irsz,azt is megköszönném!
A 9500-as radeon kb a TI4200-al megy egy sebességen, ugynakkor minden tulajdonságát hordozza egy DX9-es kártyának, mig a gef4 ugye cask DX 8.0. A 9500PRO pedig valamivel gyorsabb mint a Ti4600.
Azonban vedd figyelembe, hogy a mostani kártyák közül szinte mindet SZOFTVERESEN át lehet alakitani (9500->9500PRO, 9500->9700) attól függõen hogy milyen nyákra és milyen ramokkal készülnek! Igy pedig az ár arány sem elhanyagolható...
(Ha valakit érdekel a valóság, a gef4 az DX 8.1-et is támogat)
Veriel, egyre jobban meg tudsz nevettetni.. :) Az altalad is emlitett valosag az hogy a gf4 directx 8.0 -as kartya. DirectX 8.1 -hez mar 1.4 -es pixel shader kell, ami annak a geforce-nak nincs. Ez a fo kulonbseg a 8.0 es a 8.1 kozott.. 4 textura/cycle versus 6 textura/cycle.
Persze a Gf4 is meg tudja jeleniteni a Dx8.1 -es cuccokat csak lassabban /2 cycle-ban 1 helyett/ A dx9 -es kartyak is vinni fogjak a dx9.x -es progikat, de attol meg nem tamogadjak pl a dx9.1 -et.
Ez ugyanolyan, mint anno a PS1.0 a radeonban (R7000/7200). Ez volt a feltétele a DX8-nak, csak éppen kiadáskor a M$ ferditett a specifikációkon, és 1.1es PSt irt elõ mint követelményt. Ezért le is tiltották a PS-t a radeonban, és visszafokozták, driverben azóta sincs engedélyezve, holott az R100 GPU tudja...
Ugyanigy ferditett az M$ a 8.1 specifikációin is, ettõl még tény, hogy a 8500 DX8.1, mig a gef4 csak DX8.0.
Következõ majd a displacement mapping lesz amit az NV30 _nem_ támogat. Sebaj, majd M$ kifelejti azt is, a DX9 specifikációból. Bár mivel már megjelent, és fél éve van DX9 kártya a piacon, ez kicsit nehézkesebb lesz. De biztos vagyok benne hogy az nvidiának lesz pénze rá.
BBA ATI-ból csak PRO van, azzal imho tutira tudod mit kapsz.
AMi még szóba jöhet, az a club3d (raktam össze gépet vele, és a héten is lesz még egy), korrekt. Specifikécióknak megfelel, és megy is rendesen. Bár húzni nem próbáltam csak driver fel azt játékokat neki... Szal, ennek nem is vészes az ára, meg mivel a club3d gyátja a BBA ATI-kat is a gyárában, annyira szarok nem lehetnek.
Vagy hercules, gigabyte, ezek még márkás cuccok, de áruk is van.
A spec szerint az is tutira szabványos PRO órajelen megy, viszont valamiért az ATI csak áttért a BBA gyártásnál a sapphirétõl a club3dre... ugyanis régen ott készültek a BBA-k, még a 8500as érában... Szal személy szerint már nem bizok a sapphire termékeiben.
Club3D tutira jó lesz.
Tényleg? Húha. Akkor valamit jól elnéztél.
(A történelmi háttér ismerete - amelyet Borg felvázolt - szép dolog, de attól még a kártya 8.1-es)
Öregem ideje lenne magadban keresni a hibát, nem gondolod?
Azér hogy ennyire fafej legyen valaki, mikor már nem egy topicban kiderült hogy nincs igazad, lövésed sincs a témához, de ennek ellenére még hajtod a hülyeséget...
Really, the only difference between DirectX 8.0 and DirectX 8.1 when it comes to programmable vertex and pixel shaders is that the pixel shader version has been upgraded. DirectX 8.0, the specification that NVIDIA designed their nfiniteFX engine around, calls for support of pixel shader version 1.1. DirectX 8.1 brings the pixel shader version up to version 1.4, offering a few new benefits. The table below summarizes the differences between pixel shader 1.1 and 1.4.
Pixel Shader v1.1 vs Pixel Shader v1.4 Maximum Texture Inputs 4 vs 6 Maximum Program Length 12 instructions (up to 4 texture sampling, 8 color blending) fs 22 instructions (up to 6 texture sampling, 8 texture addressing, 8 color blending) Instruction Set 13 address operations 8 color operations vs 12 address / color operations Texture Addressing Modes 40 vs Virtually unlimited
amivel kavar volt, az az, hogy a dx8.1 -be belekerult az 1.2 es az 1.3 -as ps specifikacio. Amiket az nfiniteFX /1.0-1.3/ meg tamogat. Tehat a gf3-4 kicsit tulmutat a dx8.0 -n, de lenyegi dolgokban marad el a 8.1-tol.. pl a 8 texture adressing, 6 texturesampling per pass, ami miatt Carmack istenitette anno a 8500-t:
" R200 (full featured, almost always single pass interaction rendering)"
"NV20 (full featured, two or three rendering passes)"
mivel csomo dolgot nem teljesit belole, ezert nem dx8.1 gyorsito
irtad a masik forumban a beyond3d oldalt es ott megneztem a mark cikket. kiirogatjak a tesztek memoriaigenyet is.. a 2. es a 3. tesztnek is 100 mb -n feluli igenye van. azt irtak 64 -en meg swapolgat texturakat teszt kozben a progi, ami bajos.
"A lényeg annyi, hogy az ATI szabványaitól eltérõen az nvidia kártyáknál a gyártók (mivel itt ugye nincs built by nvidia, csak külsõ gyártó) a kiszolgáló elektronikán spórolva gyártják a tucatkártyáikat (MSI, asus, inno, dunát lehet rekeszteni a kártyáikkal). " - Ez elég nagy butaság. Referenciatervet ad a gyártóknak, amit a nagyok be is tartanak. Az általad felsorolt cégek ugyanis az élvonalban vannak, csak nálad szerepelnek a gagyi kategóriában. Az MSI és az ASUS minden más terméke is az élvonalban van, akkor miért pont a videokártyáik gyengék? Tartják magukat a referenciatervhez, és semmiféle "kiszolgáló elektronikán" nem spórolnak. Viszont névtelen márkát, ami sokkal olcsóbb, mint pl. egy MSI, ABIT, vagy Inno3D (az ASUS nem értendõ ide, ott meg kell fizetni a márkát is) nem érdemes venni. Ott szokás spórolni a kiépítésen, az pedig a minõség rovására megy. Szakállas trükk pl. lassabb memóriát tenni tá mint az elõírt, vagy kevesebb rétegû NYÁK-ot alkalmazni, amitõl aztán szedi gyönyörûen a zavaró frekiket a környezetbõl a kártya. A fent említett kártyákban viszont meg lehet bízni. Személyes tapasztalat (meg jópár hozzászólást találsz másoktól is), hogy az ABIT Sirulo Gef4 Tí4200-as nagyon jó kártya. A kategóriájában nagyon jó az ára, és kegyetlenül lehet húzni. Az alap 250/440 helyett nagy részük tökéletesen megy 300/600-on, ami már közel a 4600-as szintje. Ekkora tuningnak a közelében se járnak az ATI kártyák.
Ja és még valami:"És végül, ha 9500/9700 esetleg újabb radeont veszel majd, ezek már DX9-es VPU-k, ami annyit takar, hogy az egész architektúrán át lebegõpontosan számol (128bitig).." - Ejnye-bejnye, azt hittem ezt már tisztáztuk.:)))
de en arra lennek kivancsi hogy mennyivel szamit a tobb :) volt 100 vita anno errol mikor meg nem hasznalta ki semmi progi a 128 mb -t.. azert vagyok kivancsi van-e erzekelheto kulonbseg egy regi gf4/8500 -on.
hi...akkor most mit érdemes venni??mert meglestem a teszteket és a 9500 pro 4400környkén van..viszont most 40 ért tudok szerezni egy 4400ast...vegyem ezt vagy gyûjtsek 9500pro ra?
Talán érdeklõdnöd kellene kicsit a téma után, hogy az nvidia mit is ad ki referenciának, meg a gyártók ezalapján min is spórolhatnak. Bár ahogy olvaslak azzal sem vagy tisztában hogy a kiszolgáló elektronika mit takar...
Tuninghoz meg annyit, hogy 230-as 8500 megy 2 éve 306-on... 9700PRO-kat 325 helyett 380-400 felett is hajtják, stb... Ugyanaz mint az egyes pont.
bullshit rendes játékban a 9500PRO simán kenterbeveri a 4600at is, arról nem is beszélve hogy DX9-es, amitõl sokkal hosszabb életû lesz mint egy gef4...
Ezt a kamu dumat tobb nagykerben nyomjak, nevetseges, mikor: "A DigiTimes értesülése szerint az év hátralevõ részében hiánycikk lesz az ATi nemrég bemutatott grafikus vezérlõje, a Radeon 9500 Pro. A hiányt az OEM-ek (HP, Dell) nagymennyiségû megrendelései okozzák."
Ez tényleg igaz, bár félig. Az ATI kiadta utasításba, hogy a partnercégei ne gyártsanak több 9500-ast 9700-as PCB-re. (Ugye ezt lehet átalakítani.) EZ komolyan így van!
Nvidia a király:))) De azáért a GeForce FX méretével súlyávalés hangjával nem dicsekednék.... Fél kilós a kárty majdnem két slot helynit foglal el és a hangja akár egy 5000Wos porszivóé... DE!:) hogy lássuk a hasznát azért odavág a 9700PROnak:)))
tomshardware.hu lesd meg az összevetést: FX vs RADEON 9700 PRO mp3ban...... na mind1
mire boltban a GF FX addigra 9200/9600/9800 plusz mindnek a PRO-ja fog felsorakozni..... fél éves lemaradása van az nvidiának, amit az fx sem hoz be
ugyhivjak hogy jo gyari drivercsomag... :D es igen van olyan jo tv out ja, az nvidianak sikerult felzarkoznia, ugy ahogy... bar ide csak a markas g4 eket ertjuk, esetleg az g4mx eket.
Connect3D Ati Radeon 9500Pro 50.990 / 63.738 / 128 MB DDR / DVI + TV out Hahá! itt a kiszemeltem. Egyebkent ati-ba mi a jo marka? EZt a connect3d-t nem ismerem.
"Talán érdeklõdnöd kellene kicsit a téma után, hogy az nvidia mit is ad ki referenciának, meg a gyártók ezalapján min is spórolhatnak. Bár ahogy olvaslak azzal sem vagy tisztában hogy a kiszolgáló elektronika mit takar..." - Akkor talán mondj példát, legyen az egy ASUS, MSI, vagy ABIT típus, és sorold fel tételesen, hogy milyen alkatrészek/kondik/IC-k/bármi hiányzik róla szerinted. Ez nem lehet gond, hisz tényekkel a tarsolyodban vagdalkozol és nem csak úgy a levegõbe ugye?
"Tuninghoz meg annyit, hogy 230-as 8500 megy 2 éve 306-on..." - Saját gyári hûtéssel? Ugye nem? Mert akkor tudnék példát hozni Gef4 oldalról, 250 helyett 375MHz-s magsebességgel.. Meg memóriát se írtál, azzal mi a helyzet? Én 440 helyett 600-on hajtom a memóriát, és még bõven van benne kakakó, lévén 3,2ns-es van rajta. Egyébként amúgy se mérvedó a példád, mert ne a saját eseteddel gyere, hanem azzal a sebességgel, amire általában lehet húzni a 8500-ast. Az ABIT Sirulo 4200-asok jó része mindenféle bülykölés nélkül megy 300/600-on.:) Habár az igazsághoz hozzátartozik, hogy meg kell nézni a kártyát, az újabbakon már csak 3,8-as memória van, abból már csak 550-580 körül lehet kihozni.
Az elsõ bekezdéshez annyit, hogy még mindig nem tudod mirõl van szó, az alapján amit irsz, ugyhogy felesleges ebbe belemenni.
A másikhoz meg annyit: Gyári hûtéssel megy igy a radeon. Tettem rá ramhûtõket, ezekkel 320-on is lefutott a 3dmark2001. Ennyi. 306/306-on minden extra nélkül megy. Az abittal kapcsolatban meg csak lapozz vissza esetleg a ti4200 topic elejére, hogy hányan szivtak vele, mert még alap órajelen sem ment rendesen... Aztán meg esetleg hasonlitsd össze, hogy 8500LE meg egy 4200 mennyibe kerül... Ugyanugy ahogy a 4200akból is sokra lassabb memóriát raktak, ugyanigy a 8500LE-kre is. Van amelyiken csak 4-5ns ramok vannak, ennek megfelõen olcsók is. Ez az összehasonlitásod megint csak a csõlátásod szüleménye...
"Az elsõ bekezdéshez annyit, hogy még mindig nem tudod mirõl van szó, az alapján amit irsz, ugyhogy felesleges ebbe belemenni." - Kérlek, nyisd fel a szemem!:)) Mit nem értek, és hol a konkrét bizonyíték, mely szerint spórolnak az elektronikán? Ha én menthetetlen vagyok is, a többi olvasónak bebizonyíthatod, hogy igazad van. Mert ez nagyon menekülésgyanús..
Szívás szempontjából meg a 8500-asok sem különbek, azt az oldalát felesleges felhozni. Az, hogy a 4200-asokra sokkal lassabb memóriát raknak, a gyakorlatban a következõt jelenti: Ugya az alap 440MHz (vagy legyen 220, ebbõl a szempontból teljesen mindegy). A 3,8-as memória használata azt jelenti hogy csak 25%-ot lehet húzni rajta, és nem 40-50-et, mint a 3,2-es esetében. De még így is bõven tuningolható. Vagyis nem ugyanaz a kategória mint a 8500LE, ahol az alap 8500-nál lassabb a memória. Nagy különbség. Az én Sirulo-n úgy olcsó, hogy mellette veszettül lehet húzni (4600-as szint). Persze drágább is, de mi a jobb, venni egy butított kártyát, ami esetleg megy a normál (5-10ezerrel drágább) sebességén, vagy egy olyat, ami megy a 20-30ezerrel drággább tempóján?
Igaz, de akkor is ott van a jobb tuningolhatóság. Mellesleg kicsit hihetetlennek is tûnik Borg dumája, pl. hogy két éve hajtja a kártyát, miközben szinte napra pontosan egy éve írta egy másik topicban hogy megvette, meg hogy 306/306-on hajtja, holott ott azt írja hogy 275/250-en van vége.. Most vagy szimplán hazudik, vagy valami csoda történt, a 2? éves kártyáját napról napra jobban lehet tuningolni..:) A memória még érthetõ felbordázva, de hogy a core mitõl táltosodott meg ugyanazzal a hûtéssel?:))))
Nos, akkor talán elolvashattad volna a többit is amit anno irtam, nem csak a számokat. A radeon egy BIOS frissitésig ment csak 250ig, mert azzal a biossal szemetelt a képe a felett. Szal nem kell itt szitani a dolgokat...
Másrészt meg, anno a 8500LELE-t 45+áfáért vettem, és csináltam belõle egy teljes értékû, akkor 80-90ezer+áfa körüli árú kártyát. A kategória tehát nem sokban különbözik, csak bevett szokás az ATIt lejjebb húzni ilyen téren is...
Olvastam az egészet, mindjárt idézek is belõle, csak még egy megjegyzés: Szóval eddig van a plusz borda a memórián, aztán BIOS-flash, míg a Sirulo-nál mindezek nélkül megy a 300/600. Hasonló apró beavatkozással (ugyancsak borda a memóriákra, plusz feszültség, kis igazítás a bordán) meg megy 350/700-on. És most az idézetek tõled:
2003. Feb. 17:"Tuninghoz meg annyit, hogy 230-as 8500 megy 2 éve 306-on..."
2002. márc. 19:"Na megy a cucc."- hol is az a két év?
Aztán számtalan helyen említed, hogy 275/275-ön hajtod a kártyát, akkor hol a 306/306?
Talán ideje lenne abbahagyni a vetítést, és beismerni, hogy a "két éve 306-on" a gyakorlatban egy évet, és 275MHz-et jelent. Lehet hogy egy teszt elejéig stabil 306-on is, gondolom azért nem megy annyin.:) Ja és még mindig jössz a listával a lespórolt elekrtonikáról, el ne felejtsd! :))
Hmmm akkor csak 1 év?:)) Többnek éreztem igy csuklobol irva... Lényegtelen, 1 vagy 2 év, a lényeg az, hogy 306ot mind a GPU, mind a RAM birja rajta extra hûtés nélkül,a bios flash óta!
Szal inkább fejezd be a kötözködést, és nézd tovább a 3dmark topicot pl, mert számtalanszor irtam 275 és 306os eredményeket is. A bios amit beleraktam 275ös, igy alapból azon megy, mert felesleges feljebb. Akkor megy 306-on ha játék vagy benchmark van.
A lista meg amiért nyökögsz itt, nem nekem kell, szóval nem én leszek az, aki megkeresi és iderakja, hanem te:) Csak egy kis adalék: "The image quality offered by some cards shows a very different picture altogether, though - quite literally. On our reference monitor, an Iiyama Vision Master Pro 511, the output of a few of our review samples lacked the crispness and clarity one would expect from a card of this caliber at a resolution of 1600x1200 at 85Hz. Some even showed shadows and ghosted images. This is unacceptable for any card considered to be a high-end product. NVIDIA is aware of this problem and has promised to address it through stricter reference design requirements." (Tomsgarbage, 11 gef4 4400/4600 tesztje)
NVIDIA GeForce4 Ti 4200 (19671) (23%) ATI RADEON 9700/9500 Series (8446) (10%) NVIDIA GeForce4 Ti 4600 (7358) (8%) ATI RADEON 8500/LE (6648) (8%) NVIDIA GeForce2 MX/MX 400 (5735) (7%) NVIDIA GeForce3 Ti 200 (5535) (6%) NVIDIA GeForce4 MX 440 (5227) (6%) NVIDIA GeForce4 Ti 4400 (4670) (5%) NVIDIA GeForce2 GTS/Pro/Ti (4265) (5%) ATI RADEON 9000 (3395) (4%) NVIDIA GeForce3 (2328) (3%) ATI RADEON 7500 (1596) (2%) NVIDIA GeForce3 Ti 500 (1461) (2%) NVIDIA GeForce4 MX 420 (1297) (1%) ATI RADEON DDR (981) (1%) NVIDIA TNT2 m64 (927) (1%) NVIDIA GeForce2 MX 100/200 (803) (1%) ATI RADEON VE (644) (1%) NVIDIA GeForce DDR (439) (1%) NVIDIA GeForce4 MX 460 (381) (0%)
Úgy van ahogy Borg írta a #85-ben. Elméletileg a 3,8-as vége 525MHz, ennyit illik minimum bírnia. Persze ha kap feszültséget meg nincs nagyon meleg házban, vagy van rajta hûtés akkor simán megy feljebb is, de nem akartam túlozni, ezért inkább kb. az alsó határt adtam meg.:) Egy haveromnál pl. egy ilyen memóriás Sirulo 580-at megy maximum, de ettõl még a nagy része simán viszi a 600-at.
Vazzg már megint elég érdekes hírekbõl vonsz le következtetéseket. Mi van a szövegben: az, hogy a tesztkártyák (merthogy ugye nem végleges termékekrõl van szó) némelyike elég gyenge képminõséget hozott magas felbontásban. Az nVidia megígérta, hogy megoldja ezt a problémát a referenciaterv módosításával. Lévén hogy 19-es monitorom van, ezt ki is tudtam próbálni, semilyen említett hibát nem találtam. Most vagy az van, hogy az nVidia tényleg módosított, vagy a szerinted spórolós ABIT utólag oldotta meg, de a lényeg hogy nincs igazad.
Egyébként meg te állítottad, hogy spórolnak a dolgon, akkor nehogy már én keresgéljek. Neked illene bizonyítani az állításodat, csak ugye ez már megint nem fog menni, semmilyen bizonyítékod sincs, csak menekülsz a helyzetbõl. Ennyi.:)
Szerintek hany het mulva lesz az itthoni boltokban kaphato a 9800pro ?
A regiszrtrált adatok alapján ez a 20 legnépszerûbb, vagy inkább legtöbbet használt kártyatípus a Futuremark ORB-ján. Vagyis az eredményt beküldõk 23%-a használ 4200-ast és így tovább. Vannak adatok más kategóriából is (proci, oprendszer stb), csak azt nem másolta be.
Most már tényleg csak röhögni tudok rajtad.. Honnan szedted a dátumot okoska? Merthogy amibõl idéztél, az 2002. május 22-ei, utánanéztél te egyáltalán? Aztán mi van a szövegben? "...few of our review samples..." Fordíttasd le valakivel, mert neked nyilvánvalóan nem sikerült. Na ezeket az általam említett tényeket szokás nálad légbõlkapott dumának minõsíteni, a te kamu dátumod meg sziklaszilárd tény.:))))))
Ez mind-mind tesztkárgya igaz, nem végleges termék?
"March 4, 2002 First Sightings: Three Early Samples of the GeForce4 Ti4600 "
Áprilisban pedig már a 4200 is kint volt.
Komolyan, már csak röhögni tudok rajtad :D
Csak hogy segítsek: nem én találtam ki hogy ezek tesztkártyák, le van írva a tesztben! Ezért a kijelentésért miért engem támadsz, miért nem a teszt készítõjét? Egyébként az se furcsa, hogy nincsennek minden esetben a késõbbi piaci nevükön megnevezve a kártyák? Pl. itt ASUS Geforce4 Ti 4400-nek hívják a késõbbi ASUS V8440-et, hogy csak egy példát említsek. Ez is arra utal, hogy még nem a végleges sorozatgyártott termékekrõl van szó. Ráadásul nem gyanús, hogy egy darab 4200-as sincs köztük, holott szerinted ekkor már kint volt? Mert megint hazudsz, ekkor még csak pár referenciakártya létezett, a piacon csak hónapokkal késõbb jelent meg a 4200-as. Az teszt vége is azzal zárul, hogy ezek a kártyák a magasabb áruk miatt nem ellenfelei a 8500-asnak, de a 4200-as az lesz majd. Vagyis eszerint se volt még piacon.
""March 4, 2002 First Sightings: Three Early Samples of the GeForce4 Ti4600 " - na és ez mit jelent? 3 korai 4600-as tesztpéldány. Vagyis még mindig tesztpéldány, és ráadásul korai...
Talán még egy apróság a végére, ami jól mutatja a köpönyegforgató stílusodat: Amikor fikázni kell az nVidiát, akkor jó a tomshardvare-es adat, de ha ott pozitívat írnak a céggel kapcsolatban, akkor rögtön útálatos hazug banda.. Nyugodtan nevess rajtam, de rajtad még sokan mások is fognak röhögni, ha ezt sokáig csinálod.:))
"12.25re emlékeztem, mert az Xbitlabs tesztje akkori, és abban IS leirják a gef4 képminöség hibát." - ezek után meg sem lepõdöm azon, hogy az említett xbitlabs-os tesztben egy árva büdös szót se szólnak egyetlen Gef4 képhibáról se, hogy lespórolt elektronikáról már ne is szóljak, amivel ugye még mindig lógsz.
Sziasztok! Érdeklõdnék hogy mit vegyek: 1. GF4 Ti4200 1. Radeon 9100 (esetleg 8500) Mekkora a teljesítmény különbség a kettõ között? Ha nem sok akkor nem akarok jóval több pénzt kiadni egy Ti4200-re. Köszi...
8500 jobb mint a 9100 az arrol meg dontsel te, hogy megeri e a kulonbozetet az a 10-20% ami alap beallitasokkal a 4200elonye
"By the way, NVIDIA GeForce4 Titanium series also generate certain image artifacts in the second gaming test. They are not so evident as those noticed by Xabre 600, but are still very unpleasant. Thus, if you look at the haloes left by the shots or the flame of the jet nozzles, you will see very sharp color transitions. You will not notice anything like that in the pictures rendered by other cards." Xbitlabs.
Csak megunod végre...
Esetleg felhivnám a figyelmedet a dátumokra amiket irtam, mert látom még mindig csak mellébeszélni tudsz. Bár az igaz, hogy mellébeszélés nélkül ezt nem tudod kimagyarázni.
A tomshardware meg mindig azért van fikázva, mert nvidiás, részrehajló. Ha már az is leirja az nvidiáról hogy rossz a képminöség, akkor asszem nincs miért kötözködnöd. Bár ez téged még sosem zavart eddig. Dehát csak megunod egyszer...
Én nem unom meg, amíg hülyeségeket írsz. Itt a következõ.:)) Ezt a szöveget ismerem, multkor azt bizonygattad vele, hogy cheaterdriver eredménye a pár képhiba (megjegyzem ATI 9500-nál is vannak hibák!), mot meg azt, hogy spórolás az elektronikán. Érdekes.
"Esetleg felhivnám a figyelmedet a dátumokra amiket irtam, mert látom még mindig csak mellébeszélni tudsz" - Dátumügyileg keményen égsz. Szóval 12. 25. és a fenti szöveg. Ami ugye a 3DMark03-tesztre vonatkozik. Persze. Az xbitlabs már tavaly tesztelt vele, holott idén február 11-én jelent meg? Van tényeg egy teszt az xbitlabson 12. 25-ös dátummal, csak épp ott egy szó sincs semmilyen hibákról, ahogy te állítod. És még én vagyok gondban a dátumokkal? Jelenleg ott tartunk, hogy kezdted egy hazugsággal, aztán egyre mélyebbre süllyeszted magad, én csak asszisztálok. Csináld csak..:))
Az elsö bekezdésedhez ennyit: a képminöség hiba ottvan, és ott irják, tehát FELESLEGES KÖTÖZKÖDNÖD.
A második bekezdéshez pedig lásd az elözö mondatom nagybetûs részét. Ugyanis már megint ugyanazt csinálod: Nem tudod mivel kimagyarázni, ezért lényegtelen dolgokkal kezdesz érvelni. Pont.
Másrészt, már JÓNÉHÁNY hozzászólással ezelõtt leirtam, hogy a 2 dátumot azért kevertem össze, mert az xbitlabs tesztjeit olvastam épp. Ennek ellenére NULLA KÖZE NINCS ezen összekeverésnek ahhoz, hogy a gef4eknek igenis szar a képminösége, mint ahogy azt MINDKÉT HELYEN leirják. Ott vannak a release datek geforce4hez, ami bõven bizonyitja hogy egyátalán nem mintakártyákról volt szó.
Egész egyszerûen csak nem tudtál már másba belekötni. MEGINT.
Javasolnám hamár nem tudsz inforációkkal hozzátenni egyetlen topichoz sem, akkor legalább ne kötözködj lépten nyomon hülyeségeken. (és ez vonatkozik a kedves K.(ontrás) András nevû versenyzõre is)