Aha, mert 1 évvel ezelõtt annyival rosszabb lett volna a selejtarány, mi? :) Túl sokat nem javulhatott a gyártástechnológia, hiszen a 2.5x annyi tranyó 2.5x annyit is zabál. Én errõl beszélek. Az egy másik dolog, hogy ennek, itt most már más a belsõ felépítése is, vagy hogy majd késõbb 80nm-en fogják gyártani. Mellesleg az sem (több mint) felezi a fogyasztást.
"Mindössze arra, hogy a 2-2.5x-ös teljesítmény nem az új kialakításnak köszönhetõ, hanem a 2.5x-ös méretnek."
1. Ez teljesen természetes. Ha a tranzisztorok átrendezésével jelentsen javulhatna a teljesítmény, az azt jelentené, hogy az elõzõ generáció nagyon el volt cseszve. 2. Most azért lehet több tranzisztor egy chip-ben, mert fejlõdött a gyártástechnológia. Már egy ekkora lapkát is ki lehet hozni alacsony selejt aránnyal. Másrészt hamarosan kisebb csíkszélességgel fogják gyártani, vagyis normális méretû lesz (de ezt annyiszor leírtam már, hogy össze se tudom számolni). 3. Az új belsõ felépítés óriási lehetõségeket rejt, de egyelõre nincs kihasználva. Ehhez kell majd a DX10, meg a CUDA.
"csakhogy ti elbeszéltek itt egymás mellett vagy 5hsz-en keresztül, nem egészen problémamentes a kommunikációtok :)"
Én ugyanazt ismételgetem, más-más megfogalmazásban, de úgy tûnik, hiába... :D
"viszont lehet, hogy az uj kialakitás miatt kénytelenek voltak ilyen "böszmére" csinálni"
Dehogy. Azért ennyi, mert ugye be kell elõzi jól a konkurenciát, meg a userek is várják a menetrendszerû duplázást. De pl. most jönnek majd a kistestvérek, 8600GT 64 stream-procival (128 helyett), szóval "megoldható".
Lényeg az hogy nem tekinted nagy fejlesztésnek a 8800 kártyákat, mivel sokkal többet fogyasztanak és nagyobbak is, mint az elõzõ generáció, és ebben van is valami, csakhogy ti elbeszéltek itt egymás mellett vagy 5hsz-en keresztül, nem egészen problémamentes a kommunikációtok :)
"a 2-2.5x-ös teljesítmény nem az új kialakításnak köszönhetõ, hanem a 2.5x-ös méretnek."
- viszont lehet, hogy az uj kialakitás miatt kénytelenek voltak ilyen "böszmére" csinálni (a meglévõ csíkszélességen), egyszerüen csak hogy igy gyorsan kész legyen. Azt a néhány gépbe még azért befér, és páran meg tudják majd fizetni cimszóval piacra küldték, hogy így egy picit beelõzzék az amd-t...
Ja, meg még annyi, hogy a 6-7-es szériával is megcsinálhatták volna, hogy megduplázzák a egységek számát. Csak akkor még hajlandóak voltunk ugyanezt az árat fele teljesítményért is kifizetni...
Nem, kérlek szépen, egyátalán nem erre gondoltam. :) Mindössze arra, hogy a 2-2.5x-ös teljesítmény nem az új kialakításnak köszönhetõ, hanem a 2.5x-ös méretnek.
Tehát ezzel arra szeretnél kilyukadni, hogy fogták a 7es gforce széria legjobbját, megduplázták a paramétereit, és voala megszületett a gf8, azért ennél egy picit boncsolultabb volt, szerintem :) (ettõl persze még igaz, hogy nemártana csökkenteni a fogyasztást és a külsõ kártyaméretet, de a középkategóriánál ezek meg is lesznek, ha minden igaz nyárra)
Általánosságban is igaz, hogy 2x nagyobb teljesítményt nem nagy kunszt 2x nagyobb mérettel és 2x nagyobb fogyasztással kihozni. Ebbõl a szempontból mindegy, hogy többet is tud-e. Meg akkor is mindegy, ha csak akarod programozni (de nem teszed). ;)
Azért nem értelek, mert te is írod, hogy mégis jobb a 8800, csak még most per pillanat nem érzõdik teljesen. Miért olyan fontos, hogy egy rövid ideig még nem nyújt igazi elõnyt? Ráadásul ez sem teljesen igaz, mert ha pl. programozni akarom, akkor óriási a különbség a két generáció közt.
Csak azt, hogy 2x annyi fogyasztásból és 2x akkora chipbõl nem olyan nagy szám 2x akkora teljesítményt kihozni. Jelen pillanatban, amíg nem lesz mûködõ DX10 driver, és DX10-es programok, ill. amíg 90nm-en gyártják, ez a helyzet. A GX2 chipjeinek órajele csak azért alacsonyabb, mert mindkettõnek olyan lapos a hûtése, hogy a kettõ együtt olyan vastag, mint pl. egy GTX. 2 full méretû GTX a normál órajelén is mehet együtt SLI-ben.
Még mindíg nem vágom, hogy mit akarsz ebbõl kihozni. Mint már sokszor mondtam, 80nm-en fogják gyártani nemsokára (vagy talán már most is), de nyílván a gyártási problémák elkerülése miatt az elsõ szériát még 90nm-en hozták ki (ugyanezt csinálják mostanában a CPU-knál is). Az meg nem igaz, hogy ugyanolyan, mintha a korábbi generációból lenne 2 mag, mivel azok nem tudnak elég hatékonyan együttmûködni. Gondolom oka volt annak, hogy a GX2 kisebb órajelen megy, nyílván nem attól féltek, hogy túl erõs lesz.
Látod látod, még jó inkább értelmezted magadban, mielõtt irtál volna valami elhamarkodottat, és aztán jól kinevettelek volna :))
Amugy nem tudom, hogy azóta javitottak-e rajta szoftveresen driverrel, már ha 1általán megoldható, de akkor se vennék ilyen videokarit az biztos, ez a veszély nem fenyeget :D
Látom, még mindig nem érted. Nyilván egyre több tranyóra lesz szükség. Ami nem is baj, ha mindez kisebb csíkszélesség mellett valósul meg, a korábbinak megfelelõ, vagy még alacsonyabb fogyasztással, mérettel. De itt egyelõre nem ez történt. Hanem olyan, mintha 2 (pontosabban 2,5!) korábbi chipet tettek volna egymás mellé, DX9 teljesítmény tekintetében. Majd ha kisebb csíkszélességgel csinálják, és valahára a DX10 is elérhetõ lesz, más lesz a leányzó fekvése. De addig effektíve pont olyan. Érted már? A 7950GX2 jóval alacsonyabb órajelekkel dolgozik, mint a 7900GTX, így nem csoda, hogy nem 2x gyorsabb. Muris, hogy rendre új információként írod le, amit már magam is írtam. A DX10-re gondolok. Csakhogy, mivel az ma még nem elérhetõ (se a DX10, se a DX10-es driverek, és a ez hírek szerint még legalább 2 hónapig így marad), csak DX9-ben lehet használni a kártyát.
Hát pedig nagyon nem errõl van szó. Létezik olyan, hogy 7950 G2X, ami gyakorlatilag két teljes kártya összeforrasztva, és azt is lealázza a 8800GTX. És mint már többször mondtam a nagy méret és fogyasztás csak az elsõ szériára igaz, késõbb kisebb csíkszélességgel fogják gyártani, vagyis normális méretû és fogyasztású lesz. És azt is mondtam, hogy a tranzisztor szám növekedés normális. Másképp csak órajel emeléssel lehetne gyorsítani, azt meg gondolom neked nem kell elmagyaráznom, hogy miért nem jó. Egyébként meg nem a nyers DX9 teljesítmény a "kunszt", bár az is elég impresszív. A lényeg a DX10, és méginkább a programozhatóság.
Jaj, hát arra, hogy ez a teljesítmény szempontjából pont olyan, mintha 2 g71-est tettek volna egymás mellé. 2x annyi tranyóból, 2x akkora méretben, 2x akkora fogyasztással nem olyan nagy kunszt 2x akkora teljesítményt kihozni. (Most nem tekintve, hogy ez már tudja a DX10-et is, tehát maga a tranyók "elhelyezkedése" más.)
Azt ki is, hagytam a legutóbbi hozzászólásomból, hogy miért jók a többmagos procik. Az operációs rendszer (többek között XP, Vista) tudja kezelni õket. A Vista állítólag jobban is, mint az XP.
Most még 90nm-en készül, de késõbb 80nm-en fogják gyártani. De az is lehet, hogy még kisebb csíkszélességre készülnek, ezért mertek bevállalni ennyi tranyót.
Itt nem csak a tranzisztorszám nõtt drasztikusan, hanem a die-méret is. Akkora a chip, mint két G71-es. (R600-zal is hasonló a helyzet.) Nem tudom, ugyanez fogják-e késõbb kisebb csíkszélességgel gyártani, inkább újabb cuccok lesznek azok, még több tranyóval, hasonló méretben. Öldöklõ verseny van ugye, mindent beleadnak, ami korábban nem lett volna ésszerû, azt is.
"Számít, csak ugye 700 millió tranyóból, meg 150W fogyasztásból már nem olyan nagy kunszt kihozni."
Nem értelek. A tranzisztor szám nyílván emelkedik, hiszen fejlõdik a technológia. A fogyasztás (és méret) meg drasztikusan esni fog ha kisebb csíkszélességgel gyártják.
Na jó, hát nyilván nem rakja össze a pistike legóból. De ennyi erõvel 2-3 korábbi csúcs-gpu-t is egymás mellé ültethettek volna. (Persze ez csak addig érvényes, amíg meg nem jelenik a DX10.)
hmm nem értem ezt az agyon hajszotl fejlesztést nekem 2.4 celeron 512 ram fx 5200 karim van és bõven elég igaz nem játékra hanem netezésre tanulásra.....
Számít, csak ugye 700 millió tranyóból, meg 150W fogyasztásból már nem olyan nagy kunszt kihozni. :)
Egy elõnye azért lesz ha nagyon elterjednek a többmagos CPU-k, muszáj lesz rájuk optimalizálni majd :) , hogy kihasználják a fejlettebb cpu-igényesebb játékok igényeit, a piac meghozza majd a változásokat, ahogy ez lenni szokott, a kérdés csak a mikor
Pont a CoH az utóbbi idõkben a gamék közül, ami ugy a leg inkább optimalizáltank tünik, legalábbis a legujabb patchek után, 7600gst-vel 1024x768 2xaa minden effekt max, simán játszható és gyönyörü, nem kell hozzá 8800 hacsak nem elegek valakinek a közepes felbontások, meg a max 2x aa...
És nem a crysis, hanem a CoH lesz az elsõ dx10es játék, ha kijön a vista & dx10, igaz nem alapvetõen dx10re irták, de crysis sem lesz teljesen olyan.
Mikor beszlunk optimalizalatlan, vagy epp optimalizalt jatekrol??? Szerintem az engine eleg jo, es meg egy FX5600-zal is jatszhatonak nevezheto. 7000-es kartyakkal nem volt modom kiprobalni, de a 6600 es a 8800 kozott a kulonbseg eg es fold. Most nehogy mar az nvidia tehessen arrol, hogy nincsenek DX10-es jatekoke. Ok kiadtak egy iszonyatosan izmos kartyat, ami remenyeik szerint helytall majd a DX10-es jatekok eseteben is. Es nehogy mar a jatekfejlesztok hibaja, hogy 2006 szeptemberben egy olyan jatekot kenytelenek kiadni ami "csak" DX9-et hasznal. Gondolom pici ido szukseg volt a fejlesztesre is. Szoval most nem ertelek.
Egyebkent ilyen alapon a teljes 6 es 7 ezres sorozat mero folosleg, mivel ha jol tudom mar az 5 ezresek is DX9-esek voltak. Csak a franya jatekirok nem optimalizaltak ra???
Az hogy egy optimalizálatlan játék jobban fut az új GFX kártya 2X memcsi sávszélessége illetve egyéb, nyers teljesítmény növelõ képességei miatt, és ezért már be lehet kapcsolni azokat az effekteket is amik eddig játszhatatlanná tették volna; az nem jelent valódi fejlõdést, és nem jelenti a GFX kártya tudásásnak kihasználását sem. Hiszen olyan játék olyan effektjeit kapcsolod be amit jó esetben az elõzõ generációhoz terveztek.
Röviden: az hogy nem kell tovább szart enned még nem fejlõdés.
"Szal a Crysisig nincs egyetlen olyan gámae, ami rendesen kihasználná, max az FSX."
Nekem pont eleg, hogy a Company Of Heroes minden szir-szar csili-vili, bizbasz bekapcsolasa utan sem igen esik 50 fps ala.
Ja es a 6600GT utan olyan volt, mintha egy uj jatekkal jatszanek. Ezert aztan szamomra ugy tunik, hogy eleg rendesen kihasznalja a jatek a 8800-at. (persze ertelek am, hogy mit ertesz az alatt, hogy nem hasznalja ki, de attol meg nagyon jol jon az a plusz teljesitmeny DX9 alatti jatekoknal is, mert a Core2 2 magjat se hasznalja ki a CoH, de megis sokkal jobb pl. replayt nezni azzal, mint a P4 2.8-cal)
Haveroméknál a munkahelyen van 2db PS3 is (meg xbox360, nintendo wii, psp....meg olyan telefon amibõl európában pár darab van. Videókártya van benne) Ja õk programozók. Azt mondja iszonyat a PS3. A GT HD-n össze hugyozta magát... A másik PS3 meg 18kiló és akkora mint egy bõrönd, mivel a fejlesztõi verzió, mindenfajta kibemenettel, meg blue-ray dvd író is van benne! :P De jó nekik. Játszanak mint állat :D
Mégegyszer a pS2 úgy került szóba, hogy Sanyix kijelentette, hogy csak pár gagyi játék van a PS3-ra, ami nem igaz, mert több száz játék van rá. Viszont ami igazán ki is használja abból télleg csak néhány.
És én csak azt mondom, hogy az a néhány is nagyságrendileg több, mint amennyi a GF8800XT-re optimalizált PC-s játékok száma.
Amúgy mivel nincs PS3-asom így nem tudom, mennyire jobb a képe a pS2-höz képest amikor PS2-játékokat futtatunk rajta.
De pl a PS2-õn be lehetett kapcsolni, hogy a PS1-es játékoknál is használjon textúra szûrést, meg gyorsabban is pörögtek a játékok. Szal ennyit a Ps2-nél is láttunk, de én akkor sem mondtam azt a lükeséget, hogy már csak ezért is érdemes lenne PS2-õt venni 3X annyiért, hogy csak PS1 játékokat futtassunk.
Szal a Crysisig nincs egyetlen olyan gámae, ami rendesen kihasználná, max az FSX.
"Hátkösz! A 8X AA, meg a 24X aniso biztos jelentõsen emeli a játék élményt"
Igen emeli, mert gyorsabban mennek a játékok, és jóval szebbek is. Még nagy felbontás mellett is sokat dob a kép minõségén az FSAA, és az is sokat számít, ha 20 helyett 50 fps-sel megy a játék. Egyébként visszakérdezhetnék, hogy a PS2-es játékoknál mekkora élmény növekedést okoz a PS3.
"Hátkösz! A 8X AA, meg a 24X aniso biztos jelentõsen emeli a játék élményt: egybõl öszetetteb pályák jelennek meg, nagyságrendekkel több ellenféllel, akik nem csak elesnek mint egy darab fa, hanem szétlõhetõkké is válnak és apró kis darabokra szakadnak szét. A lövések gellert kapva cikáznak a falon, és mindegyik szikrázásnál az összes tárgyról valós árnyékokat vetítenek. Kinn az erdõben a fákon mókusok, a fûszálakon meg hangyák katicabogarak és szöccskék szaladgálnak."
Ezt mar egy eredetileg voodoo2-re (majd dx7-re) irt mmoprg is tudta. Igaz, hogy szinte mindent a proci szamolt de tudta. Az ujitas pont az, hogy a dx10-zel vegre visszakapjuk az opengl-ben mar az 1.1 ota ismert feedback buffer-t, azaz uj neven geometry shadert. A pc-s kartyak a geforce 1 ota csak szoftverbol tudtak ezt az uzemmodot, most vegre implementaltak hardveres szinten is. Es nem csak a regi fix funkcios, hanem programozhato modon. Ez jo. Az, hogy a gf8800-as vegre kepes nativ felbontasban hasznalhatoan mukodni egy uj nagyfelbontasu lcd monitoron az mar csak bonusz. (igen igy a regi jatekok, mint pl. az oblivion sem fog szaggatni 1440p mellett hdr-ben)
A ketmagos rendszerek pedig alacsonyabb orajel mellet gyorsabbak, meg ha csak az egyik mag jar akkor is. Koszonheto mindez a 2-rol 3 darabra novelt alu-knak, az 1-rol 3-ra novelt vektoregysegeknek es egyeb kivulrol nem lathato boviteseknek. (a core2 sorozat a pentium pro kozvetlen leszarmazottja, mint a PII es a PIII volt, a P4 sajnos mukodeseben a transmeta crusoe rokona volt)
A cell-ben van 1 cpu es 6 hasznalhato dsp (1-et az oprenszer hasznal). Ez megfelel 0.75 darab azonos orajelen mukodo core2 duo-nak vagy 1 darab 3 magos ppc-nek (xbox360). Annyi kulonbseggel, hogy mig a pc-kre konnyebb programot irni, addig a cell-hez dsp-s gyakorlattal rendelkezo programozok kellenek. Ilyenbol keves van es jelenleg is jobban fizetik oket, mint a jatekfejelsztoket. A sony nagy lepese az volt, hogy most ugyanaz a proci van a bravia tv-kben, a ps3-asokban es az ibm szuperszamitogepekben. A 8 jo dsp-seket az ibm kapja, a 7 jo dsp-s megy a ps3-ba, a meg kevesebb jo magos meg a bravia tv-kbe. Az oprendszer ugyanaz a linux, csak a vasarlok nem tudnak rola. Egyebkent dsp-kent hasznalva a cell tenyleg jo, de ez nem altalanos felhasznalast jelent, hanem pl. a video es a hangkartyat lehet igy kivaltani. (a bravia-kban igy kevesebb aramkor van, egy cluster-be meg minek videokartya)
"Mért rossz emlékû az FX5200??én nagyon csipázom!"
Mert shader programok eseten gyengebb mint egy gf4ti volt.
Mért rossz emlékû az FX5200??én nagyon csipázom!
Csak egy példa volt, de az is lehetett volna, hogy végre egy régebbi bazinagy gépigényû játék max grafikán se szaggat be. cell meg aztán nagyon emeli a játékélményt mekkora érzés az a sok flops ami rá van írva \o/
Hátkösz! A 8X AA, meg a 24X aniso biztos jelentõsen emeli a játék élményt: egybõl öszetetteb pályák jelennek meg, nagyságrendekkel több ellenféllel, akik nem csak elesnek mint egy darab fa, hanem szétlõhetõkké is válnak és apró kis darabokra szakadnak szét. A lövések gellert kapva cikáznak a falon, és mindegyik szikrázásnál az összes tárgyról valós árnyékokat vetítenek. Kinn az erdõben a fákon mókusok, a fûszálakon meg hangyák katicabogarak és szöccskék szaladgálnak.
Naneetess! Szólok a Szõkének hogy mutasson már nekem is egy 8800GTX-et!;)))
"Egyébként ebben az esetben a videodrivernek kell kihasználnia, nem magának a futtatott programnak"
Ez csak félig igaz. Van egy pár fontos újdonság a DX10-ben, amit a programnak is támogatnia kell. Pl. Geometry shader, illetve minden mûvelethez új utasítások, lehetõségek.
Hát nem egy hozzászólással nem értenék egyet. Én most készülök venni egy C2D E6400-et. Sztem jobb választás a 2 magos proci, vagyis inkább úgymondanám a C2D. Sokkal jobban tuningolható, keveseb a fogyasztása jóval (Lapotopokba lesz 35W-os C2D!). Nem kell akkora batár állat hûtõ rá, aki nem akarja húzni. Azért egy 4GHZ-sre húzott P4 eléggé forró fejû. 4 magos procit meg nem is vennék még 2 évig. Nemrég ovlastam, asszem a PCworld oldalán, hogy egyes játékok el sem indúltak rajta! Lehet E6600-ot kellene vennem inkább, majd még meglátom, csak az kb 20 ezerre drágább az E6400-tõl.
Bármelyik játék kihasználhatja, ezzel lehet 2048*1536-ban 8x os aa val meg 24x anisoval futtatni a régebbi gémeket is pl... Az újabbak meg már ennek kihasználására készülnek. Egyébként ebben az esetben a videodrivernek kell kihasználnia, nem magának a futtatott programnak, mint a többmagos prociknál.
Ugyan az az egy magja télleg olyan, mint a hagyományos procijé, de a nyolc másik viszont sokkal több mint ha csupán vektor egységek lennének.Annyival, hogy így akár több OS-t is lehet rajta futtatni.
Az a pár "béna játék" sem igaz, mert ugye a ps2-eseket is tudod rajta futtatni. Másrtészt az a kifejezetten erre megjelent "pár béna" meg úgy nagyjából ki is használja a gép teljesítmányét, amibõl már eladtak vagy 1.5 milliót.
Hány 8800GTX-et adtak el vajon eddig, és hány olyan játék jelent meg ami kis is használja?
Aminek csak 1 magja olyan mint a 2 magos proci magjai, ráadásul kitörölheted vele... mert csak pár béna játék van rá :D Egyébként is 100 ezeré 8800 gtx-t et vett... ha úgy tetszik 128 magosat.
hol toroltek el az AFA-t??? (ha ezt nekem szantad, akkor fel kell vilagositsalak, hogy ott is van AFA, azon a linken levo arakon, igaz nem 20%, de mondjuk legyen 19%)
Egyebkent Pentium D-t talan ma mar nem igen akar venni senki, mivel tenyleg semmi elony nem lesz abbol, hogy 2 mag van benne. Ellenben a Core2, ahol eleg szemmel lathato a gyorsulas a korabbi Pentium 4-ekhez kepest. Es csak hogy maradjunk a Toms Harware -nel (core2 vs p4, nagyjabol ugyanaz a config, elteres 50 fps)
lol kicsit elkattintottam ) ja igen a 60Hz-es beállítás monitoron) Sok ember aki gépet használ ..... Inkább kérnének meg valakit hogy beállítson mindent és karbantartsa a gépét) monitor beállítása meg már túl bonyolult) Sok emberrel találkozok akinek jobb click a desktop-ra és ott properties-settings-special bemutatása után még le kell diktálni mert leírják.
Szerintem nem hülyeség csak még mostanság csak néhány progi használja ki a többmagos dolgokat. pl rendereléshez. http://www.tomshardware.com/2005/08/01/dual/page10.html gyorsabbak de nem túlságosan. Otthonra játékra nem igazán éri szerintem meg. Az árkülönbséget videókártyára költöd szerintem jobban jársz. Az árak meg azért ilyenek nállunk mert más normális országokban eltörölték az áfát az IT termékekrõl. Csak hogy ki tudjon alakulni az információs társadalom nem úgy mint itthon...
A mai procik nagyjából ezt csinálják -- egy magon belül, ezt hívják superscalar architektúrának, amikor a különféle végrehajtó egységek között, sõt mindegyikbõl több egyforma között, szétosztja a proci a végrehajtandó utasításokat. (Amire közben figyelnie kell: csak azokat az utasításokat lehet párhuzamosan végrehajtani, amik nem függenek egy másik eredményétõl.) Szóval, akkor már egyszerûbb lenne az általad leírt "megoldásnál", ha még jobban megtöbbszöröznék a párhuzamosan mûködõ egységek számát, egy magon belül. De nem teszik, mert egy bizonyos szám fölött már nem éri meg, egy program-szálon belül, mert azok a fránya utasítások általában többé-kevésbé függenek egymástól. Keresztül-kasul, így fõleg több magra elosztani nem lenne túlzottan hatékony.
A többmag ebben a formában hülyeség, mert nem fog a programozók többsége párhuzamos végrehajtásra optimalizálni, mert az nagyon eltérõ a megszokott PC programozástól.
Én azt mondom, hogy a több magnak akkor lenne értelme, ha a processzor kívülrõl sorosként mûködne, és a beérkezõ utasításokat a proci elosztogatná a magok között. Így a soros végrehajtásra optimalizált progig kb. 1.8x olyan gyorsan futnának egy többmagos belsõ párhuzamosságvezérlésû procin, mint egy sima egymagoson.
Szóval valahogy így:
A több mag nem csak népszerûség kérdése. Ha lassan már nem lehet mást kapni, akkor jóhogy elterjed...
Én a statisztikát nézve azon lepõdtem meg hogy az emberek 65%-a 60Hz-en használja a monitort. Ennyire öreg lenne a monitorpark hogy többet nem bírnak, vagy csak nem tudják hogy kell feljebb állítani? :)
Hát igen, az FX5200 meglepõ hogy ilyen számban van. Gondolom akiknek olyanja van, az nem Source-os játékokkal játszik, hanem CS 1.6-al :)
120-ert vettem mult heten csokolom, a GTS pedig mar 100 alatt van.
Core2 Duo-t meg nem csak azert vesz az ember, mert 2 mag van benne, hanem azert is mert, kevesebben fogyaszt >>> nem kell ra brutal hutes >>> csendes es nem tobb magra optimalizalt programokat is sokkal gyorsabban futtat mint a sima P4 es mellesleg sokkal jobban is tuningolhato. (szerintem)
es mellesleg a 8800GTX-et a kozepes (6400-as) Core2 se tudja rendesen kihajtani.
en egyebkent ezen az FX5200-on csodalkozom a leginkabb, mert hat ugye azert vegulis foleg tolunk nyugatbbra hasznaljak a Steam-et es hogy ennyire szarragok lennenek, nem gondoltam volna.
8 cpus - 2 :) LOL, van 2db ember a világon, akinek 8magos procija van :) 3.7 Ghz and above 1,652 0.19 % ez is kemény :) NVIDIA GeForce 8800 4,484 0.52 % ez meg az utolsó helyen áll, meglepõ kicsit, de új a kártya végülis, de annyira azért nem új
NVIDIA SLI (4 GPUs) 2 0.02 % Ezek is betegek :)
3360 x 1050 229 1.01 % Vannak, akiknek 1 monitor nem elég :)
Ok, megveszed az ikermagos procit, mire kezdenek szálingózni azok a címek, melyek támogatják az ikermagot, addigra már a 4 magos procit is lehet kapni ebben biztos vagyok ;-)