Igaz hogy a Geforce-ot 88GT-nek híjják, de G92-es chip a lelke... A Gef 8 series G80-as topik.. Valójában a 8800 GT- Gef9***-nek kéne hívni, az nvidiát bombázd spamokkal mi a sz@rért adtak neki ilyen szerencsétlen nevet. Annyiban igazad van hogy neve alapján egyik topikba se illik a GT. De ebbe inkább.
Lopster eat the mejjed.:XDDDDD(Hogy a rák enné ki a mejjed haver módján:D) Nállunk nem lehet simát se kapni, ezek meg ontják a 10% -os tuningal készített karikat.
hoppá mégse 9800-as lesz az új kártya!!??(lehet az ATI korábbi modellje miatt) KLIKK
Az órajel az erõsen kérdéses mindkét platformnál. Szerintem az 4 magos AMD-t nem lehet egyhamar 3GHz fõlé nyomni. 2,8GHz tûnik reálisnak egyelõre. A Penrynt pedig kizártnak tartom, hogy 3,5GHz fölé menjen. A 4GHz az pedig vicces, ha nem ment a sokkal egyszerûbb P4-gyel akkor a bonyolult Penrynel sem fog egyhamar. Az adatelérésnél a teljes memória alrendszert vizsgáld. Hatalmas elõnye lesz az AMD-nek, hogy nem az elavult FSB buszrendszert használja és van integrált memóriavezérlõje. Ezzel a lépéssel megfelelõen etethetõ 4 mag, míg az Intel korlátokba fog esni a saját memóriavezérlésén. Ezen a ponton az Intel láthatóan védekezik, 4 magra lesz 12MB (igen gyors elérésû) gyorsítára ami nem gyengén zabálja a tranzisztort, sokkal praktikusabb K10 féle IMC, 4x0,5MB L2 tárral és 2MB L3 tárral. Az AMD jelentõs helyet spórolt és még talán jobb is a rendszer ezen részének a sebessége összeségében. A K8 és a K10 a cacheszervezésben marad le a Core 2 prociktól, bár a K10 fejlõdött ezen a téren is, de elvileg még gyengébbnek kell lennie valamivel az Intel rendszereknél (legalábbis papíron mindenképp). A memóriahozzáférés viszont egyértelmûen jobb még mindig. Ez amolyan védekezés mindkét gyártónál. Az AMD a cacheszervezés gyengeségét kompenzálja a memóriahozzáférés erõsségével, míg az Intel pont fordítva tesz. Én összeségében a K10 elveit tartom átgondoltabbnak, az Intel memóriaalrendszerének vannak nagyon erõs és nagyon gyenge pontjai is (gondolok itt a közös cache által teremtett versenyhelyzetekre, a magok egymással harcolnak a helyért). Az Intel a Penryn-ben is ezért növelte meg a gyorstár méretét drasztikusan, ami jó mert csökkennek a korlátok és a gyenge pontok és rossz mert sok tranzisztort zabál. Tranzisztort/teljesítmény viszonylatban nem biztos hogy megéri, mert a elõállítás valamivel drágább lesz a 65nm-es K10-hez képpest, függetlenül a 45nm-es gyártástechnológia pénzügyi elõnyeirõl.
Nyilván elég infó áll rendelkezésre, hogy megtegyük a tippeket. Szerver oldalról egy ideig legyõzhetetlen lesz a K10 minden téren, fõleg a többutas szegmensben mutatkozik majd meg a független HT3 linkek pokolian nagy elõnye. Asztali szegmensben akkor verhetõ, ha az Intel nem fut órajel problémákba. Az SSE feldolgozásben egyértelmûen nem tud mit kezdeni vele az Intel, a 32byte-os utasítás betöltés natív 128bit-es feldolgozókkal eléggé erõsnek tûnik, az Penryn rendszerek korlátozva lesznek a 16byte-os utasítás betöltéssel még akkor is ha ennek a szûk keresztmetszetnek a kompenzálására van egy 64 byte-os tároló pufferük. Egyszálon futó alkalmazásban viszont jobb lehet a Penryn, mivel ilyenkor megnöveli a használatban lévõ mag órajelét a másik mag kárára. Többszálú alkalmazásnál már a K10 lesz elõnyben fõleg akkor ha minden mag memóriaintenzív feladatot kap. Ebben az esetben az FSB busz nem tudja kiszolgálni az Intel rendszerét és nem tud maximális hatékonysággal mûködni a processzor.
Láttam Wolfdale tesztet, nagyon állat, de a "kommersz" verziók szvsz idén nem jönnek ki. (Tudod Xeon az elsõdleges, nagyobb haszon, meg hát elég minimális a gyártókapacitás még.) Persze nem hivatalosan pár legyártott darab biztos felbukkan eBayen meg Xtremsystem és hasonló oldalakon, anno a novemberben kijött Kenstfieldet is valamikor április/májusban már nagyban tuningolta pár telhetetlen arc. Majd meglátjuk mit tud a K10, én már egy "kiegyenlítõdésnek" is örülnék.
De azt ne felejtsük el, hogy az intel megcélozta újból a 4 GHZ s határt a "penryn"-nel..De az AMD elméletileg az elsõ példányokat csak 3,2 GHZ ig tervezi.És a k10 es AMd nél az a max 2 mega vagy 2,5 mega cache nagyonkevés.:S
Hát a K10 SSE feldolgozása nem éppen gyenge. A papíron a Penrynhez viszonyítva is 60-70%-al gyorsabb azonos órajelen.. Szvsz egyetlen gyenge pontja a K10-nek a cacheszervezés, de jelentõsen kevesebb tranzisztort használtak ennek a kialakítására. Összességében az eddig kiszivárgott adatok alapján a K10, azonos órajelen elég tisztességes mértékben jobb még a Penrynnél is.
AmÍg nincsenek valós tények addÍg még az Intel a jobb:) Amúgy sztem a 65 nM esekkel ne is hasonlÍtgassunk, majd a wofdale meg a yorkfield magos procikkal amik nov környékén jönnek.
Ez így ebben a formában hülyeség. Jelenleg kéne legalább 3.6-3.8GHz-en mennie egy X2-nek, hogy legyen esélye (a 6400+ pont a 6750 és 6850 között van árban) a 200K-s Xterem meg elég lol összehasonlítási alap. Az új AMD mag meg órajelre leosztva gyosrabb mint a jelenlegi C2D magos procik, és abból most jön ki a real 4 magos, a kolléga azt írta bele. Valószinüleg egy QX6800-at is bealázna. De én se mernék jósolni ...
Már látom az év végi csúcskonfigot. Intel Core Quad v. AMD Quad FX, 4GB RAM, Geforce 9800 SLI.
Ha képminõséget rontó optimalizáció van akkor nem kaphat a driver WHQL minõsítést. Az FX-nél is így volt. Csak az elején néhány drivernek volt aláírása. A HD2900XT driver hibái közel sem olyan súlyosak, mint a GF8800 sorozaté. Már van tény is. Bioshockban HD2900XT=8800GTX. Pedig ennek a gémnek nem is magas az Alu:Tex aránya. Ha ezt a fejlõdési ütemet tartják akkor már jövõ februárban meglesz fogva a 8800Ultra. Ennyi. Én csak annyit mondtam, hogy a HD2900XT jóval életképesebb, ettõl persze lehet GF8800-at venni, csak nem érdemes. Az AA teljesítmény pedig ugye nem lesz mérvadó, mert a Deferred processing motorok (mint az UE3) nem támogatják az MSAA-t. Jövõre SBAA lesz ez egyetlen út a recék szûrésére, és a HD2900XT-t pont erre az eljárásra tervezték tehát a GF8800 a hardveres MSAA támogatásával jövõre nem megy semmire.
Több helyen is írtak róla. Nyilván nem a csalás címszó alatt kell keresni, hanem az "optimalizációnál" (a terroristák is felszabadítónak hívják magukat). Mint régen az FX-eknél.
Hibát lehet találni a GF8800-ban is, elég súlyossakat. Meg az R2900 XT-ben is.
Amíg nem keresel az eredményekre magyarázatott nem is lehet magyarázni. Engem nem a magyarázkodás érdekel, azzal tele a padlás. Csak a tények. Mit tud? Jelenleg csak ígérgetni hogy majd egyszer esetleg jobb lehet. Vagy nem. Mire jobb lenne (DX10 only), addigra már egy integrált intel videokari is 2x erõsebb lesz nála.
Ha hinni lehet a hivatalos, elõre kinyomtatott meghívóknak...
Felröppent információk szerint az NVIDIA már postázta pár partnerének a novemberi meghívókat a G92-es GPU hivatalos bemutatására. Természetesen most is -- mint szinte mindig a VGA-piacon -- a felsõkategóriás egyedek felvonultatásáról van szó, melyet késõbb -- várhatóan jövõre -- fognak követni az alsó- és középkategória számára kellõképpen lebutított lapkák. Forradalmi változtatásokat ne várjunk az új magtól, leginkább a G80-as továbbfejlesztésérõl beszélhetünk - vagyis az NVIDIA-nak az egyetlen célja, hogy tovább erõsítse pozícióját az AMD-vel szemben. Arról sajnos nem szól a fáma, hogy a DirectX 10.1-es támogatással mi lesz, mi azért reméljük a legjobbakat. A G92-es két legfontosabb -- már akár biztosnak is mondható -- újítása a 65 nanométeres gyártástechnológia alkalmazása és a PCIe 2.0 támogatása lesz.
Nem láttam trükközést a Catalystban. Nem is értem, hogy merült fel a képminõség amikor az AMD jár élen a WHQL minõsítésben. Nyilván az elején még csak beta meghajtó állt rendelkezésre azok nem kerültek aláírásra. Az AMD és az nVidia benc. guide-ja is csak WHQL meghajtóval történõ tesztelést ír elõ, ha valaki ezt nem tartja be akkor hivatalosan nem minõsíthetõ a kártya, legalábbis a képminõség alapján. Olvasd el magad a tesztelési útmutatókat a cégek oldalain. Hibát lehet találni a GF8800-ban is, elég súlyossakat. Ott van a megjelenés óta ismert, de csak manapság bejelentett "texture remain" probléma. Ez lényegében azt jelenti, hogy a GF8800 nem képes minden texturát eltávolítani a memóriájából, és egy idõ után a nem használt és bentmaradt texturák miatt betelik a memória. Az orvoslás egyelõre annyi, hogy lépj ki ALT-TAB-bal és vissza. Most ez alapján mondjuk azt, hogy a GF8800 nem ajánlott, mert tény, hogy lassan egy éve nem találtak a hibára megoldást? Nem akartam felhozni a hibát, mert nem akarom rontani elméletben javítható dolgokkal a GF8800 eladásait, de nem értem mi alapján ítéled el a Radeon drivereit amikor sokkal súlyosabb problémákkal találkozunk nv-nél driver szempontból.
Amíg nem keresel az eredményekre magyarázatott nem is lehet magyarázni. Akkor leszel jó szakember, ha logikus magyarázatot keresel a tényekre, hidd el mindenre van ésszerû válasz. Itt egy csomó játékkal tesztelték a két rendszert, minden eredménynek megvan az oka. Speciel a Vegasban mért magas teljesítménynek is van logikus magyarázata, de az AA teljesítményre is lehet találni választ. Ha mindenek valaki megtalálja az okát, akkor kellõ tapasztalattal rendelkezik, hogy eldöntse melyik rendszer az életképesebb. Mára azok az oldalak akik csak a tényeket nézik nem mérvadóak, de ha pusztán tényszerûen ítéljük meg a HD2900XT-t akkor is jó vétel, mert a 8800GTS640MB ellen versenyes árban.
Nem marhaság, asszem a PH-n volt egy cikkben ilyesmi (vagy hardwareoc, vagy hasonló), hogy a catalystban trükközik az ATI a 2900-zal.
A 8800 azért jobb mert lényegesen több FPS-t produkál egy játékban mint a 2900. Ezen sokmindent nincs mit magyarázni, tele van tesztekkel az egész net.
A mostani driverekkel nincs is képminõség problémája az FX-nek, de amikor még csak FX volt a piacon akkor nem volt WHQL minõsítet meghajtó. A minõsítést pedig a legújabb grafkari képminõségére adják, illetve az új architektúra képminõségét hasonlítják össze a referencia raszterizálóval. Miért ne támogatta volna a D3D9-et. Az SM2.0a szabvány paraméterei jelentõsen túlmutattak, a D3D9 követeléseinél sõt, még az Ati féle SM2.0b-nél is. Nem ez volt a baj a remdszerrel, problémák forrása jóval összetettebb ezeknél.
Akkor nem kapna WHQL-t. Az FX sem kapott soha. Légyszives ne beszélj marhaságokat. Ha jól tudom az AMD 6 WHQL aláírást kapot már Vistára míg az nV most tart a 4-nél. Én csak vitatkozást látok tõled semmi konkrétumot. Nem feltétlen baj, ha úgy látod jobb a G80 csak alapozd meg az állításod elemzéssel.
A 7.1-et használták a régi Radeon karikra, míg a HD2900XT-hez a legelsõ beta drivert telepítették. Azt mondtam, hogy új driverekkel még ennél is gyorsabb.
Azért abban a Gi demoban lehetne éppen 10-nél több objektum is, ami meggyõzõ volt az inkább a skines demo, ahol 5170 karaktert animált egyszerre 10 fps-sel.
Azért ennyire nem rossz a helyzet. A GI demót futtatja 55FPS-sel akkor sok baja nem lehet a jövõben, lévén ez a legkomplexebb D3D10-es alkalmazás jelenleg. Meg kell tanulni a WDDM-et és száguldani fog minden. Eleve látható, hogy jelenleg nem a Shader erõre gyúrnak, elvileg 13:1-es Alu:Tex arány is fekszik a rendszernek tehát nem fog esni a teljesítmény, sõt inkább nõni fog. A G80-nak 6:1 arány fekszik a legjobban, jelen játékai is hasonló Alu:Tex arányokat használnak. Ne mondj rémhíreket, amíg nem tanulmányoztad D3D10 API elveit addig nem hiszem, hogy van alapja a sebesség megjósolásának.
Persze, gyorsabb lesz, 0.1 fps helyett kapsz is vagy 0.3-at. Csak épp 60 kéne. De ahhoz meg az ereje lesz kevés a 2900-nak, hiába tudja a dx10 függvényeket. Ez pont olyan vita hogy a lada gyorsabb mint a trabant, mégis inkább repülõvel megyek ausztráliába. ^^
Már hogy ne lenne a D3D10-es feldolgozás gyorsabb, csak a jelenlegi motorok átírt kódot tartalmaznak, ha az elejétõl készítik fel a rendszer a D3D10-re és használják a D3D10-es elveket akkor gyors lesz.
Ez azért igen erõs túlzás, mondjuk úgy hogy képes tartani vele a versenyt. Ez viszont azért nem eredmény, mert a GTS messze nem a csúcsmodell, ráadásul a radeon 1 évet késett, illett volna vmit felmutatni.
Ezt tapasztalatból cáfolom. Amikor megkérdeznek a boltban azt kérdik, hogy melyik architektúra lesz életképesebb. Az emberek 90%-ának fingja sincs a teljesítményrõl. Tipikus eset: Mit szeretne GeForce-t vagy Radeont? - Hmm... A Radeont azt már hallottam valamikor az jó lesz. Azt sem tudják, hogy mit vesznek.
miért lenne érdeke egy fejlesztõnek elõnyben részesíteni az egyik cég kártyáját Pénz? ^^ Nyilván nem puszta lelkesedésbõl rakják ki az Nvidia / ATI logókat a játékokba.
Tök jó ez a shader így, skalár úgy, még talán el is hiszem, de ez csak a bizonyítvány magyarázás. Engem ennél jobban érdekel az FPS amit a játékokban látok. És felõlem lehet szarabb olyan featurekben a cucc, amit nem is használ (DX10 only), engem csak az érdekel hogy _valós_ alkalmazásokban hogy produkál. Mert én azokat használom, nem a techdemókat meg leírásokat. Telefont is addig vettem a legújabbat, amíg meg nem untam hogy szart se lehet letölteni rá, az 1000 éves vackokra meg hegyekben áll a cucc. Mert ahhoz minek 64MB ram hogy egy szaros 200k-s java game ne menjen rá, mert az csak a másik típusú telefonra jó? Inkább vettem egy PDA-t, aztán megy rajta minden ami win mobile alapú. Mert csak az számít amit látok, a függöny mögött a bizonyítvány magyarázás van.