Ha így haladunk el fog jönni az az idõ, amikor lesz egy számítógépházunk, és mellette egy hasonló méretû doboz, külön táppal, hûtéssel, miegymással, amely a VGA "doboz" lesz, és egy optikai kábelen keresztül fog a számítógéppel kommunikálni. ^^
Röhej: - * The G80 will not have unified shaders, but will still be DirectX10 compliant. - * the next generation of GPUs will range in power consumption from 130W to 300W. This increase in power consumption will make for higher-wattage Power Supply Units (to the 1 kW-1.2 kW range) and/or the addition of internal, secondary PSUs solely for powering the GPUs.[2]
* The G80 is expected to be released anywhere from August to October 2006. * It will be the first Direct3D 10 and Shader Model 4.0 card to be released. * The G80 will be a 32 pipeline card with 32 pixel shaders, 16 vertex shaders, and 16 geometry shaders per core. * The G80 may be dual core. * There will be 2 cards released at launch, the flagship 8800GTX and the slightly slower 8800GT. The 8800GTX will have 512 MB of ram while the 8800GT will have from 256 MB-512 MB of RAM and will also have slower clock speeds than the 8800GTX. * The 8800GTX will cost $499-599 while the 8800GT will cost $299-399. [1] * The G80 will not have unified shaders, but will still be DirectX10 compliant. * The memory interface is said to be Samsung's new GDDR4 specification. * The series is also rumored to have fast memory and core clocks, but will still be built on 90nm technology to avoid unnecessary risks. * Anandtech reports that the next generation of GPUs will range in power consumption from 130W to 300W. This increase in power consumption will make for higher-wattage Power Supply Units (to the 1 kW-1.2 kW range) and/or the addition of internal, secondary PSUs solely for powering the GPUs.[2] * In addition, many manufacturers are looking at liquid-based cooling elements (as opposed to the traditional heatsink/fan combo) to keep the noise and heat levels down on these next-generation of GPUs. * The G80 should also feature UDI connections with full HDCP support. * There will be no AGP version of a GeForce 8 Card.
mi mikor kerülünk fel a térképre? :(
Annyit kell tudni errõl a directx rõl hogy itt a kompatibilitás vga szinten van meg. ha a kártya támogatja akkor menni fog.
hát nem tom.... alant volt szó "A probléma, hogy a GDDR RAM-ok irása/olvasása szekvenciális, míg egy több feladatot futtató CPU-nak véletlenszerû elérés szükséges, azaz oda/onnan tudjon írni/olvasni ahonnan éppen jólesik neki. Ezt GDDR-rel nem fogod tudni megvalósítani."
ezért kérdeztem hátha itt is lehet valami baj-e téren... tod biztos, ami biztos :)
na egy kérdés... ebbe a konfigba belelehet rakni egy dx10-es kártyát bármi probléma nélkül (gondolok szoftveres dolgokra) asus a8n-sli premium; x2 4200+ amd; 1gb ddr ram; dx10-es kártya
Lehet én nem értem a cikket, de sehol sem találtam benne olyat, hogy a GPU és a CPU ugyan azt a memóriát alkalmazná.
A probléma, hogy a GDDR RAM-ok irása/olvasása szekvenciális, míg egy több feladatot futtató CPU-nak véletlenszerû elérés szükséges, azaz oda/onnan tudjon írni/olvasni ahonnan éppen jólesik neki. Ezt GDDR-rel nem fogod tudni megvalósítani.
Már elnézést, de a "fognak gyártani integrált CPU+GPU megoldást", meg a "csak azt fognak gyártani" között bazi nagy a difi szerintem. Ráadásul a 4x4 cikekben lévõ "sok GPU, kevés CPU" megoldást erõteljesen kétlem, hogy egybetokozzák mondjuk 10 éven belül.
Mirõl beszélsz ember! Sose állíts semmit biztosan, ha csak ilyeneket tudsz mondani... Szerintem, elõbb olvass az AMD lehetséges terveirõl! Különösen az 5. oldal alját ajánlom figyelmedbe!
"Azt is hozzátenném, hogy DX9 VGA+XP-n sokkal gyorsabb lesz egy játék, mint Vista+DX10-en 100ezres DX10-es VGA-val." Az összes eddigi infó a DX10-rõl, meg a Vista driver rendszerérõl ennek ellentmond, persze lehet csak marketingduma, de fejlesztõktõl is elhangzott. (Lásd 80%-os üresjárat a GPU-knál a hülye driverkezelés miatt témát.)
Laptopba vagy lowendre... Ezt senki nem gondolja highend aszatli gamer gépekbe. Azt is hozzátenném, hogy DX9 VGA+XP-n sokkal gyorsabb lesz egy játék, mint Vista+DX10-en 100ezres DX10-es VGA-val. Szerintem.
Új platformnál MINDIG szopik az aki beleugrik elsõnek.
Cooprocit most is tehetsz pl. egy duálopteronos lap proci foglalatában (ha van sok pénzed rá), de HTX elvileg sokmindenhez jó lehet, amihez gyors adatátvitel kell ram, proci és chipset felé.
A számítástechnikában nem érdemes kivárásra játszani, én mégis azt javasolnám minden most feljavítani kívánónak, hogy most inkább vegyen egy harmatgyenge DX9-es kareszt, amivel eltötyög a FEAR, Prey, és egy év múlva ilyenkor vegyen egy brutális ATI(-AMD) R600-ast!
Nem tudom, lehet csak belemagyarázom, mert elfogult vagyok, de a Crysis fórumán ezt olvastam:
3. How good will a...let's say..GeForce 8600GT 256MB (mainstream DX10) card would perform under MAXIMMUM quality settings, at 1280x1024 or 1024x768 and no AA/AF? Few of us can afford a high-end solution, and..after all, these cards will be bestsellers.
3. Not even Crytek or Nvidia could answer that accuratly. We're talking about DX10 here which is currently untested on any graphics hardware. But, as microsoft promises great performance increases, expect it to play the the same as 7900GTX DX9 card. The 7900GTX will most likely continue to play DX9 games faster however.
Viszont ...
If I upgrade to ATI r600 next year (ATIs DX10 card), then can I run in max settings? And which should i get first for best performance in Crysis- a duall core cpu/mobo or the ATI r600?
If you upgrade to an R600, expect to run everything max at 1280x1024 at a decent frame rate. The performance gains of DX10 are quite nice. You'll also see a bit more detail in textures and shrubs.etc
Nekem ebbõl az jött le, hogy az elvileg késöbb kijövõ R600-ból kaptak tesztvasat, de a G80-ból nem, bár azt állította másik mondatban, hogy nem tesztelték még Dx10 vason ...
Kár, hogy csak a saját szemüvegeden keresztül látod a körülötted lévõ világot... Én nem azt írtam, hogy így van és punktum, hanem: ATI szerint, és szerintem is Ez kicsit más megvilágításba helyezi a dolgot, nem? De te csak nyugodtan járasd az agyad... a semmin.
Kell pipe is meg shader is, a baj az hogy egyik gyártó csak az egyiket, a másik csak a másikat erõlteti. Együtt kéne, akkor lenne valódi teljesítménynövekedés is.
Csak kar hogy olyannak van jovoje, ami egy db oprendszerhez kotott.
Amugy nem olyan gaz mar az opengl tamogatas atieknal sem, sokat fejlodtek. Ez nem latszik annyira, mert mindenhol doom3 es riddickel tesztelnek, amiken amugyis eros az nv az fp16 hasznalata miatt.
Ez most már J.C. is hangoztatja, ami azért fontos, mert eddig õ volt az OpenGL pápája. Nem tudom milyen motort ír a D3/Q4 motor után, de lehet az már nem OGL lesz ...
Van egy apró probléma: ha csak PS és VS van benne, akkor nem DX10-es! Ahhoz kellene lenni benne GS-(ek)nek is.
Mellékesen ez a fantasztikus szakmai színvonalú hwsw-s hír... "Az R600-ban 64 futószalag." Na persze, keverni kell a shadert a pipeline-nal, mintha ugyan az lenne a kettõ.
A probléma az, hogy a Dx10 sebességtesztekre még egy "kicsit" várnunk kell, egészen pontosan a Dx10 avagy a Vista megjelenéséig. Szóval ott lesznek az elsõ Dx10-es kártyák, de csak Dx9c-ben lehet õket összemérni. Az nVidia tehát biztosra mehet, hiszen "elég", ha jövõ év elején jön ki az elsõ valóban komoly Dx10-es kártyájával. Szerintem pedig az nVidia pont erre játszik.
A kérdés az lesz, hogy az ATi-féle "több (egységesített) shader egység - mint textúrázó pipeline" vagy az nVidia-féle "ugyanannyi shader és pipeline" megoldás lesz az, ami beválik a jelenlegi és a közeljövõbeli játékoknál. Azt már tudjuk, hogy az ATi megoldása elõremutatóbb, és a shaderorientált játékokban megtérül. A kérdés az lesz, hogy ez elég-e lesz. Emlékszünk ugye, hogy anno az ATi úgy robbantott az R300 szériával, hogy nagyon jó SM2.0 teljesítménye volt, de közben a "régebbi", PS1.1-1.4-et használó játékokban is gyorsabb volt, mint a konkurencia. Ugyanakkor a Radeon X800 széria nagyon népszerû maradt a Gf6800 szériával szemben, noha technikailag nem ért fel vele (az ATi akkor nem a felsõ kategóriában, hanem a középkategóriában vesztette el a harcot).
Nos, nincs benne egyesített shader technológia, mert az NVidia szerint az drága, sok tranyó kell hozzá, melegszik, ja és persze sz*r. De nem feltétel a Dx10-hez csak ajánlott. Ehez képest a G80 állítólag 500 millió tranyóból áll. Na az R600-ról még ennyi infó sincs, de arról tudni, hogy 64 darab egyesített shader van benne. A G80-ban (de ez csak pletyka) 32PS és 16VS egység van állítólag.
Néhány szkeptikus ember szerint ez "csak" egy tuningolt G70. Mondjuk ha 2x gyorsabban fognak vele futni a játékok, és vagy az Obliviont viszi maxon, akkor senkit se fog érdekelni :) Ha viszont a konkurencia gyorsabb lesz (nem csak DX10-ben), akkor még ráfaraghatnak erre a gyors megjelenésre.
HWSW: Befejezõdött az NVIDIA elsõ DirectX 10 gyorsítójának tervezése, jöhet a gyártás .....Nem sokkal azután, hogy a TSMC legyártotta az R600 kódnevû új ATI grafikus chip elsõ mintadarabjait, az NVIDIA is elkészült a G80-nal, elsõ DirectX 10 gyorsítójával -- adta hírül az Inquirer.........A G80 teljes DirectX 10 és Shader Model 4.0 gyorsítást kínál, ez lehet az elsõ ilyen processzor a piacon..... stb.
Mintha a múltkor az lett volna hogy nem lesz full DX10-es!?javítsatok ha nem jól emléxem
Szerintem a kereslet miatt nem kell félni.. barátom most akart venni 6600GT-t, elmentem vele néhány boltba és már szinte sehol se kapni, ahol meg mégis van ott meg drága, mivel ritka már nagyon..
Egy marhaság, anno még kitalálták, hogy a topic kerek számú hozzászólásait "tékelik" (take, kiejtve ~ték, angolul "elvesz"). Azóta megy ez az óvoda, a 100, 1000, 2000, stb. számú hozzászólásoknál...
Legfeljebb egyes OpenGL játékokban verhette kenterbe az FX5800 a Radeon 9800XT-t, a Dx8.1-esekben aligha... A mihez tartás végett: a Radeon 9800XT az FX5950Ultrához mérték, ami egy "picit" az FX5800 felett állt...
hát dehogynem, jó dx9-ben megverte a 9800 xt de akkor mégccsak far cry volt ilyen énmeg dx8.1-es gamekkel toltam egész nap amiben eléggé kenterbe verte a 5800 a 9800 xt-t :(, és mondom nekem furán lassúnak tünt a rendszer is a 9800 xt-vel...
nemtom én többet atit nemveszek ha nemtud sokkal többet nekem rossz érzésem volt mintha lassab lett volna a gépem 5800 ról 9800 xt-rwe cserekor. (uj winfos volt mielött valaki rámkenne valamit :P) x800 pro már nemvolt olyan lassú de én maradok nv-nél, nekem gyorsabbnak tünik a rendszer vele.
vegülis a 7900 gt kb ugyanazt tudja mint a 7800 gtx csak emeltebb orajelekben jobb de a 7800 gtx a +ram meg a még emeltebb orajellel üti :P
ennyivel jobb a 7800gtx mint a 7900gt egyes tesztekben? :O vagy csak az 512mb memória miatt van?
Attól, hogy szimpibb, még maradjunk a realitás talaján. :)
Én hardcore ATi fan voltam, elnéztem neki a tré drivereket meg minden hosszú ideig, mert grafikai minõségre jobb volt, mint az nVidia, de az Xx00 széria egyértelmûen lemaradt a Gf6x00 szériához képest, így váltottam. De ha újra az ATi kerül a nyeregbe, akkor lelkiismeretfurdalás nélkül váltok megint. Márpedig én ezért vagyon nagyon kiváncsi a G80 vs R600 párviadalra...
ezen akar a dx10-es VGA-k megjeleneseig vitatkozhatnank,de szerintem folosleges :D
nekem akkor is NV a szimpibb :P de latom nem vagyok egyedul...olcsobb is jo is es az epeszu ember ugyis azt veszi meg ami jo es olcso(pl 7600Gt,7900Gt)de aki megteheti az vegyen csucskartyat es abbol is a jot meg az olcsobbat :)
Úgynézki 7900GT-nél mûxik. Vagy rosszul látom? Sztem ez driver hiba (vagy csalás.. :) )
No, we are incompetent bastards and we only speak hungarian, you know...
Mint már említettem, a saját fülemmel hallottam mindkét kártyával szerelt gépet, és jelenleg 7900GTX-em van. Nem mondom, hogy vájtfülü vagyok, de szerintem nem volt hangos az X1900XTX hûtése sem. Hogy jobban meglegszik? Ebben lehet valami, de nem hiszem, hogy ez különösebben zavarna bárkit is, a lényeg, hogy ne melegedjen túl. Ami az ATi-t illeti, az OpenGL jelenleg a legnagyobb bánata, szomorú, hogy még mindig gyengélkedik e téren. Ami az nVidiát illeti, hát a HDR+FSAA problémát, és az architectúrát kéne rendbetenni a G80-ban...
Valamit azért el kéne fogadni: az nVidia jelenlegi kártyái tényleg nem tudják a legáltalánosabb HDR megjelenítési módot bekapcsolt FSAA-val megjeleníteni, szóval a lenti HL2 lost coast eredmények hamisak. Szégyen az Xbitlabsra nézve, hogy ezt nem tudják, az meg külön vicc, hogy még nekiállnak megmagyarázni azt, hogy mégis miért lassabb az X1900...
High performance in most games; Transparent textures anti-aliasing; Hardware H.264 and other HD formats decoding; Dual-link DVI support; VIVO support; Sufficient accessories bundle. Lows:
High level of generated noise; High power consumption; OpenGL performance is lower than that of the rival.
Gigabyte GV-NX79X512DB(7900GTX) Highs:
High performance in most games; High OpenGL performance; Transparent textures anti-aliasing; Hardware H.264 and other HD formats decoding; Relatively low power consumption and heat dissipation; Quiet cooling system; Dual-link DVI support. Lows:
Very scarce bundle without all necessary cables.
mirol beszelsz ember elobb nem hiszel a ph-nak most meg hiszel?LOL
nem fogok most belinkelni ide kepeket a kulfoldi honlapokrol(anandtech,xbitlabs,e.t.c.),mert ottis ugy van egyik tesztkepen ez a jobb a masik tesztkepen meg a masik.
nekem az Nv az mindig is szinpatikusabb volt,az Ati meg magyaran megmondva mindig elbasz valamit foleg a kozepkategoriaban.es csak utolag tud javatani a helyzeten...mindig kesesben.na de nem is erdekel legyen csak mindig ilyen harc a 2 rivalis kozt ez ugyis csak nekunk kedvezmenyez.