Rumored spec in some Taiwan forums: 320SP, 40TMU, 256bit GDDR5, 16ROP - DX10.1, but no DP support
Lehet nyitni a G300 topikot A taiwani spec reálisabbnak tûnik ... Szvsz a 320SP-s változat hitelesebb, mert az jobban illik a G200 felépítéséhez. 384 SP nem hozható ki ezzel az architektúrával. A 40TMU valszeg a Gather4 miatt van, mert ide már 120 mintavételezõ kell. Amúgy sem kõ parázni, a kevés TMU láttán, az nV most tért vissza arra az útra amerre a technológia fejlõdik (G80-as kitérõ után persze)
Ha már nvidiának is dx10.1-e lesz kiváncsi leszek pl hogy a dx10.1 alatt melyik lesz a jobb.Bár nem sok olyan teszt van Assasins Creed-en kivül talán meg a call of juarez vagy az csak 10.a-ás nemtom.
A DX10.1 szerintem azért kell nekik, mert év végére már a játékok többsége Deferred Shading motort használ, így csak DX10.1 módban lesz élsímítás. Ez a presztizsrõl szól ... Az nV a legnagyobb GPU gyártó és pont nekik nem AA képes a hardverük.
Akkor a 6800 ultrat is 180 körül osztották, ha jól emlékszem. Most is csak azért van ez, mert olyan drága a gtx280 meg a 260 is hogy már a gyártóknak sem szimpi az nvidia. Lásd gainward :)
Possible Specifications of the GeForce GTX 350 Emerge Hardspell released is list of possible specifications for the GeForce GTX 350 graphics processor (GPU):
* NVIDIA GeForce GTX 350 * GT300 core * 55nm technology * 576 sq.mm die area * 512bit GDDR5 memory controller * GDDR5 2GB memory, doubled GTX280 * 480 stream processors * Grating operation units are 64 the same with GTX280 * 216 GB/s memory bandwidth * Default clock speeds of core: 830MHz, shader: 2075 MHz, memory: 3360MHz (effective) * Pixel fill-rate 36.3G pixels/s * Texture fill-rate 84.4Gpixels/s * DirectX 10, no DX 10.1 support yet.
Kaptam egy fülest, hogy az 55nm-es G200b lesz az utcsó nagy momolitikus chip amit kiadnak Desktop PC-be. Az ezt követõ rendszer vélhetõleg kisebb chip lesz és az is elképzelhetõ, hogy lesz belõle GX2 változat. A DX11-ben pedig jön a Threaded Rendering szóval a skálázódás is meg lesz oldva. Ez elég reális elképzelés. Bár az lehet, hogy eredetileg nem így lett tervezve a dolog, de akkora árelõnye van az RV770-nek, hogy azt csak ilyen megoldással lehet leküzdeni.
Kiszámolva az RV770 gyártási költsége negyede-ötöde a G200-nak. A G200b pedig csak arra lesz jó, hogy a chip gyártását 100 dolcsi alá nyomják. Ez még mindig a háromszorosa az RV770 árának.
Ez tuti kamu, a TSMC erre nincs felkészülve. Alig lenne 10-20 darab eladható chip egy 30centis wafer-bõl. Ha keresni is akarnak vele akkor 800-900 dollár körül kell majd árulni.
Naigen, itt megjelenik az amitõl ez sokkal gyorsabb lesz a 4870 nél.Mert a 4870 nél kevés az az 256 bit a gddr5 mellé is . De majd meglátjuk milyen lesz az ati 5. széria.
Amúgy ez a "Possible Specifications of the GeForce GTX 350" szvsz akkora kurvanagy hoax hogy nagyon :D GDDR5+512bit? :D meg nincs DX10.1? ... szal ez hihetetlennek tûnik számomra :\ ennyire nem lehetnek hülyék :P
Amúgymeg felesleges olyan kis chipeket gyártani.Nv jóltudja, hogy ha nagyobba chip nagyobb területen tudja eloszlatni a hõt, és ugye Így a hûtõk nagyobb helyen veszik át a hõt. Értelemszerûen könnyebb hûteni.
Az RV770 mérete 250mm^2 körül lehet. De sokkal lényegesebb, hogy egy waferrõl mennyi chip adható el. Mindkét cég 300mm-es waferrel dolgozik, ennek ára 5000 dollár körül van. Egy ilyen waferrõl kb. 100 darab G200-at, míg RV770-bõl 250 darabot lehet gyártani. De a legyártott chipek egy bizonyos része hibás lesz így nem lehet eladni. A G200 65nm-en átlagban 30-35%-os kihozatallal készül azaz átlagosan 30-35 chip adható el egy 5000 dolcsis vafer-bõl. Ergo egy eladható chip ára kb. 130-140 dolcsi. Az AMD 55nm-en 70%-os hatékonyságot is elér a kisebb méretek miatt, így kb. 25-30 dollár egy RV770 ára. Ezek mellett a G200 30%-al gyorsabb RV770-nél, gondolom látod mi a baja az nV-nek. A G200b csak egy idõszakos megoldás, az 55nm a gyátás szempontjából több hibát eredményezhet, mint a 65nm, viszont kisebbek a chipek (kb. 400mm^2-esek) ezért több fér el a wafer-on. Mindent egybevetve a ki lehet hozni a waferból átlagosan 50 darab eladható chipet a G200b-vel ami 100 dolcsis árat eredményeznek egy chipen. Ez még mindig sok, de az irány az jó. Ez a GTX350 speckó azért nem lehet, mert a TSMC képességeinek is vannak határai, még akkor is ha övek a legfejlettebb gyártási üzem a piacon. A speckók alapján kb. reálisnak tûnik a 570mm^2-es érték a chipnek egy egy 5000 dolcsis wafer-bõl megint 100 legyártható chipet eredményezne, viszont a selejtarány az 55nm-es technológia miatt megnõ, így jó ha sikerül a wafer-ból 15-20 eladható chipet teremteni, így az egy chipre esõ ár átlag 300 dolcsi lesz ami, durván feltételezi a 800-900 dolcsis végfelhasználói árat. Olyan ritka lenne a piaca a kártyának, hogy gyártani sem érné meg.
Az Ati azért került vissza, mert most jött ki az R600 alapelvének elõnye, ennek az a lényege, hogy minden szempontból egyenletes teljesítményt adjon le a kártya és a lehetõ leggazdaságosabb felépítéssel, kis befektetések árán lehessen növelni drasztikusan a teljesítményt. A G80 inkább idõszakos rendszer, lényegében beáldozták az egyes eljárásokban elérhetõ sebességet (ugye a G8x/G9x-en a PipeGS és a sok Stream out adatot igényelõ számítások elég mennek szarul), hogy az egyszerû számítások nagyon jól fussanak. Az AMD azért döntött jól az R600 architektúra mellett, mert a felépítése nagyságrendileg logikusabb és gazdaságosabb. Az RV770 másfél szeres tranyó többlettel megduplázta az RV670 teljesítményét. Ugyanerre a bravúrra az nV-nek meg kellett kétszerezni a tranyószámot. Gyártás szempontjából az architektúra most vált gazdaságtalanná az nV-nek. Amit anno "kispórolt" a G80-ból, most kell belepakolni, de a felépítés miatt aránytalanul nagy tranzisztortöbblettel jár ez az eljárás.
így már mindent értek! Amd egész jól taktikázik:" vegyél két 4850-st és tudja azt amit a 280,és még jobban is jársz, és esik az ára ami 280-ról nem mondható el egyenlõre..."
talán nv is rájön hogy magassak az árai.....
ez a krtya mi jelenik meg, hány örakkor menyi ára lesz,van ithon is?
Azonban az Nvidiának van pénze, ami nem mondható el az ati felvásárlásával kifulladt amd-rõl. Ugyanúgy ki tudna bekkelni egy szar szériát mint az intel a p4-el, míg az amd ugyanebbe pikpak belenukna. És hiába a játék a %-okkal, az Nvidia csúcskártyája (G280) jobb, és több tartalék van benne mint az amd - így is csak a csaló béta driverekkel "optimalizált" - gyengébb kártyáiban, az amd csak dupla kártyás megoldásaival tudja tartani vele a lépést. Nem kell félteni az Nvidiát. ^^
De mivel ATIAMD nem tud "kibekkelni", ezért rá vannak kényszerítve hogy kicsit odafigyeljenek... GTX 280 erõsebb, de szerintem egyáltalán nem jobb... Egy elavult technológiát nyomatnak a végsõkig, ameddig bírja. És õk is látják hogy elkúrták... (ld. árcsökkenés, meg 1-2 gyártónál a visszatérítés vagy mi)
Arról nem beszélve hogy a csúcskártya nem feltétlen meghatározó. Minek vennél 200k-ért egy kártyát, mikor 10FPSsel kevesebbel elviszi a legkeményebb játékot is egy 50k-s? (feltéve ha játékra kell neked)
Szerintem a középmezõny, esetleg a felsõközép sokkal fontosabb, és a bevételek nagyobb részét teszik ki mint a Hi-end cuccok :\ Én ha tehetem nVidiát veszek, de perpillanat ha nem 8800GT-m lenne, és vásárlás elõtt állnék akkor HD4850/HD4870-t vennék.
DX10 játékokban is jobb az nvidia, persze erre mindig jön a válasz hogy az nem is igazi DX10, de ati-s DX10 játékok meg valahogy nem nagyon léteznek. Tehát sokat nem veszt azzal az nvidia hogy nem támogat valóságban szinte nem is létezõ szabvámyokat. A Windows7-tel meg jön a DX11, lehet elkezdeni arra gyúrni, a DX10 meg nemsoká mehet a lecsóba, aztán senkit se fog érdekelni hogy ki lett volna benne a jobb.
Azért fontos, mert nem a középkategóriás, hanem a csúcskártyák teljesítménye alapján ítélnek a vásárlók. Nem olvassák el a tesztet hogy most a GT vagy GS jobb, meg hány MHz a core és mem, csak annyit hogy az egyik csúcskártya lenyomta a másikat, akkor biztos ugyanaz a felállás alsóbb szinteken is. Ezért nyomja mindegyik a csúcskategóriát.
Igen... csak nVidia mivel nem gyúr rá (sokak szerint nem tudnak), ezért a játékfejlesztõk nem fejlesztenek rá, így nVidiának nem is kell rágyúrnia... Ez jó mindenkinek, kivéve nekünk, játékosoknak ^^ Hülyén nézne ki ha egy elõzõ generációs ATI kártyával annyi FPS lenne egy valódi-DX10-s játékban az FPSünk mint mondjuk egy GTX260-nal... (durva példa, csak szemléltetés)
De sajnos így van. Ehhez hasonló idióta jelenség, hogy pl. alaplapot vagy procit sokan a "jóhíre" alapján veszik meg, ami meg egyenes arányban van a tuningolhatósággal, és ezzel az az egy baj, hogy aki így vásárol, azok 99%-a nem tuningol vagy azt se tudja mi az.
"Ezért nyomja mindegyik a csúcskategóriát" Na ez viszont most fog megváltozni. A gyártó oldaláról eszement pénzpazarlás.
"A Windows7-tel meg jön a DX11, lehet elkezdeni arra gyúrni, a DX10 meg nemsoká mehet a lecsóba, aztán senkit se fog érdekelni hogy ki lett volna benne a jobb" Ha hihetünk azoknak akik ezzel foglalkoznak, akkor a DX11 inkább lehetne DX10.2, másrészt elvileg az összes DX10/10.1 kártyán menni fognak a "trükkjei", max. lassaban a shader teljesítmény kárára.
De az nV más piacokra koncentrál. Azért nem adja le a G80 architektúrát, mert GPGPU-ba teljesen megfelel. Emellett az nV úgy rendezkedett be az elmúlt években, hogy a PC-s High-End VGA piac teljesen beáldozható lesz.
A DX11 mûködésérõl semmit nem lehet tudni ... így arra sem nagyon lehet válaszolni, hogy mi lesz kompatibilis a régebbi rendszerekkel. Alapvetõen a DX10 megreformált alapja szerintem a teljes DX API történelmének utolsó ráncfelvarrása volt. A késõbbiekben teljesen megváltoznak a dolgok. Bizonyos szinten visszatér a szoftveres renderelés (a next gen konzolok is erre mennek majd el - a köv. xBox-ba például egy AMD Fusion rendszert várnak az okosok). Egyszerûen az lesz, hogy a komolyabb szakemberek mint Sweeney vagy Carmack megírják a saját kis render rendszerûket ami a CPU és a GPGPU erõforrásait közösen használja majd a képkockaszámításhoz. A grafikus API-k jelentõsége visszaszorul, persze még így is sokan fogják használni ezeket, de a top projectekre nem ez lesz jellemzõ.
Te vagy a kisebbség. Nyomod örökké, hogy a GTX 280 milyen jó, közben meg egy nagy szar elavult féltégla. Aki normálisan gondolkozik az most ATI-t vesz.
Az új Winfos hamarosan leváltja a Vistát. És DX11 a jövõ (a Vista is megkapja persze). Tehát az ATi Dx10.1-es motorja megy a kukába (a DX10 hátulütõit az ATi kivételével mindenki hamar észre vette). Az nVidia jól döntött, hogy nem fecsérli az idõt a 10.1-re...Mert mint mindig, õk mozgatják a szálakat. Ettõl persze a 4570 leszámítva az idle fogyasztást jó kártya. De a normálisan gondolkozóknak nem kell az sem :-D