Akkor feladom nemértem honnan szopkodják ezeket a 90 FPseket oda. Most így hogy döntsön az ember? Komolyan az lesz valaki vesz valami új karit átmegyek hozzá azt ott leteszteljük :D más nincs.Csak tudnám mit éreznek miközben kamuznak.
"Bazki 86db fotot, ahogy szétbarmolja szétcsavarozza részletezi, ttui, hogy van nála ilyen kártya. Utána a teszt megcsinálása egy este. Messze ez leghitelesebb teszt amit eddig erröl a kártyáról láttunk, ha átverés akkor a legjobb, legprofibb fake teszt amit én életemben láttam. Kemény dolog lehetet, ilyen fotokat megcsinálni, lerenderelni, ilyen mennyiségben"
Csak annak ajánlatos ez a teszt aki jót akar röhögni. Ez a teszt kb politikus szint ömlik a tesztbõl a hazugság.
Legnagyobb gyöngyszem: Crysis 2048x1536 4x AA 16x AF ilyen felbontásban kb 10 alatti fpseket kéne kapni erre 24 -40 meg ilyenek lol. Kár is volt linkelnem
NVIDIA GeForce GTX 280: 649 $ (június 17.) NVIDIA GeForce GTX 260: 399 $ (június 26.) ATI Radeon HD 4870: 349 $ (június 23.) ATI Radeon HD 4850: 249 $ (június 23.)
Na és a folytatás:
A megjelenési idõpontokkal is variáló NVIDIA valószínûleg nem fog tudni ezekbõl a kártyákból kétmagos verziót gyártani, köszönhetõen a hatalmas fogyasztásnak, a keletkezõ hõnek és a gyártási kapacitás limitáltsága is gátat szabna az ilyen törekvéseknek. Az Inquirer szerint a fejlesztõk számára kiadott driver biztosan „tweakelve” van a népszerû Futuremark programokhoz, így a kapott eredmények korántsem nevezhetõek hitelesnek. A jövõ héten érkezõ PhysX vezérlõprogrammokkal hasonló fenntartások vannak, hiszen az API-t az NVIDIA birtokolja, ezáltal könnyen bele is piszkálhat.
Amennyiben a hírek igaznak bizonyulnak, az NVIDIA bizony bajban lesz, hiszen tudjuk, hogy az igazi fanatikus, márkahû felhasználók kevesen vannak, az egyszeri vásárlók inkább a számok és az ár alapján döntenek. Ezek a számok pedig, ha minden igaz, most az ATI-nak kedveznek.
Az Inquirer tömör véleménye az új Geforce kártyákról: nem rossz, de nem is elég jó. Mérési eredményeik szerintük azt bizonyítják, hogy az NVIDIA nem tudta kihozni új grafikus magjából az ígért teljesítménynövekedést. Figyelembe véve az árakat, a fogyasztást, a melegedést, szimplán "dinoszaurusznak" bélyegezték az NVIDIA legújabb fejlesztését. Az ATI kártyák mérési eredményei még váratnak magukra, de nem azért, mert nincsenek, hanem mert a cég még nem engedi azok publikálását. Az Inquirer szerint azonban a GT200 alig nehány esetben tudja legyõzni a 770-es ATI szériát.
A képek alapján úgy tûnik, hogy a teszthez ForceWare 177.26-os Vista meghajtó programot használtak a srácok. Érdekes lett volna látni ennek fényében azt is, hogy egyetlen GTX 280-as kártya milyen teljesítményt tud felmutatni. Hogy az eredmények mennyire hitelesek, az már más kérdés, ám egy biztos: még néhány nap, és megérkeznek az elsõ, hivatalos - és hiteles - tesztek is, akkor majd kiderül, hogy mire képesek az Nvidia új videokártyái. Addig is gyönyörködhetünk a fenti sajtófotókon látható "drágáságokban".
A referenciamodelleken felül további négy-négy speciális GeForce GTX 280 és GTX 260 piacra dobását tervezi az EVGA...
Az ASUS már kifüggesztette az 1 GB-os (DDR3) GTX 280-asának árcéduláját -- vagyis az erõsebbik fivért --, melyet nem kevesebb, mint 575 euróért lehet elõrendelni. Ez, akárhogy is számoljuk, kb. 142 000 forintot jelent, mely azért (nem is) picit több a vártnál.
Forrás: TC Magazine/ HOC
nah látom itt is jó dolgokról megy a vita, am 550-es táp jó hogy elég neki, de akkor még nincs mellette 3-4 merevlemez, 2dvd író, egy jobb hangkártya, meg stb amit sok ember még ráköt a gépre és onnan zabálja az áramot is
Ahogy elnézem a Site-okat a Geometry Shader problémákat, úgy oldották meg, hogy minden Streaming Shader processzor tartalmaz egy Cache-t (valszeg 48-64kB már elég), ahol az adatokat ideiglenesen el lehet tárolni. Erre utalnak a Local memory kulcsszóval... Így viszont a 12 TPC blokk kilõve, mert 10 TPC blokk-al is megvan bõven az 1400 milla tranyó. Elég pazarló ez az megvalósítás, mert gyakorlatilag harmincszor használtak fel egy viszonylag méretes gyorstárat, amit az R600 féle megoldásba elég egyszer beletenni. És az eredmény ugyanaz, sõt még az R600-nak mindig ott van az az elõnye, hogy a tovább GS számításokhoz nem muszály ugyanazt a Shader processzort használnia, ami jobb párhuzamosságot teremt (bár ez gyakorlati teljesítményben annyira nem drasztikus különbség már, mint ami eddig volt GS oldalról).
A másik kérdés, hogy mostantól kb. jónak mondható a GS sebesség Pipe megoldások esetén is. De mi lesz a régi G80 és G92-es karikkal, azok helybõl beszarnak egy ilyen eljárástól. Vagy ez is a GT200-ra való áttérítés része.
na bazz... köv szériától már félek :S asszem kezdem fektetni a kábelt paksig -.-
Ez semmi, a Beyond3D-an az a téma, hogy az egyik HW oldal tesztelõje szerint a HD4850CF-ben gyorsabb a Crysis-ban, a GTX280-nál is. Lényegében az R700 simán el fogja verni és az ára is alacsonyabb. A Computex-en már beszéltek egy kariról amit az R700 ellen vetnek be. Valószínûleg a GT200 Ultra változata. A rendezvényen látni már három dedikált PCI-E csatival tápokat, szóval raálisan kihozható egy Ultra, ha nagyon muszály.
Nem kõ neki 550W-os táp ... Egy GTX280-at még egy négymagos proci mellett is elbír egy 400W-os max. 450W-os FSP. Annyi a kikötés a GTX280-ra, hogy olyan táp kell neki aminek van egy 6-pin-es és egy 8-pin-es PCI-E csatija. Az átalakító pedig akkor jó csak, ha az aktuális az ágra már nem kötsz semmit. Egyéb esetben mindig piros LED-et ad a kari és nem indul be.
"Ahhoz, hogy egy GeForce GTX 280-as kártyát biztonságosan ellássunk árammal, a vélemények szerint legalább 550W-os tápegységben kell gondolkoznunk. A GeForce 9800 GX2-es esetében az ajánlott tápegység teljesítménye csak alig kisebb, mint a GTX 280-as esetében, pedig elõbbi kártya összesen két darab G92-es GPU-val van felszerelve. Ha két- vagy háromutas SLI rendszerben gondolkodunk, akkor az 1 KW-os, illetve 1,2 KW körüli tápok között kell majd keresgélni. Úgy tûnik, hogy lassan kezdenek értelmet nyerni az 1 KW fölötti teljesítményt kínáló tápok is, ezekre pedig kissé kétkedve néztek eddig a felhasználók. Tény viszont az is, hogy két- vagy három darab GTX 280-at talán csak a hardcore játékosok kis része fog majd megvenni."
Ha van olyan kretén aki megvesz 3 db-ot ebbõl a szörnyûségbõl úgy kell neki... Semmire nem megy veel. Támogatja majd kb 3 db játék.
Látom már nektek készül a következõ szériás Geforce 3xx, ahol direktbe kell bedugni a kártyát a 220ba annyit fog fogyasztani mint egy hûtõszekrény de legalább 10%-al gyorsabb lesz a HD5870nel ami harmadannyit fog fogyasztani:D
"20kval drágább hozzá a táp" Hát aki az nvidia 100ezer fölötti dolgait akarja venni annak tuti lesz pénze tápra is. Direkt azért irtam 60ezret (mert én annál még ha millárdos lennék se adnék ki többet VGA-ra) mert ilyen értékû VGA-khoz beleértve a most érkezõ 4850 és 4870-et is 550Wattos táp elég.És nem kell venem újat mivel alapból az van a gépbe :D
Nem, de az ugye érdekel hogy 20k-val drágább hozzá a táp is?:) És nem 500HUF hanem több^^ Meg a zaj és hõtermelés sem utolsó szempont. De akkor nézzétek csak az idióta teljesítményt:D
Ez kurvajó mindenki ezzel a csicska fogyasztással van elfoglalva. Én kerek perec szarok bele mertha már 60 ezerért veszek VGA-t nem fogom nézni hogy most 500ft-al több a villanyszámla.
Na itt a baj... hogy amíg nvidia úgy nem mondja addig nem lesz DX10.1... pedig milyen jó is lenne ha azt a nyamvadt élsimítást -50 helyett -2 FPS-ért be lehetne nyomni...
GDDR5 meg kisebb fogyasztással, kisebb hõtermeléssel, nagyobb frekvencián ÉS OLCSÓBBAN annyit tud kb mint az 512bites GDDR3 amire jó hogy nem egy 230V-s csatlakozót raktak egybõl és nem paksra kell kötni, az elõállítási költségrõl nem is beszélve... --- amíg jó áron árul kártyát az nvidia, olyat ami jobban viszi a gémeket az atinál, addig nem érdekel hogy a kártya valójában rosszabb lenne ha a programozók normálisan írnák meg a programokat nem picit ide meg picit oda kedvezve, addig nem érdekel hogy valójában gagyibb... de mikor régi technológiákat erõltetik már nagyon, ilyen-olyan tuninggal, így növelve a gyártási költségeket, a hõtermelést és egyebeket, ezekkel együtt a bolti árat is... ilyenkor már nem tetszik az üzleti stratégiájuk :\
Azt én letojom ki fejlesztette ki.... A lényeg, hogy az nv használta elõször, és bevált, most is jól müxik, ha meg jól müxik, és megfelel a célra, ellátja a dolgát, akkor minek váltani?
Teljesen jó a gddr3. Az ati hülyesége, hogy a magot, és a shadert szinkronban futtatják, és egyre "gyorsabb" ramokt raknak rá, ami ugye sz@rt se ér. Mert szép és jó, hogy gddr4, de mennyi gyorsulás érhetõ el vele? Órajelben, szinte semmi, szinte sehol nem látni ~1200-1300 as ramokat... És 1 helyett 0,8 ns ..Pff.szemkiszúrás.