Mit nem tudok? Akkoriban semmi nem hazsnálta ki még a 160-at sem (ami ha jól emlékszem a Radeon 9xxx szériának volt). Az az 512 csomag meg Vektor, Skalár és Textúra. Ezt értettem alatta. DE igen az igaz, hogy pusztán ezekkel nem sokra mentek akkor. Ma sincs kihasználva ez ügyben semmi.
Az a 65535 meg az SM 3.0 vertexutasításaira értettem. Kép kirajzolásához elõször vertexutasítások kellenek, vagy rosszul tudom?
"GF 6os széria 65535 utasítást tartalmaz, míg a nyolcas széria tüöbbet (Radeon Xxxx meg 1536-ot, 512-512-512)."
Szerintem inkább ne emlegess olyan számokat, amikrõl nem tudod, micsoda. :D Egy passban (itt: shaderkód-lefutásban) tudnak max. ilyen hoszzú shaderkódot végrehajtani. De egy 65536 szavas shaderkóddal ilyen 1fps jönne ki, szóval sok értelme itt nincs. A pass-ok indítása némi plusz idõbe tellik, így jó, ha egy passba belefér minden, de nem dõl össze a világ akkor sem, ha több kell.
Attól, hogy adatbáziskezelésben, és más effélében nem csúcstartó, általános célú matematikai számításokban nagyon tudja hozni a papírformát, szóval azok a FLOPS számok nem csak papíron igazak. Sõt, ilyen számítások esetén sokkal jobban, mint egy GPU. Mellesleg egy GPU még sokkal inkább elvérzik adatbáziskezelésben, szóval akkor mirõl is beszélünk?
A netes teszteknek nem mindenki hisz, én például sohasem! Pláne, hogy nem tesztelik újra le õket, mikor driverekben igenis van fejlõdés (és a support mindennél fontosabb). Igyekszem megnézni ezt azt, persze a csúcskategória (ha van még ilyen, 110k+) nem érdekelnek emiatt.
A 8500GT az nem mindenben gyorsabb, mint a 6600GT: ahol shaderalkalmazás van, ott mérhetõ többlet, máshol nem, de shadereknél sem sok. GF 6os széria 65535 utasítást tartalmaz, míg a nyolcas széria tüöbbet (Radeon Xxxx meg 1536-ot, 512-512-512).
Ha támogatja NV ha nem a DX 10.1et, MS úg seggbebassza, hog csak lesni fog. Ugyanis nem az NV diktál, hanem a Microsoft! És nem szabadidejükben a WC-n rakták össze a DX 10.1et, hogy holmi csicska NV itt buzizzon! Meglátjátok majd!
Amúgy vicces ez a cikk, boltokban már legalább egy hete lehet kapni ezt a kártyát, és tesztekbõl is van rendesen... Szeretem az sg gyors reagálásait... xD
"és mivel az ati 4.1 -es shadert használ , az ujabb játékokban az nvidia csak vergödni fog, mig az ati hasit Amíg az nvidia nem építi be a 4.1-es dhadereket, addig a kutya nem fog olyan játékot írni, ami azt használja, ráadásul a 4.1 elég kis elõrelépés, emiatt nem kell aggódni."
Ez nem egészen igaz, elvileg a Stalker Clear Sky is már DX10.1-SM4.1-es lesz... Az augusztus... (mondjuk ezt én sem értem, X-Ray engine elvileg nVidiás... :o) Amúgy nagyon jó kis kártya lett, nvidia is lassan az észnélküli teljesítmény (és méret,ár,fogyasztás,hõtermelés) növelés után elkezdhetne értelmesen fejleszteni, mert ha ez így megy tovább és az emberek kezdenek rájönni, hogy jobban járnak egy gyengébb, de minden más szempontból jobb kártyával (ami itt már nem is olyan gyenge...), akkor a zöldek csúnyán besz.phatják... Nekem már van (korábbi beszûkült nvidia-fan létemre) egy jókis HD3870-em, asse rossz, de most már sajnálom, hogy nem vártam ezt meg... :D AMDnek már csak prociból kéne valami értékelhetõt kihoznia, és akkor vicces dolgok lehetnek itt... ;D
Áhh nem nagy szám, csak majdnem elveri az nvidia csúcskártyáját sokkal olcsóbban, optimalizálatlan driverekkel, nvidiára és dx9.5-re optimalizált játékokban... :D
Ez a grafikon elég jó az Új ATI kártyához!!!! Azt kell nézni az alapon hogy az ATI 4850-es kártya kb 40000 FT!!!!! Az Nvidia 9800 GTX meg meg jó 70000!!! FT De majd arra leszek kiváncsi , hogy milyen lesz majd a 4870 X2 az új NV-val szemben:D Na majd akkor lesz csak pislogás szerintem:D
"Ez egy qvára kamu teszt, szeretem amikor ilyeneket tesznek közzé.Majd, flesséknek hiszek." #51
Na akkor mégse kakilsz a tesztekre? :D
Nem kell hasraesni az ATI elõtt, nem olyan nagy szám ez a kártyájuk se:
Viszont a Cell is csak élméleti számokban mutat jól, általános teljesítményben egy Core2 Duo szanaszéjjel alázza, és akkor még nem is Quadról beszéltünk.
Az adatbáziskezelést, szövegszerkesztést, és más ilyesmit nem neveznék számításoknak... De ha így jobban tetszik: általános matematikai számítási teljesítmény. (Így szoktam írni, de szerintem enélkül is egyértelmû, mirõl volt szó.) Értettem a megjegyzésedet, csak éppen félre ment.
"Jó lenne, ha kicsit figyelmesebben olvasnál. Nem általános teljesítményrõl beszéltem, hanem általános (tehát nem raszterizációs 3D grafikai) számítási teljesítményrõl." Õõ egy kizárólag számításokra használható eszköznél, ha teljesítményrõl beszélünk, akkor nem igazán tudom, hogy számítási teljesítményen kívül mi másra lehet gondolni, szóval szerintem a figyelem rendben van. Te viszont nem nagyon értetted meg, amivel én próbáltam viccelõdni. :)
Hát te tényleg kiborultál, te elborult AMD+ATI hater Intel+nVidia fan. :P A többi tesztet egyelõre inkább mégse nézd meg, túl sok lesz az neked egyszerre. Küldjek zsepit? :P
Mirõl beszélsz?Te meg, hozod a tipikus alázni való beszükült csicska stílusod (ahogy az amd híreknél mindig).Hallod, akkor inkább leszek faszparaszt, frankón.Köszi Igaz a teszt?Te csináltad?Ott voltál?Nahát, MIKVANNAK, nem is tudtam, hogy TE CSINÁLTAD...Mondjuk, hogy így majd 2 év után, csinált egy olyan középkategóriás procit az ájemdéd, ami épphogy elveri, igazán elismerésre MÉLTÓ, már verheted a kis kukidat esténként a lógójukra (bár csúcskatban, le vannak maradva bõven ) Na, de ez csak fölösleges szájtépés :) Túl egyszerû vagy te, ahhoz, h vitázzak veled :) De elárulom, örülök, h csinált végre egy jó kártyát, az ati, de még mindig csak vergõdés van :) Ezelõtti karim ati vót..és?Egyként telibe tojom a teszteket :D Te vered azt a kis kukidat ezekre az adatokra..meghogy, MÁR PEDIG IGAZ AZ A TESZT Faszom, huzz vissza az oviba dez, és próbálj meg kicsit "okosodni" :) Egyként, 1 év múlva veszek kb új vidkareszt(az aktuális jobbat,nincs márka kikötve), mert tökéletesen elégedett vagyok a GTmmel, és most ez a legkevesebb az életembe :D
az ati jo kártyát csinált , ár/teljesitményben/fogyasztásban a legjobb az nvidiáé a leggyorsabb legnagyobb , legdrágább gpu , ez is pozitivum végülis ha sok pénze van az embernek
a cell meg jol elvan a ps3-ban 10%-os kihasználtsággal , majd az idö eldönti hogy lesz e belöle valami , szerintem nem, vagy késön..
Arról már nem is beszélek, hogy csak a lémerségedet bizonyítod azzal, hogy hülyeségnek nyilvánítasz ilyen alap dolgokat.
Látom, újra hozod a faszparaszt stílusod, pedig már egész jól szocializálódtál. De úgy tûnik, valami most nagyon kiborított. De szerintem nem én, hanem nyilván kedvenc nVidiádon jól elveri a port az ATI/AMD. Sajnos az a teszt nem kamu, megnézheted a többit is, ha idegileg bírod. Hogy most emiatt velem állsz le kötekedni (éppen hogy hátulról, mert elölrõl semmi belekötnivalód nincs, teljesen egyértemû minden, amit írtam), azzal magadat járatod le. Nem baj, majd rájösz, ha lehiggadsz. :P
"Nem általános teljesítményrõl beszéltem, hanem általános (tehát nem raszterizációs 3D grafikai) számítási teljesítményrõl"
Mi meg a te hülye körbemagyarázkodós hátulról induló idióta szövegedet.A legjobb, hogy TAPASZTALAT nélkül osztod a hülyeséget, és még okosnak is hiszed magad.Leülhetsz.
Ha hasonló a felépítése, mint az R6xx-nak (márpedig ez bizonyos), akkor kb. 1/5-ére. De nem csak ez a szûk keresztmetszet egy GPU-ban általános számításoknál.
Nos, az, hogy neked nem sikerült (ha egyátalán próbáltad, nem csak dumáltál), attól még másnak sikerülhet, és sikerül is.
Jó lenne, ha kicsit figyelmesebben olvasnál. Nem általános teljesítményrõl beszéltem, hanem általános (tehát nem raszterizációs 3D grafikai) számítási teljesítményrõl. A Cell FLOPS-ai ebben nagyon is jól kihasználhatók, ellenben egy GPU elméleti teljesítménye a töredékére esik vissza itt. (Pl. egy feltételes ugrás több másik egység mûködését is felfüggeszti, és sok egyéb ilyesmi.)
erre még nem tudok konkrétan válaszolni , ugyanis hétfön jön meg a kártyám , és akkor derül ki hogy viselkedik dinamikus flow kontrollnál ha az ati ügyes volt, akkor szarrá alázza a celt, ha nem akkor csak kicsit
egyébként a cellel az a baj hogy még senki se használta ki rendesen, lehet nem is fogják
Amíg a ps3 a holdban volt, és a pc volt a hasonlítási alap, addig az általános számítások nem számítottak, hisz a ps3 célfeladatokra való, és gyönyörûen takarózott mindenki a nyers flops értékekkel. Most hogy itt egy gpu brutális flops értékekkel, hirtelen baromira fontossá váltak az általános számítások? :)
"2 ilyen 1600 shadert tartalmaz 2 terraflopsal, a ps3-nál 10-szer gyorsabb .."
Ez így nagyon nem igaz. Ezek elméleti számok. Pixelshadingnál megközelíthetõ az elméleti max. a GPU-knál, általános számításoknál azonban semmit sem jelent ez a szám, mert csak a töredéke hozható ki itt. A gyakorlatban, általános számításoknál pl. 5x gyorsabb a Cell, mint egy G80, pedig utóbbinak 2,5x nagyobb a FLOPS értéke...
"Amíg az nvidia nem építi be a 4.1-es dhadereket, addig a kutya nem fog olyan játékot írni, ami azt használja, ráadásul a 4.1 elég kis elõrelépés, emiatt nem kell aggódni." Assassins Creed-ben benne volt. 1.1es peccsel nvidia nyomására ki is vették belõle, mert ati kártyák szarrá büntették az nv-ket. Node ugye nv-nek 2millió dolláros szerzõdése van ubisofttal, úgyhogy szépen lezsírozták egymás közt...
"Most jött ki talán a múlt héten az új csúcsgeneráció, idén már sok újat nem látunk, elgfeljebb kisebb csíkszélességet." Ezt nem nevezném új generációnak...technológiailag nem nyújt semmi többletet az elõdhöz képest, egyszerûen valamivel erõsebb. Új generációról majd inkább akkor beszélhetünk, ha bekerül az nv kártyákba a full dx10.1 support.
Egyébként figyeljétek meg: amint nv elõugrik egy full dx 10.1-es megoldással, egybõl a világ legfontosabb dolga lesz a dx10.1, és a teljes nv marketing gépezet fossa majd magából, hogy az mennyire szükséges :)
"meg már sok játék nem támogatja a 6-os szériát," ezt magyarázd már meg, kérlek :)
Egy ismerõsömnek volt 6600GT, azért az sokkal gyengébb a 8500-asnál. A procija és a RAMja is gyorsabb, mégis nekem +10-20 FPS-sel több van, meg már sok játék nem támogatja a 6-os szériát, szal azért annál jobb :) Hát a 7600GS utódjának szánták, annak is felel meg. 2900XT ajánlását megfontolom, ez lenne az elsõ Radeon kártyám (annyiban jó lenne váltani, hogy AMD-nek talán jobban fekszik az Ati az nVidiához képest)
Nyugodtan megveheted akár holnap a 2900XT-t, elképesztõen jó teljesítménye van. Hátránya a nagy fogyasztás. HD 3870 detto kiváló és ennek alacsonyabb a fogyasztása már (mivel memóriabusz feleakkora, továbbá DDR4 kevesebbet eszik). 3850 is jó választás.
8500GT-d nem erõsebb, mint a 6600GT vagy maximum pár százalékkal. A javulást észre fogod venni az fix!
Nekem spec 8500GT van, sztem azt bõven kiforgatja a 4200+ :D De én ezekre az erõsebb kártyákra gondoltam - pl. egy ilyen 4850, vagy esetleg 3850, 2900XT...mivel nem akarok túl jó VGA-t venni, ha úgyse használom ki/tudom kihasználni.
Igen, az nvidia valóban a verseny miatt volt kénytelen árat csökkenteni, és nem maradt semmije a 230-400 dollár közötti tartományban, a 8570 miatt viszont nem kell tovább csökkentenie az árat, mert az 300 dollár lesz. A középkategóriában versenyképes maradt, a csúcskategóriában viszont vesztett, mert saját olcsó, SLI-ba kapcsolt kártyái ugyanúgy lenyomják, mint ahogy az AMD CF megoldásai, tehát a csúcskategóriát elszúrta, de túl fogja élni.
semmit nem bizonyit mindenki azt szür le belöle amit akar, viszont az nvidia nem a semmiért nyomta le ma az árakat 1/3-al, és még fogja is , mert az erösebb ati jövö héten jön ki
Ð"durva lett a kártya nagyon , nvidia nem kicsit szopik miatta" miért is?
"2 ilyen lenyomja a nvidia csucskártyáját, féláron" ez igaz és olcsóbb is, meg két 8800 vagy 9800 is lenyomja, szóval ez a GT280 kicsit félrement
2 ilyen 1600 shadert tartalmaz 2 terraflopsal, a ps3-nál 10-szer gyorsabb .. valaki valahol azt írta, hogy a ps3 1,8TF, nem mintha sok értelme lenne az összevetésnek.
és mivel az ati 4.1 -es shadert használ , az ujabb játékokban az nvidia csak vergödni fog, mig az ati hasit Amíg az nvidia nem építi be a 4.1-es dhadereket, addig a kutya nem fog olyan játékot írni, ami azt használja, ráadásul a 4.1 elég kis elõrelépés, emiatt nem kell aggódni.
persze csak addig amig ki nem jön az uj gpuval a vidia Most jött ki talán a múlt héten az új csúcsgeneráció, idén már sok újat nem látunk, elgfeljebb kisebb csíkszélességet.
Mondjuk a 8450 célközönsége aligha fog 2560-ban nyomulni. ;-) Egyébként itt egy teszt a 9800GTX+-ról, ami alig 30 dollárral lesz drágább, mint a 4850, kb. ugyanannyit fogyaszt, teljesítményben pedig egy picit jobb. Innentõl fogva gyakorlatilag csak a márkaszimpátia dönt.
durva lett a kártya nagyon , nvidia nem kicsit szopik miatta 2 ilyen lenyomja a nvidia csucskártyáját, féláron
2 ilyen 1600 shadert tartalmaz 2 terraflopsal, a ps3-nál 10-szer gyorsabb ..
és mivel az ati 4.1 -es shadert használ , az ujabb játékokban az nvidia csak vergödni fog, mig az ati hasit persze csak addig amig ki nem jön az uj gpuval a vidia
Igazából 2 is bõven elég Gtx280 ellen és grafikus teljesítményben jobb, viszont áramot ugyanannyit fogyaszt (terhelve 20W-tal többet).
Nagyon jó kártya, bár én megvárom a 70-est szerintem. 8800 GTX-rõl annyit, hogy 2560-as felbontásban 4xAA-val általában veri a 9800 GTX-et, nézz utána, kandeláber. Ja még annyit, hogy nekem is 8800 GTX-em van és nem 2008.06.20.-án jött piacra, hanem másfél éve. Ezt azért tartsd észben, egy új középkategóriás terméknek illik egy másfél éves csúcskategóriás kártyát lenyomnia (Attól függetlenül tényleg iszonyat jó az új kártya).
Anandtech-es tesztben van sima 1 kártyás teszt illetve van CF-es (az a két kártyás).
A 8800GTX-et mindenben veri, a 9800GTX-at is általában veri, sõt, néha még a GT200-ast is veri. Nem véletlen, hogy az Nvidia nagyhirtelen lecsökkenti a 8800GTXrát 200 dollárra és kihoz belõle egy 55 nm-eset nagyobb órajelen. Ezúttal az AMD tényleg komolyan belehúzott. Éljen az igazi verseny!