Na az a hülyeség! Nálam minden fullra van állítva és akadás nélkül fut! Phenom II 940 3.4 ghz-n 4 gb kingston hyper x 1066mhz-n és egy sapphire toxic 4870 oc kártyával!
örülök is :) paradicsomos szecsó ami van elõttem, nemá hogy ne örüjjek. órajelük is nagyon faja, bár a sajtnak kicsit több pár %-kal!
viccet félretéve, igen, rosszul értelmeztem. core clock miatt. nem fikázom én se az atit, se az adnrist se a csabit! gyõzzön a jobbik vagy a balik (nem politikai szlogen, de hát kisajatították már a nyelvet is maguknak a tolvajok... )
Vagy csak jövõre. Pletykák kezdtek elterjedni elõször az NVIDIA GT300-as késésérõl, majd most már az AMD/ATI-féle RV870-es késésérõl is. Mindkettõnél azt írják, hogy idén nem várható, mert a TSMC-nél valami gyártásbeli gondok lehetnek.
Nyáron jön a directx 11-es ATI, ami sokkal jobb lesz, szóval a legdrágábbat most biztos hoy nem érdemes megvenni.
Mivel Core orajelrol szol a cikk,nem igazan ertem mit akarsz villogni a shaderrel....de orujjel nyugodtan... (legalabbis a linkelt Atomic a Core-ra irja az 1 Ghz-et)
Persze, hogy más a felépítése a 2 kártyának. Ezért is furcsa, hogy a Radeon GPU órajelét hasonlítod össze a Geforce shader órajelével. Lehet, hogy neked a címmel volt bajod, hogy elérte az ATI az 1GHz-es határt, nem tudom. De GPU szinten azért 1GHz azért akkor se lebecsülendõ. Persze nem világmegváltás, de nem is egy helyben topogás. Mivel a 4890 nem is új generáció, ahogy a nevében is benne van.
Az ATI fikázást az aláhúzott megjegyzésedbõl következtettem, ezek szerint tévesen ha nem annak szántad.
Te keversz valamit. Radeonoknál a shaderek a GPU órajelein mennek. Azaz a cikkben 1 GHz-es shader órajel azt jelenti, hogy 1 GHz-es GPU lesz rajta. Ilyen nincs az NV-nél, sõt máshol sem.
Az, ohgy az NV a shadereit a GPU 2,5x-én hajtja, egy dolog. Nem a shaderrõl van szó a cikkben, hanem a GPU-ról.
bocs, azthittem két emberke vagy. ugyhogy kicsit hülyén jött ki a válasz, de sztem letudod szûrni mit akartam kimakogni. ezt benéztem, vak voltam. bocs! de attól még áll amit mondtam.
mondon shader órajel. nézzzé má utánna baszki. mivel atinál a GPU az az egész GPU-ra értendõ, az NV-nél van a GPU clock (ropok, mag) meg van a shader clock. azt más órajelen hajtják (1,4-1,8ghz között általában). http://www.bfgtech.com/BFGR96512GTOC2E.aspx ilyenem van. (egyébként messze legjobb gyártó és pöpec). nézd meg: detailed specs: shader clock. 1750.
wednes: ne fikázon atit, hol fikáztam? csak annyit hogy azért ez nem olyan forradalmi újítás, már várható volt.
Jaaj, tudom már mivel keverted a stream procik órajelével. Hát az teljesen más dolog ne keverd a GPU órajelével. Úgyhogy ezt az ATI fikázást most erõsen bebuktad. :P
Én inkább most arra vagyok kíváncsi, hogy a GT300 MIMD processzorai mennyivel lesznek jobbak, mint az Ati féle SIMD.
GeForce-ok nagyon sávszélesség-függõk. Felépítésük miatt, ahogy lent is írták már. Ha most 512 bites memóriavezérlõkkel operálnának a Radeonokon, leeht nem lenen akkora teljesítménytöbblet, mint amennyivel megdrágítaná a fejlesztést. Biztos tudják ott a mérnökök, nem kell õket félteni. Ráadásul nem tervezik hosszú életûre a HD4-es már, most az a fontos, hogy a GDDR3+256 bites kártyákat lecserélik GDDR5+128 bitesre. Ezért van annyiféle Radeon, mint a szemét. De ez nem is baj.
gyerekek...most még bõven megéri egy 4870est megvenni...minek egy 4890? azé' hogy a f*s gétéá 4 jól fusson rajta...vagy hogy a krájzisz? és? több játékot nem is tudok ami úgy nagyon meghajtaná a gépeket... :)
szerintem meg azért felesleges összehasonlítani, mert a GPU egy céleszköz, grafikára van ráhegyezve, a CPU feladatait nehez(ebb)en hajtja végre és vica-versa.
a kavntum/biokémiai gépeket kell várni, azok lesznek még nagydurranások, bár egy darabig nem lehet majd krajzisz alá megvenni
ez miért olyan nagy cucc? az én húzott 9600GT-m 1750mhz-en szaladgál. mi olyan nagy forradalmi ebben az áttörésben? az NV meg külön órajelet lõ be a magtól a gpu-inak, más a felépítése. MAXIMUM a radeonoknál nagy elõrelépés az 1gigás határ, de az ipar számára semmiképp!
tomcsa4: ez így igaz, de azért mire bejönnek az új technológiák (igazi DX10/11-es játékok) a mai kártyákat dobhatod ki. mint ahogy larrabbee is elvileg raytracinges lesz, de mire RT-s gammák jönnek ki, larrabbee szart se fog érni.
"egy gpu egy csöppet bonyolultabb mint egy fosp4 vagy az ibm kamufejlesztései"
Sokkal egyszerubb, csak tobb magot pakolnak egy szelet szilicumra. A gpu-k pont azert jobbak, mert egyszerubb szerkezettel, de tobb maggal rendelkeznek. A jelenlegi technologiai maximum egy risc-es vliw mag eseten (ilyenek vannak a gpu-kban is) 10 Ghz koruli. A P4-ek eseten pont az x86-os bonolultsaga tett be, amivel egy gpu eseten nem kell bajlodni. Az ibm fele cpu-k pedig jelenleg a mai konzolokat vezerlik, ahol 3.2 Ghz az alap es a power csaladban 8 Ghz korul van a maximum. Az intel eseteben most 3-4 Ghz korul vannak a core7-esek, de egyszerubb aramkorokat (pl. alu-kat) mar ok is tudnak 8 Ghz-es valtozatban gyartani, amit a p4-ek idejen meg is tettek. (nem ez tett be a csaladnak, hanem netburst hasznalata)
Egy gpu ma elvileg gond nelkul tudna 4 Ghz-en jarni, csak a hotermelest kellene visszafogni, ami a kisebb csikszelesseg miatt megdragitana az eloallitast. A kisebb csikszelesseg hasznalatara jelenleg csak a cpu gyartok hajlandoak. (pedig csak max. 40-50%-al vinne feljebb az arakat)
A jo hir az, hogy technologiailag a gpu-knak meg van hova fejlodni, csak kereslet es penz kerdese az egesz.
Csak nehogy terroristák kezébe kerüljön!
azért mert, az 512 bites adatbusz sokkal bonyolultabb, mint 256 bites és akkár kétszer ugynannyiba is kerülhet ráadásul úgy optimalizálják hogy a lehetõ legnagyobb sávszéllegéggel rendelkezzen, mert hiába lesz 249,6 GB/s-os adatátvitel a 4890es kártyádon nem lesz sokkal gyorsabb
nah, egy sima mezei átlag felhasználónak aztán nagy szüksége van ilyen karira... fõleg ha azt sem tudja, hogy az meg mi...
Ja így már van benne valami ahogy mondod. 9 szériában csak az x2 nek van 512, de gondoloma az 2x256... 2:0 oda : P Legalább elismerem :)
Azt még mindig nem értem, ha már egyszer kész az 512-es technológia, akkor mért nem építik bele még azt is? Még nagyobb teljesítményt érnének el vele. Az h drágább egy dolog. Akinek mostanában van pénz egy 130-150 ezres csúcskártyára, annak 170 ezer is van rá. Már ha ekkora különbséget okozna a nagyobb memória interfész beépítése.
Igazából az NV mai játékoknak csinál kártyát, AMD meg a jövõnek. De az NV-k sincsenek még kifuttatva. Akármennyire utálom az NV-t, az a GTX 260-as jól sikerült (emelt shaderrel), de aki HD TV-hez vesz, vegyen inkább 20 ezerért Radeont, mint 150 ezerért NV-t, mivel az Atik 7.1-es hangot viszik a DVI-on kresztül, míg az NV-hez külön kábel kell, ráadásul csak 2.0-át tud.
Nekem 4830 am van. Hihetetlen jó kari! Elsõ Ati-m,de a többi is az lesz tuti! 830on megy meghúzva speckó hûtéssel,és nagyon gyors!
2 db 4890 CF-be már elviszi a Crysist is max grafikán 1080p felbontásba. Átlag 32FPS, valószínû azért befigyel jó párszor frame esés a minimum FPS miatt.
De a Cysis meg GTA miatt (amihez inkább CPU kell) gépet fejleszteni(szerintem) felesleges hiszen az 1 millás konfigon is csinálhatnak anomáliákat. A fennmaradó játékokat meg 1db 4890 elviszi full HD-be.
Van értelme, mert a memória sávszél a memóriabusz és az órajel szorzatából jön ki. Pont a magasabb órajelekkel lehet ellensúlyozni a kisebb busz szélességet. Nem mellesleg ez az olcsóbb megoldás. Memória sávszélesség 4890(alap)= 124800 MB/s 256bites busz Memória sávszélesség GeForce GTX 260+= 111888 MB/s 448bites busz Ezért van létjogosultsága a 128bites 4770-nek is.
(9-es szériából úgy tom nincs 512bites, csak 8-asból meg 200-asból)
A memoria 260 Mhz-en fut. A memoriabusz mar ennel 4-szer gyorsabban. A buszmeretet azert vettek kisebbre, mert a jelenlegi orajelen kepes annyi adatot atvinni mint egy ketszer olyan szeles, de fele akkora orajelu. A gpu belso orejele pedig most mar igazan elerheti az 1Ghz-et, amikor 10 Ghz a technologia maximuma (ibm) es meg az intel is kepes volt 8 Ghz-es chipeket gyartani. (a P4 alu egysegek a 4 Ghz-es kulso orajel duplajaval jartak) Ezek utan a gpu-k igazan hozhatnak a 2 Ghz-es alap orajelet, kulonosebb melegedes nelkul.
ps: Hogy mire jo? Peldaul tudomanyos szamitasokra, mint amilyenek a legtobb modern jatek fizikai motorjaban vannak.
nincs butítva... az ati kártyáknak teljesen más memóriakezelése van. 256bittel nagyobb átvitelre képesek mint egy gf 512bitessel.
Lehet hogy egy kicsit elmaradott vagyok, de van olyan játék a piacon amiért igazán érdemes egy ilyen erõmûvet építeni ?
Memory Clock 1050MHz (4.2Gbps) Nincs itt semmi 4200 Mhz csak Quad Data Rate.
Azt nem értem, miért "csak" 256bites memória interfésszel operálnak? Az én 8800GTS-em is már 386bites átvitelre volt képes. A 9-es széria csúcsa pedig 512bitessel volt ellátva. Akkor nem értem mért kell az épp aktuális csúcskártyát is ilyen módon butítani? Hiába van GDDR5-ös memória, ha az 'autópálya nem elég széles'...illetve lehetne még szélesebb is...