Ha a DX9-nek kell gyorsnak lennie, akkor vagy a 7900GS általad írt kártyáját, vagy X1950pro-t javaslok hasonló árban. Bár utána kéne járni a DX9 sebességének egy felhúzott 8600GT-nek ... A HD2600 meg akkor játszhatna be, ha pont a DX10 érdekelne téged és/vagy szeretnél HW H264, VC-1 és Mpeg2 formátumban HD videókat lejátszani, mert abban egyenlõre semmi sem übereli.
Üdv! A gépem kihajtana egy 8600Gt-t ugy 90% ba? és a GTS-t kb hány százalékos teljesiményig tudná kihajtani? esteleg más VGA amivel jórjárnék 35-45 között?
sziastok ! szerintetek meik kártyával járnék a legjobban ? GALAXY GF7900GS SUPER 256MB HTD DDR3 1.2ns PCIE vagy GALAXY 8600GE 256MB DDR3 OverClocked 1.0ns PCIE vagy esetleg a Ati Radeon HD2600XT-vel ? nekem nem létfontosságú az hogy DX10-ess gamek menjenek rajta ! elsõsorban egy DX9-ben gyors VGA-t szeretnék ami megbízható és jól tuningoható ! elõre is thnx a válaszokat !
"Felraktam a Vista enterprise-ot és a videókártyám 1,5GB-os let mert elveszi a ramból a felesleget!"
Ezt valaki elmagyarázná nekem hogy ez mit takar mert ez alapján nemértem?
tanácsot szeretnék arra,hogy érdemes e megrendelnem a sparkle 8800 gts 320-megás kártyát a pixmaniaból, 61pár ezerért. Tehát ,hogy jó e ez a kártya nem valami bóvli.
csá nép! Felraktam a Vista enterprise-ot és a videókártyám 1,5GB-os let mert elveszi a ramból a felesleget! És miért van? Gyárilag ilyen a vista?
Szerencsére nekem nem kell fogni a fejemet, mert a GTX-emnek (2 hét múlva lesz meg) egyenlõre nincs Ati ellenfele.
És ha mondjuk azt mondom, hogy DDR3-mas 2600XT alapórajelen vs. DDR3-mas 8600GT gyárilag 600 / 1500-on járatva? Akkoris gyorsabb az új játékokban a radeon?
ezen az oldalon vsn a kártyák alatt az az overclock csúszka, az ér valamit?? mondjuk, addig lehet csak felhúzni biztonságosan a kártyát, amíg a csúszka jelzi??
Szimplán a jövõbõl jöttünk. Olyan ingoványos talajra léptek a D3D10-zel a gyártók, hogy nem igazán lehet jelenleg megmondani meddig lesz elég a 8800GTS 640MB. Igazából érdemes megvárni az nv G92-jét. Ha az nyit az AMD, és ezzel a MS D3D10 elvei felé akkor nagyon merész 2 évet jósolni a GF8 sorozatnak.
Érdekes adatok. A shader mûveleteket érdekesen számítják. Fõleg GF8-nál minden órajelben veszik a MUL-t amikor nem kellene. A Stream procit is rosszul jellemzik, mindkét rendszernél SISD skalár (MAD). Na mindegy.
Miért is idõtállóbb a HD2600XT a GF8600GT-vel szemben? Mert én is e 2 kártya között vacilálok, mind2-nek megvannak a maga elõnyei és hátrányai, áruk kb. egyezik... de vajon összességében melyikkel járnék jobban?
Hm ahogy elolvastam utolsó 10-20 kommentet azt vontam lekövetkeztetésként, hogy vagy kurvaokos emberek vannak itt vagy egyszerûen csak a jõvõbõl jöttek. Ilyet kijelenteni hogy : "DX10-re a 8800 GTX is épp csak belépõszint lesz, most felesleges ezzel foglalkozni, a maiak közül egyik se lesz jó akkor."
Erre a megjegyzésre majd visszatérünk akkor ha már lesz olyan game ami ONLY DX10! Majd rajtam tesztelhetjük mert kb a közeljõvõben vásáslok 8800GTs 640MB-osat azt kb 2-2,5 évig nem áll szándékomban lecserélni addigra talán lesz is only dx10-es game!
Megkérdezhetem hogy kinek milyen 8800Gts-se van és milyen?
Nekem van egy Leadtek 8800Gts 320mb-om, és egy Bfg 8800Gts 320mb OC-m :)
Nagyom komoly szavakat mondotok,de a ez tuti,hogy egy idö után mindenn kari el évül ez bisztos az viszont nem,hogy igazából még a mai napig nincs olyan játék ami ki használná rendesen pl: a 640mb 768mb ezek durván egy fél éve csak álmok voltak és nagyon sok emberkének még 256-os karija van! ami miatt akadhat egy ilyen kari-nál az a bug-bug-bug és bug és a játékfejlesztök trehánysága!!!!! mellesleg a crisis simán megy 1db GTX-el és 2gb rammal!!!! hardwareoc-n megnézhetö !!!!!
Kb. egyik se. A mostani "középkategóriás" kártyáknak csak a számozása középkategóriás, a teljesítménye csak alsókategóriás. Mind az ATI-nál, mind az Nvidiánál. DX10-re a 8800 GTX is épp csak belépõszint lesz, most felesleges ezzel foglalkozni, a maiak közül egyik se lesz jó akkor. Inkább vegyél vmit ami most épp elég, aztán majd akkor fejlesztesz DX10-re.
A tuning az többnyire szerencse kérdése. A HD2600Pro-n nem sikerült komolyan húznom, de lehet, hogy csak ilyet fogtam ki. A HD2600XT idõtállóbb lesz, de a D3D10-re egyik sem lesz elég.
Na sziasztok ! arra a döntésre jutottam hogy vagy MSI geforce 8600GT-t veszek vagy Ati Radeon HD2600Xt-t ! meik szerintetek a jobb kártya ? meikbõl lehet tuningal a többet kihozni ? és meik idõtállób ? jah és nem vagyok egy hardcore gamer szal nekem elég ha medium beállításon megy a game....
sry nem jó helyre írtam és már válaszoltak is.
Csáó! Szerintetek melyiket vegyem meg: x1950pro vagy 8600gts. Elején 8600gts-t akartam de írtátok, hogy összel lesz meg de nekem még Júliusban meg kéne vennem az új gépet. Szal nem tudom hogy 48000-ért megéri-e 8600gts-t venni mert a dx10-en kivül nem tud többet az x1950 pro-nál sõt. És az x1950 egy 10-el olcsóbb is. Na ti mit mondotok. A másik kérdésem kicsit lami de ez van: Ugye bár az SLi meg a crossfire ugyan az csak az egyik nvidiás a másik meg ati-is. de ha az én alaplapom egy m2n-e sli akkor menne-e bele 2 ati kártya? választ elõre is köszi
Mibõl gondolod, hogy két évig fog tartani, míg a fejlesztõk átálnak? Õsszel már itt a köv. generáció, és még mindig sehol a DX10-es játékok. Ami meg van, abban az Nvidia jobb. Konkrétan a 2900-nak sok értelme nem volt, talán a nextgen.
Szerintem amint lesz az nV-nak D3D10-es elvekre épülõ rendszere használni fogják az API elõnyeit. Az lehet, de a GS-es elméleteknek is csak akkor lesz értelme, most nem.
4 mag nagy falat lesz neki. Ha mind a 4 mag memóriaigényes feladaton dolgozik a 2-re elég az FSB. Olyan többszálú kódokat kell írni ami két magra kifelyezetten számításigényes. Az Unreal Engine 3.0-ban speciel lesz ilyen feladat, a texturák valós idelyû számítása.
Akkor mégrosszabb. Arányaiban kb. 3 mag lesz táplálva és ez eleve nem jó. Persze számításigényes feladatokban (Ray-trace, 3Dsmax, ...) alázni fogja az E6600-at.
Jelenleg viszont erre van szüksége a programoknak, 2 évvel elõre felesleges tervezni, mert addigra lemegy 3 generáció. Mibõl gondolod, hogy két évig fog tartani, míg a fejlesztõk átálnak? Szerintem amint lesz az nV-nak D3D10-es elvekre épülõ rendszere használni fogják az API elõnyeit. És a demón kívül miért nem látunk semmit a játékokban? Az hogy majd 3 év múlva lesz is hozzá játék, elég kevés indok arra hogy ma pénzt adjak ki ezért. Mert a fejlesztõknek nem érdeke olyan játékokat írni még ami gynegén teljesít a G80-on. Majd ha lesz az nV-nek is megfelelõ hardvere...
A cell 1 fõmagból (PPE) és 8 darab mellékmagból (SPE) áll. Ebbõl 1 mag le van foglalva az hangok számítására, és a csatornák kezelésére. 1 SPE mag pedig ki van kapcsolva. Valószínûleg a DMA vezérlõ már így is túlterhelt, ezért kellett ezt meglépni. Nem hiszem, hogy érdemes az IBM PC-s procikkal összehasonlítani, a Cell nem x86 rendszer. Õszintén szólva a Cell közelebb áll a xBox360 Xenon procijához, mint a PC-s procikhoz.
Teljesítmény szempontjából a Xenos és a Cell sokkal erõsebbek bármely x86 procinál. Bár némileg nehezebb rájuk programozni. Az x86 CISC-RISC leképzésû procijai mára eléggé erõforráspazarlóvá váltak.
A q6600 eleve nem kóser rendszer, mert az 1333MHz-es effektív FSB-je nem fogja kiszólgálni a négy magot magas memóriaigényû alkalmazásokban. Nagyon jól többszálúsított programban maximum 40-50%-al lehet gyorsabb az E6600-nál, kb. 2,8-3 magra elég a szûkös rendszerbusz.
Jelenleg viszont erre van szüksége a programoknak, 2 évvel elõre felesleges tervezni, mert addigra lemegy 3 generáció.
az a kérdésem, hogy az MS a D3D10 képességeit miért HD2900XT-vel demózza? És a demón kívül miért nem látunk semmit a játékokban? Az hogy majd 3 év múlva lesz is hozzá játék, elég kevés indok arra hogy ma pénzt adjak ki ezért.
Akkor miért nem tette meg? Mert a D3D10-re ilyen hardver kell. 2007 májusában nincs értelme D3D9-D3D10 átmenetett kiadni. Az ATI-n kívül nem járatja le senki. A játékok magukért beszélnek. Én csak a szememnek hiszek. Én nem hiszek semmiben inkább gondolkodom. Hinni egy ilyen piacon öngyilkosság. Igazából az a kérdésem, hogy az MS a D3D10 képességeit miért HD2900XT-vel demózza? Lehetõsége lenne 8800Ultrát is szerezni. Nyilván az MS olyan VGA-t részesít elõnyben ami gyenge, ráadásul a gyártõja lejáratja a szabványt. Elég logikátlan nem? Ez mind szép és jó, de hol az eredmény a gyakorlatban? Na ezért nem jó vétel a Radeon ma. Itt csak leírtam a két rendszer különbségeit, nem volt szándékomban bármit sugalni a háttérban. Eredménye akkor lesz, ha D3D10 elveire épülõ programokat írnak a fejlesztõk.
PC != játék! A nextgen konzolok meg legalább annyira, ha nem jobban vergõdnek. Az egyik megsüti saját magát, a másikra nincs (minõségi és sok) játék, meg alapból jó drágák, fõleg ahhoz képest hogy csak játékra használhatóak. Hiába a Cell, meg a teraflopsos kamu marketing, a Sony a PS3-mal épp vesztésre áll eladásilag.
Valaki észrevette már valahol hogy lejjebb vitték volna az árakaat?
Szerinted meddig tartott volna az AMD-nek megtömni a rendszert Tex blokkal és ROP blokkal, a shader procik helyett. Akkor miért nem tette meg?
sem az a megoldás, hogy az egész világ elõtt lejáratjuk az új MS API-t Az ATI-n kívül nem járatja le senki. A játékok magukért beszélnek. Én csak a szememnek hiszek.
A szám szerinti összahsonlítás nem teljesen logikus módszer. Egyrészt nem feltélelezhetjük, hogy az nV Stram procijai megegyeznek az AMD stream procijaival. Eleve meg kell vizsgálni a két architektúrának a felépítését is. A D3D10-nek fõleg a skalár stream procik felelnek meg a legjobban. Ezek SISD Alu-k, tehát ''1 utasítás 1 adaton'' elvûek. Az AMD és az nV is ilyen Stream procikat használ, mindkét rendszerben MAD, MUL, ADD utasítás lehetséges float adattípusra. Ezen kívül a D3D10 lehetõséget ad trigonometrikus és transzcendens utasítások elvégzésére. Ezeket az SFU (Speciel Function Unit) egységek végzik. Itt van némi változás az nV és az AMD SFU egységei közt. Az AMD SFU egysége a spec. utasításokon kívül MAD, MUL, ADD utasítást tud, így lényegében használható általános stream processzorként, míg az nV SFU-ja stream prociként MUL utasítást tud, illetve 4 órajelciklus alatt végez egy mûveletett, tehát 4x lasabb a stream procik sebességénél. A két rendszer elrendezése is eltérõ. Az AMD 4stream+1SFU alapú shader procikat használ, ezekbõl 4 darabot mûködtet egy clusterben és VLIW mintával etetik õket (a VLIW lényegében egy architektúra az a fontos, hogy a VLIW minta egy nagy memóriaszó ami leírja az egységeknek a mûködést, illetve ezeket a szavakat a fordító hozza létre). Az nV egy shader procijában 4+4darab Stream proci van egymással párhuzamosan kötve, és ezekhez a 4-es csoportokhoz kapcsolódik egy-egy SFU egység. Ezenkívül vizsgálni kell a texture fetch hatékonyságot és még sok mást...
Naja, valamit csak tud az a vacak, de mennyuk ha neki 128 helyett 320 shader procija van akkor elvárnám a +40 % os gyorsulást, nem az ilyen 4-6 FPS eket.:S Na mind1, nemsokára jón a gef 9 és akkor nincs kegyelem.
Passzív hûtésû karik nagyon döglenek. Nem ajánlott egyik sem. D3D10-re nem elég a 8600GT. De ha erre van pénzed akkor jó vétel. Ugyanennyiért van HD2600XT DDR3, szvsz az jobb alternatíva. Ha nem kõ D3D10 akkor jó a 7900GS is.
Grat, és a gGS nél most 640 est lehet.:) Na pazz, hány SMS t küldtél??? Én olyan szerencsétlen vagyok, hogy küldhetnék több száztatm akkor se nyernék semmit.
Ó... dehogynem, sajnos ott állunk, hogy mára ezek a szomorú tények. Mindezt pont akkor amikor az újgenerációs konzolok elkezdenek élni. Az IBM PC piaca nevetségessé vált. A szabvány létjogosultsága kérdõjeles amikor ez az alap tarja össze a renszert.
Szerinted meddig tartott volna az AMD-nek megtömni a rendszert Tex blokkal és ROP blokkal, a shader procik helyett. Én tényleg együttérzek az nV-vel, mert eléggé nagy hátrányból indult neki a D3D10-es rendszer fejlesztéséhez, de akkor sem az a megoldás, hogy az egész világ elõtt lejáratjuk az új MS API-t. Gyakorlatilag a Lost Planet-tel használhatatlannak minõsétették, hiszen a D3D9-es és a D3D10-es mód között látványbeli eltérés nincs, viszont sebessége a D3D10-es módnak fele. Eleve a D3D10 átdolgozása a teljesítménynövelés céljából került napirendre. Ahogy elnézem a nagy fejlesztõ stúdiók kimaradnak ebbõl a vitából. Az FSX fejlesztõi nemrég bírálták az nV kártyáit a GS teljesítmény végett, de szerintem ez csak olaj a tûzre, nem a ellenségeskedés a megoldás a helyzetre.
"és DX10-ben még szarabb" Te mirõl beszélsz? Kemény 3 progiból 2-ben jobb, a Lost Planetért meg egy halom pénzt fizettek, hogy ne menjen jól ATI kártyával. A szintetikus DX10 tesztekben meg fényévekkel gyorsabb az ATI, a Geometriai sebessége sokszorosa a konkurensének. Abu éppen azt írta le, hogy nagyon érdekes lesz a játékipar, ha csak azért nem fogják használni rendesen a DX10-et, hogy az ATI-t szivassák.
Lehet magyarázni a bizonyítványt, de az a tényeken nem változtat. Jelenleg pedig az van hogy az ATI 1 év késéssel se tudott felnõni az Nvidiához, és DX10-ben még szarabb. Eddig csak ígéreteket láttunk tõlük, amik nem váltak be. Ezek után ki hisz nekik? Elõbb bizonyítsanak!
Senki nem tudja a D3D10 piacra dobása elõtt mik lesznek a fejlesztõk igényei. Az API lehetõséget ad a felmerült feladatok megoldására. Szerintem jelenleg senki sem nézi, hogy miben elõnyös a D3D10 amíg az nV és az AMD VGA megoldása ennyire eltérõen látja a jövõt. Ezt az MS szúrta el már nem elõször. A D3D10 leírása nagyságrendekkel pontosabb az elõdöknél, de rengeteg területre kiterjed. Amíg ezek a területek elvárható teljesítmény szerint nincsenek osztályozva addig eltérõ megoldások születnek majd a piacon az esetleges D3D generáció váltáskor. Gondolom emlékszel, hogy a D3D9-nél is eltérõ elgondolás születet az Ati-nál és az nV-nél. Ez nyilván senkinek sem jó. Sajnos azt lehet érezni, hogy az nV-vel kiszúrtak. Amíg Ati-nak az MS megmondta, hogy milyen GPU-t kell csinálni a D3D10-re, addig az nV kénytelen volt saját maga kitalálni azt. Ennek az eredménye két teljesen eltérõ felfogás egyetlen piacra. Gondolom nem kell ecsetelnem, hogy ez milyen káros lehet a fejlesztésekre, hiszen a problémákra olyan megoldásokat kell majd keresni ami mindkét cég rendszerének fekszik. Rosszabb esetben ki kell szúrni az egyikkel, vagy mindkét rendszerre meg kell írni az algoritmust.
Ez olyan mint a PS3 teraflopsos teljesítménye: csak papíron létezik. Ezzel szemben a gyakorlat azt mutatja hogy pl. Lost Planet DX10-ben egy 2900 xt-vel szaggat mint az állta, miközben egy 8800 GTS /320 is 3x jobban nyomja. Hol is itt a gyakorlati elõny? Én nem látom.
Hát, méretre 1 eznie kell, elméletileg 2 külön márkájú kari is futtatható 1 mással, de az nem szerencsés, ha 1 innót meg 1 XFX et raksz SLI be, mert az órajel külömbségek bekavarhatnak..Szóval a kérdésedre a válasz, lehet, de jobb ha full 1 formák.
Az lenne a kérdésem, ha szeretnék 8800Gts-t Sliben futtatni ugyan olyan típusúak kellenek hogy legyenek a kártyák???
Hali emberek! mi a véleményetek a GEFORCE 8600GT 256MB PCI-E ASUS SILENT illetve a GEFORCE 8600GT 256MB PCI-E GAINWARD VGA-król ? megérik az árukat ? vagy esetleg ennyi pénzért jobbat is kapni ? Vagy esetleg jobban járnék egy GEFORCE 7900GS 256MB PCI-E GAINWARD-al ? légyszives válaszoljatok !
ez így ide nem sokban passzol, termékciklusok nagyjából egybeestek eddig, az implementációk pedig a fejlesztõk igényeihez vannak mérve.közben fejlõdik minden, fizika+graf.munka együtt, minden. ehhez van, volt most nem kevés ideje az ati-nak. még csak most látják a fejlesztõk, mi kell az igazi dx10-hez. amire ez befut, addigra eltelik még másfél év... mind1,túl hosszú. a lényeg, h elbeszélünk 1más mellett.:)
Nem igazán értem a kérdést. Az nV a G80 fejlesztésénél azokat a megoldásokat építette be amik elterjedtek. Nyilván õk majd 8 hónappal hamarabb piacra dobták a karit így õk egy átmeneti megoldást készítettek. Az igazán nagy kérdés, hogy a nemsokára érkezõ G92 mennyire épít majd a D3D10 elveire. Az AMD komoly elõnye, hogy az xBox360 Xenos chipjének tervezésekor az MS megmutatta számukra az irányt, hogy milyen hardvert képzel el az új API-hoz. Innentõl sajnos az nV eleve hátrányba került. Nyilván valamilyen mértékben ezt bojkottálni kell, és a lehetõ legtovább késleltetni kell a fejlõdés vonalát. Egész pontosan addig amíg az nV fel nem készül a D3D10 elveire. Gyakorlatilag ez az FX féle stratégia, csak itt az nV önhibáján kívül esett bele a lecsóba, ám a szakácsot sikeresen maga mellé állította.
hát, az ajánlott rendszerkövetelménynél ati radeon x1600 kari volt írva, az van most nekem, ha megveszem a 8600gts-t, csak jobban fog futni...
oké. akkor mivel erõsen nVIDIA-párti vagyok, egy kérdéssel kezdem: szerinted az utolsó ati-kártya bejelentése után mennyi idõvel jön ki egy gyorsabb számításokra képes vid.kártya?? az a 6hónap, amivel minimum elõbb kijött a G80-nál, ebben fejlettségben jobb..de volt rá min.6hónap, szal innen indul.
Nem akarlak meggyõzni az ellenkezõjérõl, mert nyilván minden embar a saját szemléletei szerint dönt egy-egy hardver mellett.
Azért pár dolog aggasztó a G80 architektúrában:
Itt egy link egy táblázathoz, a gyakorlati értékek benne vannak, összahsonlítási alapnak kiszámoltam neked az elméleti értékeket. Látszik, hogy a G80 nem következetes, ami nagyon nem tetszik nekem. Én speciel nem szeretem ha egy rendszer nem úgy mûködik ahogy azt elméletben indokolná a felépítése. A legtöbbször amikor valaki ír egy shader programot kiszámolja elõször, hogy kb. milyen gyorsan fog futni, ez logikus dolog mivel, ha nem fut megfelelõ sebességgel akkor nincs értelme megírni. Az nv doksijaiban rengeteg olyan dolog van ami nem úgy mûködik ahogy az le van írva ami számomra aggasztó...
Speciel az FX-nél is a tényekre hagyatkoztak sokan, és egy játék véget vetett a rendszer karrierjének. Akinek volt FX-je az tudja a legjobban, hogy milyen amikor a csúcskategóriás karija nem képes arra amire megvette. Speciel az Oblivionban a 9800Pro 10-szer gyorsabb, mint az FX5900. Pedig egy idõben nagy ellenségek voltak és kiegyesúlyozot csatákat vívtak. A D3D10 túl bonyolult API ahhoz, hogy csak a tényekre hagyatkozzunk. Teljesen megértem a véleményed, sõt én nv párti is vagyok, de a GF8 szériából nem választanék semmit, abban nagy stiklik lehetnek benne egyes mérések alapján.