legközelebb nem várom + a 3 évet legközelebb másfél éven belûl cserélek mindent +int sztem.
KÖSZ a sok lehetõséget
"ne vegyél asust, idebent leteszteltünk jópárat, inno sokkal jobban húzható...." nem akarom húzni nekem 9600xt-m volt 3 évig a váltás PCIE 8600gt-re így is hatalmas lessz meg szinte kicseréltem az egész gépet nyáron de maradok az asus-nál szerintem.
szerinted ez 8800gtx esetében is így van? én meglepõdtem mennyire nem bírja a húzást a karim
Asus EN8600GT 256MB PCIE 29 900 Ft Asus EN8600GT Silent 512MB PCIE 36 900 Ft
Aqua:
Asus GeForce EN8600GT 256MB PCIExpress 3 év gar. 30.480FT InnoVision GeForce 8600GT 256MB DDR3 PCIExpress 1 év gar. 23.100FT :D InnoVision GeForce 8600GT 512MB PCIExpress 1 év gar. 23.520FT
PC Land:
LEADTEK PCIE GF 8600GT 256MB Br:28470 Ft ASUS PCIe EN8600GT SILENT/HTDP/256MB Br:32520 Ft EVGA PCIe 8600GT256MB Br:33240 Ft MSI PCIe NX8600GT-T2D256EZ Br:33360 Ft ASUS PCIe EN8600GT/2DHT/256MB Br:34440 Ft
Nah és megéri most hd2900xt-t venni azt sem tudod kihasználni mire meg kitudnád kiadnak jobbat ez meg elavul...
Egy dolgot még mindíg nem értek!Mért nincs sok játéknál élsimítás amikor választható opció a 2x,4x,6x élsimítás néhol 8x -is!Beállítom de semi nem látszik mintha be sem lenne állítva!És nem a control panelrõl bezsélek!
Nem vagyok az nvidia ellen de ha már találtam egy ilyet
A 64 bites procinak most van értelme? Hány 64 bites játékot futtatsz? Pedig az már hány éve kint van... Mire lenne DX10 game, már lesz DX10.1 is, meg vagy 3 új generáció.
Ezt Abu85 írta, gondolom több fórumra is shift+ins-elte. A lényege annyi hogy DX10-ben valszeg a 2900 XT jobb.
DE:
1. Nincs valódi DX10 game. (Majd egyszer...) 2. Még a DX10-hez tartozó Vistát se veszi kezébe normális cég az SP1-ig, ami talán jövõre megjelenik, hacsak szokás szerint nem csúszik megint, és majd csak ezután jöhetnek rá a gamék. 3. Mint Abu85 is elismerte közel sem biztos hogy az ATI-nak kedvezõ full DX10 lesz a jövõ, lehet hogy marad a DX9 kiegészítve DX10 effektekkel, akkor meg hiába jobb az ATI olyan dologban ami nincs kihasználva. 4. A fentiekbõl látszik hogy mire DX10 only gamék lesznek, az nem a jövõ hét, simán lesz 1-2 év, addig még pár generáció lecsorog a videokártya fronton. Majd az Nvidia is behajít egy GS-t a GPU-ba, ha nagyon kelleni fog. 5. A legfontosabb: mire ez bekövetkezik, a mostani kártyák már elavultak lesznek, és senkit nem fog érdekelni a DX10 teljesítményük, mint ahogy a Riva128 DX10 képességét se hiányolja senki. Addigra jobb kártyát fogsz kapni olcsóbban. Felesleges most azért kártyát venni amit ki se tudsz használni, mire ki tudnád, háromszor elavult. Egyszer majd lesz DX12, DX13 is, azt se tudják a mostaniak, és nem is várja el senki tölük.
Jelen pillanatban, és még vagy 1 évig minimum DX9 van, esetleg DX9 kiegészítve DX10 effektekkel, ebben az Nvidia sokkal jobb mint az ATI.
Ezt egy másik forumon találtam, mi errol a véleményetek? "Nvidia GeForce 8000-es sorozat turpisságai:
Csak a D3D10 támogatása kérdéses. Alapvetõen a D3D szabvány olyan méretûre nõtte ki magát, hogy nehéz megreformálni a rendszert. A D3D10 némileg megváltozott a D3D9-hez képpest, eleve az MS dönti el, hogy melyik kari D3D10-es, tehát nincs önjelölés. Ez azt a problémát volt hivatott megszüntetni, hogy minden D3D10-es VGA támogassa 100%-ig a szabványt, ugye volt egy kis ferdítás az x1000-es Radeonnál, amikor az Ati a SM3.0 legnagyobb újítását a VTF-et nem támogatta. Igazából most is baj van. Az nV és az AMD másképp képzeli el a D3D10-es gyorsítót. A Microsoft vélhetõleg a Xenoshoz hasonló képességû GPU-t képzelt el az API-jához, de az nV nem éppen ebbe az irányba lépet. Mindenesetre sokkal jobban meg kellet volna határoznia az MS-nek, hogy mit ért D3D10 gyorsító alatt, bár talán az nv is tudta, hogy milyen hardver illik az új API-hoz, csak bojkottálni akarta az AMD Xenos-ból származó elõnyét. Az MS felfogásában minden bizonnyal az R600 az a 3D-s gyorsító amit elképzelt az új API igényeihez. A probléma, hogy az R600-ra jellemzõ irányelvekkel jelenleg ezt a teljesítményt lehet elérni (plusz optimalizált driver rutinok amik még tényleg gyerekcipõben járnak, fõleg D3D10-ben). Ha az nV annó egy éve a G80-nal a Xenos-hoz hasonló képességû hardvert ad ki akkor elvétve verte volna a rendszer a régi x1950XTX-et és a 7950GTX-et. Ennek köszönhetõen a G80 egyfajta D3D9-D3D10 hibrid lett, belõve az életciklusát a jelenlegi idõszakra. Lényegében két rivális rendszer borzasztóan széthúz. Mondok egy példát. Olyan Shader kódot írunk amiben trigonometrikus (például sinus) függvény van. D3D9-ben az API adotságai miatt LUT (Look-Up table) texturát használunk, hogy kikeressük a megfelelõ eredményt, ehhez szükség van textura fetch-re ami igen nagy idõveszteség a memória címzése végett. D3D10-ben lehetõség van speciális utasítások elvégzésére, mint a sinus (sin). Ezt a GPU SFU egysége hajtja végre és meg is van az eredmény. Két eltérõ megoldás és a jelenlegi D3D10-es karikkal mindkettõ kivitelezhetõ. Hol itt a probléma? A LUT texturás megoldás a magas Alu:Tex arányú kialakítás végett nem nagyon fekszik majd az R600-nak. A G80-ban viszont az SFU egység jelentõsen lassabb a Stream prociknál, így az nV üdvöskéje a számolós megoldást nem szívlelné. Mi a teendõ? Vagy kiszúrunk az egyik gyártóval, vagy leprogramozzuk mindkettõ algoritmust. Az MS a D3D10-es API-val a számlálós megoldást próbálná erõltetni, hiszen a textura fetch nélkülözése miatt jelentõsen gyorsabban van eredmény. A D3D10 legnagyobb újítása a Unified Shader. Ha megnézed a fejlõdést akkor látható, hogy a Pixel Shadert használják orba-szájba. A Vertex Shader kihasználatlan terület. Ezt annak köszönheti, hogy eddig kevés volt a karik Vertex feldolgozó képessége. A Unified kialakítással az MS azt akarta elérni, hogy minden shader típus hasonló sebességgel fusson. Egy valódi Unified Shader rendszer ugyanolyan gyorsan végez bármilyen Shader kóddal. Ez lenne a D3D10 áttörése. Homokszem a G80-nal kerül a rendszerbe. Az nv rendszere gyenge tejesítményt nyújt Vertex és fõleg Geometry Shader alatt. Többnyire a G80 problémája a késleltetésre vezethetõ vissza. Egy Shader proci ugye 8 Stream prociból áll (+ 2 darab SFU, de ez most nem lényeg), ezáltal 32-es batchekkel dolgozik Pixel számítás esetén. Ez azért jó, mert ez a batchméret lefedni a textura fetch esetében bekövetkezõ elérési idõ kiesését, és a Dynamic Branching hatékonysága is megfelelõ. Vertex Shader esetén 16-os batcheket számol, elméletileg azért, mert kevés a cache mérete egy futószalagon belül. A kicsi a batchnél érezteti hatását a elérési idõ kiesése. De mivel a mai programok nagyon kevés vertex Shader kódot tartalmaznak így a problémát kompenzálja a Fragment számítás gyorsasága. Sajna Geometry Shader esetén is a cache mérete lehet a probléma csak itt jóval több adatot kell elhelyezni, így jobban érezteti a hatását. Ennek a kompenzálására nagyon kicsi tömbökkel operál a rendszer, mivel így fér bele a szûkös memóriába. Azonban a kis batch duplán visszaüt, hiszen az elérési idõ nem lesz lefedve, így a számítás az adat megérkezéséig szünetel. Látható, hogy részecske alapú GS-nél még úgy ahogy jól mûködik a G80, de egy nagyméretõ Vertex tömböt kap nem megy neki normális sebességgel a számítás. Nagyon erdekes az AMD megoldása a GS feladatokra, az R600-ban. A Shader feldolgozók mellett elhelyezett egy Memory Read/Write Cache-t, azoknak az adatoknak amik idõlegesek és nem mennek tovább a ROP egységeknek.
Szvsz annyi stikli drült ki a G80-ról mostanra, hogy alapvetõen nem egy korrekt felfogású rendszer. A manapság kiderült Texture leak még tovább rontja a helyzetett, mert egyelõre megjelenés óta nincs rá javítás, és feltételezem, hogy szép megoldáshoz hardveresen is változtatni kellene. Dehát akinek megéri az szórja G80-ra a pénzét.
Memóriavezérlési probléma. A megjelenés után fedezték fel, de csak most került nyilvánosságra, mert anyáztak a vásárlók az nV fórumán, és magyarázatott kellett adni. Lényegében "texture leak" probléma, tehát a nem használt texturák bentmaradnak a memóriában és elzabálják a helyet, ezért a GF8800 sorozat teljesítménye folyamatosan csökken. A 320MB-os GTS-t érinti az ügy a legjobban, mert neki van a legkisebb memóriája. Elméletileg azért húzódik a javítás kiadása ennyit (cirka pár hónap), mert a jelenleg ismert megoldások használata esetén, más területen nem mûködik jól a kari. Javítás egyelõre annyi, hogy lépj ki ALT-TAB-bal a játékból és vissza, illetve ha nem támogatja a program a taskváltást akkor zárd be és indítsd újra."
sima alpdriver van fent amit adtak vele most csináta elõször 2 hónap alatt majd ha lesz az a homokzsák textúra gebasz arról nyomatok képet
valami ilyesmit kéne látni csak ezen a képen messzebrõl van a lényeg hogy a nagy fényesség helyett az épületeket kellene látni meg mögötte a dombot stb.
Nem 200W-ra hitelesített levegõhûtõ lesz benne. Az új gyártástechnológiák megoldják, hogy ne legyen a fogyasztás akkora. A GPU-k fogyasztása pedig azét magas, mert ezen a területen fejlesztésre nem szánnak akkora összeget, mint a CPU fejlesztésére. Eleve a GPU üzletág nem annyira nyereséges, ha még bizonyos részeire több pénzt költenének akkor nem érné meg nekik. Az IDF-en volt egy ilyen bemutató, ahol azt részletezték, hogy ha a GPU gyártástechnológiák fejlesztésére több pénz lenne akkor az R600 sem fogyasztana, 80-100W-nál többet. Jelenleg az Intelnek és az AMDnek a fogyasztás csökkentése a fõ fejlesztési irányvonal, így nincs kétségem, hogy a tervezet 200W tartható lesz.
Ahhoz nem kell 30 év intel gyártósoros tapasztalat hogy rájöjjél hogy ha 1 ucc melegszik x-et, akkor 2 az 2x-et. A procikat eddig is az elérhetõ legkisebb csíkon nyomták, és a húzósabbak - core2 energiatakarékosság ide vagy oda - a 120-140W-ot benyalják. A GPU általában 1 generációval le van maradva csíkszélességben, kicsit azon talán lehetne gyúrni, de 0W abból se lesz. Ráadásul ha ezt a 2 kazánt egymás nyakára pakolod, akkor kis területen fognak k. sok hõt leadni (ráadásul egymást fûtik), pedig külön-külön is éppenhogy csak el tudják vezetni a hõjüket. Majd gyárilag folyékony nitrogénhûtést adnak hozzá?
Jah értem...azthittem már Vista van fennt Google elsõ találat: "actually had change to test both new ones 163.11 and the 162.22 and both seems to work on Digital Vibrance and fan speeds.. I am using Gainward 8600 GT" Ez alapján biztos lehetsz benne hogy megy a vibrance, de hátha valaki megnézi neked.
de ez igaz! de nem szeretnám fel rakni a vistát amig nem tom benne van-e vagy sem!!! mert eddig ezért nem tettem fel!!! nekem is xp-m van,de amint benne van a 162.22 (el irtam sorry) vagy az uj bétába 163.11.be már rakom is a vitátttttt!!!
Srácok kérlek SOS segítsetek !!! akinek 8800 karija van és vistát használ és fenn van az új 162.18 vagy az uj béta 163.11 forcware!!!! Kérem szépen nézze meg,hogy benne van már a digitál vibrance!? Mert az új 163.11 már benne van!!!! Be másolok egy másik fórum hozzá szólástttttt !!!
"Vélemény: Használj 163.11-est, idõközben kijött az is. Egyébként nagyon jó a 162.18, fõleg azért, mert végre van Digital Vibrance 8800-asokon, és a teljesítmény már XP-s szint. "
Kérlek valaki nézze meg!!!! sos
Gondolom sok tapasztalatot szereztél az életben a gyártástechnológiákról. Láthatod te is, hogy egy eltérõ felépítés mennyivel másabb hõtermelést eredményez Prescott->Conroe.
De itt az a baj, hogy nincs más út. A kommunikációs csatornák eltüntetése az egyetlen, hangsúlyozom egyetlen használható terv. Abból kell fõzni ami van, nem tervezhetünk teljesen új architektúrát, hiszen az IBM PC platform tartópilléra, hogy az 1980-ban írt 8086-os kód még mindig fut a mostani gépeken. Arra várunk, hogy a modernebb RISC architektúrák olyan elõnyre tegyenek szert, hogy ne okozzon nekik gondot az x86 emuláció.
Hát ha csak úgy nem. Lakapcsolja a fél procit / vga-t amikor offiszozol, és úgy megvan a 200W. Már lehet is eldobni a vízhûtést, éljen a hûtésmentes tuning! ^^
A legutóbbi videokártyás próbálkozásánál is elképzelte hogy nyerni fog. Meg az S3 is. Meg a vodoo is. Aztán mégse. Hol vannak a BitBoys mindent verõ vga-s kártyái? Tervrajzon? Az jó, azzal hasít minden játék... ^^
Ki álmodik? Nézd meg az AMD és az Intel Slidejait a jövõ elképzelésérõl. Eleve ez az egyetlen megoldás a teljesítmény tovább növelésére. Eleve az x86 architektúra borzasztóan pazarló rendszer, mára oda jutottunk, hogy az órajel kb. 3,5GHz fölé nem emelhetõ, az IPC növelése a függõségek miatt nem járható út hosszútávon, a magok növelése ésszerû, de a legtöbb program aligha fog 4 magnál többet használni. Egyetlen megmaradt megoldás a kommunikációs csatornák megszüntetése. Ezzel lehetõség adódna a legtöbb feladatra célprocesszort használni, és mivel egy magba lesznek integrálva nem kerül sokba az egymás közti kommunikáció. Ezzel a lépéssel lényegében az utolsó aduászt is kijátszották az "ezer éve" elavult x86-ból. Ekkorra elméletileg, illetve remélhetõleg lesz egy olyan microarchitektúra ami megfelelõ sebességgel képes emulálni az x86 utasításkészletét.
Fõleg azért gondolkodnak az integráláson, mert akkor csökkene a fogyasztás. A CPU gyártástechnológiák jobban kidolgozottak. Adat nincs róla, de a slide-ok alapján a Fusion tervezet "fûtése" 175-200W körül lesz több CPU maggal, GPU-val és integrált memóriavezérlõvel.
Amíg egy videokártya elfüstöl 200W-ot, meg a proci is 120-at, addig nem kell attól tartani hogy ezt majd jól egybeintegrálják, és majd csomagolnak hozzá folyékony nitrogént. ^^
Elhiheted, hogy nekem sem tetszik, mindig is szerettem az nV-t (mondhatni Fan vagyok). Egyszerûen az érdekek azt diktálják, hogy kiszorítsák a piacról. De még van ideje lépni, végülis 2012-re össze lehet dobni egy x86 CPU-t a Via-val karöltve.
Nyilván azt azért belátod te is, hogy az nV-nek nincs jelenleg CPU-ra licensze, így nehéz lesz mellé célprocesszort rakni. Sajna azért vonul ki a cég, mert ellehetetlenítik a vásárlását. Lesz lehetõséged Intelbõl és AMDbõl venni egy, egy chipbe integrált CPU és GPU kombinációt. Ezzel kifújt a választási lehetõséged, vélhetõleg nem fogsz e mellé nV karit venni, mert nem lesz portod elhelyezni az alaplapon. Ennyire egyszerû sajnos a helyzet.
Én még nem halottam egyik felõl sem hivatalos bejelentést. Az R700 az R600 kozmetikázás lesz. A G90-rõl nem tudni semmit. A G92-rõl pletyiznek, többek szerint középkategóriás motyó lesz, illetve az xBitlabs lehozott egy R600 és Xenos Slide-okból összevágot paraméterhalmazt. Kb. ennyi jelenség van mostanában.
A köv generáció is ilyesmi lesz. Csinálnak egy bikaerõs kártyát mint pl 8800 vagy 2900 aztán a középkattal ki lehet törölni a ..xD
Volt már jópár próbálkozó, ott van pl. az S3 - emléxik még vaki rá? ^^ A 3dfx-et is túlélte, pedig hátrányból indult. Az nvidia itt van már kezdetek óta, és mindenkit túlélt. Majd pont most fogja megszopatni a vga-ban még csak újonc (most a komoly kártyákról beszélünk, nem a "kirajzol vmi képet oszt jóvan" kategóriáról) intel? Elõbb vmit le is kéne tenni az asztalra, ígérgetni én is tudok. ^^ Fõleg miután egyszer már megpróbálkozott ezzel, és jól el is bukott.
Elsõsorban fontos megjegyezni, hogy egyik cég sem szeretné csõdbe vinni a piaci ellenségjét. Egyszerûen nem lenne érdeke. Ha az AMD csõdbe menne akkor szétdarabolnák az Intelt, és ez hidd el nekik sem jó. Az Intelnek jelentõs erõket mozgósított a VGA biznisz felé. Vett egy csomó technológiát a PowerVR-tõl, az nV-tõl is vásárolt. Az nV-n már most nagyon látszik, hogy más piacok után kutat, és egyre kevesebb pénzt õl az IBM-PC VGA szegmensébe.
Az AMD-nek nem hiszem, hogy a pénz dominált, az nV sem lett volna sokkal drágább az Ati-s tranzakciónál. Itt a technológiákon volt a hangsúly. Meg persze az nV-t valószínûleg nem szerették volna eladni.
gyerekek tényleg röhej már ez a vita! mi lessz 10 év múlva? senki sem tudhatja, de az biztos, hogy nem a mai vga-k lesznek a pc-kben! Ami jelenleg számít az a jelen max idén karácsonyig, és a jelenlegi állás szerint az nvidia 8800-as sorozatának csúcskártyái verhetetlenek
Már megint a 10 év múlva talán, esetleg megjelenõ dolgokról beszélsz. Ma pedig ma van!
Az intel eddig is fejlesztett saját videokártyát, annyit is ért. Notebookba jó, mert keveset fogyaszt, de erõgépnek... Régen is bele akart vágni a bizniszbe, akkor is rábaszott. Ahogy a procik terén õt az AMD-nek, úgy vga-ban neki se olyan könnyû kiütni az Nvidiát. Az hogy kiad egy nyilatkozatot hogy "jó lenne az hogy...", na az édeskevés.
vélhetõleg az R600 állapota döntõen befolyásolta a vásárlást, hiszen olcsóbban kaptak modernebb technikát. Inkább az befolyásolta hogy a csõddel küszködõ ATI-ra futja a szintén nem túl fényes költségvetésébõl, míg a burzsuj Nvidia felvásárlására gondolni se merhet.
Itt gondolni kell arra is, hogy a GPU-nak meg kell állnia a helyét a GPGPU piacon. Anyagi szempontból az R600 felépítése kedvezõbb, hiszen a G80-nál nem kevéssel nagyobb számítási kapacítással rendelkezik, így eleget tesz a D3D10 elveinek és a GPGPU-s elképzeléseknek is.
Az Intel saját VGA-t fejleszt. Az nV-vel nem sikerült megegyezniük. Vélhetõleg az nV valami új piac felé néz majd, de ez még szintén távoli. A valóságban a GPU fejlesztes nem olyan jövedelmezõ üzlet, mint amilyennek látszik. Túl nagyok a chipek, drága gyártani õket és viszonylag olcsón lehet megszabadulni tõlük. A CPU fejlesztés ebbõl a szempontból sokkal jobb üzlet. Az AMD is csak a Torrenza és a Fusion projekt miatt vette meg az Ati-t. Bár az nV is benne volt a kalapban, vélhetõleg az R600 állapota döntõen befolyásolta a vásárlást, hiszen olcsóbban kaptak modernebb technikát.
Vélhetõleg a Voxel-Space technika fogja reneszánszát élni, akkor már olyan gyorsak lesznek a CPU-k, hogy nem lesz értelme a célprocesszorok fejlesztésének. De ilyen távlatban tényleg nincs értelme elõre jósolgatni.
Nyilván az nV-nek nincsen x86 licensze, így ha nem vásárolják fel a VIA-t, akkor várhatóan búcsúzunk tõlük ebben a szegmensben. De az intelnek van. ^^ Az meg nyilván nem az õsellenség ATI kasszáját akarja feltölteni az Nvidia eltûntetésével.
Nem mindig, de van ahol felnõ hozzá. Ez egy csúcsmodelltõl - ráadásul 1 év késéssel - elég nagy szégyen hogy csak ennyire képes.
az új játékoknál még a 8800Ultránál is gyorsabb lesz. Melyeknél is? Crysis? Alan Wake? Nemrég még te magad mondtad hogy ezek DX9 / DX10 hibridek, és hogy nem az igazi... Akkor hol is vannak a nagy radeon only gamék? Ja, hogy csak tervrajzon... ^^
2030-ban már nem lesz szükség a 3D-s grafika geometrikus gyorsítására. Nem vagyok jós, de szerintem más elvek fognak érvényesülni akkor. Maguk a VGA karik is megszûnnek 2010-2012-tõl, hiszen az AMD és az Intel is abban látja a jövõt, hogy célprocesszorokat integrál a CPU magjába. Nyilván az nV-nek nincsen x86 licensze, így ha nem vásárolják fel a VIA-t, akkor várhatóan búcsúzunk tõlük ebben a szegmensben.
Ez a legmodernebb megvilágítási modell ami jelenleg létezik. Az benne az újdonság, hogy a Geometry Shaderrel csináltak egy olyan algoritmust amivel tisztán a GPU-n meg lehet valósítani a számításokat.