Jaj de jó, lesz végre AGP-re is DX 10-es kártya.Az ATI kiadta az X 2400 kártyáját. Így legalább nem kell az egész gépet lecserélnem. Csak kár,hogy gyenge az a kártya.
hát õszintén remélem, hogy mostmár rágyúrnak a fejlesztõk egy kicsit az optimalizálásra, mert hihetetlen mértékben túlzásokba estek. ha így halad tovább nem években nézhetjük a konfigok idõtállóságát, hanem hónapokban, ami egy kicsit gáz, fõleg ha ilyen 400ezer ft-os konfigokat veszünk figyelembe! most épült meg a mostani konfigom, ha következõ nyáron ez elavultnak fog számítani én komolyan mondom tüntetésképpen az autóm után kötöm a gépet és úgy vonszolom végig a városon, mint még anno régen a megszégyenített embereket!!!!!!
Ha ez így lesz akkor ki sem érdemes adni azokat játékokat. Lesz ott optimalizálás bõven. A Crysis tökéletesen fut 8800GTX-szel ezt megbízható forrásból tudom. Az Alan Wake az kérdéses, a project még kezdetleges állípotban van, így még az sem igazán eldöntött, hogy milyen eljárásokat használnak majd benne. Ez elvileg borítékolható, hogy D3D9-es lesz.
Jövõ nyáron ezek a kártyák már sehol se lesznek, addigra még a felállás is fordulhat. Ha egyáltalán kell valaminek fordulnia. Mire megjön a Crysis / Alan Wake, azt a hagyományos menetrend szerint az akkori csúcsmodellek épphogy elfuttatják valahogy, és majd az azutáni generáción lesz élvezhetõ fullosan. Akor már épp annyira lesz lényegtelen a mostani kártyák közti különbség, mintha a Lost Planethez 9600pro és gf4 közül választanál. Mindegyik karcsú.
Nem, de elengedhetetlenül szükséges a dokumentációk ismerete a teljesítmény behatárolásához. A sample demók pedig a jövõt mutatják, szerintem nem mindegy melyik VGA-n megy majd jobban a jövõ nyári játékfelhozatal.
Mert a D3D10-es sample-ek azt bizonyítják, hogy az R600-ban van kevesebb shader erõ? Próbáld levezetni elméleti úton levezetni a shader kódokat. Persze feltétlen olvasd el elõtte a CUDA dokumentációt.
Nagyon sok embert az érdekel, hogy mi lesz jobb késõbb. Ezeket csak az architektúra vizsgálatával lehet megállapítani. Mennyien vettek anno FX-et és mekkora sírás lett belõle. Illetve azt sem szabad elfelejteni, hogy a HD2900XT árszerinti ellenfele a 8800GTS 640MB.
volt kompatibiltása a 32bit-es rendszerekkel, csak marha lassú volt Az elég ok. Azért senki nem akar pénzt kiadni, hogy tizedannyi sebességgel fusson mint a régi vason. Ha meg nincs vevõ, akkor kinek lehet eladni? Ezért kár legyártani is. Ezt az Intel is belátta. Pedig elméletben jobb lett volna az IA64-re váltani, csakhát a gyakorlatban a hozzá kapcsolódó sok macera miatt szinte megoldhatatlan feladat.
NEkem nem gyanú kell, hanem valós teljesítmény. Hiába tudna esetleg többet a Radeon mint amit produkál (legkönnyebb persze szabotázst emlegetni, mint normálisan leprogramozni, az nem kerül munkába), ha nem teszi. Kitörölhetem a seggem a "mi lenne ha" feltételezésekkel (kb. annyit ér mint hogy mi lenne ha Hitler nyerte volna a vh-t... nem nyerte), ha a gépemen a tizedét nem látom. Márpedig a felhasználót csak az érdekli amit lát, a pénzéért valós eredményeket akar látni.
Az IA64-es rendszernek is volt kompatibiltása a 32bit-es rendszerekkel, csak marha lassú volt. Mindkét cég a saját megoldását támogatta, lényegében az MS döntött. Az Intel pedig a CPL-en keresztül jogot formált az x86-64-re. Szerintem se fog sikerülni az Intel-nek, de meg fogja próbálni. Mindenesetre 2010 után a célprocesszorok integárlásánál már nem nagyon rughat labdába az nv. Az x850XT nem hiszem, hogy jobb volt mint a 6800GT. Jóval tovább bírta az nv üdvöskéje. Több lehetõség is volt benne, a texture fetch is jobban át volt lapolva. Ezenkívül jobb volt a shader kezelése is, egy PS proci képes volt 3+1-es(MUL) és 2+2-es(MAD) dual-issue-ra, ami eléggé feküdt a PS feladatoknak.
szevsztok.nalam elado egy sapphire radeon x1650pro 256 mb gddr3,fel eves,azer adom olcson mer a hutoje hazilag kisse atjavitott,17 er adom,erdekel valakit
Ezt még jobban tetõzte, hogy a 64bit-es váltásnál az MS az AMD x86-64 utasításkészletét támogatta az Intel IA-64-jével szemben Ezt az Intel is támogatta, mert nem kellett architektúrát váltani. Technológiailag jobban jártunk volna egy rendesen áttervezett 64 bites rendszerrel (IA64), de ezt a szoftverfejleszõknek is támogatni kellett volna, amiért nem lelkesedtek. Gyakorlatilag mindenki dobhatta volna ki a meglévõ programokat. Ez nem az MS döntése volt (neki van windowsa Alphara is, meg Itaniumra is, szal neki mindegy), hanem az Intelé.
Az nV-t sajna ki kell taszítania a GPU piacról az Intelnek 2010-re. Egyszer már próbálkozott, megbukott. A semmibõl nekik se fog menni. Az ATI meg az AMD-é, nyilván nem fogják az ellenséget támogatni, tehát marad az együttmûködés az Nvidiával, amivel az AMD-t szopathatja.
Nekem nincs kedvenc cégem, volt 9800 prom, x850 xt-m, amikor az volt a legjobb. De most az Nvidia az, ezért azt veszem. Majd ha megint az ATI lesz jobb, megint váltok. De hhoz jobbnak kéne lenni, és nemcsak papíron, hanem bizonyítottan, a valóságban is.
Az nem gyanus, hogy a Lost Planet eredetileg Xenoson fut (ATI R500 GPU) szebben és gyorsabban, mint a PC verzió, és a nagyságrendileg gyorsabb R600on még is lassú? Ez mindek nevezzük, optimalizációnak vagy fizetett szabotázsnak? :)
Az MS legnagyobb partnere az Intel, aminek a legfõbb ellenfele az ATI-t tulajdonló AMD. Szerinted majd az Intel azért fog lobbizni hogy az ATI-t támogassa, vagy hogy a vele szövetséges Nvidiát? Nem vagyok meggyõzõdve róla, hogy ez így lenne. Az xBox 1 fiaskó után nem éppen baráti a viszonyuk. Ezt még jobban tetõzte, hogy a 64bit-es váltásnál az MS az AMD x86-64 utasításkészletét támogatta az Intel IA-64-jével szemben, sõt az SM háromszór mondta vissza az Intelnek a támogatási kérelmét. Kényszerû a partnerkapcsolat, dehogy szeretnék egymást az enyhén szólva túlzás. Az nV-t sajna ki kell taszítania a GPU piacról az Intelnek 2010-re. Az AMD és az Intel az egy chipbe integrált célprocesszorok alakalmazásában látják a jövõt. Kétszereplõs piacot könnyebb kézben tartani, így vagy az AMD-nek vagy az nV-nek menni kell. Mivel az AMD-re szüksége van az Intel-nek ezért kizárásos alapon az nV lesz a kiesõ.
Az nv logó sajnos nem sokat ér, mivel a legtöbb játékban pusztán reklám jellegû. Én úgy látom, hogy többnyire olyan emberek panaszkodnak akik nem teljesen értik a dolgok mozgatórugóját (ezt természetesen nem lenézésbõl mondtam, pusztán megjegyzem). Egyszerû rámondani a gamára, hogy azért fut jobban nV-n, mert ott a logó, de mint mondtam a háttérben ezer és egy oka lehet az Ati teljesítményének. Mindenre megvan az ésszerû és logikus magyarázat.
Nem akarok flém-et indítani, sõt civilként az nVidia a kedvenc cégem. Egyszerûen leírom a jelenlegi helyzetrõl a véleményemet. Nem akarom befolyásolni a döntésed, ha te jobbnak érzed a GF8-at akkor természetesen jogod van azt venni/használni.
Tény? Az a tény hogy Lost Planetben egy lebutított GTS megveri az ATI csúcsmodellt. Az tény. A többi csak marketing. Lehet magyarázkodni hogy - szerinted - ez miért van, de amíg az eredmények nem változnak, addig ez marad a tény.
Az nv logó sajnos nem sokat ér, mivel a legtöbb játékban pusztán reklám jellegû. Aha, azért panaszkodnak mindig az ATI-sok...
Az MS legnagyobb partnere az Intel, aminek a legfõbb ellenfele az ATI-t tulajdonló AMD. Szerinted majd az Intel azért fog lobbizni hogy az ATI-t támogassa, vagy hogy a vele szövetséges Nvidiát?
A demóból már némileg látható, hogy miért nem készített GS sample-t az nV, hiszen a 8800Ultra 3FPS-re képes szemben a HD2900XT 55FPS-ével. Nyilván ezek a lépések rossz hatással vannak a piac alakulására. A GS-t a játékokban nem fogják többre használni practicle effektek létrehozásánál. Tegyük fel hogy tényleg így van, nem csak a szokásos Nvidia flém. Akkor mi van? Ha nem rakják bele a játékba, akkor a Radeon se fogja gyorsabban futtatni. Engem csak a valóság érdekel, az hogy mire tudom használni a cuccot. Nemlétezõ dolgokra nyilván nem, tehát nem is érdekel. A Lost Planet (és tsai) viszont létezõ dolgok.
Barny: D3D10-ben se a HD2600XT se a GF8600GTS nem lesz használható, csak grafikai kompromisszumokkal. A jelenlegi D3D10 patchelt játékokban a HD2600XT gyorsabb. Pár hete próbáltam a Call Of Juarezt, és a Company Of Heroest, 8600GTS-en Low beállítás mellett lehetet használható FPS-t kapni, míg HD2600Pro-n Medium grafika mellett ugyanolyan gyors volt. A Lost Planet még néhol bugos a HD Radeonnal, de már a legtöbb hiba ki van javítva. A teljesítmény hasonló volt a fenti két játékhoz, de nem tudom, hogy mennyit jelentetett a Radeonnak a grafikai hibák. Elméletben a 7.8-as driverre ígérnek teljes Lost Planet javítást.
hd2900xt vs 8600gts.lehet kesobb jobb lesz az ati?vagzy mar most jobb? Xpertvision HD2900XT Sonic milyen.lehet ezt vennem meg??D3D10-ben hogy produkal?
Ez nem marketing, ez tény. Az OpenGL teljesítményben nincs különbség az Ati és az nV között. Nem tudom mibõl következtettél erre. A mai játékok olyan kódokkal rendelkeznek, hogy ha az nV és az AMD nem optimalizálná a drivereket akkor õszintén szólva a Far Cry kb. 15FPS-sel menne a jelenlegi csúcskártyákon is. Az nV és az AMD azért jutott el idáig, mert a fejlesztés komoly mértékben a driverre specializálódik. Bár a Vista driverekben még komoly lemaradásban vannak. Az nV sajna még a WDDM-et sem kezeli hatékonyan, de remélhetõleg ez még változik. Tipikusan az a baj az új MS rendszerben, hogy megváltozott driver modell kifejezetten a D3D10 API igényeit szolgálja, így a gyártóknak elengedhetetlen a modell ismerete. Az nv logó sajnos nem sokat ér, mivel a legtöbb játékban pusztán reklám jellegû. Pénz központú a világ, de a legtöbb fejlesztõnek nem érdeke az egyik rendszert elõnyben részesíteni. Persze a Lost Planet-ban komoly értelme van hiszen az xBox360 port, gyakorlatilag egy csomó dolgot ki kellett belõle venni illetve át kellett írni. A PC-s verzióban nincsenek tesszalációs rutinok, ami némileg szebbé teszi a xBox360 verziót. Persze a programozható tesszalátor majd D3D11 követelmény lesz. A Lost Planet-nek (szándékosan vagy véletlen) nem szabványos a WDDM kezelése sem, ezért nem megy jól D3D10-ben Ati-n. Ha véletlen akkor a Capcom idõvel biztos javít rajta. Ha szándékos akkor a Microsoftnak idelye lenne meghívni a Capcom és nv vezetõségét egy kis felymosásra, mert ezzel a lépéssel nem az Ati-t, hanem az MS D3D10 API-ját és a WDDM felületét járatták le. Az MS az új API-val mindent megtett a szabványosság maximális kihasználásáért. Nem hiszem, hogy csak úgy nézni fogja, hogy az nV (csak azért, hogy mentse a menthetõt) lerombolja azt. Nem vagyok olyan helyzetben, hogy elítélhessem egy piacvezetõ cég politikáját. Szvsz az nV le akarta járatni az Ati D3D10-es karijait, csak olyan utat választott amivel, kivívhatja a Microsoft haragját. Márpedig azt mindenki tudja, hogy velük aztán nem érdemes rossz viszonyt ápolni. Persze az is elõfordulhat, hogy szimplán elrontottak valami a CAPCOM-os srácok, csak ennek kicsi a valószínûsége, hiszen kívülröl ismerik az R600-at ami felépítésben rendkívül közel áll a xBox360 Xenos-hoz.
Nem tudom, hogy az AMD miért konkurenciája az MS-nek. Igazából partner kapcsolatban vannak, hiszen együt népszerûsítik a D3D10-es API-t. Az utóbbi idõben közel kerültek egymáshoz, hiszen az AMD megírja azokat a D3D10-es sample-eket amiket az nV nem volt hajlandó elkészíteni. Az MS-nek az az érdeke, hogy minél többen használják a D3D10-es API-t. Ezért komolyan kampányol mellette. Nemrég készült el Emil Persson Global Illumination demója, ami olyan eljárásokat használ a megvilágítási modell leképzésére amire eddig nem volt lehetõség a Geometry Shader hiánya miatt. A demóból már némileg látható, hogy miért nem készített GS sample-t az nV, hiszen a 8800Ultra 3FPS-re képes szemben a HD2900XT 55FPS-ével. Nyilván ezek a lépések rossz hatással vannak a piac alakulására. A GS-t a játékokban nem fogják többre használni practicle effektek létrehozásánál. Ezek tipikusan kis vertex tömbökbõl állnak, így nem probléma a G80 futószalagjainak a cache méret problémái. Az nV biztos dolgozik a problémán, speciel a G84 érezhetõen jobban kezeli a vertex feladatokat.
Ezt a "komoly elõnyt" azért látni is kéne, mert hát a konzolos topik is tele van a sony marketinggel, ennyi teraflops, annyi akármi, csak épp a valóságban nem látszik belõle semmi. Nekem az ATI marketingje is ilyennek tûnik. Majd ha bizonyít, elhiszem, addig inkább a szememnek hiszek. Ráadásul OpenGLben az ATI sosem volt a topon, nem hiszem hogy ebben is pont most fejlõdnének fel. Persze idõnként "optimalizálják" a drivereiket 1-1 játékhoz, de ha pont nem azzal játszol, akkor szart se ér, de azzal is csak épphogy jobb.
Ami viszont probléma, hogy nem tudjuk milyenek lesznek az új játékok. De tudjuk, Nvidia logósak. ~~
Az MS pedig biztos nem arra az ATI-ra fog optimalizálni, amelyiket épp most vásárolta fel a konkurrenciája. Inkább jól alátesz, mégha esetleg jobb is lenne a hw. Feltéve hogy egyáltalán jobb lenne.
Elég sokat tanulmányoztam a két architektúrát és a D3D10-es újdonágokban komoly a HD2900XT elõnye. Az MS féle GI prezentációban, a HD2900XT 55FPS-t megy, míg a 8800Ultra 2-3FPS-t. Ez nem éppen következetes teljesítmény. Másik topic-ban már beírtam: Elég megvizsgálni a két architektúrát és látható, hogy mi miért van. A D3D10-nek fõleg a skalár stream procik felelnek meg a legjobban. Ezek SISD Alu-k, tehát ''1 utasítás 1 adaton'' elvûek. Az AMD és az nV is ilyen Stream procikat használ, mindkét rendszerben MAD, MUL, ADD utasítás lehetséges float adattípusra (integer adattípusra pontosan nem tudom, hogy milyen mûveletett tudnak, de ez nem túl lényeges, mert mindenki float-t használ). Ezen kívül a D3D10 lehetõséget ad trigonometrikus és transzcendens utasítások elvégzésére. Ezeket az SFU (Speciel Function Unit) egységek végzik. Itt van némi változás az nV és az AMD SFU egységei közt. Az AMD SFU egysége a spec. utasításokon kívül MAD, MUL, ADD utasítást tud, így lényegében használható általános stream processzorként, míg az nV SFU-ja stream prociként MUL utasítást tud, illetve 4 órajelciklus alatt végez egy mûveletett, tehát 4x lasabb a stream procik sebességénél. A két rendszer elrendezése is eltérõ. Az AMD 4stream+1SFU alapú shader procikat használ, ezekbõl 4 darabot mûködtet egy clusterben és VLIW mintával etetik õket (a VLIW lényegében egy architektúra az a fontos, hogy a VLIW minta egy nagy memóriaszó ami leírja az egységeknek a mûködést, illetve ezeket a szavakat a fordító hozza létre). Az nV egy shader procijában 4+4darab Stream proci van egymással párhuzamosan kötve, és ezekhez a 4-es csoportokhoz kapcsolódik egy-egy SFU egység (tulajdonképpen ez totálisan a float2 adattípushoz lett tervezve, nem véletlen, hiszen jelenleg ez az adattípus dominál a shader programokban).
Ami viszont probléma, hogy nem tudjuk milyenek lesznek az új játékok. Minden D3D generáció váltás új elképzeléseket szül. Ezek akkor jók ha fokozatosan lesznek bevezetve. Ilyen volt a D3D7-D3D8 áttérés. Ellenben a Hát a D3D8-D3D9 váltást némileg akadályozta az FX karik képességei. Ez sajnos nem következetesen ment végbe. Az nv tartotta a fejlesztõket addig míg ki nem jött az új szériája és utána bumm, jött a drasztikus teljesítményesés. Persze ez csak az FX tulajokat érintette rosszul. Akkor is kivolt kövezve egy út amit az MS és a fejlesztõk elképzeltek, de csak késõbb tudták alkalmazni. Most is van biztosan elképzelés a jövõ megoldásairól, az a probléma, hogy nem tudjuk mi az. Az egyik véglet az, hogy maradnak a jelenlegi megoldások és a jelenleg mutatott teljesítmény lesz mérvadó. A másik véglet, hogy elmennek a fejlesztõk az AMD elképzeléseinek az irányába és a G8x teljesítménye drasztikusan visszaesik, mint anno az FX-nél. Remélhetõleg valamilyen köztes kompromisszumot választanak és azzal a felhasználók is jól járnak.
Az Microsoft felfogásában minden bizonnyal a Xenos-hoz közelebb álló R600 az a 3D-s gyorsító amit elképzelt az új API igényeihez. Mindenesetre a mostani játékokban az R600-ra jellemzõ irányelvekkel jelenleg ezt a teljesítményt lehet elérni (plusz optimalizált driver rutinok amik még tényleg gyerekcipõben járnak, fõleg D3D10-ben). A D3D10 minden eddiginél jobban épit a shaderekre, ezért is problémás, hogy a két gyártó elképzelései nagyon széthúznak. Mondok egy példát. Olyan Shader kódot írunk amiben trigonometrikus (például sinus) függvény van. D3D9-ben az API adotságai miatt LUT (Look-Up table) texturát használunk, hogy kikeressük a megfelelõ eredményt, ehhez szükség van textura fetch-re ami igen nagy idõveszteség a memória címzése végett. D3D10-ben lehetõség van speciális utasítások elvégzésére, mint a sinus (sin). Ezt a GPU SFU egysége hajtja végre és meg is van az eredmény. Két eltérõ megoldás és a jelenlegi D3D10-es karikkal mindkettõ kivitelezhetõ. Hol itt a probléma? A LUT texturás megoldás a magas Alu:Tex arányú kialakítás végett nem nagyon fekszik majd az R600-nak. A G80-ban viszont az SFU egység jelentõsen lassabb a Stream prociknál, így az nV üdvöskéje a számolós megoldást nem szívlelné. Mi a teendõ? Vagy kiszúrunk az egyik gyártóval, vagy leprogramozzuk mindkettõ algoritmust. Az MS a D3D10-es API-val a számlálós megoldást próbálná erõltetni, hiszen a textura fetch nélkülözése miatt jelentõsen gyorsabban van eredmény.
szerintetek melyik a legjobb kártya 30-35 ezer körüli árkategóriába, melyiket éri meg megvenni??
jelenleg egy orája 1080i HDV videot renderelek vele :) még megy egy jó másfelet majd. proci 75 fokon stagnál, a vid ugyan nem terhelödik (sajnos :) de 62 fok körül álldogál. Eddig jol birja a gyürödést :)
2600XT...hááát...kábé 8600GTS, bár egy-két játékban 8600GT alatt teljesített...szóval változó a teljesítménye, állítólag késõbbi driverekkel javulni fog...
MSI GeForce NX8600GT T2D256E-HD-OC PCX gyarilag huzoot,de ezt mar mondtam,alaplap:Arock 775Dual VSTA,P4 524 3.3 Ghz-re huzva,2 GB ram,ddr2 pc667...???
MSI GeForce NX8600GT T2D256E-HD-OC PCX-et megeri venni.7900gs-em van,dx10 miatt szeretnek valtani.akkor mit is tegyek??
A videokártya órajelét három lépcsõben szabályozza a PowerMizer segítségével, 2D-s megjelenítés esetén csupán 100 MHz-en "zakatol" a grafikus mag, a feszültség csökkenésrõl nem tudtunk bizonyosságot szerezni. Hõség ide, órajelcsükkentés oda, a GPU még internetezés közben se tudott 60 fok alá lecsúzni, teljes terhelésen (amennyiben a processzor mindkét magját is terheltük) a maghõmérséklet egészen 92 fokig kúszott fel, amely már-már kritikusnak mondható, egyszer túlmelegedés miatti szoftveres hibával is találkoztunk.
A 2900 XT a 8800 GTS szintjén mozog, szal nem egy világcsúcs. Sõt, van hogy ott se, mert annyira siralmasan produkál, pl. Lost Planet, Vindóz Pistával, DX10 módban.
Mondtam, hogy shader-intenzív játékban nem jobb az alap verziónál. Max 1-2%-al. Nem biztos, hogy azért hamarabb tönkra megy mert túlhajtott. Hamar dögleni álltalában a passzív hûtésû karik szoktak. A 7900GS-t nem biztos, hogy megéri erre lecserélni. D3D9-ben egy kicsit jobb néhol. D3D10-re meg semmi erõ nincs benne, 100GFLOPS az semmi az új API-hoz. Oda legalább 200GFLOPS teljesítmény kell. Tényleges D3D10-es alkalmazásokat pedig a Radeon HD2900XT-n kívül nem hiszem, hogy más mai VGA tudna majd futtatni.
megeri,mert epp ezt neztem ki magamnak,mert veri a 7900gs-t nem??
meg meg megkerdeznem,ha megvennem ezt a tulhajtoot verziot,akkor hamarabb megadna magat,mintha egy olyat vennek ami nincs tulhajtva??
shader maradt 1200mhz
igazad van,csak a mag meg a memoria orajelehez nyultak.mag:580 mhz,mem.:1600mhz,de jobb mint egy alap szeria nem?
Túlhajtott GF8-at tök felesleges venni. Fõleg a mag órajelet húzzák, a shader órajelhez csak ritkán nyúlnak, így a teljesítmény alig erõsebb, sõt a shader intenzív játékokban szinte semmi gyorsulás nincs. Az alap memóriasávszélesség pedig jól kiszolgálja a középkategóriás GF8-akat.
én most az uj laptopomon nézegetem mit bir a 8600GT (mobil ugye). azt kell mondjam hogy sokkal jobb mint amire számitottam. pl a TDU ugy megy rajta mint a huzat max felbontás (1280*800), max AA, részletesség pedig medium. simán viszi kb 45-50 fps-el. és mivel vista van fent, meglesek majd valami dx10-es cuccot bár ott ugysem fog ennyire szépen muzsikálni...
Bár ha nem sokkal olcsóbb, akkor én inkább boltból veszem meg egy ezressel drágábban. Megbízhatóbb a gariztatás is ha gond van.
Ati HD Dx10-es szériája fasza lett csak sokat fogyaszt! prohardver.hu
Szerintem legtöbb DX10 stuff kis felbontásban még mediumon SE gog menni rajta. Maxon? Lol. Néztél már GF8800 vagy HD2900XT teszteket, hogy azok mit visznek maxon?
DX10-ben tuti nem bír maxot, még a csúcskártyák is megszenvednek erõsen DX10-ben, fõleg maxon. Egyébként ilyen inno van nekem is. Csak azért vettem, hogy legyen valami a gépben amíg megjelenik a Geforce 9 :) Egyébként egész jól elmegy vele minden, csak a DX10-ben gyenge állítólag, én még nem próbáltam mert nincsen Vistám, XP-re hekkelt DX10-el meg inkább nem próbálkozom... nincs kedvem szétcseszni az XP-t vele.
Én csak azt nem értem hogy a 8600, 2600-as szériát miért full beállításokkal tesztelni mindenhol. Szívesen megnéznék egy olyan tesztet, ahol közepes beállításokkal(esetleg low) tesztelnék ezeket a kártyákat.
A képek között a különbséget kellene látni, de tényleg nem sok látszik. Nameg a táblázatba szedett számértékek mondanak még valamit. Ami 25-30 alatt van, azt nem nagyon lehet játszható kategóriának tekinteni...
Teszt az összes jelenlegi DX10 kártyával, hogy mit tudnak DX10 alatt. Aki már "bevásárolt" az inkább ne nézze meg :)
szevasztok valaki nem tud küldeni geforce fx 5200 driver legújabb verzió telepítõjét vagy egy internet címet ahol le lehet tölteni a legújabb verzióját itt az email címem [email protected] kösz csá
Pfff. Óvatosan, nem tudom mi az az X2500, de mivel nem HD elõtagja van, majdnem tuti, hogy DX9-es, mint az X2300-as is. (X1300 mobility átnevezve!) Ami DX 10 az a HD2350, HD2400 és így tovább.
A "mobilos" elértést meg tud be ennek: Olyan öreg vagyok, hogy nálunk a mobil szó nekem elsõre CB-t jelent, másodjára esetleg telefont, és csak végsõsoron notit! :D
most nem igazán vágom milyen telefonról beszélsz ami dx10-et tud de biztosan XD
erröl lenne szo:
ACER TM5720G-101G12 15,4" WXGA, Vista Home Basic, Centrino 2 Duo T7100 1.8GHz ATI X2500 256MB 1024MB (1*1024) DDR2 120GB S-ATA HDD DVD Super Multi 802.11a/b/g 8 cell battery 0.3MP Orbicam (fixed) 5in1 card reader
és ennél a gépnél vagyok kiváncsi hogy mit tudhat vajon az a vga...
Dx10? Hmmm. Ahhoz kéne OS is a telefonra, ha csak nem lelsz olyat ami Vistával megy. Van az NVidianak egy GeForce 7xxx-es típússzámú telefonba való GPU-ja, de optimista esetben is valahol a DX7-DX8 között lehet tudásban. Az ATI/AMD meg nemrég elkezdett gyártani egy GPU-t, ami elvileg annyit tud, mint az X360-ban lévõ R500-as (azt nem mondták, hogy mekkora felbontásban!), de az mire elterjed mobil eszközökben, az vagy 1-1,5 év.