Válaszoljon valaki aki ért is hozzá a 3-al lejebb lévõ kérdésemre PLS!
256mb/128bit vs 256mb/256bit!
PLS!!! thx
Mondjuk nem mindíg jelent valamit a 128 vs 256 bit (lásd 7600GT vs 7800GS/6800GT), de jelen esetben az a 7900GS jóvval gyorsabb, megkockáztatom még a 8600GTS-nél is, ellenben nem tud DX10-et. Hogy ez számít e? Arra meg max. fél év múlva tudnánk válaszolni.
Végülis a 3dmark06 grafja alapján én azzal a színvonallal is megelégednék 1 év múlva is (de akkor ne szaggasson semmi), addíg meg bõven jó a 7900GS, utána pedig valami ütõs DX10 jöhetne... bár azért van bennem némi kétely, hogy a 7900GS mindent visz szaggatás nélkül, persze beállítás kérdése is.
Személy szerint én megpróbálom megvárni a következõ generációs DX10-eket, esetleg ha a radeon X2600XT ellenállhatatlan teljesítménnyel jön elõ, jó áron, akkor azt veszem.
"bár azért van bennem némi kétely, hogy a 7900GS mindent visz szaggatás nélkül"
Lol. R6 Vegast full beállításokon még egy GF8800 se mindíg viszi szaggatás nélkül és van még pár ilyen "jól" megírt program ;)
Nemtom mi a véleményetek a Carmack demózásról, de sztem elképesztõ. Remélem forradalmat csinál, és eltünnek a 100ezres VGA-k a picsába (amikon mellesleg rángatnak az új gamek.
Nem VGA kell ide, hanem programozni akarás és tudás. szvsz
Ne má hogy 100000felett vannak a dx10 videokártyák, már 70ért láttam egyet, ajándék 3magos 3,2ghz cpuval, gamepaddal. A neve x360 core xD
Hi! Albatron típusú videókariról tud valaki valamit szólni?? nVIDIA 8600GT ,256Mb memória,DirectX 10-es...
Fene a Microsoft-ba. Miért nem tudják kiadni XP alá a DX10-et... Most vehetek minimum 6 giga ramot, hogy a Vista meg egy jobb fajta játék elinduljon a gépen. Ezt is igen jól kitalálták...
Szkeptikus vagyok, de remélem igazad lesz, mert jól hangzik, hogy bármennyi textúra lehet és még sem akad sz*r kártyán se, viszont nehéz elhinni az elmúlt 10 év durvulásai után.
Dx10? Hmmm. Ahhoz kéne OS is a telefonra, ha csak nem lelsz olyat ami Vistával megy. Van az NVidianak egy GeForce 7xxx-es típússzámú telefonba való GPU-ja, de optimista esetben is valahol a DX7-DX8 között lehet tudásban. Az ATI/AMD meg nemrég elkezdett gyártani egy GPU-t, ami elvileg annyit tud, mint az X360-ban lévõ R500-as (azt nem mondták, hogy mekkora felbontásban!), de az mire elterjed mobil eszközökben, az vagy 1-1,5 év.
most nem igazán vágom milyen telefonról beszélsz ami dx10-et tud de biztosan XD
erröl lenne szo:
ACER TM5720G-101G12 15,4" WXGA, Vista Home Basic, Centrino 2 Duo T7100 1.8GHz ATI X2500 256MB 1024MB (1*1024) DDR2 120GB S-ATA HDD DVD Super Multi 802.11a/b/g 8 cell battery 0.3MP Orbicam (fixed) 5in1 card reader
és ennél a gépnél vagyok kiváncsi hogy mit tudhat vajon az a vga...
Pfff. Óvatosan, nem tudom mi az az X2500, de mivel nem HD elõtagja van, majdnem tuti, hogy DX9-es, mint az X2300-as is. (X1300 mobility átnevezve!) Ami DX 10 az a HD2350, HD2400 és így tovább.
A "mobilos" elértést meg tud be ennek: Olyan öreg vagyok, hogy nálunk a mobil szó nekem elsõre CB-t jelent, másodjára esetleg telefont, és csak végsõsoron notit! :D
szevasztok valaki nem tud küldeni geforce fx 5200 driver legújabb verzió telepítõjét vagy egy internet címet ahol le lehet tölteni a legújabb verzióját itt az email címem [email protected] kösz csá
Hát a laikus szemnek nem mond semmit. (plusz még angolul sem tudok) Mit kell látni?
A képek között a különbséget kellene látni, de tényleg nem sok látszik. Nameg a táblázatba szedett számértékek mondanak még valamit. Ami 25-30 alatt van, azt nem nagyon lehet játszható kategóriának tekinteni...
Én csak azt nem értem hogy a 8600, 2600-as szériát miért full beállításokkal tesztelni mindenhol. Szívesen megnéznék egy olyan tesztet, ahol közepes beállításokkal(esetleg low) tesztelnék ezeket a kártyákat.
Ilyen engem is érdekelne... ha találsz ilyet, akkor mindenképp írd meg nekem is :)
helo.inno3d 8600gt jo valasztas?,lost plnet alatt dx10-en birja a maxot?
DX10-ben tuti nem bír maxot, még a csúcskártyák is megszenvednek erõsen DX10-ben, fõleg maxon. Egyébként ilyen inno van nekem is. Csak azért vettem, hogy legyen valami a gépben amíg megjelenik a Geforce 9 :) Egyébként egész jól elmegy vele minden, csak a DX10-ben gyenge állítólag, én még nem próbáltam mert nincsen Vistám, XP-re hekkelt DX10-el meg inkább nem próbálkozom... nincs kedvem szétcseszni az XP-t vele.
Szerintem legtöbb DX10 stuff kis felbontásban még mediumon SE gog menni rajta. Maxon? Lol. Néztél már GF8800 vagy HD2900XT teszteket, hogy azok mit visznek maxon?
én most az uj laptopomon nézegetem mit bir a 8600GT (mobil ugye). azt kell mondjam hogy sokkal jobb mint amire számitottam. pl a TDU ugy megy rajta mint a huzat max felbontás (1280*800), max AA, részletesség pedig medium. simán viszi kb 45-50 fps-el. és mivel vista van fent, meglesek majd valami dx10-es cuccot bár ott ugysem fog ennyire szépen muzsikálni...
Az nem rossz, de mind2 gépet egyszerre használod? :-)
Túlhajtott GF8-at tök felesleges venni. Fõleg a mag órajelet húzzák, a shader órajelhez csak ritkán nyúlnak, így a teljesítmény alig erõsebb, sõt a shader intenzív játékokban szinte semmi gyorsulás nincs. Az alap memóriasávszélesség pedig jól kiszolgálja a középkategóriás GF8-akat.
igazad van,csak a mag meg a memoria orajelehez nyultak.mag:580 mhz,mem.:1600mhz,de jobb mint egy alap szeria nem?
shader maradt 1200mhz
meg meg megkerdeznem,ha megvennem ezt a tulhajtoot verziot,akkor hamarabb megadna magat,mintha egy olyat vennek ami nincs tulhajtva??
megeri,mert epp ezt neztem ki magamnak,mert veri a 7900gs-t nem??
Mondtam, hogy shader-intenzív játékban nem jobb az alap verziónál. Max 1-2%-al. Nem biztos, hogy azért hamarabb tönkra megy mert túlhajtott. Hamar dögleni álltalában a passzív hûtésû karik szoktak. A 7900GS-t nem biztos, hogy megéri erre lecserélni. D3D9-ben egy kicsit jobb néhol. D3D10-re meg semmi erõ nincs benne, 100GFLOPS az semmi az új API-hoz. Oda legalább 200GFLOPS teljesítmény kell. Tényleges D3D10-es alkalmazásokat pedig a Radeon HD2900XT-n kívül nem hiszem, hogy más mai VGA tudna majd futtatni.
A 2900 XT a 8800 GTS szintjén mozog, szal nem egy világcsúcs. Sõt, van hogy ott se, mert annyira siralmasan produkál, pl. Lost Planet, Vindóz Pistával, DX10 módban.
A videokártya órajelét három lépcsõben szabályozza a PowerMizer segítségével, 2D-s megjelenítés esetén csupán 100 MHz-en "zakatol" a grafikus mag, a feszültség csökkenésrõl nem tudtunk bizonyosságot szerezni. Hõség ide, órajelcsükkentés oda, a GPU még internetezés közben se tudott 60 fok alá lecsúzni, teljes terhelésen (amennyiben a processzor mindkét magját is terheltük) a maghõmérséklet egészen 92 fokig kúszott fel, amely már-már kritikusnak mondható, egyszer túlmelegedés miatti szoftveres hibával is találkoztunk.
2600XT...hááát...kábé 8600GTS, bár egy-két játékban 8600GT alatt teljesített...szóval változó a teljesítménye, állítólag késõbbi driverekkel javulni fog...
jelenleg egy orája 1080i HDV videot renderelek vele :) még megy egy jó másfelet majd. proci 75 fokon stagnál, a vid ugyan nem terhelödik (sajnos :) de 62 fok körül álldogál. Eddig jol birja a gyürödést :)
szerintetek melyik a legjobb kártya 30-35 ezer körüli árkategóriába, melyiket éri meg megvenni??
Elég sokat tanulmányoztam a két architektúrát és a D3D10-es újdonágokban komoly a HD2900XT elõnye. Az MS féle GI prezentációban, a HD2900XT 55FPS-t megy, míg a 8800Ultra 2-3FPS-t. Ez nem éppen következetes teljesítmény. Másik topic-ban már beírtam: Elég megvizsgálni a két architektúrát és látható, hogy mi miért van. A D3D10-nek fõleg a skalár stream procik felelnek meg a legjobban. Ezek SISD Alu-k, tehát ''1 utasítás 1 adaton'' elvûek. Az AMD és az nV is ilyen Stream procikat használ, mindkét rendszerben MAD, MUL, ADD utasítás lehetséges float adattípusra (integer adattípusra pontosan nem tudom, hogy milyen mûveletett tudnak, de ez nem túl lényeges, mert mindenki float-t használ). Ezen kívül a D3D10 lehetõséget ad trigonometrikus és transzcendens utasítások elvégzésére. Ezeket az SFU (Speciel Function Unit) egységek végzik. Itt van némi változás az nV és az AMD SFU egységei közt. Az AMD SFU egysége a spec. utasításokon kívül MAD, MUL, ADD utasítást tud, így lényegében használható általános stream processzorként, míg az nV SFU-ja stream prociként MUL utasítást tud, illetve 4 órajelciklus alatt végez egy mûveletett, tehát 4x lasabb a stream procik sebességénél. A két rendszer elrendezése is eltérõ. Az AMD 4stream+1SFU alapú shader procikat használ, ezekbõl 4 darabot mûködtet egy clusterben és VLIW mintával etetik õket (a VLIW lényegében egy architektúra az a fontos, hogy a VLIW minta egy nagy memóriaszó ami leírja az egységeknek a mûködést, illetve ezeket a szavakat a fordító hozza létre). Az nV egy shader procijában 4+4darab Stream proci van egymással párhuzamosan kötve, és ezekhez a 4-es csoportokhoz kapcsolódik egy-egy SFU egység (tulajdonképpen ez totálisan a float2 adattípushoz lett tervezve, nem véletlen, hiszen jelenleg ez az adattípus dominál a shader programokban).
Ami viszont probléma, hogy nem tudjuk milyenek lesznek az új játékok. Minden D3D generáció váltás új elképzeléseket szül. Ezek akkor jók ha fokozatosan lesznek bevezetve. Ilyen volt a D3D7-D3D8 áttérés. Ellenben a Hát a D3D8-D3D9 váltást némileg akadályozta az FX karik képességei. Ez sajnos nem következetesen ment végbe. Az nv tartotta a fejlesztõket addig míg ki nem jött az új szériája és utána bumm, jött a drasztikus teljesítményesés. Persze ez csak az FX tulajokat érintette rosszul. Akkor is kivolt kövezve egy út amit az MS és a fejlesztõk elképzeltek, de csak késõbb tudták alkalmazni. Most is van biztosan elképzelés a jövõ megoldásairól, az a probléma, hogy nem tudjuk mi az. Az egyik véglet az, hogy maradnak a jelenlegi megoldások és a jelenleg mutatott teljesítmény lesz mérvadó. A másik véglet, hogy elmennek a fejlesztõk az AMD elképzeléseinek az irányába és a G8x teljesítménye drasztikusan visszaesik, mint anno az FX-nél. Remélhetõleg valamilyen köztes kompromisszumot választanak és azzal a felhasználók is jól járnak.
Az Microsoft felfogásában minden bizonnyal a Xenos-hoz közelebb álló R600 az a 3D-s gyorsító amit elképzelt az új API igényeihez. Mindenesetre a mostani játékokban az R600-ra jellemzõ irányelvekkel jelenleg ezt a teljesítményt lehet elérni (plusz optimalizált driver rutinok amik még tényleg gyerekcipõben járnak, fõleg D3D10-ben). A D3D10 minden eddiginél jobban épit a shaderekre, ezért is problémás, hogy a két gyártó elképzelései nagyon széthúznak. Mondok egy példát. Olyan Shader kódot írunk amiben trigonometrikus (például sinus) függvény van. D3D9-ben az API adotságai miatt LUT (Look-Up table) texturát használunk, hogy kikeressük a megfelelõ eredményt, ehhez szükség van textura fetch-re ami igen nagy idõveszteség a memória címzése végett. D3D10-ben lehetõség van speciális utasítások elvégzésére, mint a sinus (sin). Ezt a GPU SFU egysége hajtja végre és meg is van az eredmény. Két eltérõ megoldás és a jelenlegi D3D10-es karikkal mindkettõ kivitelezhetõ. Hol itt a probléma? A LUT texturás megoldás a magas Alu:Tex arányú kialakítás végett nem nagyon fekszik majd az R600-nak. A G80-ban viszont az SFU egység jelentõsen lassabb a Stream prociknál, így az nV üdvöskéje a számolós megoldást nem szívlelné. Mi a teendõ? Vagy kiszúrunk az egyik gyártóval, vagy leprogramozzuk mindkettõ algoritmust. Az MS a D3D10-es API-val a számlálós megoldást próbálná erõltetni, hiszen a textura fetch nélkülözése miatt jelentõsen gyorsabban van eredmény.
Ezt a "komoly elõnyt" azért látni is kéne, mert hát a konzolos topik is tele van a sony marketinggel, ennyi teraflops, annyi akármi, csak épp a valóságban nem látszik belõle semmi. Nekem az ATI marketingje is ilyennek tûnik. Majd ha bizonyít, elhiszem, addig inkább a szememnek hiszek. Ráadásul OpenGLben az ATI sosem volt a topon, nem hiszem hogy ebben is pont most fejlõdnének fel. Persze idõnként "optimalizálják" a drivereiket 1-1 játékhoz, de ha pont nem azzal játszol, akkor szart se ér, de azzal is csak épphogy jobb.
Ami viszont probléma, hogy nem tudjuk milyenek lesznek az új játékok. De tudjuk, Nvidia logósak. ~~
Az MS pedig biztos nem arra az ATI-ra fog optimalizálni, amelyiket épp most vásárolta fel a konkurrenciája. Inkább jól alátesz, mégha esetleg jobb is lenne a hw. Feltéve hogy egyáltalán jobb lenne.
Ez nem marketing, ez tény. Az OpenGL teljesítményben nincs különbség az Ati és az nV között. Nem tudom mibõl következtettél erre. A mai játékok olyan kódokkal rendelkeznek, hogy ha az nV és az AMD nem optimalizálná a drivereket akkor õszintén szólva a Far Cry kb. 15FPS-sel menne a jelenlegi csúcskártyákon is. Az nV és az AMD azért jutott el idáig, mert a fejlesztés komoly mértékben a driverre specializálódik. Bár a Vista driverekben még komoly lemaradásban vannak. Az nV sajna még a WDDM-et sem kezeli hatékonyan, de remélhetõleg ez még változik. Tipikusan az a baj az új MS rendszerben, hogy megváltozott driver modell kifejezetten a D3D10 API igényeit szolgálja, így a gyártóknak elengedhetetlen a modell ismerete. Az nv logó sajnos nem sokat ér, mivel a legtöbb játékban pusztán reklám jellegû. Pénz központú a világ, de a legtöbb fejlesztõnek nem érdeke az egyik rendszert elõnyben részesíteni. Persze a Lost Planet-ban komoly értelme van hiszen az xBox360 port, gyakorlatilag egy csomó dolgot ki kellett belõle venni illetve át kellett írni. A PC-s verzióban nincsenek tesszalációs rutinok, ami némileg szebbé teszi a xBox360 verziót. Persze a programozható tesszalátor majd D3D11 követelmény lesz. A Lost Planet-nek (szándékosan vagy véletlen) nem szabványos a WDDM kezelése sem, ezért nem megy jól D3D10-ben Ati-n. Ha véletlen akkor a Capcom idõvel biztos javít rajta. Ha szándékos akkor a Microsoftnak idelye lenne meghívni a Capcom és nv vezetõségét egy kis felymosásra, mert ezzel a lépéssel nem az Ati-t, hanem az MS D3D10 API-ját és a WDDM felületét járatták le. Az MS az új API-val mindent megtett a szabványosság maximális kihasználásáért. Nem hiszem, hogy csak úgy nézni fogja, hogy az nV (csak azért, hogy mentse a menthetõt) lerombolja azt. Nem vagyok olyan helyzetben, hogy elítélhessem egy piacvezetõ cég politikáját. Szvsz az nV le akarta járatni az Ati D3D10-es karijait, csak olyan utat választott amivel, kivívhatja a Microsoft haragját. Márpedig azt mindenki tudja, hogy velük aztán nem érdemes rossz viszonyt ápolni. Persze az is elõfordulhat, hogy szimplán elrontottak valami a CAPCOM-os srácok, csak ennek kicsi a valószínûsége, hiszen kívülröl ismerik az R600-at ami felépítésben rendkívül közel áll a xBox360 Xenos-hoz.
Nem tudom, hogy az AMD miért konkurenciája az MS-nek. Igazából partner kapcsolatban vannak, hiszen együt népszerûsítik a D3D10-es API-t. Az utóbbi idõben közel kerültek egymáshoz, hiszen az AMD megírja azokat a D3D10-es sample-eket amiket az nV nem volt hajlandó elkészíteni. Az MS-nek az az érdeke, hogy minél többen használják a D3D10-es API-t. Ezért komolyan kampányol mellette. Nemrég készült el Emil Persson Global Illumination demója, ami olyan eljárásokat használ a megvilágítási modell leképzésére amire eddig nem volt lehetõség a Geometry Shader hiánya miatt. A demóból már némileg látható, hogy miért nem készített GS sample-t az nV, hiszen a 8800Ultra 3FPS-re képes szemben a HD2900XT 55FPS-ével. Nyilván ezek a lépések rossz hatással vannak a piac alakulására. A GS-t a játékokban nem fogják többre használni practicle effektek létrehozásánál. Ezek tipikusan kis vertex tömbökbõl állnak, így nem probléma a G80 futószalagjainak a cache méret problémái. Az nV biztos dolgozik a problémán, speciel a G84 érezhetõen jobban kezeli a vertex feladatokat.
hd2900xt vs 8600gts.lehet kesobb jobb lesz az ati?vagzy mar most jobb? Xpertvision HD2900XT Sonic milyen.lehet ezt vennem meg??D3D10-ben hogy produkal?
elnezest elirtam,Xpertvision HD2600XT
Sonic
27dba az zajos neki??
Barny: D3D10-ben se a HD2600XT se a GF8600GTS nem lesz használható, csak grafikai kompromisszumokkal. A jelenlegi D3D10 patchelt játékokban a HD2600XT gyorsabb. Pár hete próbáltam a Call Of Juarezt, és a Company Of Heroest, 8600GTS-en Low beállítás mellett lehetet használható FPS-t kapni, míg HD2600Pro-n Medium grafika mellett ugyanolyan gyors volt. A Lost Planet még néhol bugos a HD Radeonnal, de már a legtöbb hiba ki van javítva. A teljesítmény hasonló volt a fenti két játékhoz, de nem tudom, hogy mennyit jelentetett a Radeonnak a grafikai hibák. Elméletben a 7.8-as driverre ígérnek teljes Lost Planet javítást.