az lenne a kérdésem, hogy van egy 9600XT-m 5.12es ati driverrel. mikor akarom használni a TV-OUT-ot akkor a catalyst control centerben mindig be kell pipálnom a Force Tv Detectiont, hogy mûködjön a dolog. nincs erre a procedura elkerülésére egy registry módosítás vagy vmi?
köszi elõre is a segítségeteket.
Megoldódott! Mégis csaka kábellel volt a gond pontosabban az s-video to rca átalakítóval.
Gf7800 - X1800 -ig frissítve Borg által, csak nézd meg jól.
Valaki hozzaerto nem akarja esetleg frissiteni a "kartyak osszehasonlitasat, erosorrendjet" a jelenlegi kinalathoz? Olyan jo kis tabla volt az, de asszem meg 9800Pro-s az utolso. (Tehat, amikor az volt a csucskartya)
Milyen kábelt használsz? S-videonál csak a 7 tüskés jó.
A számok alapján egy X1600XT elvileg képes lehet megszorongatni egy Gf6800Ultrát olyan játékokban, ahol a shaderteljesítmény számít elsõ sorban. Ez a "most légy okos domokos" eset. Ha az UT2k7 és a Crysis erre a megoldásra készül, akkor az ATi számítása nagyon is bejöhet - 2006 végén. Addig viszont a jelenlegi játékok alatt csak nyõgvenyelõsen tudja tartani a lépést a Gf6600GT / Gf6800GS párossal. A döntés a vásárlókon áll...
Mondjuk a Q4 elony javareszt a vacak openGL driverbol fakad hisz ez a hatrany az osszes ati kartyanal megfigyelheto. De most eleg sok hatranyt behoztak a legujabb driverrel.
Osszessegeben elmondhato, hogy valamivel tobb jatekban gyorsabb, mint lassabb a 6600 gt-nel. Valoszinuleg ez a felepites hatekonyabb valamivel, hisz a shaderek hasznalata egyre intenzivebb lesz. Ut2k7 -hez egy x1600 vagy barmilyen mostani kozepkategorias kartya biztos nem lesz eleg, tekintve, hogy a 6800gt -re mondtak <30 fpst. Crysishoz talan, valamilyen szinten. Arrol eleg alacsony hw igenyt josolnak, ami a farcryt elnezve hiheto is lehet.
Én azért a végsõ konklúzióval megvárnám az elsõ teszteket. :) Az ATi-tól érdekes pálfordulás, hogy az X1900XT esetén több Shaderegységet épített be azonos számú (az X1800XT-t alapul véve) TMU-k mellé. Nem túl közismert, de az X1600 család is így épül fel (csak 4 TMU (nem, nem tévedés), és 12 Pixel Shader egység). Valjuk meg, a felhasználók többségét nem a csúcskategória fogja meghatni, hanem az, hogy mit alkotnak a középkategóriában (lásd még ATi Radeon 9500/9600, nV GeForce 6600GT - az aktuális "gyõztes" mindig az volt, aki a középkategóriát vezette). A probléma csak az, hogy a vásárlók meggyõzéséhez megfelelõ teszteredmények is kellenek. A sok shader egység pedig jelenleg nem nagyon tudja kivillantani a fogát. A Half-Life 2-ben vagy a Quake4-ben a GeForce 6600GT elõnyben van az X1600Pro-val szemben, igaz a 3DMark 2005 vagy 2006 pontszámok már mást mutatnak, vagy a FEAR, vagy a FarCry eredmények.
A nagy kérdés viszont az, hogy az X1600 család képes lesz-e kiszolgálni az UT2k7-et vagy a Crysis-t. Noha felépítésébõl fakadóan eredetileg jobb pozicióból indul, szerintem kérdéses hogy kellõen magas minõségi beállításoknál élvezhetõ lesz-e a játék. De ez persze csak feltételezés a részemrõl...
Namost, ahol kihasználja a program a sok-sok Shader egységet, ott bizony a kevesebb TMU-val rendelkezõ X1900XT nagyságrendekkel gyorsabb. Viszont mi van akkor, ha nem képes a shaderegységek magas számát kihasználni? Hát akkor bizony megeshet, hogy a több TMU, de alacsonyabb freki nyer...
Gigabyte markat ajanlom. Passziv hutesu 1600xt -juk van. Bar elegge forro vele, de ugye nincs hangja. De ha egy kisteljesitmenyu ventit radobsz a tetejere jeghideg lesz, messze halkabb es huvosebb marad, mint a tobbi gyarto kartyai. Csak azert szolok mert az osszes netes teszt attol hemzseg milyen rohadt hangosak ezek az uj x-ek.
"Oke, de mi szamit nyers eronel? " TMU-k (textúrázó egységek) száma, meg, hogy hány bites a memóriaelérése. Egy 275-325MHz-es R9800 kártya a 8 TMU-val és 256 bittel nagyságrendekkel gyorsabb volt egy akár 500MHZ-es R9600XT-nél (4TMU, 128bit)
Ha fájdalommentes élsimítást akarsz, meg PS3 támogatást (nem feledv az AVIVO elõnyeit, meg a HW rásegítés minõségét), akkor X1600, de ha nyers erõ kell ...
Azért szerintem az X800GTO és X850Pro között van "kis" difi sebességben.
Én a helyedben megfontolnám, hogy mi a fontosabb: - SM 3.0, HDR támogatása, AVIVO és H.264 dekódolás [X1600XT] vagy - gyorsabb memória interfész [256 bit - X800 GTO], ergo, nagyobb sávszélesség -> jobb teljesítmény a játékokban, a fenti fícsörök hiánya mellett [ami, majd a vadizsír játékoknál fog hiányozni!]
"Az ATI Radeon X1600 XT szerintünk félemásra sikeredett. Egy biztos, a GeForce 6600 GT középkategóriás trónfosztása végérvényesen bekövetkezett (igaz, ez már az X800 GT-nek is sikerült), azonban vannak itt problémák. Az X1600 XT egy aszimmetrikus felépítésû GPU 12 pixel, 5 vertex shaderrel és 4 textúrázóval, 256 MB, 128 bites memóriával, ilyen architektúrát eddig nem láttunk. A játékok alatti teljesítménye hullámzó, OpenGL alatt még gyenguska, és az újabb DirectX 9-es játékok alatt az élsimítás bekapcsolása nagyon nagy teljesítményveszteséggel jár, így ezeket a képminõségi beállításokat nem élvezhetjük igazán az X1600 XT-n. A kártya helyzetét súlyosbítja, hogy a nemrégiben kijött GeForce 6800 GS gyorsabb nála, és ugyanannyiba kerül, ígyhát csak egy esetleges árcsökkenés esetén ajánlanánk nyugodt szívvel az X1600 XT-t, kb. 179 dollár környékén (egyelõre 249 dollár, bár még nem is lehet kapni). És akkor még nem esett szó a nagyon zajos hûtésrõl.
Szerencsére vannak pozitívumok is, SM 3.0, HDR támogatása, AVIVO és H.264 dekódolás támogatása, szebb anizotropikus szûrés és adaptív élsimítás.
Mindezek a pozitívumok elmondhatóak a Radeon X1300 Próról is. Az X1300 Pro szinte egy tökéletes kártya egy olcsó gépet összerakni szándékozó felhasználó számára, ha leszámítjuk az árát. Teljesítményét tekintve a GeForce 6600 és a Radeon X700 256 MB-os verziójánál egyik játékban kicsit gyorsabb, a másikban kicsit lassabb. A probléma csak az, hogy ez a kártya drágább a Radeon X700/GeForce 6600-nál. Összességében a plusz pénzt az SM 3.0 és HDR támogatása, az AVIVO és H.264 dekódolás támogatása, a szebb anizotropikus szûrés és az adaptív élsimítás miatt hagyjuk ott a pénztárnál. Egy egyszerû játékos számára olcsóbb megoldás egy sima GeForce 6600, de ha videószerkesztéstéssel is foglalkozunk, akkor az X1300 Pro az igazi."
X850 Pro AGP: 504MHz GPU, 1040MHZ (520MHZ) GDDR+ memória, 12 bekapcsolt pixelfútószalag, 6 vertex egység, 256bites memória elérés. Elég szép darab kártya, ár/teljesítményben akkor is üt, ha nem lehet bekapcsolni a maradék 4 fútószallagot. De ha belehet ...? :D
Azért a lentiekbõl következik, hogy: Bár az X1600 széria már Pixelshader 3.0-t tud, tehát sokkal modernebb, a felépítése miatt SOKKAL lasabb mint egy X800-850 szériás kártya. Általam látott tesztben az X1600XT-t egy "õskövület" GeForce 6600GT is elkalpálta.
Van másik tényezõ is, ez a Vertex Shader egységek száma. Ez elvileg a geometriai sebességét határozná meg a kártyának. Azért elvileg, mert a legtöbb programban a töredékét se használják ki a lehetséges poligonszámnak (akkor nem futna egy csómó "régi" kártyán), másrészt hiába tud 100 millió poligont a kártya, ha szépen textúrával ,meg csilivili effektekkel már csak az egytizedét tudja mozgásba hozni.
Na akkor tévedtem, az X300/550 még is 4 pixelfútószalagos, nem 2. Akkor nem értem mitõl olyan sz*r. :)
Az X-es széria gí néz ki: Kezdetben vala az X800 széria. (Az eltérõ elnevezések a bekapcsolt textúra csõvezetékes verziókat takarták, mint GT, XL, Pro, XT meg persze az órajelet.) Na most elvileg a csúcs X800-ban 16db ilyen volt, az abból származó X700 viszont már csak 8 pipe-al rendelkezik, és hogy még gyengébb legyen 256 bites memóriaelérés helyett csak 128 bites. Mivel a 9700/9800 széria is 8 pipe-os volt (bár azok 256 bitesek!), nagyjából ahoz közeli a sebessége, csak tud pár újdonságot, amit az X800 is. A 128 bites elérés, és a kicsi órajel miatt gyakorlatilag az X700Xt kivételével lasabbak a 9700/9800 szériánál.
Aztán van az X600 széria. Ez a Radeon 9600XT PCIE változata. Ebben már csak 4 pipe van, és szintén 128 bites (kivéve ha csak 64!!!), tehát ez tudásban nem is tartozik az X-es kártyák közé, de legalább lassú mint állatt. Igazából a leggyorsabb is rosszabb mint a 9600XT. Van belõle SE verzió, ami már csak 64 bites, annál még tán a 128 bites 9000/9200 is gyorsabb.
Most jön a kavarás. Az X300 az X600 felezett verziója, kemény 2 azaz kettõ darab pipe van benne. Ez azt jelenti, hogy a leggyorsabb verzió is max. egy 9200-vel vetekedhet, de ebbõl is van még SE (64 bites szutyok) is. Most az X300-as szériát kis módosítással átnevezték X550-nek, de tudd, hogy ugyan az a szutyok.
Kis kitérõ: A textúravezeték száma többet számít sebességben, mint a memória mennyisége, vagy a GPU/Ram órajele. Ezeknél az ATI kártyáknál még 1 csõvezetékhez 1TMU (textúrázó egység) volt. Ha a memória 256 bites helyett 128 bites, akkor kapásból a teljesítmény vagy 40%-ot esik, nem beszélve a 64 bites verziókról.
Folyt. köv.
Radeon X700 (XT) helye:
Forrás: Prohardver.hu
Radeon X300 teljesítménye - ez ráadásul tuningolt: "Az X550 jelzést viselõ, június 15-én debütáló grafikus kártya szokatlan típusjele mögött egy tuningolt Radeon X300 áll. Az RV370XT GPU két vertex egységet és négy pixelfutószalagot biztosít, és 400 MHz-en mûködik, míg a 128 bites interfészre kapcsolódó, 256 MB kapacitású DDR memória 500 MHz-en fut. A kártya teljesítménye egy Radeon 9550-ével vethetõ össze – mindezt azonban PCI Express x16 interfészen. Forrás: Prohardver.hu
Kicsit elvesztem mar az uj kartyak tengereben, megnevezesekben, stb. Ugyebar volt a 9800, aztan x800, majd x850, utana jott az x1800 vegul itt a legujabb, az x1900. Namarmost, felbukkantak mar x300, x700, stb, ezek mik? Ezek a regi 9700, 9600 megfeleloi uj neven?
Es ha en kineztem egy kartyat brutto 56-ert ami lentebb is megtalalhato x850Pro volt, es most ugyanebben az arban talaltam egy masikat, ami x1600XT, akkor most ez utobbi jobb? Mifele ez az x1600 sorozat? Mit tud?
Nekem 9500 van (ámde 256 bites és 320-on megy), ezzel pl. a FEAR már picit szaggat 1152-ben, meg tán 1024-ben (igaz közepesnél valamivel jobb beállításokkal), de a HL2 elég jól ment vele 1280-ban is (ott a ram volt kevés - 512MB), a Doom3-at meg normálisan szerintem tán 800x600-ban vinné. Bezzeg a Riddick ment rajta normálisan ... Tehát nagyjából amit Sanyix is írt az a való, csak egyre több olyan program van, ami kevesli az 512MB-ot. (Pl. a FEAR vagy a "jó öreg" FarCry, a D3-at nem említve.)
szerintetek, hogy fognak futni egy bba radeon 9500 pro-n az újabb játékok.... egy 3200+-os bartonnal meg 512 rammal (ddr)jah meg egy a7n8xe deluxe-al????
Nem mindegy? 128MB-al is fényévekkel jobb mint a 9600 széri 256-al ... Ráadásul ezeknél a kártyáknál ahol használna 256MB-ot igazából, ott már gyengék.
Hi! Azt szeretném kérdezni, hogy ti mit javasoltok, milyen kártyát vegyek max. 26000-ért??? Gondolkodom a 9600 pro 256MB és a 9600 XT 128MB között, de lehet, hogy szóba jöhet 9600 XT 256MB-os, de azért azt drágállom. Nah, szóval a kettõ közül melyiket válasszam???
jo... igen akkor kotekedjunk, hogy pl. az r300as magos atik blendelessel nyomjak a HDrt... btw ATI fele HDR... katt 18.oldaltol
az a baj, hogy eladhassak a pornepnek a karikat illetve az uj gamezokat, mindenfele post process effektet rahuznak a HDR szamlajara... tudod a nem HDRes jatek mar gagyi... igy a glowot meg a bloomot(amivel dogivel nyomatjak a muanyag jatekokat ezerrel) szepen eladjak HDR enablekent...
Van real HDR, csak 100x ekkora teljesítmény kéne hozzá, mint amit most tudnak a kártyák. Viszont a legtöbb "HDR"-es játékban csak valami gagiy Bloom effekt van, amitõl jól szétkenõdik a kép, de legalább látványos.
Ok hidd el amivel beetetnek a hardvergyártók, és vedd az új kártyáikat mer az kell ehhez meg ahhoz, legalábbis aztmondják :) nincs olyan hogy real hdr az egész egy kitalált dolog. Pár effektet összevonnak (persze mindíg a legújabb hardver kell hozzá, mer máshogy nem lenne jó üzlet), és elnevezték valaminek, amit hypeoltatnak, és ez a menõ. :)
jahh és thx!!de már megtaláltam....
jahh meg mindig új cylinderbe kezd bele szer az egész úgy ahogy van.....most elvileg lesz vmi új asszem vista de szóljatok ha hülyeséget írok...
Nem tudom, az Asus saját reklámszövege alpján a 64 és 128 bites 9550-es között 35% a teljesítménykülönbség. Szerintem itt se sokkal több, de max. 50% lehet szerintem.
A DriverCleaner meg itt van: www.drivercleaner.net Le tud szedni VGA, Hang és alaplapi drivereket is, ezért óvatosan! Azért van rá szükség, mert a "csodás" XP-ben csak félig mûködik a driver eltávolítás, és idõnkét simán visszaír egy két régebbi DLL-t a szemétláda, na ilyenkor jól összenyaklik a drivered, és tépheted a hajad, hogy mi van.
drivercleaner nem is hallottam még errõl a progiról...
amúgy ez egy bba..
jahh thx!!!csak kérdeztem....amúgy mennyiben térne el a 256bites 9500pro a 128bitestõl (a 8 pipe az fix)persze teljesítményben azt tom hogy akkor a duplájára nõne a memsáv szélesség de a játékban ez mennyire térne el a simától egyáltalán ki lehet használni azt a kb. 20Gb/sec-es sávszélességet???
Nekem régen sokat csinált ilyet a 8500-öm, de kivétel nélkül elcseszett driver telepítési hiba miatt. Ha még se a driverrel gázos (ugye mindenki használ DriverCleanert két install között?!), akkor ram hibának tûnik, nyáksérülés vagy elfáradt valamelyik ram-chip lehet.
Nem lehet. Elvileg az összes 9500Pro 128 bites nyákon van (biztos van kivétel, mert mindíg van partizán gyártó, de általában), a 9500 NEM pro kártyákból volt olyan (az se mind!), amiket 256 bites nyákra szereltek, de ott moddolni se kellett. Ellenben mindkét kártyánál van esély a +4 pipe bekapcsolására, még ha csekély is, de ha sikerül, akkor megduplázza a kártya teljesítményét :)
szerintetek egy 9500pro-t lehet úgy moddolni hogy 256bit-es busza legyen???? THX!!
9800prom van miután feltettem a Cat. 6.1 drivert, garfikai hibák jelentek meg a windowsban, már a nyitóképernyõn szörözik a welcome felirat, illetve bizonyos egérmutatók is szétesnek. A 3dmark06 test így vigig se tudot futni, a mert - nekem úgy tünt memoria hiba - a poligonok sarkai elkeztek ide-oda "tüskézni". A próbléma hogy már uninstaláltam mindn lehetséges módn a dolgot, de a régebbi driverekkel is ezt produkálja. valami 5let
Engem tovabbra is erdekelne, hogy Szerintetek, 55-60 eHUF arban melyik kartya a legjobb teljesitmenyu! (Ha mar valaki szerint nem feltetlenul a lentebb belinkelt)
jajjigen, csak nem realHDR... nem szallok vitaba, eljel csak nyugodtan abban a hitben, hogy real =)
Azért SM3 képes kártyákon (persze csak drágábakon) emberibb a sebessége a HDR-nek, másrészt ha jól tudom azok is csak emulálák a HDR-t, viszont jobban mint az SM2-es kártyák, ezért szebb a végeredmény. Vagy ugyanolyan minõségnél már használhatatlanul lassú a HDR SM2-nél.
Passz. Szed le a drivert (DriverCleaner), tegyél fel halál friss DirectX9.0c-t (hivatalosan 2005 decemberi a friss, de van újbb a 3DMark 06-hoz), aztán tegyél fel friss drivert (5.13 vagy 6.1?), de lentebb taglalt okokból inkább Omegát. Amúgy milyen oprendszer? Ha régi vagy még nem SP2-es XP, akkor chipset driver frissítés se árthat.
x8xxben ar/ertek aranyban telleg a legjobb... ambator a sm3 es REALHDR(igen mert p.vakitas a hdr ezeknel az atiknal) hianyaban nem rug labdaba a most kijott 6800GS mellett.. ami tuningbarat es raaadas hasonloan jo arban van... soot...
Sziasztok!Segítsetek légyszi? Vettem egy vasat:pcchips m952 v1.5a, celeron 2,8ghz 400mhz fsb/128kb l2cache, 256mb samsung ddr400,geforce4 mx4000 64mb tvout, 40gb maxtor 300w codegen. Bõvítettem:+256mb kingston ddr400, sapphire ati radeon 9550 128/128 Jelenség:videókari csak régi catalyst driverrel megy (4.5 control panel nélkül) egyébként fagy.A proci fsb-n 3mhz emelés után fagy,5mhz emelés után kéké halál fogad. Tudom nem egy csúcs model:) de nem hiszem,hogy ilyen szarnak kellene lennie.(a tápot lecseréltem 400w coolink.)
Hat, mondjatok Nekem ebben az arban jobb teljesitmeny!
(Sztem ez korrekt: GPU sebessége 507MHz RAM sebessége 1.04GHz)
En X800-ban ilyet nem talaltam! De nem okoskodni akarok, hanem OKOSODNI! Ugyhogy varok minden velemenyt!
azert a pro le van maradva az XTPE-tol, az a kartya amit linekeltel olyan x800xl tempot kepes (3-5%al jobbat nehol nah) bar meg igy is barati ara van...