mivan akkor,ha 8600ge videokártyámat, tápcsati nélkül használom?
Illetve idáig semmi különbséget nem vettem észre,szóval fontos, hogy a tápcsatlakozó belegyen dugva,vagy nem lényeg,
Bocs,ha láma a kérdés, de Ti biztosan jobban tudjátok ezt..
Kösz
Nah, most találtam végre itthon egy mûködõ floppyt így nekiestem a BIOS-editálásnak és kihúztam a kártyából amit bírnak a shaderek. Rivatunerrel néztem hogy az eddigi max GPU órajelem 648 volt (661-et is beállíthattam, de G80-nál nemhogy tizedre pontosan nem állítható az órajel, de ~15Mh-enként ugrik egyet mikor átléped a következõ egységet, pl. 447 és 461 közt minden értéken 448 ; és ezt játsza a memória is, nálam épp 20-assával ugrál 1116 és 1135 közt) amihez 1566-os shader órajel társult. Beállítottam a BIOS-ban 500Mhz-et GPU-ra és 1566-ot shaderre és megint húzni kezdtem a GPU-t és elment a shader 1674-ig. Aztán BIOS editorba bepötyögtem hogy GPU 648, shader 1674, meg akkor már a RAM-ot is 1116-ra és most már nem kell többé F8-at nyomkodnom hogy 64-bites Vista alatt is tudjak rivatunerrel tuningolni.
Így már mjdnem elértem a régi Gainward kártya szintjét ahol default szorzóval volt 710-en a GPU. Ha sikerülne kipiszkálni hogy mi a legmagasabb fesz amin még nem kapcsol be a GTS-ek túlfeszvédelme akkor talán meglenne még az az 1 lépcsõ shaderekkel. (most minimális +0.05 voltot adtam, +0.1-el azonnal fagy)
Ja, mikor D-sub kábellel használod a monitorod akkor ez csinál analóg jelet a képbõl. Ezt annyit szab meg hogy mia mayx felbontás, de mai kártyáknál kevés ember súrolja ezek határait. (2000akárhanyas felbontások 100Hz körül) Bár én régen figyeltem hogy ha 60-ról 100Hz-re raktam a kártyát (V-sync off) akkor csökkent az FPS.
Random Access Memory Digital-to-Analog Converter (RAMDAC! Ez a régebbi kártyákon is van... és ált 400 MHZ...feladata a digitális jelek analóggá alakitása...
Most csak magadat kavarod meg. A GPU és a shader órajelek közt van egy állandósított szorzó, ami akkor rögzül mikor beállítják BIOS-ban külön a GPU és shader órajeleket. Ezután ha húzod a GPU-t (mert szoftveresen csak azt tudod) akkor azzal párhuzamosan emelkedik a shader a már meglévõ arányszám szerint. Emiatt van az is hogy csak durva pontossággal állítható a GPU freki, +/-10Mhz-ek is vannak a tényleges és a beállított értékek közt, a köztes értékek közt tologatva semmise változik, hirtelen ugri egyet, hogy értelmes szorzó maradjon a GPU és shader közt. De a gyári tuningos kártyáknál is szinte mindíg megmarad a referenciához képesti GPU/Shader szorzó, ugyanúgy húzzák a kártyát mintha te tolnád fel a GPU órajelet otthon és menne vele a shader.
És még annyit hogy az itthon kapható gyári tuningos darabokból szerintem csak a Gainward Goldensamplenak van értelme. Vagy ilyen XFX XL/XXL, BFG OC jöhetne szóba, de olyat itthon ritkán látni. Ne vegyél Inno vagy MSI OC-t, mert semmivel se lesz magasabban a kárty vége mint a sima, nem OC példányoknál.
Csak azérdekelne hogy pontosan mennyi fut az inno 8600GT esetében.Mert marha olcsó többihez képest!
Meg mi a ramdac?
Rohadjon meg ahogy fejlödik egyre több baszás van már régen volt GPU és memó freki mostmeg má 4 amibõl 2-höz közöm sincs :(
Eszkimondta???wtf Az inno alapkariainál biztos referencia mivel az inno nem sûrûn tuningol. De pl galaxy nál már sztem 10-20 = kal már feljebb srófolták az értéket.
Ja, de az OC kártyákon nem szokták bántani a GPU/Shader szorzót, csak feltolják a GPU-t és megy vele a shader. Viszont ha manuálisan átírom a BIOS-ban akkor nem gond ha egyedi szorzóval flashelem fel a shader órajelet? Pl. most 661-et bír a GPU, de nem tudom hogy a shader menne-e 1566 fölé is mert akkor se megy tovább a GPU ha nagyobb GPU-feszt állítok be. (amin hosszútávon instabil, de egy darabig bírja és addig is azonnal hibázik 661 fölött ahogy kissebb, majdnem alapfeszen)
"Most ezt nemértem mi az a shader clock ami 1180mhz??"
Akkor már régen rossz ;) Ettõl függ nagyban a VGA teljesítménye. Magyarul ha szénné tudnád húzni a GPU órajelét és a ramot, akkor se számítana, csak minimálisan, ha nem húzod mellé a shaderek (Steam) órajelét. Ezért van az, hogy normálisabb OC 8600GT mellé odaírja a gyártó ezt az értéket is, akinek meg lóf ... lótüdõt sem ér a tuningja, az csak a GPU/Mem frekit vési fel.
Meghozták az Inno 8800Gtx-em hát kedves 8800-tulajok nem semmi ez a kari! Amig a 8800Gts320-as el se volt különösebb bajom de ez a szörny lefölöz mindent ! Használtan vettem a karit de érdekes hogy alapon 75fok terhelve 80-82! Na mindegy remélem nem lesz gáááz!
Valószinûleg driverhiba, adj neki 163.44-et. Ha több driverrel csinálja próbálj mindent alapbeállításon hagyni a driver control panelében és ha úgy is csinálja akkor vidd vssza a kártyát.
van egy gainward8800GTS GS-em azt szeretném tudni hogy meddig érdemes felhuzni a karit hogy biztonsagos legyen és stabil
Akkor jó ... nekem 83 volt a rekord asszem ... Egy Silverstone LC17-ben! Ami azért nem egy nagy ház ...
Megnyugodtam ... bár anno a 6800-asom asszem 130 foknál kezdett riasztani, mikor megállt a hûtõ rajta, szóval az a 85 nem olyan vészes :)
Csak kiváncsi voltam mennyire van meleg ... Bár az mondjuk jó hogy terheletlenül 60%-on megy a venti, fél óra bioshock után meg 61% :) És ez volt a cél ... már csak a chipsetventimet kell kiiktatni, és csend lesz ...
Nem tudok összehasonlítás mondani mert rengeteget ingadozik a szobahõmérséklet is mostanság, és egyidõben raktam a kártyára voltmodot és új ventit. Azt tudom hogy így feszelve és húzva ezzel a hûtõvel ebben a dögmelegben is elmegy 85 fok köré is ATI-tool-os teszt alatt (de korábbi kártyák tapasztalataiból egy játék se tudja annyira felhevíteni mint ez a stressteszt)
Hát köszi szépen, bár én nem értek annyira ,ezekhez a dolgokhoz, csak furcsa volt, hogy a Galaxy 8600 GE 1.0ns ddr3 256mb ,nem úgy néz ki ,mint ,ahogy a neten látom, mert dual dvi helyett 1 vga is van rajta,de a dobozon és a kártyán is ez a matrica van és a rendszer is 8600-nak ismeri fel stb...
Talán, de csak talán egy friss Everest képes kiírni külön a GPU, VRam és a shaderek órajelét. Bár biztos van tweak progi is ami képes rá. Ja és vigyáz ne keverd a 2D órajelet a 3D-vel, már többen szívrohamot kaptak ettõl.
Sziasztok!
Egy láma kérdésem lenne:
Hol(hogyan) tudom megnézni a videokártyám paramétereit órajel stb...
egy 8600GE-rõl van szó..(a netem már elolvastam, hogy mit tud, csak azt nem tudom,hol kell megnézni..
Egyébként 8600GT-ír bejelentkezõnek,vagy ez lényegtelen?
Köszi
hi all!
Egy inno3d 8600gt-m van. Az a problémám, hogy apl Flight Simulator X-ben, A Medal of Honor Airbornban(demo), meg egy csomó játékban füst effekteknél egy pepita alap látszódik. Ez mi?
Szép ... megkérdezhetem hány fokos igy terheletlenül/terhelve? :) És elõtte mennyi volt?
Én persze elfelejtettem fotózni ... de majd ha legközelebb szétszerelem akkor csinálok fotókat ...
Én egy ilyet applikáltam rá (Régóta nem tudtam sehova berakni, ide meg pont befért, de õgy hogy kb 1-2mm-re van az Audigy-mtõl ... épp befért :)
De alig várom, hogy normális helyen legyen a gép, mert most 30 fok alatt nincs a szobahõmérséklet, és egy HTPC házban van a gép, szal nekem 71 és 82 a két véglet a rivatuner szerint :)
Mikor a régi hûtéssel kivettem, majdnem eldobtam a kártyát olyan meleg volt ... (Ráadásul nem is szoktam foglalkozni vele, ezért nemtom elõtte mennyi volt ...)
Mivel most éppen egy noname összejövetel zajlik egy német kisvárosban - valami Lipcsében elvileg - így érkeztek infók teljesen érdektelen felsõkategóriás VGA-król is. No a viccet félretéve: pár Nvidiás hírmorzsa következik :)
Elsõnek rögtön kérdéses, hogy hogyan nevezik majd a jelenleg G92 kódnéven fejlesztett GPU-val szerelt termékeket. A GeForce 9800 kézenfekvõ magyarázat lenne, azonban egyes források elkezdtek 8950-rõl beszélni. Nos, majd meglátjuk...
...mikor is? Novemberre ígérik õket, és úgy tûnik, hogy ellentétben az AMD-ATI kártyáival ezek nem fognak késni; szeptemberben már megkapják az elsõ tesztpéldányokat a szerencsések, majd október táján esetleg rá is pislanthatunk mit tud valójában.
Annyit már most tudunk, hogy DirectX 10.1 kompatibilis lesz, tehát a DX10 csiszolgatásának már lesz valami értelme ilyen kártyával a gépben. Kérdés, hogy a szokásos, szépen hangzó "mit is tud a mi vasunk" erõfitogtatáson kívül lesz-e bármi haszna belátható idõn belül - a DX10 dömpingje is várat még magára egyelõre.
Egy másik, nem szorosan ide kapcsolódó információ, hogy az Nvidia kártyáin ugyan még csak mutatóba jelent meg a Display Port, de minden G8? chippel szerelt VGA kompatibilis a legutóbb idén április elején frissített átviteli szabvánnyal. Az ok, amiért ez a következõ generációs csatlakozó mégsem kerül rá a kártyákra egyszerû, és ezúttal bizony a "másik oldalon" van: monitor az nincs hozzá. De amint felbukkan a képmegjelenítõk repertoárjában el fog terjedni.
info: Gamestar
Cs! Nézem itt az adatokat javitsatok ki ha tévedek de a 8600 gt a 7600 gt hez képest nem sokat fejlõdött a dx10 en kivül... Érdemes lecserélni ha dx9 es gémekkel szeretnék jáccani?
Ha már így felhozod megmutatom a sajátomat is. :D Szerelés után az aztalon: #01 ; #02 Aztán egy kis forrasztásmentes szigetelõszallaggal rögzített kábeles Vcore mod régi TV-khet való tripotikkal (nem volt 500 ohmos, 2-t összedobtunk és így kijöt...): #03 Aztán meg bent a házban: #04 ; #05
Nem elég a precizítás csökkentése. Az utasításszavaknak is megfelelõnek kellett lennie, mert az FX teljesen VLIW rendszer volt. A Far Cry-ban és a HL2-ben is külön path-ot kapott. Teljesen az architektúrára optimalizált kódokkal. Eleve az FX Pixel shader processzora túl bonyolult volt a statikus kezeléshez. A Skalár FP16/32-es MAD Alu (2 darab Texturázóval)->2 darab FP32-os skalár Alu/Comb.(FP32-MUL/ADD, FP16-MAD). Tipikusan csak akkor kaptál jó eredményt ha célirányosan programoztál rá. A HL2-ben és a FC-ben az 5900-as FX-ek hozták a 9600XT teljesítményét. Nézd meg az Obliviont, az távolról sem tartalmaz bonyolultabb shadereket a fent említett két játéknál, de a csúcs FX5950Ultra nem képes a Radeon 9550 sebesgének még a felét sem hozni. Egy programozónak az a feladata, hogy azokra a rendszerekre optimalizálja a programját amik elterjedtek, tök mindegy ki fizet a reklámért, mindenkinek érdeke a program jó futási eredménye.
"Mert ezekszerint raklap olyan game amiben nvidia keze nagyban bennevan (nvidia logo virit elejükön) atin fognak jobban menni. Akkor nvidiának megéri pénzt ölni bele LOL!"
Miért, elmúlt pár évben is volt olyan NV logós cucc ami jobban futott bizonyos ATI vason, és volt olyan ATI-ra kihegyezett game, ami még is NV kártyán ment jól. Ha meg van egy univerzális motor (UE3), akkor igen csak meg kell izzadnia a kódereknek, hogy csupa olyan eljárást használjanak benne ami egyik vagy másik fél kártyáinak fekszik, nem?
Ha már szóbajött, én úgy látom, hogy a fagyásokat leszámítva a BS pont igen jól optimalizált játék lett, jól megy GF7, GF8, X1000 és HD2000 szérián is, logó ide vagy oda. De ebbõl nem lehet meszemenõ következtetést levonni, egy UT3-ban ahol nagy nyílt terepek lesznek, lehet másként fog festeni.
Ez a mókusvakítás okán van így, a DDR ramoknál nem a valós, hanem effektív órajelet tüntetik fel (2000MHz te esetedben) ami valós órajelben 1000MHZ vagy a körlüi értéknek felel meg. De az is lehet, hogy simán a 2D órajelet nézted el, mert ugye alapban leveszik a VGA-k az órajeleket, hogy ne melegedjenek feleslegesen. A vicc az egészben az, hogy az effektív órajelbõl adódó sebességét az életben nem éri el a valóságban semmi.
Hmm? A HL2-ben azért volt külön FX renderpatch (ami nem volt, csak a cfg file szerint DX8.1-et állított be, talán az volt kedvesség hogy volt 8.1 patch is nem csak 8.0 és 9.0 és hogy látványbelileg alig volt különbség a 8.1 és 9.0 közt, talán csak a víz megjelenítéségben) mert ha erõtetve dx 9.0-ban futtattad a játékot akkor FX-eken sokat lassul, és csak a gyorsabb (5800/5900) kártyákon maradt játszható. (én dx9-ben toltam végig 5800-al) Az is tuti hogy régen Ati kártáykon futott jobban, közben volt egy kis változás, mert az EP1-hez csináltak SM3.0-ás motort ami elõbb jött ki mint az ATI sm3-as kártyái és ennyi idõ alatt az nvidia driverei is ledolgozták az Ati kezdeti elõnyét. Ma meg már pssz, egy 8800GTS-t meg 2900XT-t nem Hl2-ben szokás összehasonlítgatni, max az antialising sebességre lenne jó, mert maxra tolt szûrõk nélkül úgyis procilimites.
"Nézd a HL2-õt, Ati játék ezt mindenki tudja, de bevallottan a GeForceFX-re volt a legjobban optimalizálva, sõt külön codepath-ot írtak hozzá."
OFF: Ez erõs túlzás, és arról volt szó, hogy lebutította a fenébe a sahdereket 16 bitesre, mint ahogyan a FarCry is. Utóbbihoz kellett is patch, hogy ne tegye ugyan ezt a GF6-7 kártyákkal. :)
aztán hogyan? én csak kiskeres árakat látok mindenhol csak ismerõsöm tud venni nekem nagykerbõl és nem tudja mindennek az árát fejbõl és kéne hogy mondjuk 15%-al olcsóbb minden és akkor tudok számolni érted???
Miért ne érné meg. Mára nagyon kevés fejlesztõ gondolja úgy, hogy az egyik karit jobban patronálja (tipikusan a kisebb pénzszûkében lévõ csapatoknak fordul meg az ötlet a fejükben). Eleve a Logo-val nem optimalizálást vesz hanem reklámot. Teljesen elfogadott dolog, hogy valaki fizet nekem akkor én reklámozom, ez az üzletpolitika. Ettõl én még ugyanúgy fogok más rendszereire is optimalizálni. Nézd a HL2-õt, Ati játék ezt mindenki tudja, de bevallottan a GeForceFX-re volt a legjobban optimalizálva, sõt külön codepath-ot írtak hozzá. Egy jó nevû fejlesztõcsapatnak nem érdeke az egyik céget elõnyben részesíteni. Gondolj a Lost Planet-re, megérte nekik? Most csinálhatják a Patch-et, az nV fejét pedig szépen megmosta a Microsoft. Sõt a D3D10.1-ben csupa olyan eljárást vezetnek be amitõl lelassítják a G8x-et. Megérte nekik?
csõ a nagykeres árak mennyivel olcsóbbak mint a kisker?
Sziasztok!!!
Vettem egy asus EN8600gts vga karit aminek 675mhz a magóra jele és 2000mhz a memoria órajele, de nem megy csak 1008mhz miért?
Hm ezen jókat vihogok magamban.
Mert ezekszerint raklap olyan game amiben nvidia keze nagyban bennevan (nvidia logo virit elejükön) atin fognak jobban menni. Akkor nvidiának megéri pénzt ölni bele LOL!!
Hát az Unreal Engine 3-as játékoknak nem nagyon fognak az nV-sek örülni. A jelenlegi felhozatalból a GF7 tulajokat eléggé sziven fogja ütni, hogy a kártyájuk nem éppen a magas ALU:Tex arányt tartotta szem elõtt. A GF8 is elég sok erõt ölt a texturázásba. Ez jelenleg jól jön, de év vége felé, már szûkös lesz a sávszélesség a texturázás minõségbeli javítására, és ekkor jön el a HD2000-es Radeonok ideje. Vadul elkezd nõni az ALU:Tex arány, és az R6xx architektúra egyre jobban fogja érezni magát, ezt még megspékeli az új elvû SBAA eljárás amivel a GF8-at galád mód belassítja az MS. A Rainbow Six: Vegas már intõ jel, ott nagyon tetszik a megjelenítés az új Radeonoknak. Jellemzõen a HD2900XT 8800GTX és Ultra közt teljesít, míg a HD2600XT lazán veri a 8600GTS-t. És a Vegas-ban még nem is gyúrnak annyira a Shader számításokra.
a 8600gt viszont gyorsabb nem? 1ébként egy Forsa 8600GT Premium 620/1600-t néztem ki - 28k Azt nemtom, hogy miféle márka ez a Forsa, mert még életemben nem hallottam:D
Hehe na pci expressz téren talán mégis van remény és nemkell új alaplap:
"Eközben néhányan a PCI Express 2.0 megjelenése miatt aggódnak, fõleg azért, mert egyes jelenleg kapható alaplapoknak minden korábbi ígéret ellenére meggyûlhet a baja az új szabványhoz érkezõ grafikus kártyákkal. Bár a PCI-SIG leszögezte, hogy a mostani alaplapok gond nélkül felismerik és a lassabb sebességen használják majd a PCI Express 2.0-hoz készült vezérlõket, néhány típusnál ez nem így van.
Az Asus például jelezte, hogy a Blitz alaplapoknál csak az elsõdleges PCI Express csatoló kezeli problémamentesen majd az új kártyákat, mivel az a PCI Express 1.1-es verziójának megfelelõen készült. A másodlagos illesztõ azonban csak a szabvány 1.0/1.0a változatát ismeri, így nem tudja majd futtatni az új fejlesztéseket. A vásárlóknak ezért azt ajánlják, hogy amennyiben a jövõben új grafikus illesztõkre tesznek szert, azokat csak és kizárólag az elsõdleges illesztõben használják, ne próbálják majd hasznosítani az SLI-funkciót. A többi alaplap esetében elméletileg nem lesz ilyen gond, de ezek továbbra is csak ígéretek. "