Amit írtam ezelõtt (v nem itt?) asszem Olympus TV nézõ LCD szemüveg használati utasításában benne van hogy naponta ne használja 2óránál többet és félidõnél negyed óra szünet! LOL Azzal nem nézném meg a Star Wars Trilogyt..
Hát igen, vehetné a fáradtságot az ATI... Van egyébként egy 3rd party driver, de nem olyan jó, mint az NV saját drivere, és nem is támogat mást, csak az un. "LCD shutter-glasses"-t (átengedi-a-fényt/nem-engedi át a fényt váltakozás szemenként felváltva, miközben a két nézet váltakozik a monitoron). 3D LCD monitorokat és 3D VR szemüvegeket/sisakokat nem támogatja.
Tudom, csak ez a legutólsó szetereodriver, a 61.77stereo, és tudom hogy legtöbbször mûködik az újabbakkal is és márcsak emiatt sem sietnek újabbat kiadni, csak ha szükséges...
itt vmelyik másik forumban irta vki, hogy ilyen õsdriverekkel megy neki csak a 3d szemüvege :)
simán el tudom képzelni, hogy nem szupportálnak egy népszerütlen terméket, pedig én játszottam már ilyen 3d cuccal, és rövidtávon nagyon jó volt ... hosszutávra csak az ellenségeimnek ... ;)
Lézeres még nem nagyon van a piacon (amcsi katonaságnak gyártanak egyelõre). Ami van, az LCD-s, és max. 640x400-as, vagy még kisebb a felbontása. A 3D, amire gondolsz, az a kétképernyõs stereo-3D. Nvidiának van stereo-3D drivere (nagy elõnye az ATI-val szemben, pl. 3D LCD monitorokhoz szinte csak ezt ajánják), amivel majdnem minden játék megy (a drivel belülrõl manipulálja az adatokat a stereo-3D-s megjelenítésnek megfelelõen) - talán tud kétképes stereo-3D-t is (nem csak page-flippedet [shutter-glasses] vagy függõlegesen összefésülõset [3D LCD monitor]).
Az ilyen szemüvegekben is 1024X768 összfelbontásban nyomja a lézer nem? De elég is lenne az ha nem akarnád mind a ~190°-ot belátni, csak egy szép nagy felületet magad elõtt (nagyvásznú kivetítõszerûen), de azt 3D-ben. És itt jön megint a probléma, hogy ahhoz ki ír programot hogy valódi 3D-t láthass a szemüveggel ha már a két szemedbe külön lézer vetíti a képet.
Ahogy a programozókat ismerem ill az informatikát, állandóan kalibrálhatnánk azt a xart ami elhelyezné a periférikus területet, ráadásul késne is.. ezt jól csak szemüveggel lehetne megcsinálni nem is értem h annak a fejlesztését mért hagyták abba. 8 éve majdnem vettem egy VR-szemüveget, most még1 kacattal több lenne. Jah asszem pont a felbontás miatt, az általad említett éleslátó-területre (a pupilla elé) min 8000*8000 pixelt kéne összezsúfolni hogy élvezhetõ legyen mondjuk FPShez.. (Bár az Olympusnak és még több neves gyártónak is volt TVnézõ szemüvege úgy 5-6 éve, de mind1ik xar volt a végén féláron sem tudták õket Ladni.)
Olyan felbontás és olyan FPS nincs amit a szemem s agyam nem bír felfogni ;) Na jó ez csak vicc, de még bõven nagyságrenddel alatta van a (otthoni) technika..
ez az "élesség" szó kicsit félrevezetõ. nem olyan élességrõl van szó mint pl fénykép esetén a rossz fókuszálásból adódó homályosság, hanem egyszerûen a szemed csak nagyon kis részén vannak sûrûn a fényérzékeny receptorok. kifele haladva nagyságrendekkel kevesebb van, és nem képes megkülönböztetni, hogy 4 lila meg 2 rózsaszín pontot lát vagy 1 hupililát :D próbáld meg, hogy a képernyõ közepére nézel, de közben a start menüre próbálsz koncentrálni úgy, hogy a szemedet nem mozdítod. csak egy zöldes pacát látsz (már amennyiben xp-t használsz és éppen zöld a startmenüd :P) meg sejtesz ott pár más színt is, de a start feliratot tuti nem tudod elolvasni. ha valóban csak egy zöldes paca lenne ott, akkor is ugyanilyennek látnád.
dez: ez a frissítési frekvencia dolog meggyõzõnek tûnik.. :) nem vagyok egy megszállott gamer, szóval ennyire beható tapasztalataim nincsenek... de majd egy unalmas órámban kikísérletezem :P
Aligha. A medium vs ultra beallitas megkulonboztetesere is muszeres vizsgalat szukseges :) Egyszeruen lekapcsoljak a texturatomoritest.. Pazarlas es nem kecsegtet sokkal. Jobb lett volna egyszeruen monster nagy texturakat hasznalni tomoritve. Hw igeny ugyanott lenne, gfx pedig magasan jobb. Persze nyilvan egyszerubb vakitani az ultra szoval meg nagy ramigennyel (meg ha semmi extrat nem is hoz), mint gigaszi texturakat gyartani.. A masik dolog meg, hogy a 256-os kartyak is siman viszik az ultra modot. Ld anno a 64mb vs 128 mb vita. Itt vannak az uj gamek es abszolute semmi kulonbseg koztuk.
De attól még hogy kevésbé élesnek látod a monitor másik sarkát(mint amelyiket nézed) ha ott életlenebb a renderelt kép azt még életlenebbnek látod majd. Pont ha élesebb lenne az attól a ponttól távolabbi rész amit nézel még nagyobb területet látnál egyformán élesnek. Nem?
(És azért elég finomnak kellene lennie az átmenetnek, hogy ne lehessen észrevenni, tehát több felbontás-lépés kellene, ami eléggé bonyolíthatja a dolgokat.)
Én pl. jól látom a különbséget 50 és 100fps között. Már csak azért is, mert CRT-n az 50 fps egy 100Hz-es képernyõre 2x tevõdik ki, és a szem megkettõzõdve látja a kontrasztosabb mozgó éleket. De ilyen él-játék nélkül is látom a különbséget, a mozgások folyamatosságán. Még rosszabb a 60-100Hz közötti frissítés, mert ott egyszer már a köv. frissítés is új képkockát jelent, másszor meg 2 frissíté után jön csak az új. (Most csak arról az esetrõl beszélek, amikor engedélyezve van a frissítéshez kötött képváltás. FPS játék kedvelõk sokszor kikapcsolják, ami egy összetettebb esetet eredményez, arról meséljenek inkább õk.) A 100 és 200 közöttit már nem hiszem, hogy látom, bár nem is próbáltam. A 25 és az 50 közöttit meg nem lehet nem észrevenni. Itt még feltûnõbb az is, amit a 2. mondatban írtam, de nem csak arról van szó. Az, hogy tizenegynéhány fps-t már mozgóképnek látunk, nem jelenti azt, hogy ne látnánk a különbséget magasabb és kevésbé magas fps között.
szerintem az placebo. :D sokan mondják, hogy csében számít, hogy 50 vagy 100, de szerintem az nem közvetlenül a nagyobb fps miatt van. 25 és 50 között még azért van különbség, de 50 felett szerintem már csak nagyon kevesen fogják fel. volt egy fél éves "a számítógépes grafika fizikai alapjai" címû tárgyam, ami keretében többek közt a szem felépítésérõl, mûködésérõl, felbontásáról és korlátairól okítottak.. számomra az derült ki, hogy egy bizonyos felbontás és fps felett teljesen mindegy, hogy mennyivel több... persze lehet tévedek. gyõzzetek meg! :D
amúgy kíváncsi vagyok mikor fognak olyan cuccot csinálni, ami figyeli a szem mozgását, és a képnek csak azt a kb 10x10 centis részét rendereli részletesre, amire nézel, a többit meg csak nagyjából :) ugyanis kb ekkora az a rész, amit élesen látsz.. na EZZEL lehetne igazán nagy erõforrást megtakarítani ;) (csak persze akkor kevesebb pénzt lehetne lehúzni a néprõl :P)
Ja, tekintve, hogy már AMD-s fronton is bejön a PCI Express, fõleg hogy az nVIDIA keze által, szinte kizárt, hogy komolyabban folytatnák az AGP-s vonalat.
amúgy meg az nVIDIA ha már megcsinállta az a kibaszott 6200-t meg 6600-ot akkor LEHESSEN MÁR KAPNI!!!!!!!!!! Lassan egy hónapja várokrá és alígbírom már ki, hogy el ne költsem a pénzt!
Ezt mekkora fps-re mondod? 25? 50? 100? 25 és 50 között nagyon nagy a különbség, de lehet látni 50 és 100 között is (nem Hz-re gondolok).
mekkora monitoron nyomod 1600x1200-ban? nekem 19colos, de bõven elég az 1280x1024, fõleg ha AA be van kapcsolva.... sose értettem meg, hogy miért jó akkora felbontásban meg akkora fps-sel játszani, amit a szemed meg az agyad úgyse tud feldolgozni... :D
"a doom3-nak nem 512 mb videoram kell a fullextrás megjelenítéshez? fura, hogy még hardver sincs a játékhoz :)"
Nem tudom, de nekem 1600x1200-ban, Ultra Quality-n (AA is be van kapcsolva) hibátlanul röfögött, semmi szaggatás, de még csak árnyalatnyi sem, végig is játszottam. Az egyetlen dolog ami idõnként elõfordult, hogy egyes ajtók kinyitásánál egy pillanatra leesett az FPS (kb 1 fél másodpercre).
Most már, hogy itt az új, szép és gyors pci-expressz, hogy valami haszna is legyen, bevezethetnék, ha éppen nem valami ûber brutál grafikájú játékkal nyomulok, hanem mondjuk photoshoppal, használhassam a gpu gyors memóriáját kiegészítve a gépben lévõvel:)Ha már úgy is annyi van benne is, mint az alaplapomon...
A GPU ún. célhardver: csak bizonyos mûveleteket képes elvégezni, igaz azt nagyon gyorsan. Ettõl azonban még megmarad a CPU és a hagyományos memóriával szembeni függõsége, tehát nem igazán jár nagy elõnnyel önmagában a nagy video-RAM és a brutális GPU. És természetesen kellenek hozzá a speciális, õt kihasználó szoftverek is, mint pl. a Doom3 motor.