ezaz......!!!!!!!!!!!!!!!!!!!!!!!!! Vista fennt...+minden ami meeg kell. Az teccik most a vista-ba,hogy kiirja a 6GB ramot:D:D:D Windows Vista Ultimate X64 SP1 Instalalom a 3Dmarok-ot...
most a P4-es gepemrol irok... masik Vista-t telepit.remelem a kartyaim vista alatt is mennek crossfire-ba:D
Nya, ez is letudva Az elsõ teszt, ahol a nõci menekûl, nekem kifejezetten nem tetszett, néhol már-már rondának is találtam! A második viszont az elsõ ellentétje, az anyahajó, az aaszteroidamezõ, mind-mind szemkáprázattó dolgok. Nagyon hamar lefut, azért ennél jóval többre számítottam !
én vista 64bitesen tesztelem majd le éjszaka ha nem tolják ki idöt még pár nappal volt már rá példa számlálo megál hir bocs baszátok meg megint eltoltuk egy két napal lol :D
meeg 1 es fel ora....ezert felteszem a Vista-t:S:S:S:S
Nem, a hivatalos infók szerint az alant látható dátum NEM a publikus megjelenést jelenti, de valakik már megkapták a progit az tuti. Valószinüleg a sajtó ...
Mikor jelenik már meg?? Nem úgy volt, ha kijön a 9800gx2 ill. 3870x2 akkor ez is? Vagy most megvárják a mégújabbakat, hogy meg is mozduljon?
Off:
A Futuremark Játékfejlesztésbe kezd!
Sogun, 14:58 - Játék: Akció
(HW Insider) A 3DMark PC és más benchmark programjaival elhíresült finn Futuremark cég belép a játékfejlesztésbe. Föld körül keringõ aszteroid övezetben hentelhetünk, ahol alacsony a gravitáció. Sci-fi FPS lesz és jetpackek nagy számban képviseltetik majd magukat. Thx, Jabba boy!
info: Hardwired
És le is futnak a DX10-es demók? Teszem azt ez, meg ez.
DX10 FOR XP HOGY MINDENKI ORULJON EGY KICSIT.NEKEM MUKODIK.
OFF
Annyira szép, van egy 1950 pro-m, ami 60 fps-el pörgeti az ut3-at, holott a tesztprogi szerint nem ér semmit... a #69 hozzászóláshoz meg: én xp-t használok, azon egyszerû oknál fogva, hogy nincs dx10-es kártyám, és érdekesmódon nekem nem csinál semmi olyat a zikszpé, amirõl nem tudnám hogy micsoda, és kattintásra zárja be a progikat...... jah és azalatt a 1,5 év alatt nem is fagyott le...
Ez nemtudom hogy nézi a procikat de sokat adot nagyon :D
semmi lényeges,egy darab képet sem mutatnak belõl.de ha már egyszer van...
Nekem semmi ilyemi bajom nincs xp-vel amiket leirtál érdekes.No mindegy.Ugyis mindenki azt védi amit használ! Vistát max akkor ha lesznek full dx10-es gamek amik nem mennek xp-n.(No meg lehet a Vantage miatt kiprobáloba felteszem 1 nap erejéig)
Elsõk között tértem át XP-re(Milleniumot nagyon útáltam). Akkor se értettem miért használnak olyan sokan WinME-t meg 98-at... attól kékhalált dob, ha kiveszem a CD-t olvasás közben.. vááhhh...
Vista nekem még SOHA nem fagyott le(illetve egyszer, de a hardware hiba volt(szétsült a proci, el se indult többet:D))
WinXP-vel is sok bajom volt, ami vistával már nincs(WinXP-ben még ha bezárom is a programot, néha perceket kell várni, mire bezárja(ha a processt killelem az néha gyorsabb, de az se mindig. Vista mindent azonnal bezár, mutatja milyen program mit csinál a vinyót(mindig tudom miért teker, ha teker:D), Partition Magicre sincs már szükség(XP lemezkezelése még szánalmas volt) Egyetlen hibája van csak. régi cuccokhoz nem mindig van driver.(nyomtatókál scannereknél lehet gond, belsõnél mind1, mert régi alaplapon, meg videkarin, ilyeneket úgyse fut.) Vistára is elsõk között váltottam, nem is bántam meg. (Bár a régi 1.7 ghz-es gépemen amiben 768 ram volt... hát döcögött picit:D)
még meg se jelent ez a progi azt már most meghûlyûltetek tõle?
Hm érdekes felfogás. "WinXP-t meg ki használ már?" Elnemtudod képzelni mennyien nem térnek átt a Vistára.Mivel én pl játékos szemmel nézve semmi olyat nem látok benne ami arra késztetne hogy tegyem fel.De ez már nem a témához tartozik.
most miért mondod? Hidd el, akinél elfut, annak úgyis DX10-es karija van. WinXP-t meg ki használ már? (akinek jó épe van az nem nagyon, persze mindig vannak az "elvbõl maradik")
Így elcseszni egy jó tesztet, szégyen! Csak DX10? LOL. Azért lehetne benne egy kis DX9-is legalább fifty-fiftyre.
Még annyi, hogy a Microsoft sincs kényelmes helyzetben. Elsõdlegesen õ a célpont azokért a problémákért ami mostanában (pl.: a Crysis gépigénye kapcsán) elõjött. Szar az API? ... Rosszak az irányvonalak? ... Egyik sem nyerõ feltételezés. Kivételesen nem Bill-ék rontották el a dolgokat. Az nV nem követte azokat az elveket amiket a DX10 letett. Az AMD/Ati sok rosszat nem csinált pusztán elõállt egy nem csak papíron DX10-es hardverrel. Azóta nV sikeresen meggyõzte a fejlesztõket (az hogy most pénzzel vagy anélkül, lényegtelen) az õ kártyáik támogatásáról, és kész a baj. A DX10 elvei ugyanis nem azért olyanok amilyenek, tökéletesen tudták az API kidolgozói, hogy csak az új elvek támogatásával lesznek egykártyás rendszereken játszhatók az olyan grafikájú programok, mint a Crysis.
A D3D10.1 szvsz semmi jelentõs újítást nem tartalmaz a D3D10-hez képest. Ami viszont fontos dolog benne az a Gather4 és a Cube map tömbök támogatásának a feltétele. Mindkettõ azért lett bevezetve, hogy az nV olyan rendszerrel álljon elõ aminek relatíve jó a Stream output kezelése (itt most senki nem várja el, hogy rögtön azt a teljesítményt adja a GPU GS-nél, mint a többi Shader típus alatt (bár ez lenne a Unified Shader lényege, de ezt most mellõzzük), de jó lenne ha nem a regiszterek tárolókapacítása határozná meg az egy TCP-n belül aktívan dolgozó Stream procik számát, ja és ne a memóriába legyenek az adatok mentve - bár ez remélem fel sem merült az nV-nél). A Gather4 pedig az Ati Fetch4-hez hasonlóan növelné a mintavételezés hatékonyságát (jó pár esetben elég a szûretlen minta a megfelelõ eredményhez, és még a GPGPU piacon is jól járnak a gyártók). Nyilván a Stream output kezelése és a Gather4 támogatása nem kevés tranyót zabál, ami igencsak negatívan hatna a textúraszûrõk számára (ez az a terület amibõl lehet elvenni, mivel a D3D10 elveinek alkalmazásakor kevésbé lesz igénybevéve).
ezzel a teóriával egy nagy gond van:még nincs,és még jó darabig nem is lesz igazi dx10-es játék!a dx9 is csak mostanra forrt ki igazán (cod4,u3e)megjelenés után kb 6!! évvel.(9.0c esetében 4 év...),mire az IGAZI dx10-es játékok jönnek,addigra már bõven 3-ik generációs dx10-es hardverek lesznek
tehát:ha tényleg arról van szó,hogy az nvidia még nem tudja igazán a dx10-et (ez szerintem hülyeség,ha tényleg csak a coj igazi dx10-es,akkor ez nem mérvadó,lehet õk csesztek el valamit!),mire eljutunk odáig,hogy még a passziánsz is dx10-es lesz,már az nvidia is kiforrott technológiát tud majd felmutatni hardver szinten.tehát megint az õ stratégiájuk a kifizetõdöbb...
a másik meg a dx10.1 körüli vita:honnan a francból veszitek,hogy annyire nagy a különbség?az ms-tõl a játékfejlesztõkön át mindenki hangoztatja,hogy ez nem így van.ha mégis,hát,lásd feljebb :)
Az egy dolog hogy új kártya lesz a gépedbe ha lesz teljes dx10-es game és nvidia továbbra is azt csinálja amit most akkor bezárhatja a boltot mert szarra sem lesz jó.
Valakit meg csak az érdekel, hogy élesben mit nyújtanak a VGA karik, és leszaraj az elméleteket. Mire kijön az ATI - állítólagos - elõnye, addigra már réges-régen új kártya lesz a gépünkben. Mondom ezt ATI 3850-es tulajként.
A Frostbite Engine-t teljesen DX10-re fejlesztették, közel 3 év munka van benne, elõször az R600-as Ruby demóban láthattuk képességeit. De van már róla technikai dokumentáció is. link Akármennyi zsét juttat el az nV 3 év munkát nem fognak kidobni. Bár azt aláírom, hogy maguk a fejlesztõk sem gondolták át mit csinálnak, mert ha a GT200 chip nem lesz DX10 (már pedig vélhetõleg nem lesz az), akkor úgy bukták a játékot, mint a Crysis fejlesztõi. A Microsoft-nak a DX10.1-es akciója pedig viccesen nem jöt be.
Most az AMD-nek annyi elõnye van a dologból, hogy az összes pénzt a gyártástechnológia fejlesztésére fordíthatja, nyilvánvaló, hogy az R600 architektúra elveihez több évig nem fognak komolyabban hozzányúlni. A DX11-re is tökéletesen alkalmas a felépítése. Asszem a GDC2007-en már volt dx11 elõadás. Az alapján nem sok minden fog változni. Újdonság lesz a Programozható Tesszalátor, programozható Blending, kiterjesztet SBAA eljárások, kiterjesztet Stream output kezelés és A-Buffer. Az A-Buffer az nV találmánya, azon kívül pedig, már mindegyiket támogatja valamilyen szinten az R600.
A 256-os GT-nek nyilván baj van a memóriakezelésével, ed ezen kívül szerintem teljesen partiban van a 8800GT a 3850/70-el. 1900*milliós felbontásokat meg hagyjuk már. :)