a D3D10-es elvek akkor fognak elterjedni amikor az nV-nek is lesz a D3D10-es elvekre jeletõsen építõ rendszere És amíg a játékok nem támogatják, Addig felesleges is foglalkozni egy nemlétezõ dologgal.
Már miért szarná le az MS a szabványt. Az IE7-ben elég sok lépést tett feléje. A rendszer életét a szabvány garantálja, nem véletlen nõ a Firefox részesedése. Az MS-nek is érdeke a rendszer életbentartása. Másrészt a D3D10 szabvány közel sem olyan mint a FF<->IE vita. Itt nincs kérdés használod vagy sem. Nyilván az MS azt a sok dolgot nem azért építette bele a rendszerbe, hogy a régi elveket alkalmazzák. Jelenleg lasabbak a D3D10-es módban a programok, mint D3D9-ben. Pedig az új API pont azt a célt szolgálná, hogy gyorsabbak legyenek a programok. A WDDM-et folyamatosan tanulják a programozók, míg a D3D10-es elvek akkor fognak elterjedni amikor az nV-nek is lesz a D3D10-es elvekre jeletõsen építõ rendszere. Az eddigi MS/AMD D3D10-es prezentációk igencsak számításigényesek, és mégis nagyon gyorsan futnak még a HD2600XT-n is. Pontosan az a lényeg, hogy használjuk a rendszer számítási teljesítményét és kevés texture fetch-et használjunk, mert az idõkiesés.
Ez olyan mint az IE vs FF / Opera: az MS leszarja a szabványt, a hómpédzsek MS-re optimalizálnak, ezért hiába szabványtalan, mégis minden oldal az IE-vel nyílik meg hibátlanul, és a szabványos cuccok szenvednek. De legalább szabványos... ~~
Heló! Nem tom jó helyre írok-e (ha nem akko sry), de eddig én úgy tom, hogy az ASUS EN8600GT DX9-es, az Inno3D pedig DX10-es. Ha ki tudna vhol javítani, (DX10-es-e az ASUS) akkor javítson. köszi.
ok kössz
Hát, sztem nem lesz érdemes alainte bafektetni g92 be.. Sztem eleinte lesznek problémák az új szabvánnyal...Meg aztán lesz annál gyorsabb is...
Az nV az ALU sebesség kihasználása felé megy most, mint az AMD. Tök mindegy, hogy D3D9, vagy 10, a számítási teljesítmény akkor is kell. Gyakorlati számítási teljesítményben a G80 a PS float/float2-es kódokon kívül nudli. Az, hogy az nv még a D3D10-es specifikációknak megfelelõ kódokon is gyenge az már más kérdés.
Attól még hogy megjelenik az új, a régi addig nem avul el, amíg nem követeli meg semmi a váltást. Ezek pedig a DX10 only gamék. Hol vannak még azok, ha a Crysis / AW is DX9 alapú lesz?
az meg a másik hogy 9xxx kártyát csak a hülyék meg a milliomosok fognak venni. 2008 vége elött nem lesz értelme váltani 8800rol és még utána is jó lesz egy darabig
mi volt mikor kijött a pcie express? kellett váltani? nem:P pcie kártyák agps megfelelõi ugyanazt a teljesítményt nyújtották. simán lesz 1.0 meg 2.0 9xxx széria.
A WHQL drivernek ba kell tartani a szabvány specifikációkat. Az nv még nem tudja kezelni a WDDM-et, így a beta meghajtók a használhatóak, mert ott lehet trükközni. Sajna az MS is genyó mostanában az nV-vel. Nem kellett volna az a Lost Planet fiaskó és akkor nem kezelné a nagy testvér olyan komolyan a WHQL minõsítést. Az AMD speciel elég sok hibát hagy jelenleg a driverben, de az MS aláírja, mert szükség van a cég R600-aira a D3D10 prezentációkhoz. Lassan a WHQL sem fog érni semmit, puszta üzletet csináltak belõle.
gyerekek kijött ez a 162.22 whql driver, és szarabb mint a béta! rá kéne szólni az nvidiánál a srácokra, hogy egy picit jobban kéne figyelni, sokat vártam az új drivertõl!
Ez egy ördögi kör. Majd jönnek az új karik, de azok olyan drágák lesznek mint az elején a GTX meg a GTS-nek. Aztán várunk hogy lemennyen az ára, és megint addig várunk, mire megint jön az új seria, és akkor meg már azt akarjuk megvenni, és így tovább szépen.
Remélem igy lesz mert nemszeretnék majd lapot váltani! Lehet ideiglenesen veszek valami 7600gt-t amig nemjönnek az új karik de az a baj azok még drágábbak lesznek mind most a GTs-ek :( Így soha nem lesz jó VGA-m :(
A szabvány specifikációi alapján nem láttam olyan pontot ami megakadályozná a PCI-Express 2-es kari használatát PCI-Express v1 csatolóban. Ettõl függetlenül lehet, hogy a gyártók rákényszerítenek a váltásra, de a két szabvány papíron oda-vissza kompatibilis.
Én azt a kompatibilitást ugy értelmeztem hogy pci expressz 2.0-ás alaplapba belelehet rakni a régebbit ,de sima pci expresszes alaplapba nem lehet a 2.0-ásat!
Hát a 225W-nál magasabb fogyasztás nagyon problémás az ATX felépítési elveivel. Egyszerûen nem tudják azt a hõmennyiséget elvezetni. A PCI-Express 150W+75W(a tápból csati) ideális elképzelés. Amik 225W-nál többet kajálnak azok valószínûleg a ePCI-Express csatlakozásúak lesznek, tehát lényegében külsõ egységek külön házzal tápellátással és hûtéssel.
Akienk most van valamilyen 8000-es szériás pci expreszes kártyája és szeretne majd váltani ezekre ,azoknak kell venni új alaplapot hozzá. Az tény hogy pci expresz 2-be belemegy a régi de akkor már kifog régi vga-t beletenni! :D
Ez még nem nyert megerõsítést, különbözõ lapok mást pletykálnak a G92-rõl. Nem hiszem, hogy az nv elésen 65nm-en bepróbál egy 1milliárd tranzisztorból álló chipet. Az AMD speciel elõnyben van a gyártástechnológiai fejlesztésekkel, de még õk is csak 390milliós tranyóval nyomja a 65nm-es csíkszélességet. Amúgy a PCI-Express 2 visszafelé kompatibilis. Bár a fogyasztás az kérdés, mert a 2.0 szabvány csatlakozója 150W-ot tud alapból kinyomni.
Most olvasom itt SG-n "Az nVidia eközben lazán átugrotta a korábban tervezett G85 grafikus chipeket és egybõl a G92 mellett tette le voksát, amely szintén a teljesítményen hivatott javítani. A DirectX 10.1 és OpenGL 3.0 mellett GPGPU, GDDR4 és PCI Express 2.0 támogatást ígérnek, a vezérlõ pedig 65 nanométeren készül."
Akkor ezekhez megint új alaplap kell a PCI Express 2.0 miatt :( Nem lesz ez így jó se a 8800-asok ára nem csökken ezek az újak meg aranyé lesznek.
nekem meg fog mozdulni az biztos Asus s775 P5K-E / WIFI-AP alaplap+Intel 6600 2.4 core2duo,3gb ram+EVGA Geforce8800GTS 640MB GDDR3 OC edition
WOW??Mennymár azzal a vacakkal... Nem is te irányÍtod a gamet, hanem a gép..smmi befolyásod nincs a gamma végkimenetelébe, az egész úgy egy nagy ragat fos ahogy van..
Mondtam már milyen jó az Asus Geforce 2 TI-je?:D 30FPS-el viszi a wowot 1280*1024-es felbontásban! xD (mondjuk minden más minimumon meg lowon van) Ilyenkor elgondolgoztató hogy megéri-e 200ezrekért videókártyát venni. :o
Meghalt az AGP-s 6600GT-m de sztem ebbõl alaplap csere lesz :)
Hát éppen lenni lesz, csak DX10-ben jó Isten tudja mire képes? (HD2600 és HD2400 kártyákat nagyban heggeszti pl. a GeCube, de úgy tudom van pl. Powercolor is.) Meg valahogy nehezen hiszem, hogy nem fogja vissza az AGP 1x-es visszafelé sebessége DX10 alatt ...
Hivatalosan nincs. De gondolom az lesz, mint a GF7-el, mielött kijönne a köv. GeForce gyorsan bejelentik az AGP verziókat. Amiket aztán elég drágán, és nehezen lehet beszerezni késöbb. (Pl. láttál te ithoni árlistán 7900GS, 7950GT kártyákat? Pedig elég rég gyártja több cég is. Csak 7600GT a max. itthon boltban.) Persze lehet, hogy az új felépítése miatt nem lehet megoldani AGP-vel, ezt nem tudhatom. Létezik egyébként GF kártyákhoz AGP átalakító, amin HIS chip van, hivataéosan GF5, 6 7 PCIE kártyákhoz jó és fizikai okokból csak LP kártyákhoz. Esetleg mûködhetne GF8-al is ... De ma már nem éri meg AGP-re költeni, ez az igazság.
hát... aki 4 éve vett egy A64 3200+ procit az kb még ma is vígan használja bármilyen játékhoz. max videokarit kellett cserélnie úgy 2x^^ most itt a C2D(majdnem 3x gyorsabb mint egy 3200+) ami leváltja ezt és még 3 évig biztos hogy el lehet vele lenni.
Ez így van, és mivel DX10 gamék még jó ideig sehol, felesleges is arra készülni. 1-2 évig szopik vele az ember mert kicsi a DX9 teljesítménye, aztán meg azért mert bár tudja a DX10-et, az addigi elvárásokhoz is kicsi lesz az ereje. Így hát a 2900xt-nek értelme 0.
mondjuk ezt alátámasztom. tavaly nyáron vettem a 7900gt-met, ami akkor csúcsnak számított, most meg már nem sokra mennék vele! de nem csak vga-k vannak így, hanem proci, memória, sõt még az alaplap is elavul 1-2 év alatt!
Ja. Persze hogy mire itt lesznek a 100%-ig DX10 es gamek, addigre kell új VGA, mert alaból 1.5 év múlva elavulnak naggyából ezek. Ez mindig így volt még DX9 idején is.
Általában amelyik fejlesztõ D3D10-re ír játékot annak van egy MS referencia raszterizálójának megfelelõ tömbszámítógépe szoftveres emulációval. Ennek a gépnek a paraméterei állíthatóak, lényegében egy komplet fejlesztõ rendszerrel dolgoznak.
A fizika számítása igen komplex feladat. A legjobb megoldás egy Physx féle célkártya lenne, de nem olyan fomában, mint ahogy azt az Agiea elképzelte. A Physx akkor lenne jó, ha nem PCI buszon kommunikálna, hanem közvetlen lenne betéve a CPU-k mellé mondjuk AMD HT3-as nagysebességû kommunikációs buszával. Ezesetben lehetõvé válna a nagysebességû kommunikáció a CPU és a PPU közt így komlex feladatok elvégzésére is alkalmas lenne. A Havok GPU-s megoldása jelenleg életképtelen, a füst szimulációt jelenleg jól végzik a karik, de a CPU is, így nincs értelme átadni a feladatot. A folyadékszimulációt pedig nem lehet ezekkel a rendszerekkel elvégeztetni. A Havok FX írt egy folyadékszim-es demót, a HD2900XT Crossfire rendszeren is csak 15-16FPS-sel futot. A GF8 optimalizált változat pedig még 8800GTX Quad SLI-n sem érte el a 2-3FPS-t. A mai karik képessége erre a feladatra limitált. Komolyabb használathoz implementálni kellene a rutinokat a D3D szabványba, így egyszerûbb lenne õket használni. Jelenleg a CPU féle fizika a legéletképesebb, bár nem sok dologra képes, a hardverek elterjedtségének a szempontjából ez a használható megoldás egyelõre.
Hát azt nemtom, elõbb egy teszt kéne errõl, ahhoz meg játék ami támogatná, és júzer aki pénzt adna ki rá. :D
Naja... Mivel ugye az nforce 6 os szériájú chipset ek tudják a pci e 16x16x8x t Így bele lehet tömködni 3 gtx et esetleg ultrát. ilyen felállásba lehet belerani 16x-8x-16x
õsszel itt van elvileg a g92,szal nem érdemes venni g80-at és télleg mehet a lecsóba :D
én is 2 évre tippelem de abból 1 évig nem lesz olyan dx10 játék amit alapból dx10re fejlesztettek:P a második évben meg már be fognak figyelni a kompromisszumok