"Ezen kívül, nem csak DirectX van a világon -- OpenGL alól is ki lehet használni az új fícsöröket."
Ez így van és én jobban is szertem használni, mint a DX-eket. Az már csak extra érdekesség, hogy ha DX10-es feature-öket használsz OpenGL-bõl Vista latt gyorsabb, mintha XP alatt, legalább is ezek az eddigi tapasztalataim.
"Ó a régi szép idõk, a jó kis Vendor Specific Caps bitek."
Ez nem az volt, itt egyszerûen a shader túl sok textúra indirectciót használt, vagy az ATI kártya számára helytelen sorrendben kezelt valamit, de nem egyszer elõfordúlt, hogy túl léptem az ATI 128 utasítás limitjét, ami 96 arrimetikai és 32 textúra címzõ utasítást jelent bõvebben.
"Inkább így "Hát azért SM3 nélkül csomó mindent nem akartak megcsinálni.". Pl HDR-bõl is volt normális, sm2-es egy elég népszerû játékban, és egy másik kevésbé mainstreamben is, amit játszottam sm2-es kártyán."
HDR-bõl nem volt normális SM2.0-val:
-nem volt FP16/FP32 blending (e nélkül próbálj meg írni, egy DOOM3/HL2 szintû játékot, mely HDR-ezik)
-FP textúra szûrése sem volt, de ez legalább minimális teljesítmény csökkenéssel pótolható volt PS-ben.
-Relief mapnél a height mapon keresést kell végre hajtani, flow control nélkül hogyan csinálnád?
-Soft-shadow valóban kivitelezhetõ PS2.0+-on (igen ATI alatt nem lehet, max fake soft-shadowt) és azt is elvislehetelnûl lassan.
-Displacement mappelni sem lehett.
"Kb. azonos szinten van a ket gyarto, ezert nagyjabol egyforma kartyakat gyartanak."
Remélem, itt csak a meglévõ játékokban mutatott teljesítményre gondolsz, mert mikroarchitektúrálisan eléggé különböznek.
"Az nvidia kihozott egy uj architekturat, amit nem akar teljesen atalakitani es megtoldani egy hianyzo alrendszerrel (dx10.1-es programozhato texturaszures)."
A GS végrehajtásuk sebességét sem teszik a helyére, ami pedig csak dx10.
"Ha az nvidia kihozna egy 10.1-es kartyat, akkor kenytelen lenne megfelelzni a teljesitmenyt, amitol ugyan kompatibilis lenne, de sokkal lassabb is mint az amd."
Ez is a mikroarchitektúrális különbség miatt van.
"Egyebkent meg minek eroltessek magukat? Az osszes konzol dx9-es, az osszes win2k-s es winxp-s gep dx9-es."
Valami szokásosan a vakfoltodra esik: a PS3-ban van egy Cell is, ami itt átveheti a GS végrehajtást.
Továbbá ott van a Physix is, ami úgy tûnik, GF-eken ezentúl pixel shader alapon fog mûködni (mivel ugye azt írják, az összes CUDA-kompatibilis kártyán mûködik majd, ezek szerint G8x-on is), PS3-on meg szintén a Cell számolja (a Sony már régen licencelte a Physixot). Namost ez az ATI chipjein is elfutna, talán jobban is, mint a GF-eken, de kérdéses, hogy kap-e az ATI licencet, miután az Nvidia kezébe került a dolog.
Ezen kívül, nem csak DirectX van a világon -- OpenGL alól is ki lehet használni az új fícsöröket. Ha még egy ideig így marad a helyzet a Vistával, akkor valószínûsíthetõen növekedik majd az OpenGL-es játékok aránya.
"Azzal meg nagyon tele volt a t*, amikor a egy 2.0-as PS futott a Geforce FX 5700-en és nem akart ATI Radeon X800 XT-én futni."
Ó a régi szép idõk, a jó kis Vendor Specific Caps bitek. Szerencsére ez Dx10 alatt nem fordulhat elõ.
"Hát azért SM3 nélkül csomó mindent nem tudtál megcsinálni."
Inkább így "Hát azért SM3 nélkül csomó mindent nem akartak megcsinálni.". Pl HDR-bõl is volt normális, sm2-es egy elég népszerû játékban, és egy másik kevésbé mainstreamben is, amit játszottam sm2-es kártyán. A többinél meg leszarták, mint ahogy az optimalizálást is szokták.
Hát azért SM3 nélkül csomó mindent nem tudtál megcsinálni: soft-shadow, dynamic-ambien occlusion, relief mapping/ambient-prallax occlusion, notrmális HDR, variance shadowmapping.
Azzal meg nagyon tele volt a t*, amikor a egy 2.0-as PS futott a Geforce FX 5700-en és nem akart ATI Radeon X800 XT-én futni.
Mondjuk az ATI is sokáig mûvelte ezt, PS2.0-ja sokkal kevésbé, volt rugalmas, mint az NVidia-jé akkoriban, sõt az NV-nek kint volt az SM3.0 már egy generációja, mire az ATI végre kiadott egy SM3.0 képes kártyát.
Mondjuk a DX10.1 szabványban az áll, hogy ezt csak minimum 4x AA-ra végezze, szóval a nagyobb AA-k lehetnek több lépésesek, a másik meg egy jó driver remekül át tudná verni a DX10.1 ezen igényét. Ezek tükrében értettem azt, hogy az ATI/AMD érdeme.
Ezzel próbálják gondolom legyûrni az amd-t mert hát õk félévente újabb technológiát használnak (valójában helyben toporognak), max finomítgatják, javítják a meglévõ cuccaikat. De az átlagember azt látja hogy húdejóaznvidia, és veszi szorgalmasan a kártyákat.
"Ez mondjuk inkább az ATI/AMD érdeme, mint sem a DX10.1-é."
Nem, az dx 10.1-es szabvány hogy az AA-t egy lépésben végzik több helyett(de persze az amd érdeme, hogy meg is tudták valósítani). Ezt nem képes elérni az nv, de még a teljes dx10 támogatást sem, mert az a gs amit tudnak az nv kártyák az egy vicc, és az is a dx10 szabványhoz tartozik.
Csak én találom furcsának, hogy míg karácsonykor épp hogy be tudtam szerezni egy 8800GT-t Magyarországon, most már a második Nvidia generációt jelentik be fél év alatt. Korábban is ilyen gyakran dobtak ki új architektúrákat?
nekem is sapph 3850 ultimate van és köszöni jól muzsikál passzívban, normális házban persze ;)
"Látom te is nagyon sokat szagoltál dx10-hez."
DX10-zel csak kisérletezni szokatam, DX10.1-el még nem volt dolgom, de ahogy néztem másik dll-kel hozzá, bõvebb a COM interface, ráadásul DX10-ezes kártyán a DX10.1-et nem lehet beinicializálni.
Köszi már láttam, DX10-ben is lehetet Globális Illuminációt csinálni, csak Cube Map array helyett 3D Textúrával (teljesítmény különbség van csak köztük), sõt gyengébbet már DX9-cel is lehet (Mad Mod Mike nevû NV Techdemo).
"Fejlettebb az AA kezelése is"
Ez mondjuk inkább az ATI/AMD érdeme, mint sem a DX10.1-é.
Érdemes megnézni az ATI techdemoját a témával kapcsolatban ( http://ati.amd.com/developer/demos/rhd3000.html ). Nagyon sokat dob látványvilágban, hogy hardware-es global illuminationt csinálhatsz :) Fejlettebb az AA kezelése is. Nem véletlenül szedette ki múltkor az nvidia egy játékból (Assassin's Creed), mert 20%-kal gyorsabb volt a játék ATI kártyán, mint nvidia-n.
Sapphire-nek van 2 felsõ kategóriás passzív hûtéses kártyája 3850 Ultimate meg a 3870 Ultimate. Mindkettõ viszonylag kis kártya, bazi nagy passzív bordával :)
"Persze hogy a dx9 miatt újra kell írni, de nem csak a fejletlensége miatt lesz elfelejtve, hanem kezdenek teljesítményben elfogyni a régi kártyák, akkor meg minek támogatni õket?"
Mert kevesen hasznalnak vista-t. Igy a legtobb dx10-es kartya csak dx9 alatt hasznalhato.
"nem igazán értem, hogy az nvidia miért hagyja mindig feljebb jönni az amd kártyáit, amikor a földbe is döngölhetné õket?"
Kb. azonos szinten van a ket gyarto, ezert nagyjabol egyforma kartyakat gyartanak. Az nvidia kihozott egy uj architekturat, amit nem akar teljesen atalakitani es megtoldani egy hianyzo alrendszerrel (dx10.1-es programozhato texturaszures). Mindemellett az nvidia kartyak nem mindenhol eleg precizek az uj szabvanyhoz. (bizonyos muveletek, pl. a gyokvonas kevesebb lebegopontos bitet kezelnek) Ha az nvidia kihozna egy 10.1-es kartyat, akkor kenytelen lenne megfelelzni a teljesitmenyt, amitol ugyan kompatibilis lenne, de sokkal lassabb is mint az amd. Egyebkent meg minek eroltessek magukat? Az osszes konzol dx9-es, az osszes win2k-s es winxp-s gep dx9-es. A jatekok addig lesznek dx9-esek, amig a jelenlegi konzolgeneracio ki nem hal vegre, vagy el nem kezdenek vista exkluziv jatekokat csinalni. Az elsore meg varni kell, a masodik pedig anyagi csod, mert mind a konzolosokat, mind a pc-s emberek kb. 95 szazalekat kizarnak a potencialis vasarlok korebol.
A mai jatekok jo reszet a gf7900-asra irjak, mivel ez tekintheto jelenleg szabvanynak. (a ps3-asban ilyen van, de az xbxo360-ase sem jobb sot azon meg embedded win2k fut oprendszerkent) Igazabol itt lenne az ideje a mai elavult konzolok kidobasanak es igazan kihozhatnanak vegre egy uj generaciot, mint ahogy windows-bol is jobb lenne vegre a winnt6.1 (vista utod) es ideje lenne atallni a tisztan 64 bites gepekre es operacios rendszerekre. (gyakorlatilag intel core2 alatti gepen semmilyen uj program nem indulna el, a regiek meg max szoftveres emulatorban) Ezzel az egeszel egy baj van, hogy mindent ki kellene dobni, amihez senkinek sincs se kedve, se penze. Amig ez nem tortenik meg, addig a dx10.1 csak techdemo marad.
OFF
Feltettem , megnéztem , fullon minusz 25 fps, reinstall...
Nem egyszerûen kikapcsolták a adaptive AA-t hanem lassítottak az ATI kártyákon, megnéztem adaptive nélkül is és jóval gyorsabb volt a patch elött ugyanazzal a beállításokkal.
A kínai fórum naon szép!
nekem még megvan a 3DFX -es kártyám és nagyon szépen megy. minden elrobog rajta, ami "normális" igényû.
persze van másik is... ;)
Dehogy kell teljesen újraírni az egészet. Látom te is nagyon sokat szagoltál dx10-hez. Viszont elég kellemes sebességugrást lehet elérni, ezért röhejes amit az nvidia csinál.
Persze hogy a dx9 miatt újra kell írni, de nem csak a fejletlensége miatt lesz elfelejtve, hanem kezdenek teljesítményben elfogyni a régi kártyák, akkor meg minek támogatni õket?
talán ez az évben lesz az ami évek óta sokan várnak(nekem mind1),h.az ATI féle HD4000 sorozat megveri vagy megszorongatja az NV féle csúcskártyákat...DX 10.1 csak annyit...újdonság meg minden,de hol is tudod használni-egyenlöre sehol...Amit még viszont ne feledjünk,az NV meghúzta a Physix féle JOKER lapot,amely gamek ezt támogatják,hát szerintem azoknál a gameknél szevasz ATI.. már várom nagyon,gyözzön a jobb,1 biztos érdekes összecsapás elött áll a VGA piac...
Nem tud jeleg senki full DX10-es játékot megengedni, mive:
1., Sok még a DX9-es kártya
2., DX10 csak Vista alatt van, és a jelenleg 14+%-os elterjedsége kevés.
Hát igen az nv valahogy tényleg nem erõlteti ezt a 10.1 et csak nem értem mire fel ez a nagyképûség hogy a 10.0 olyan faca hogy nem kell upgradelni, gondolom a microsoft is poénból adta ki a 10.1 et, szánalmas az nvidia, hátráltatja a fejlõdést, kössék fel magukat!
Nagyon hamar kapni fogunk Only DX10 gamát is. Az új DICE Frostbite motorba már nincs is DX9 render, DX10 és 10.1 van csak.
A DX9-et már lassan el lehet felejteni.
"De rohadt sokat dobna a teljesítményen, és jóval könnyebb lenne megírni a játékokat."
Elõszõr is ez nem igaz, hogy jóval könnyebb lene megírni, mivel a DX10-es kártyák nem tudják, viszont még a DX9-es kártyákat is támogatni kell, szóval 3 rendert kell szinte teljesen megírni.
Nem sok újdonság. De rohadt sokat dobna a teljesítményen, és jóval könnyebb lenne megírni a játékokat. De sajnos az NV nem képes 10.1-re, és ezért megoldja, hogy a játékgyártók ne alkalmazzák azt, mert akkor ATI fölényben lenne.
Szerintem megy, ezzel kellene fejbeverni az NV marketing és vezetõ osztályán tespedõ nagyszeggû vágotszemûeket.
nekem a dupla tápcsati "tetszik"...
A Kyro2-ben ez meg is valósult már 2001-ben. Az a kari best buy volt akkoriban, sebességben a GF2 GTS szintjét hozta, pedig csak SDRAM volt rajta, meg röhejesen alacsony órajeleken futott. Viszont a képe szebb volt, mint bármelyik NV kártyáé.
Mi ez a féltégla?? Utáljuk ezt a 2nyákos szögletes fekete ronda szart. Nah meg az nVidia gerinctelen ócska üzletpolitikáját. Hajrá AMD-ATI.
A DX10.1 nem túl sok újdonságot vezet be, szóval nem vészes a hiánya, viszont jó lenne, ha lenne. Különben meg ezért szeretem az OpenGL-t, mert most DX-es cuccot úgy kell megírni, hogy legyen egy DX9-es render (nem csak útvonal, hanem komplett render), legyen egy DX10-es render és egy DX10.1 render (hála a jó égnek más COm felülete van, mint a DX10-nek .)
A DOOM3 motorja ezeket csak az árnyékokra vonatkozóan végezte: Ultra Shadow (Two Sided Stencil test - hogy minden árnyék volumot csak egyszer rajzoljon, Depth Bounds test - a túl távol vagy túl közel kerülõ árnyék volumok kidobálása) + Scissor test.
Vajon lesz valami "normal meretu", turheto teljesitmenyu (ertsd alkalomadtan jatekra is hasznalhato), passziv hutesu kartya is a jovoben, vagy most mar csak monstrumokat fog produkalni mindket gyarto? A 8600GT ota nincs alternativa erre.
Ez inkább software kérdése. Doom3 motorja pl már tud ilyet.
Érdekes, a nem látható részeket nem számolja a kártya poént a geforce1 óta nem sütötték el. Pedig még most se valósult meg.
Fizika számolás? Ezt már a 6-os sorozatnál elhintették :P
zõd kombány
fekete tégla ...
Olyan adatot várok, ami után a HUF szó áll...Bár sztem nem én leszek az elsõ vásárlójuk... Meg persze kíváncsi vagyok, hogy mik lesznek a külömbségek a konkurens és ezek közt...