Volt egyszer egy ilyen: "Sokkal több shader textúrázó egység, jobb sávszélességek (memória elsõsorban) és ez adja a nagyobb teljesítményt, mivel a pusztán OPENGL játékok ideje 1-2 éve lejárt! Ma már mindent shaderrel oldanak meg (Unreal 3 engine, Crysis engine stb)!"
Nos, ugyebár a kiegészítések használatát mellõzõ, totál alap OpenGL játék nem is volt abban az idõben, amikor már voltak ilyen kiegészítések. Szóval: "Ma már pusztán OpenGl nincs!" -> már nagyon rég nincs. :)
"Ezért raknak bele annyi árnyékolóegységet, Direct3D!"
Ez számodra nem úgy hangzott, mintha az OpenGL alapon semmit sem lehetne kezdeni velük (kiegészítésekkel sem)?
Mielõtt még valaki "nagyon szakértõ törpokos" belekötne: A "hogy ugyanolyan layer", igaz, hogy nagyon szabados megfogalmazás, de tükrözi, hogy a játékok alatt a Direct3D-nek és az OpenGL-nek hasonló a funkciója; azaz a 3D-s megjelenítés.
Akkor pontosítsunk:
dez: A Direct3D persze, hogy ugyanolyan layer, mint az OpenGL, de ezt tomcsa4 nem tagadta!
"Pusztán OpelGLrõl volt szó! Pusztán OpelGLrõl volt szó! Ma már pusztán OpenGl nincs!" "de ezt a kártyagyártók orvosolták saját kiegészítésekkel" Azaz tomcsa4 azt mondta, hogy az alap OpenGL-ben nincs shader (bár a megfogalmazás félreérthetõ volt). Kiegeket lehet hozzá írni, persze, de az már kibõvíti a rendszer készletét. Igaz, hozzá kell tenni, hogy az OpenGL 2.0-t egyelõre egyéb okokból nem ismerem részletesen, de tomcsa4 tuti nem a 2.0-ról beszélt!
Sanyix: honnan vetted, hogy tomcsa4 azt állítja, van a Linuxon D3D? Én ilyet nem olvastam. Amúgy az MS már a Game SDK óta az õ megoldását szeretné viszontlátni a játékos-gépeken! CAD-progikhoz még mindig az OpenGL a legjobb, véleményem szerint. Amúgy keress rá arra, hogy Lindows, vagy bármely Linuxos Windows Emulatorra. Már nem fejlesztik, de vagy le fog esni tõle az állad, vagy megfelejtkeztél róla.
Ennyi baromságot rég olvastam. Ezt olvastad vagy magadtól találtad ki? Linuxon hol van d3d? :D Egyébként az M$ szeretné hogy a d3d felé menjen el a menet, azért hogy semmi se legyen kompatibilis a rendszerükkel, és a winre írt programok nehogy futtathatók legyenek más rendszeren.
Hát izé, kicsit pontosítsunk. A Direct3D egy szoftver-réteg a hardver és az alkalmazás között. A hw úgy van megszerkesztve, hogy kiszolgálja a Direct3D-t (elvégezze a proci helyett az adott mûveletet), ill. annak adott verzióját.
De nem csak a Direct3D alapon lehet kiaknázni a lehetõségeit, hanem OpenGL alapon is. Csak a korábbi OpenGL verzióknál le volt maradva a DirectX-tõl programozható shader támogatásban, de ezt a kártyagyártók orvosolták saját kiegészítésekkel, illetve az alkalmazás-fejlesztõ is írhatott shader-assemblyben kódokat, vagy fordíthatott ilyet az Nvidia Cg-jével. A 2.0-val megjelent a GLSL, ami a DirectX HLSL-jéhez hasonló magasabb szintû shader-nyelv. Lényeg, nincs akadálya, hogy OpenGL alól is fullosan kihasználják a kártyákat.
Dez legalább korrekten szólt a másikhoz! Én úgy veszem észre, hogy majd a D3D fele megy el a menet, de ez csak egy észrevétel, nem tuti! Tökéletesen igazad van, az OpenG is fejlõdik még töretlenül!
Pff nab, legalább értenél egy picit az engine-khez! Pusztán OpelGLrõl volt szó! Ma már pusztán OpenGl nincs! Jóhogy támogatják az OpenGL-t, de legfõképpen shaderekkel operálnak már! Ezért raknak bele annyi árnyékolóegységet, Direct3D! Azt hogy támogatja az OpenGL-t, azt nem is miondtam hogy nem? Olvastad valahol a HSZ-embe? Istenem, ekkora hülyéket minek engednek ide? Tanulj meg gondolkozni is, ne csak a pöcsöddel játssz! Paff! IQ bajnok...
pff nab, legalább néztél volna egy opengl játékot mostanában... tele vannak sederekkel. ennyi meg ennyi ez opengl, méghozzá sm 3.0-val...
És képzeld, az összes unreal 3 motoros játék futtatható opengl-en, ha azt a készítõ úgy akarja. Az UT sorozatnál ha jóltudom csak egy dll-t kell letölteni, és beconfigolni hogy azt használja megjelenítésre. Paff
Lehet, hogy tényleg a 3690 re gondoltak mikor azt mondták, hogy megnövelték a számát, azok meg gondolom a selejtesebb 38x0 szériából visszamaradt darabok..
Elméletben tényleg megnövelték (gyakorlatban még nem jött ki nagyon), és azt mondják, hogy igazán a képminõségjavító eljárások használatakor jön ki a különbség (Eddig is abban gyengélkedtek)... Lehet, hogy még nem teljesen optimális a driver hozzá, és még az elõzõ generáció beállítását használja némi finomítással (sok különbség nincs, és mostanában igazán csak bugfixeltek)
Hmm, pár helyen azt lehetett olvasni, hogy a 3000-eseknél megnövelték a textúrázók és/vagy ROP-ok számát, de sajnos valamit elszámoltak, mert nem változott itt semmi. :(
Mondjuk az ATI legalább a DX 10.1-et megcsinálta (ami az SP1-gyel jön a Vistában pár héten belül), Nvidia meg viszi tovább a sima DX 10-et (azt is felemáson megvalósítva).
Az OpenGL-lel egyébként ugyanazok a funkciók megvalósíthatók, mint DX-szel, szal a shaderek is.
Senki nnem mondta, hogy cseréld le a kártyád erre. Viszont, aki most vesz új gépet, vagy egy korábbi VGA-t cserél, annk lehet értelmes alternatíva. Egyébként nekem is az a tapasztalatom, hogy nem célszerü minden generációváltáskor cserélni. 2 évig azéer elmegy egy karesz még az igényesebbeknél is.
vhogy el kell szegmentálni a 38xx-esektõl ... :) lehet ezek a 'rossz' kártyák, ezért lettek csak 128 bitesek. pláne 2000+ mhz feletti ddr3 orajellel, lehet h nem lesz ez a 128 bit annyira visszafogo tényezõ, AA-ra ugyis kb. képtelen ez az ATI generácio, 1024/1280-ra meg jolesz ez talán, ha elég olcso. mindenesetre az 512@256 bit downgrade még nem rántotta vissza a kártyák teljesitményét annyira!
A DX verziót hiába figyeled, felesleges! Arra írni is kell programokat, hogy a Windows tudja, egy dolog! Sokkal több shader textúrázó egység, jobb sávszélességek (memória elsõsorban) és ez adja a nagyobb teljesítményt, mivel a pusztán OPENGL játékok ideje 1-2 éve lejárt! Ma már mindent shaderrel oldanak meg (Unreal 3 engine, Crysis engine stb)! Ami bajos, az a 128 bites memóriavezérlõ, de még elég annyi (bár tényleg nem tudja kihasználni magát a kártyát, nem is értem miért erõltetik még)!
Cserélni szerintem se érdemes 26xx szériáról ,de aki most vesz gépet és játszani is szeretne azért , de nincs elengedve anyagilag , akkor ennek a célközönségnek szerintem ideális választás az új ati 36xx széria . Bár egyett nem értek "az ár pedig a boltokban várhatóan 100 dollár alatt marad, vagyis itthon a 25-30 ezres intervallumban gondolkodhatunk." 174 forint a dollár , akkor nálunk idehaza igencsak lehúzzák a népet a kereskedõk és lassan érdemesebb lesz külföldrõl megrendelni ( csomagküldõ válalaton keresztül )
Nem csak a DX verzió ér valamit, hanem a jóval több shader proci, textúrázó egység, órajel is..
"A 320 stream processzort, 128 bites memóriavezérlõt"
Szerintem ez kizárt. Teljesen értelmetlen, 128 bites elérés nem tud kiszolgálni 320 stream procit. Másrészt a mai csúcs ATI 38xx-esekben van ennyi! Az is szép lenne, ha - az Nvidiához hasonlóan - a fele lenne a csúcsnak, azaz 160. Ez is jobb, mint a 2600-nál a 120.
Ha valóban nem adna számottevõen többet, akkor mi a csudáért kellene lecserélned? Mániákusan mindig a legutolsó kell, vagy mi? :)
Vannak, akiknek korábbi kártyáik vannak (az adott kategóriában), és épp most érik meg a cserére, majd õk erre cserélnek. Vagy éppen akik most építik életük elsõ gépét..
Viszont szerintem jelentõs sebességnövekedésnek lehetünk majd tanúi, mert Nvidiánál is ez történt (32 helyett 64 shader proci, 128 bit helyett 256 bit széles memelérés, ráadásul még magasabb órajelek, stb. a középkat legtetején), és az AMD se akar lemaradni. Bár itt megmaradt a 128 bites memelérés, de az árszint is jóval alacsonyabb, és talán jön még valami közvetlen versenytárs az említett Nvidia vonallal szemben is.
Nem teljesen ugyan az.. Kissebb a gyártástechnológia és a fogyasztása.. Ráadásul optimalizálták a textúrakezelését (megduplázták a textúrázók számát), így a képminõségjavító eljárások használatával nem esik annyira vissza a sebbesége... De lecserélni nem érdemes feltétlen :) ...esetleg 3690-re... de az már más felépítés...
Az én 2600XT-m 256MB GDDR4-es.25k-ért vettem, most mért cseréljem le egy JÓVAL drágább DDR3-as darabra?Nekem ezek annyira tyúklépésszerû fejlesztéseknek látszanak...Ja és persze a HD 3650-re értettem a cserét.
"fejlesztés érdekessége, hogy bár hûtése nem túl nagy méretû, mégis két bõvítõhelyet foglal el, elég érdekesre sikerült tehát a megvalósítás"
Ezen nem tudom, miért vagytok kiakadva. A képen látható hûtõ alapötlete a nagy sikerû Zalman VF-700-ból származik. Ami meg tudvalevõleg nagyon jól (és halkan) hût. Szerintem még jobban is, mint az elsõ képen látható vacak. Mondjuk tt is spóroltak a lamellákkal és az anyaggal (full alu a vékonyabb fajtából), de remélhetõleg nem romlik annyit a hatásfoka az "eredetihez" képest.