FSXre nem mondta senki, hogy DX10. Az SP2vel került bele az opció, és ott is PREVIEW módnak hívják, 1-2 DX10 effekt biztos, hogy van benne, nem véletlen nem kompatibilis az addonok jó része csak a DX9 móddal. Senki nem mondta, hogy full dx10. Akkor lesz full dx10 egy játék, ha DX9 módban el se indul, de ez még elég soká lesz szvsz. Crysis meg önmagában egy vicc. :D
"Igen ugyan azokat. Különben ha anyíra Unified Shader nem lenne mindegy?"
AMD-nél lesz külön egység erre ami a Xenos rendszeréhez lesz hasonló (persze a kompatibilitásra majdnem semmi esély), tehát azt kell használni, NV és Larabee úgy tudom emulálni fogja shaderekkel ami megkérdõjelezi a sebességüket DX11 alatt. Arra voltam kiváncsi, hogy OpenGL ki tudja ezt a spéci egységet használni, vagy csak shaderekkel dolgozik?
Az ATI fanok irígységükben valószínûleg meg fognak kövezni, de sikerült felülkerekednem a túlmelegedõ HD 4850-es problémáján. Kiderült hogy nem a VGA volt rossz hanem az alaplap azóta gond nélkül mûködik.
De ettõl még utálom a Gigabyte-ot!
"Ez az Elevator Shader ugyan azt a Tesszellátor egységet fogja használni, mint a D3D11, vagy inkább emulálni fogja?" Igen ugyan azokat. Különben ha anyíra Unified Shader nem lenne mindegy?
"Tudom, hogy a kompatibilitás megtartása miatt a 3.0-t nem tudták annyira átdolgozni ahogy kellett volna (mint DX9-DX10 váltás) igy a fejlesztõknek sokkal nehezebb dolguk van rá fejleszteni, mint az újabb DX-ekre."
Ja csak most ha rendesen akarsz DX-eket és kártyákat kihasználni, akkor: támogasd a DX9-et, a DX10-et, a DX10.1-et meg majd most a DX11-et. OpenGL 3.1-ben már rendesen átvannak szabva, de egy kompatibilitási bittel kérheted, hogy a glBegin(), glEnd() is még mûködjön (azért valjukbe ezek néha jól jönnek). Szerintem a 4 API támogatása nehezebb, mint az OpenGL Extekkel bajlódni. Feltéve ha vannak már Extek (ATI végre lépett ez ügyben, úgy hogy a Full DX10.1 featureök márt elérhetõk OpenGL alatt is, NV alatt meg a DX10 még a Vista megjelenése elõtt megvolt OpenGL alatt).
Amúgy az ATI driverben találhatsz egy stringet ami elõre vetit néhány teszt állapotban lévõ dolgot (GL_EXT_gpu_shader5).
És ezek a legújabb OpenGL-es kiterjesztések mikor lesznek elérhetõek? Már 3.2ben benne vannak? Nekem valahogy úgy tûnik, hogy itt dobálóznak a verziókkal, de a GPU-kon látható változás nem lesz attól, hogy egy újabb OGL API-t támogatnak. Ez az Elevator Shader ugyan azt a Tesszellátor egységet fogja használni, mint a D3D11, vagy inkább emulálni fogja? Régebb jó volt az OpenGL, de mostanában alig hallani róla. Tudom, hogy a kompatibilitás megtartása miatt a 3.0-t nem tudták annyira átdolgozni ahogy kellett volna (mint DX9-DX10 váltás) igy a fejlesztõknek sokkal nehezebb dolguk van rá fejleszteni, mint az újabb DX-ekre.
"Úgy mondanám, hogy D3D11 lesz egyenlõ OpenGL+OpenCL-el, hogy világosabb legyen."
Én meg nem mondanám úgy, ugyan is az OpenCL API-ja inkább CUDA szerû erõs torzítással. A DX11-es Compute Shader pedig OpenGL Ext-e keresztûl elérhetõ lesz.
"Rég nincs Vertex és Pixel Shader, az egyesitett shader-arhitektúra bevezetése óta, de igen egyetértek ezt használja."
Inkább csak a számoló tömbön osztozkodnak dynamikusan, de valahogy az EMIT és az ENDPRIM nem érhetõ el VS alol és PS alol sem, ugyan akkor sem GS sem VS alol nem érhatõ el az _SAT végû utasítások, nincs hafl-float, nincs fixpontos változó és NVidia alatt nincs KILL.
"Ez mondjuk nem tudom mennyire lesz igaz, mintha úgy rémlik, hogy a tesszellátor nem lesz elérhetõ OpenGL alatt, de javitsatok ki ha tévedek."
Nem, nem tévedsz, helyette tradicióból Elevator Shadernek fogják hívni.
nekem multiplatformból elég a mass effect2 , RTSek terén viszont nem halo warsra vágyom OpenCL-el csinálhatnának olyan RTS-t hogy 0% script van benne és 0% auraérzékelés, orosz fórumon már láttam taglalva ezt, már multicore cpu-n is menne nem hogy gpun.
Ne aggódj, eddig is voltak normális multiplatform motrok, ezután is lesznek.
"Mért ne használhatnák együtt õket DX11-et OpenCL-el? Tudtommal tökéletesen meg fognak férni egymás mellett. Nem hiába támogatja az AMD annyira az OpenCL-t. A kettõvel együtt a maximumot ki lehet majd hozni a GPU-ból és a CPU-ból."
azért, mert a konzolos cimeket nem fogják úgy optimalizálni hogy "ok. Teljes biztonsággal számithatunk arra hogy van egy másodlagos videokártya amibõl megcsapolható 500gflops". Konzolos cimeket még modolni sem igazán lehet. Gondolod az új kszboksz hype mellett meg fog férni bármi más. Hát nem hiszem . Oroszokra lehet számitani , az nvidia már rég kivetette a hálóját az orosz fejlesztõkre.
"OpenCL/CUDA jelenleg a Vertex, és Pixel Shader teljesítményt használja GPGPU-ra"
Rég nincs Vertex és Pixel Shader, az egyesitett shader-arhitektúra bevezetése óta, de igen egyetértek ezt használja. A compute shadert lehet majd használni mesterséges intelligenciára, fizikára, stb. Itt mintha úgy olvastam, hogy
"megfelelõ driverek esetén a D3D11 lesz egyenlõ funkciónalitásában az OpenGL-el." Úgy mondanám, hogy D3D11 lesz egyenlõ OpenGL+OpenCL-el, hogy világosabb legyen. Ez mondjuk nem tudom mennyire lesz igaz, mintha úgy rémlik, hogy a tesszellátor nem lesz elérhetõ OpenGL alatt, de javitsatok ki ha tévedek. Persze még mindig ott lesz az, hogy DX alá jelentõsen könnyebb lesz fejleszteni, tehát nem várható, hogy az OpenGL jobban elterjedjen.
#87: "nem volt olyan hülyeség hogy egyenlõség jel volt kitéve a kettõ közé, az volt kitéve hogy VAGY openCL , VAGY dx11, egyszerre nem megy a kettõ, mivel az OpenCL az OGL "monster" bõvitményeként jutHAT szerephez."
Mért ne használhatnák együtt õket DX11-et OpenCL-el? Tudtommal tökéletesen meg fognak férni egymás mellett. Nem hiába támogatja az AMD annyira az OpenCL-t. A kettõvel együtt a maximumot ki lehet majd hozni a GPU-ból és a CPU-ból.
#84: "végre valaki aki nem egy effektkirály dolgot vár a dx11-tõl.. az a tesszelláció fincsi dolog lesz, aki nem tudja mi az keressen rá nyugodtan"
Érdekes, hogy ezt mondod, mert pont a tesszelláció lesz az ami az "effektkirály" dolog lesz az új DX-ben, a többi inkább fejlesztõi szempontból lesz hasznos, vagy a teljesitmény javitását célozza. Persze biztos lesznek még benne egyébb effektusok, de a tesszellátor lesz az ami rengeteget javithat a játékok ralizmusán, minimális teljesitménykiesés mellett.
szóval compute shader és +20% vakitás, vagy OCL bõvitmények melyek alapjaiban változtatnak a dolgokon? Van egy oylan érzésem hogy a teszelátorotokkal kitörölhetem. Hatalmas csalódás az AMD fusion és a dx11 kettõse.
JÓ, CSAK NEHOGY TERRORISTÁK KEZÉBE KERÜLJÖN!. :) blokkold a teljes internet hálózatot inkább. :)
nem volt olyan hülyeség hogy egyenlõség jel volt kitéve a kettõ közé, az volt kitéve hogy VAGY openCL , VAGY dx11, egyszerre nem megy a kettõ, mivel az OpenCL az OGL "monster" bõvitményeként jutHAT szerephez.
a krájsziz hogy használ geometry shadert? Az állítólagos dx10 módja ugye unlockolható egy kis ügyeskedéssel, dx9-el. A semmit meg nehezen tudná használni, merthogy dx9-ben nincs gm.
OpenCL: OpenGL alapú GPGPU keretrendszer, semmi több, kb. ugyan az mint az NVidia CUDA-ja jelenleg. DX11 új érdemleges feature-ök: - Tessilation Shader - Compute Shader (általánosabb célokra optimalizált shaderek) - Shadereken belüli környezet váltás (GPU multi-threading már korábban megkezdödött, Geforce 7000-es sorozat: Primitívenként váltás WDDM 1.0-nak megtfelelõen, DX10.x kártyákon pixelenkénti váltás WDDM 1.1-nek megfelelõen, majd most jön a DX11.x-es kártyákkal a shadereken belüli, azaz WDDM 2.0-nak megfelelõ)
OpenCL/CUDA jelenleg a Vertex, és Pixel Shader teljesítményt használja GPGPU-ra (DX11-es kártyákkal ez is változni fog)
Tehát az a hülyeség, hogy DX11=OpenCL funkcióalitásban nem állja meg a helyét, megfelelõ driverek esetén a D3D11 lesz egyenlõ funkciónalitásában az OpenGL-el.
Az még hagyán, de a CrySisban van 4 Geometry Shader (árnyék generálás gyorsítása, részcse, részecske árnyék és növényzet mozgatása), míg a CrySis Warheadben már gyetlen Geometry Shader sincs, sõt a CrySis 2-ben sem lesz, mivel DX9-es konzolokra (XBox360 és PS3) is futnia kell rendesen.
Nem mind1 neked, hogy ki mire fejleszt? Jöjjenek értelmes dolgok PC-re s aztán csókolom. Mit kéne használni, ha a DX jelenleg a legjobb játékokhoz, DX11 után pedig még jobb lesz?
Tisztában vagyok vele,hogy sok újitás van benne programozási részrõl. De alkalmazásra keresnének valami értelmet, mert alkalmazni valahogy idáig mintha nem sikerült volna a hõsi dx10-et. És akkor most itt vagyunk,hogy HÚH! ATI SZÉTVERI AZ NVIDIAT MERT NVIDIA NEM DX 11. DX 10-el se kezdtek még igazán semmit. Na jó volt a Crysis meg a Flight Simulator. Crysis,hogy DX10-be egy szép képet adjon ahhoz kell egy 4 magos proci, SLI/crossfire meg miegyéb. Ergó pofára esés dx10 részrõl mert átlag felhasználó nem fogja futatni úgy,hogy rájöjjön a DX10 "nagy beígért" szépségeire. Flight Simulatorhoz is elég durva gép kell tudtommal úgy hogy idáig a dx10 nem mutatott fel még semmit. + Dx9 is kianázatlan. Mostani nagyon kedvelt játék pl az új Batman. az is dx9es. És még is szép, még is élvezhetõ. És akkor itt megy a sírás a dx 11 miatt???
A te példádat követve DX9 se kell, sõt minek is DX, mikor DOS-alatt is voltak jó játékok.
Mert nem neked kell értelmet keresned benne hanem a programozóknak, az a baj, hogy marketinget csinálnak egy jelölésbõl. Egyébként van értelme, tényleg tartalmaz sok újítást, csak alkalmazni kell/kéne.
Mindegyikben? Még az ilyen dx10.1-re alakított játékoknál is már elõnye van az ati-nek, akár csak az ingyen aa miatt. Aztán a full dx10 alapú játékoknál meg fõleg. És igen most szarásig lesznek dx10+-os játékok mert a vérpistikék ráfanboykodtak a w7-re, és most már abban ugyanaz jó az ami a vistában még "szarnemkell" volt, mivel sikerült egy firefox szerû hype-ot összehozniuk. Meg lehet nézni ott szarozzák a vistát és mondják hogy fú a w7 de jó ez és ez a funkciója, aminek 95%-a ott volt a vistában de akkor még "szarnak" számított.
A közel full grafika se különb ilyen szempontból, mert én közepesen játszodtam a 4830-cal és úgy ment jól (tudom, most jön who am I és lehurrogja ezt a roncsot) a felbontás nálam nem sokat számitott, ugyan úgy ment 1600x1200ben is mint 1024x768ban. Az a majdnem Full is ugyan olyan hihetetlen egy HD3200-zal.
Q4-et feltettem, egy darabig elvittem hogy lássam hol hogy megy. Hát nem vagyok elragadtatva... 640x480 és abszolút minimum grafika az amin azt mondom, hogy esetleg játszható. Igy is helyenként leesik az FPS 15 alá, legtöbb helyen olyan 20 körül lehet.
Úgy látom némi szövegértésbeli probléma van itt. "csak akkor kezd beakadozni ha feltolom a GTA4-et közel full grafikára" Tehát ... közel full grafikán _már_ akadozik, és a full grafika még nincs sehol se. Az a full grafika, ha feltolsz mindent very high-ra, illetve minden csúszkát 100-ra. Közel full az, ha mondjuk minden magas beállításon van, de pár csúszka 100-on, illetve pár beállítás very high-on van. A memóriát meg jelenleg nem én adom neki, hanem a Win7, amibe nem szólok bele. Mikor Vista volt felrakva - ergo játszottam GTA4-el -, akkor 700 megát adtam neki manuálisan.
Mivel 9000PRO-nál egy fokkal (de alig) jobb kari van a laptopomban ezért ki fogom próbálni Q4-et. Lássuk mit mutat nálam.
Azt a HD3200as GTA4-et megnézném azért. Elhiszem, hogy valami minimális felbontáson megy alap grafikával, de az, hogy csak Fullon kezd akadni kicsit erõs. A másik, hogy minek adsz 1.5 giga memót egy ilyen kártyának? Ha a szükséges sávszéll meglenne akkor se tudna vele mit kezdeni (még egy 4870 sem).
opencl mióta van,? Cuda mióta van? 0% -ot azért neked is sikerült összehozni. Ne mossál össze engem az progémer véglényekkel mert nem vagyok az, jó , kösz.
Hát, ahhoz vissza kellene raknom a vistát, mert win7 alatt valami okból nem megy a GTA4. Egyszer már postoltam screenshotot valamelyik fórumban, esetleg azt visszakeresem. Amúgy nem értem, már több mint 8 éve hitetlenkednek a konfigjaim teljesítményén, pedig szvsz csak érteni kell a géphez, jól kell összeválogatni a konfigot, és nem minden szart felrakni. Anno azt se hitték el mielõtt live szemléltettem volna, hogy a PII-es compaq deskpro (266 MHz, Ati rage pro turbo 4mb, 3x32 MB RAM) gépen XP alatt futtattam bõven 20 FPS felett a Q3-mat valamivel jobb mint alap grafikai beállítások mellett ... mindezt úgy hogy az XP felülete "legjobb megjenelés"-re volt beállítva.
Mostani konfigomban van 4x1 giga kingston - amibõl másfelet tud használni a kari - egy 4 magos phenom proci, és 32 bites win7-et használok. Win7-nek kiváló a memóriakezelése, ha van elég ram, szinte nem is használ virtuális memóriát. (Hajtom rendesen de még 30 hard fault / sec feletti értéket nem láttam). Ezért is mondtam le önként és dalolva a GTA4-rõl pár hónapja.
A boxnak a halonak (amit amúgy nem szeretek de ahogy gondolod,boxon meg nem is multizok mert nemvok hajlandó fizetni érte) meg úgy az egész hozzászólásodnak mi köze a témához te idióta?:DDD Csak annyit mondtam hogy a nagyeszü kommented miszerint a dx11 a kismemóriás konzoloknak lesz jó egy baromság mivel konzolok dx9/dx10 alatt mûködnek... Dx11-re pedig jellemzõen az nvidia fanboyok hõzöngenek,én effektíve leszarom,nekem bõven elég annyi hogy kb fele annyi pénzért JOBB teljesítményt kapok mint nvidiáéktól
Ebben az az érdekes,hogy pl itt az SG-n a PS3 fanboyok szokták boldog-boldogtalannak bizonygatni,hogy a PS3 mekkora istencsászár cucc és egyébként is PS3 über alles...aztán papiron kihozzák,hogy a PS3 könnyed kacajjal kenterbe veri az összes létezõ platformot,a valódi végeredmény pedig lepereg róluk (vagyis hogy nem,nem ver kenterbe semmit...)
"Nehany fejleszto ceg persze eleg jo ahhoz, hogy mindkettore kihozza a jatekat, de ez nem jellemzo." Ja,milyen ritkak a mind2 konzolra megjeleno jatekok...vagy varjunk csak...esetleg megint csak a gyogyszered gurult el?:D
errõl tudnál valami képet videót felrakni? igazán kíváncsi lennék a grafbeállításokra és FPS értékre ...
Csak hangsúlyozni akartam, hogy egy bõven nem korabeli játékkal én még kellemes grafika mellett tudtam játszani. Szóval nem értem mi volt a gond a kártyáddal. De úgy néz ki szerencsésen kifogom ezeket a videókarikat, most _integrált_ HD3200-asom van, és csak akkor kezd beakadozni ha feltolom a GTA4-et közel full grafikára. Amúgymeg általában csak RTS/RPG-vel játszok, azok meg kevésbé gépigényesek.
Mióta gts250 van, nem ciripel a táp, szal nincs gond. Ráadásul úgy játszok vele, hogy végig energiatakarékos, csökkentett módba van a kártya + a proci, de még így sem szaggatnak be a játékok. (Igaz, a legújabb játék, amivel játszok a Grid).
Quake 4-el nem játszottam még, de ha meglenne még az a kártyám, kipróbálnám hogy viszi. Mondjuk megvan még haveromnál, ingyen odaadtam neki, annyira utáltam. (Már õ is másikat használ helyette).
Nekem a 7300GT-m ciripelt, mert állítólag a tekercseknél valamit rosszul csináltak (MSI, passzív hûtéses). Ha neked a tápod ciripel (és biztosan nem a VGA), akkor a tápot gyorsan lecserélném...
A dx11 vagy opencl vitahoz: A vilag jelenleg ugy all, hogy a windows-os es xbxo360-as jatekok tovabbra is dx-et fognak hasznalni, a mac-es es ps3-as jatekok pedig tovabbra is opengl-t. Nehany fejleszto ceg persze eleg jo ahhoz, hogy mindkettore kihozza a jatekat, de ez nem jellemzo. A dx11/opencl aranyt pedig legjobban a windows-os/xbox360-as jatekok es a mac-es/ps3-as jatekok jelenlegi aranyabol lehet megbecsulni.
A dx11/opencl lenyege, hogy ne csak a grafika hanem a fizika es az mi is fejlodjon. Ha valaki uj effekt-eket keres es nem azt, hogy tobb a kornyezetben a fizikai modellel renkelkezo targy, akkor nem jo reszet nezi a szabvanynak. Majd ha jopar jatekban alap lesz, hogy barmilyen targy megfoghato es ha pl. letepem a fuggonyt, akkor bele tudom tekerni az asztalrol felvette vazat es mindezt a nelkul, hogy kulon leprogramoztak volna (tehat tisztan a fizikai modellt felhasznalva), akkor latszani fog, hogy mire jok az uj szabvanyok. A grafika nem lesz sokkal szebb, de a jatekos szabadsaga megno. Aki persze csak az arcade lovoldozos jatekokkal vagy a mud alapu (atmegyek a butorokon) wow-al jatszik, annak tenyleg nem kell semmi a dx9 utan (wow eseten a dx7 is eleg).
"A programozható hw nem jutott még arra a szintre, hogy valós idõben mindent emulálni tudjon. A speciálisan erre a célra tervezet egységek még mindig sokkal gyorsabbak és kissebb helyet foglalnak. Majd mikor kijön a Larrabee 2-3. generációja, és még jó néhány GPU generáció sokkal nagyobb teljesitménnyel, akkor majd át lehet Software Renderre térni. "
Mindket ceg gyartmanya programozhato hardver. Az egyetlen kulonbseg, hogy az nvidia sok alu-t es keves branch egyseget hasznal, mindezt alacsonyabb orajelen, mig az atinal jobb az alu/branch egyseg arany es magasabb az orajel. A ket rendszer egyebkent majdnem ugyanaz. Az egyetlen elteres meg a memoriakezelesben van, mivel az nvidia rendszere ebben erosebb, hogy a sok alu-t ki tudja szolgalni, viszont a full crossbar miatt nagyon sok extra tranzisztor kell. (a full crossbar-t mar az intel is eldobta es a core7-esek mar nem latnak at egymas memoriajaba csak a masik cpu cache-en keresztul)
Az nvidia itt tenyleg a tsmc benazasa miatt sziv, mert pl. az intel siman le tudna gyartani ugyanezt akar 90%-os kihozatallal is.
Readswift: GPGPU. Hallottál már a compute shaderrõl? Hallottál már az OpenCL-rõl? Mert ezek is a GPGPU-t támogatják ráadásul ingyenesek és nyíltak, nem úgy, mint az NVIDIA CUDA-ja (és a CS a DX11-ben jön elõ). De persze, amit az NVIDIA mond, az a valóság, és nem lehet gyártótól elfüggetleníteni (csak úgy megjegyzem, hogy egyik gyártó sem a valóságot emlegeti; csak azt, hogy neki mi a jó, és neki mi az érdeke - és nem kivétel ez alól az NVIDIA sem)...
Egyébként pont olyan vagy, mint amilyennek a többieket mondod, csak a másik oldalról (mintha egy szélsõjobboldali magyarázná a szélsõbaloldalinak, hogy szélsõséges :D).
Tudod miért dobja le az fps-t? Mert semmi köze a DX 10-hez az adott játéknak. Ja és a GF8-as szériában a geomerty shadereket megoldó egységek rosszul mûködtek. Ami a DX 10 alapja. Ezt az NV is bevallotta, persze akkor, amikor a kilences széria kijött és esküdtek, hogy kijavítják.
Mai napig DX9-be tolom. Miért? Mert DX10-es játékok egyáltalán nem szebbek, és jéé. több erõforrást emésztenek fel. Felesleges. DX10.1? Még feleslegesebb. DX11? Annál is feleslegesebb. Ugyanolyan szép a játék dx9 alatt is és legalább nem dobja le az fps-t vagy 10-15el mint a kedves világot megváltó dx10. De legalább szebb lenne a játék,de az se igazán... :P
Jézusom! Szerinted az MS nem ért a dolgokhoz? Ha így lenne, ma már nem lennének. Hidd el, nálad 100x jobban értenek hozzá. Vagy Te a "felesleges a DX 10, mert nem látok egy új effektet sem" típusú emberke vagy?
Balumann: Radeon 1950 Pro, az gyorsabb, mint a 7800GT (a 7600GT-nél pedig sokkal gyorsabb). Ja és Win7-nél is lehet lagolás. Miért? Mert a Win7 összegyûjti a hálózati kérelmeket kis csomagokba és úgy teljesíti. Chip Magazin 2009/ augusztusi (remélem jól emlékszem) számában benne van, hogyan kell ezt elhárítani (hátul, tippek-trükkök).
"a" netes fosboxos, külön állatfajta, miután kilõdözi magát halóval, az ülõgarnitúra kényelme helyett gyakran választja a az internetes fórumokat ahol pillanatnyi hangulata függvényében kedvére agitál, a 0%-os mondanivaló ellenére a 100%-ig zavart elme rendkivül magabiztossá teszi, sok D betüt használva fejezi ki megütközését (értetlenségét). Az 'internet faggotry' müfaj egyik legjellemzõbb alakja, az igazi vérpécésbõl átvedlett konzolos (leginkább GTÁ miatt) "én azé tudom mi a pálya" mentalitással felvértezve , a fosbox jelenség legprimitivebb épitõkockái közé sorolhatjuk .
"a dx11 arra lesz jó hogy a kismemóriás konzolkák tudják a +20% vakitást produkálni" Hogy produkálják amikor dx9/10-esek te szerencsétlen....Vidkarit cserélnek bennük?:DDD
Nvidia legalább õszinte...Gyááááááááááááááá:DDDDDDDDDDDDDDDD
A fiziksz effektusok megjelenítésére csakkazenvidija kártyája képes,a radejonok nem. Ezek az amúgy sok régebbi játékban elõforduló mindenféle fizikszet nélkülözõ effektusok tükrözik a zenvidija mekkora õszinte...:D A zenvidija más semivel sem képes versenyben maradni,csak ezzel a fiziksz hazudozással. Kár hogy zászlólobogás meg sokkal látvánosabb törmelék repkedés stbsb elõfordult már régebbi fizikszmentes játékokban:D
A programozható hw nem jutott még arra a szintre, hogy valós idõben mindent emulálni tudjon. A speciálisan erre a célra tervezet egységek még mindig sokkal gyorsabbak és kissebb helyet foglalnak. Majd mikor kijön a Larrabee 2-3. generációja, és még jó néhány GPU generáció sokkal nagyobb teljesitménnyel, akkor majd át lehet Software Renderre térni. De addig is fejlõdés kell, 3 évig nem ülhetnek karbatett kézzel egyik cégnél sem. Addig tanulmányozhatják az újabb algoritmusokat, célhardverre implementálva.
Az elõzõ dologhoz amirõl szó volt(GPGPU). Jelenleg két fejlesztési út létezik, az egyiket az NV képviseli. At õ arhitektúrájuk inkább GPGPU vonalon teljesit jobban. Most még hozzák az elvárható teljesitményt játékok alatt is, de már nagyon a határon vannak. AMD arhitektúrája inkább grafikára lett kihegyezve, abban még vannak tartalékok egy darabig. El is mondom amit tudok a különbségekrõl, de azzal együtt, hogy volt már szerencsém Hardware Design-al foglalkozni, nem vagyok GPU szakértõ úgyhogy részletekbe nem tudok belemenni.
AMD arhitektúrája azon alapul, hogy grafikához nem kell sokféle mûveletet végezni (általában 32bites FP operandusokat használnak) de viszont rengeteg egyszerû mûveletre van szükség. Ezért a Shaderek úgy vannak elrendezve, hogy egy csoportban van 4 egyszerû, és 1 komplex egység. Ilyen csoportból pedig van 160 darab az RV770ben mondjuk (összesen 800 shader proci). Ez az elrendezés grafikai számitásokban megfelelõ teljesitményt ad, és nem követel rengeteg tranzisztort (kissebb a chip mérete).
Ezzel szemben NV-nek csak komplex procijai vannak, amelyek rengeteg tranzisztort felzabálnak, de cserébe mindenféle szükséges mûveletre befoghatóak. Értelemszerûen ha sok tranyó kell egy ilyen procihoz, akkor kevesebb fog a chipre férni, vagy ha fontos a teljesitmény, akkor óriási lesz a chip (GT200-GT300). A komplex procik miatt ez az arhitektúra alkalmasabb a GPGPU-ra, mert minden procit mûködésre lehet birni, de grafikai számitásokban, ahol rengeteg egyszerû mûveletre van szükség, ott kezd elhasalni, mert nem tudnak annyi feldolgozó-egységet rakni a chipre amennyi kéne. A GTX280-nak úgy tudom a maximális számitási képessége 930 GFLOPS körül van. Ezt jó szoftveres támogatással általános célú számitásokra ki is tudja használni (nagy részét legalábbis).
Egy Radeon 4890 ennél nagyobb, 1.36TFLOPS elméleti teljesitménnyel bir, de mivel ennek nagy része az egyszerû shader procikból jön össze, ezért ez a teljesitmény grafikus felhasználásnál (vagy egyszerûbb általános célú mûveleteknél) mutatkozik meg. Általános számitásoknál legrosszabb esetben elõfordulhat, hogy ennek az elméleti értéknek csak az 1/5-dét tudja kihasználni (ha csak a 160 darab komplex proci dolgozik), tehát 272GFLOPS-ot.
Igy nézne ki leegyszerüsitve a dolog, de ez nagyon sarkitva van, mert nem csak 32bites mûveletek vannak, hanem 64bitesek is, és ezeknél is megvan, hogy melyik chip mennyit tud ezekbõl elvégezni.
a dx11 arra lesz jó hogy a kismemóriás konzolkák tudják a +20% vakitást produkálni, lényege 0 lesz, kb mint a krájsisnak. Még szerencse hogy nem az sg fórumon dõl el hogy OpenCL lesz a menõ vagy a DX11. Én megértem az AMD-t is hogy kell a pénz, dehát lássuk be , programozható HW-k korában a dx11 egy öltönyös aktatáskás miszter szarházit jelent.
jól mondod.. próbál "megóvni" minket a dx11-tõl hiszen rettentõmód nincs a közelében a megfelelõ teljesítménynek.
anno a fizikai gyorsítók megjelenésekor pont õk vinnyogtak hogy nem kell az meg felesleges.. nehogymár szegény játékos vegyen még egy kártyát a gépbe 30000ért .. szegényke.. aztán hipp-hopp felvásárolták, és egybõl jött a : Kell a fizika mert az jó! Ez a jövõ, enélkül nem lesz jó a játék.. stb...
Én várom az új vga szériátját az ATInak, kiváncsi vagyok mire jut a dx11 többszálúsításával egy többmagos gép.
ja igen , és az sg inquirer-es hireket hozoga le, pl 98% ... Kõkemény lobby van.
" Barátnõ, egyetem, buli, munka... "
És?Ettõl még lehetsz egyszerû mint a föld.HVCS pista is vagyánykodik félfogú gizivel meg a sarki csikóba jár döngetni gyõzikére...jó, lehet egyetemre nem jár, de ha esetleg gazdag a pista akkor még arra is járhat.És akkor õ már nem is egyszerû ugye? :D de ezen most sírok :D barátnõegyetembulimunka hát lol :D ettõl még lehetsz segg ^^ Eként, az irányú pont agyúságod hangsúlyoztam ki...h sztem elég nagy blõdség valaki mást leoltani, mert esetleg többet játszik egy sikeres játékkal.Mint wow,cs,sc,cod, akármi..lehet, h átlagban, ezek az emberek sokkal többet érnek (társadalmilag is) mint te, aki büszke magára, hogy egy rozoga 4830cal "új" játékokat gyûr pár óráig :D:D ...és milyen qva szép...Nos, ez pont ugyanolyan eccerû léleknek tûnik nekem, mint a kocka aki egész nap a wow elõtt ül, és zombul :) nem vagy különb tõle hidd el (csak te azt gondolod most, h raj vagy) :) a zp-s vagy rijós nem tudom milyen tréd bulizásoddal együtt :D bár egyetemisták ritkán járnak igényesebb bulikba (fõleg,ha csak egy 4830ad van :D), szóval egy zp-t saccolok, így elsõre neked. Egy szó mint száz, a normális gamerek és embereknél létezik az a szó, h : mértékletesség :) Ezt rágd át kicsit... :) és megnyugodhatsz, h ezek között az emberek között is, sokkal több a progresszív szemléletû, mint az ilyen kis egyetemi rajok között :)
százával vannak már egyetemi papirok gpu lehetséges felhasználásáról játékokban, én is találtam már vagy 10et mert engem a hangos része érdekel. Az képes elfogyaszt egy egész gtx260at , az igaz, de pár év múlva nemmindegy lesz? L Gondolod az nV nem koordinálja ezeket bizonyos fokig ? Pl, instant állásajánlat ?
Kérdés csak az hogy kinek hiszel , egy zártkörü bennfentes csoportnak aka. MS konzol, VAGY az nvidianak és párszáz elszánt egyetemistának? Honnan veszed hogy játékhoz kevés a gpgpu ? ( "500 gflops kevés ) Miért ne használnák erre az SLI-t?
Mivel a shaderek is egyszerû programok, igen:) Konzolok nem igazán értem, hogy jönnek ide, amúgy ha már itt tartunk: PS3-ban nV GPU van. Egyébként GPGPU elõnye a masszívan párhuzamosítható dolgoknál jön ki, s ez ugye nem mondható el mindenrõl.
"Az nVidia "sugallja" hogy igazából a microsoftnál leszarnak titeket, és nagyban megy a konzol biznisz, aminek pc fronton az ATI a haszonélvezõje."
Ahogy igy mondod, lehet benne valami, de ez már nagyon az összesküvés-elmélet kategória. Szerintem inkább valószinûbb az, hogy azért próbál "megóvni" minket, mert le van maradva. Amint behozza, egybõl jön majd, "a DX11 a jövõ" féle hozzáállás mint mindig. A fejlõdés nem állhat meg, fõleg most, hogy a DX11 hoz néhány fontos újitást.
A GPGPU jó oda ahova szánják, nagyteljesitményû számitásokhoz, kutatásokhoz. Játékra, vagy úgy általában grafikai dolgokhoz gyenge lesz.
Micsoda meglepetés...talán mert leginkább csak a neve van meg, meg hogy mit kellene tudnia.
Jaja, rohatt NV, rohatt MS, éljen az Ati meg a fradika. :D Úristen, ti cégeknek drukkoltok és ingyen fanboykodtok nekik? Iszonyat ez az ostobaság. :D De tényleg, ez kurva szánalmas!
sm2.0 / 3.0 , idejében programozható hw volt ? :D mennymá.
Az nVidia "sugallja" hogy igazából a microsoftnál leszarnak titeket, és nagyban megy a konzol biznisz, aminek pc fronton az ATI a haszonélvezõje. Ti miért fogjátok a konzolbiznic pártját? Miért nem jó nektek a GPGPUs elõremutatás a fosbox eccségcsomag helyett?
Nincs is jobb annál, amikor olvasom a véleményeket, hogy most mi éri meg jobban a videókártyánál. 2 fajta érv az általános: -hát nekem volt, de szar volt a hûtése, kilazult a csavar, bezzeg amikor kicseréltem Nvidiara azzal semmi bajom nem volt... -Volt korábban egy ATI 'X' kártyám amit lecseréltem Nvidia 'A' -ra (példa X= Ati x1650, Y= Nv 9600), és sokkal jobb lett minden.
Szerintem mind2 gyártó nagyon jó kártyákat készít, hasonló árkategóriában nincsenek olyan túl drasztikus különbségek szerintem a játékok között. Hasonlítgatásnál vegyétek össze, hogy különbözõ konfigokon, különbözõ rendszereken is más teljesítményt ad egy kártya. Már ha csak a windowst nézem, Windows 7-en nekem Ati x1950 pro-val 5-10 fps-el is jobban fut néhány játék, Windows Vista-n (SP1 x64 és konfigurálva is) meg nem lehetett játszani nálam 3D-s játékokkal mert laggolt meg lassú volt, meg minden baja volt. Lehet ha kicseréltem volna egy Nvidia 7600-osra ami nagyjából egy kategoriában van ezzel, azon meg minden jó lett volna Vista-n is. És szarozhatnám az Ati-t - de szerencsére elõtte volt tapasztalatom xp-n is...
Nemrég az ATI volt lemaradva (és azt szidta mindenki), most az Nvidia, remélhetõleg felzárkóznak, és fenntmarad a jelenlegi "verseny", illetve választék.
Nem tudom, hogy upgradelve voltak-e a játékok, mindenesetre ha igen is, alighanem ez a fejlesztõk számlájára írható. Persze tény, ez téged aligha vigasztalt akkoriban, mindenesetre nem általános a jelenség.
readswift:
"Az nvidia legalább õszinte" Gondolom ezt te sem gondolod komolyan:) A "DX11 felesleges" móka tipikus marketinges fogás (ahogy anno az Ati "SM3.0 felesleges"-e volt az), amint lesz normális DX11 kártyája az nV-nek, lesz értelme az új APInak - szerintük is.
Eléggé sarkitasz hallode? Memóriáknál nincs ellentét mert azoknál különbség sincs, ha szerinted az NV és AMD kártyák annyira megegyeznek mint egy Kingston és egy Corsair DDR3 memó akkor sokat nem olvashattál az arhitektúrákról és a támogatott technológiákról...
"Az nvidia legalább õszinte, nem nyomja le a torkotokon az aktuális microshaft faszságot , azért is õ a hibás."