"Ráadásul ettõl a GPU-k sem fognak eltûnni hisz azokban is ott a kapacitás, és mivel most már általános célú számításokra is befogható így azokkal is lehet raytracelni." Nem, ray-trace algoritmusok futtatására még nem, vagy csak nagyon nem hatékonyan alkalmasak. Itt az "általános" egyelõre nem azt jelenti, hogy bármilyen kód, vagy akár csak bármilyen mat. számítási kód hatékonyan futtatható, vagy egyátalán futtatható, hanem azt, hogy nem csak konkrétan shader számítások végezhetõk, hanem más hasonló számítások is. Tehát amik sok adattal dolgoznak, sok számítást végeznek, de kevés a rekurzió, ugrás bennük. Olyan mûveletekbõl sem szerencsés, ha sok van, mint pl. gyökvonás, ami tay-trace kódban igen sûrûn fordul elõ (távolságmérés).
Magyarán, hiába képes egy G80 vagy egy R600 500 GFLOPS körüli szám. teljesítményt leadni, ez drasztikusan visszaesik összetettebb algoritmusoknál, mint pl. ray-tracing. Ellentétben pl. a Larrabee-vel (vagy a Cellel), nem beszélve egy jópár magos szokványos CPU-ról. Éppen ezért nyomatja az Intel a ray-tracinget, mert abban az Nvidia és az ATI (önmagában) nem versenyezhet vele...
"Igen ehhez nem ártana dupla percizitásúvá válniuk, ami a raszteresnél most nem gond, de raytacinghez és tudományos HPC számítások esetén kellene." Ray-tracing esetén ez a kisebb gond. (Régen, még az FPU-k elterjedése elõtt elég jól elvoltak a ray-tracer programok 32 bites precizitással is.)
ja ezt szoptam be én is pár éve, csakhogy a raszteres cuccnál is el lehet szorni a fölösleges geometriát, és akkor már egész hasonlo függvényt kapunk csak 100-szor gyorsabb minden értéken :)
Ha elolvasod pl. a dez által linkelt cikkeket, akkor azokból pont az jön le hogy a kép komplexitásának és poligonszám emelkedésével a Raytracing egyre inkább realítássá válik, mert az algoritmusa kevésbé érzékeny a kép komplexitásának növekedésére mint a raszteres megoldások.
A felbontással lineáris az összefüggés hisz a képpontok számátúl függ az erõforrás igény. Idõvel ahogy egyre nõ a chipekben megjelenõ számítási teljesítmény, egyre inkább lesz reális lehetõség a raytracingre is.
Ez még nem azt jelenti hogy raszteres megoldások hip-hop jõvõ eltûnnek és ray-tracing lesz helyette. Ez egy sokkal lassabb folyamat lesz. Ráadásul ettõl a GPU-k sem fognak eltûnni hisz azokban is ott a kapacitás, és mivel most már általános célú számításokra is befogható így azokkal is lehet raytracelni. Igen ehhez nem ártana dupla percizitásúvá válniuk, ami a raszteresnél most nem gond, de raytacinghez és tudományos HPC számítások esetén kellene.
Az eltérõ piaci szereplõk Cell, Tesla, Larrabee, Fusion mind ezeket a piacokat célozzák majd meg a saját megoldásukkal. És nem csak a gamer front az egyedüli, hanem a HPC is, meg más piacok. A software támogatottságon nagyon sok múlni, az könnyen eldönthetõ hogy ezen termékek közül mely fog szélesebb körben elterjedni.
Az Intel IDF anyagaiban 2-3 év múlva jelzi a real ray-tracing beköszöntét, ez még közel sem jelenti azt hogy elsöpri a rasteres megoldásokat, csak az hogy megjelennek az elsõ olyan komolyabb rendszerek amiken már reálisabban használható ez a fajta megoldás. Nem véletlen hogy elsõször csak egy különálló kártyán érkezik majd az Intel féle Larrabee várhatóan 2009 elején, elöször 45nm-en. Igazából az csak arra lesz jó hogy szélesebb körben megindulhasson a software fejlesztés és támogatás, azzal hogy lesz fizikailag hozzáférhatõ platform. Aztán majd 2-3 év múlva ha már 32nm-en jön a következõ Larrabee generáció, ott már akár be is épülhet az általános chipek mellé egy lapkára.
A saját véleményen az hogy 2-3 év múlva az Intel elsõ próbálkozása nem lesz majd túl sikeres gémer fronton, de HPC-nél be fog válni és annyival elsõre elégedettek is lesznek majd, ott sincsenek azért irreális elvárások. De mondjuk újabb 2 év múlva, újabb gyártástechnológián, idõközben tovább növekvõ software támogatottság mellett másodszorra már összejöhet nekik. De a másik három elõbb felsorol piaci szereplõnek is ugyanígy megvannak az esélyei, és fognak is élni vele.
Na jó, csak a viszonylag élethû, és a valóban eléggé élethû között egyre többen látják meg a különbséget... Meg az egyre bonyibb per-pixel shaderek is úgy eszik a teljesítményt (amire egyre brutálisabb hw a "válasz"), hogy egyre kisebb a különbség eközött, és a ray-tracing között teljesítmény-igényben... Pl. ott van a füst/robbanás effekt. Gyors módszerrel éles határvonallal "beleáll" a földbe - valamivel élethûbben megvalósítva (nem "beleállósan") egy csúcs-vga-t is megfektet...
a raytracingnek a halála a nagy felbontás és sajnos vagy nem sajnos errefelé megyünk most alap a 2k*1k,nemsokára a 4k*2k és hidd el én is szeretnék raytracingelni mert jo na, csak a hagyományos modszerekkel sokkal jobbat lehet csinálni a jelenlegi technologiával pl van olyan trükk hogy cubemappal világitjuk be a testet ez nagyon közel jár a RT-s bevilágitáshoz,csak ez gyors :) a trükkök mindig gyorsabbak,ez igy volt és igy is marad egy joideig
Elhiszem, hogy sokat foglalkoztál vele. Egyébként én is, bár már jó rég, amikor még nem volt ennyire rettentõ sok poligon meg object.
Viszont gondolom az Intelnél sem teljesen hülyék... (Bár... Annak az Ambrus akárkinek is képesek voltak egy feltalálói fõdíjat adni, mert nem láttak még zöld-piros szemüveges 3D-t számítógépen, vagy talán még papíron sem, LOL, miközben az Nvidia stereo3D drivere x éve tudja. A 3D-s toll - ami egy minden nagyobb animátor stúdióban megtalálható mozgáskövetõ kicsiben - nem is igazán érdekelte õket. Na persze a srác is szépen megjátszotta, hogy õ találta fel az anagliphet, ejnye ejnye.)
Back on topik... Azért talán elõször nem szórt megvilágítással, és más efféle nyalánksággal indítanak majd. Azért enélkül is elég szép lehet a kép.
gyorsitani mindig lehet, ezt aláirom , de képtelenség realtimra felgyorsitani egy több millio polys scenét és akkor még ugyanott vagy mint a raszteres cuccal van olyan rt effect pl a szort megvilágitás ahol pixelenként 500 sugar kell és a mai nagy felbontások mellett lehet számolni mennyi millio sugar szorozva a scene objectjeivel polygonjaival pláne ha displacementet is használunk sok sok millio milliárd ciklus jön ki higgyél nekem nem éri meg :) sokat foglalkoztam a témával
Az objecteket eleve egyesével téglatestekbe "teszik", és elõször ezekkel való metszést számolnak, ez igen sokat gyorsít. Ezt meg lehet tenni egymás közelében lévõ objectekkel is, dinamikusan.
Ez nagyon sok poligon esetén talán még gyorsabb is lehet, mint a másik módszer... És akkor még ott vannak a mindenféle mappolások, amiket a raszterizációnál elõre ki kell számolni: ha abból is sok van, az is csökkenti a két módszer közötti különbséget számítási igényben.
És ha már amúgy is nagyon sokat kell számolni, akkor inkább ray-tracing... A sok igen komplikált, és még így is korlátolt trükk nélkül, "egyszerûen és nagyszerûen" jóval élethûbb kép nyerhetõ.
Streamelés? Hát... Már ahol. Nem hiszem, hogy a GPU-k (v. GPU-szerû képzõdmények, mint pl. Larrabee) többszáz bites memóriavezérlõit felcserélik egy sokkal kisebbre, és ráállnak a streameljünk mindent taktikára. :)
Dez régebben kerestél , keresek ps3 fejlesztöket:) ha érdekel a dolog keress meg icq-m:114874817
nagyjábol igy megy ,csak egy baj van a ray tracing algoritmus 90%-ban a sugar és a felületek metszéspontjának keresésével foglalkozik , ami általában térfeloszto algoriitmus, csakhogy egy dinamikus scenében aholminden mozog, elég nehéz jo algot csinálni és nagyon véletlenszerü lesz a találat, ami a mai ramoknak nem igazán fexik mivel az ipar pont a streames irányba halad esetleg a 2 modzser kombinácioja adhatja alegjobb eredményt pl az árnyékokhoz raytracing a többihez meg a raszteres cucc
de ne várjatok a raytracingtöl csodát mert semmi csoda nincs benne
Anélkül, hogy jobban a részletekbe mennénk: Az un. raszterizációs (amit most a GPU-k csinálnak) módszernél a háromszögeket perspektívába számolják, majd szépen egymás után kirajzolják (úgy, hogy a közelebb lévõ fedje a távolabb lévõt) õket, majd soronként haladva textúrázzák, árnyalják, stb. A tükrözõdéseket és árnyékokat trükkös módszerekkel számolják rá.
Ray-tracingél kapásból a képernyõ pixelein haladnak végig, és mindegyikre kiszámolják, hogy a nézõpontól azon a pixelen áthaladó egyenes melyik háromszöget (vagy akár más geometriai testet, csak algoritmus kérdése!) metszi legközelebb. Azaz végülis azt, hogy azon a pixelen "átnézve" mely tárgyat látnánk. (Tehát ez egy visszakövetés, nem pedig a lámpából követik a fénysugarakat, mert ahhoz túl sok sugár útját kellene követni.) Majd arra pontra kiszámolják a megvilágítást (ebben már benne van az árnyék is, tehát hogy az adott pont takarásban van-e egyik vagy másik fényforrástól, stb.). Továbbá ha tükrözõ felület, akkor tovább követik a sugár útját visszafelé, azaz hogy errõl a pontról mi is tükrözõdik. Persze egy tárgy lehet átlátszó vagy áttetszõ is, ekkor több sugár útját is ki kell számolni. (Nagyon élethû üveget vagy épp füstöt lehet pl. számolni.)
Naa nekem valami ilyesmi grafika kellene real-time renderinggel :) igazez 3dsmax. Elég komplikálltnak túnik ez a Ray-tracing. Valami a tárgyakról induló fénysugár útvonalának számításán alapul ?:S Sok érthetõ magyarázatot nem találtam. Ahogy kivettem az írásaitokból, akkor ez nem pixel alapú megjelenítés hanem vektoros ? Csak mert a sima grafikában a vektoros grafikák nagyon jó megoldások, mint képminõség mint méret szempontjából. Az egyetlen gond a fény-árnyék, és a színátmenetnél van. Azok megjelenítése vektorossan igencsak erõforrásigényes :) De persze lehet, hogy ez tök másról szól...
Áhh, közben látom, hogy a "profi" szón volt a hangsúly. Mert az nagyon fontos ahhoz, hogy az ember lásson a szemével, LOL.
Egyébként egyes aliasing-hatásokat is csak raytracinggel rendesen kiküszöbölni.
Azt nem csak a szemed sarkából látod egy pillanatra, hogy az egész kép mennyire élethû és szép, vagy durván mesterséges.
Egyébként addig úgy sem állnak le, amíg nem lesz olyan élethû a kép (fizikával együtt), hogy ne csak a nagy játékosok feledkezzenek bele, hanem az átlagemberek is. Mindegy, ezt most hagyjuk.
ps. régebben fõleg hobbiból foglalkoztam modellezéssel, renderinggel pár évig.
Jó, de egy játékban ez minek? Látod a szemed sarkából, egy fél másodpercre, aztán lõsz az ellenre, ugrálsz, mozogsz, és már nem is látod. Én legalábbis nem állok le egy tíz percre gyönyörködni benne.
Persze, raytracinggel szebb képet lehet csinálni, nem vitás, de realtime-hoz olyan mennyiségben kell erõforrásokat bevetni ehhez, ami véleményem szerint nem éri meg azt a különbséget (ami, továbbra is tartom magam hozzá, nem olyan nagy). Tetszõleges számú, rekurzív tükrözõdés, lágy szélû árnyékok, radiosity (vagy hogyishívják, amikor mindehonnan visszaverõdik a fény mindenhova, és a fény betölti a szobát), meg minden tárgy nurbs felületekbõl álljon, sztem ez mind nem kell egy játékba, aminek az alapvetõ célja a szórakoztatás.
"Totál élethûtlen"?... te esetleg profi 3D modellezõ vagy? Ha az ember egész nap félórás render-eket készít és nézeget, megértem, hogy amellett egy játék grafikája bizony hamar lealacsonyodik.
Párszáz ezerért már kapsz elég jó auto-stereo monitort. Szal amihez nem kell semmilyen szemüveg. Sõt ennél olcsóbb megoldások is vannak.
Mivel ez nem igazi holografikus kép, amit onnan nézel, ahonnan akarsz, illetve oda fókuszálsz, ahova akarsz, stb., hanem 2D-s képen alapul, csak 2db-on (a két szemnek külön), így 2x kell kiszámolni ugyanazt a képkockát, csak pár cm-rel odébb helyezett nézõpontból. Viszont adott esetben fele felbontással (a kép kép együtt adja ki az eredeti felbontást).
Figyu, az Intel ezzel akarja biztosítani, hogy a grafikában is minnél hamarabb vezetõ legyen. Raszterizációban nem tudnak versenyezni az Nvidiával és az AMD/ATI-val, marad ez. Már 1000-rel rá is álltak erre, és tarolni fognak, mint az úthenger...
Azért ha jobban megnézed azt a Quake4-es képet, van ott pár tükrözõdõ felület (rekurzívan!)... És még csak nem is legélethûbb kép, csak hirtelen nem találtam jobbat. Nincs értelme látvány terén tovább fejlõdni? Hát ezzel nem igazán értek egyet, LOL. A mai GPU-s 3D totál élethûtlen. :D A ray-tracing nem zárja ám ki a shadereket!
Ha tele van a kép tükrözõdõ felületekkel, a megszokottnál élethûbb árnyalásra és árnyékokra van szükség, akkor már nem is igazán hatékonyabb a raszterizációs megoldás... Plusz egyszerûbben lesz élethûbb a kép.
Á, dehogy, csak ennyi butaságot egy halomban még nem olvastam, mint amit kvp összehordott. Ráadásul amilyen "meggyõzõdéssel" elõadja... Uhh. És akkor még vissza sem nézi a topikot. (Ennek nagy részét már 1x leírta pár napja.)
Naszóval, már évek óta majdnem minden DX-es játékot játszhatsz 3D sisakkal (csak a fej-elfordítást nem nagyon figyelik a programok), vagy sztereo monitoron! Nvidiának van saját drivere erre, és ATI-hoz is van külsõ driver. De valahogy nem érdeklõdnek iránta az emberek.
A 3D-s kijelzõ már valóság, a kis probléma az árával van, legutoljára 4M volt egy monitor...
A 3D-s kijelzõ ráadásul a teljesítményigényesebb, mint a mai 2D-n ábrázolt 3D-s kép. Nem tudom, hogy mennyivel több számítási igénye van, de mindenképpen elég sokkal több.
Na jó, a 10 év lehet, hogy kicsit magas volt konkrétan a realtime raytracing-re, de arra semmiképpen sem, amikorra átveszi az uralmat a normál 3D-tõl.
Azért azt ugye belátod, hogy ez a látvány, amit belinkeltél, még fényévekre le van maradva attól, amit a háromszög+shader alapú 3D ma tud? És az sem fog resten ülni abban az elkövetkezendõ 10- évben. (bár mondjuk részemrõl 3D-s látvány terén már nincs értelme tovább fejlõdni) A legvalószinûbb, hogy még tovább fokozzák a shaderteljesítményt, olyannyira, hogy raytracing-re is alkalmas lesz, és majd verenyeznek az Intel sokmagos ajánlataival, mikor majd a realtime raytracing lesz az új vesszõparipa, mert több pénzt majd nem lehet kipréselni a polishader 3D-bõl.
én is eltévelyedtem pár éve mikor a rytracingbe láttam a jövöt indokold meg mibe jobb a ray tracing? a 100-szoros eröforrás igény mellett
Amúgy mért nem térnek már át valami virtuális valóság project-re elérhetõ áron? Úgyértem, nem lehet a végtelenségig nyúzni ezt a megszokott 2D-s felületet. Igaz még 300 ezer Ft körül vannak az ilyen VR sisakok. Ha ebbõl tömegterméket sikerülne csinálni akkor lényegessen olcsóbbá válhatnak... na jó ez tényleg elég meredek ötlet... De anyagi okokon kívül lenne technikai akadálya hogy a mostanit, vagy hasonló grafikát átvigyünk egy virtuális térbe? most a Vr sisakos megoldásokra gondolok... Mert végülis az lenen az igazi élmény =)
Úgy, onstd csak a tömény baromságot. Bakker, majdnem minden mondatod téves. Egy részére éppen pár napja válaszoltam valahol (ezt most nem ismétlem meg), de te még csak el sem olvasod a válaszokat, csak behányod az ökörséget, aztán továbbállsz. Nyilván ezt sem olvasod el, és legközelebb ugyanitt folytatod majd.
Ha csöndbe maradtál volna... ;) Basszus, a mostani IDF-en real-time ray-tracelt Quake4-et demóztak egy 2x4 magos gépen. A Larrabee-t is úgy tervezik, hogy alkalmas legyen erre is. The End of Rasterization
szerintem külön kell választani a dolgokat, a vertexek buzerálására a magas orajelü cpu a jobb a pixelek buzerálására meg a sok threades alacsonyabb orajelü sok-sok magos memoria latencyt eltüntetö gpu a jobb ezért lesznek valoszinülg olyan chipek amik több különbözö tömböl állnak, lesz magas orajelü tömb meg alacsonyabb orajelü tömb, minden feladathoz a jobbik megoldást választhatjuk a chipek hamarosan 3D-sek lesznek, több réteg egymás fölött, és a rétegek a lábak számának minimalizásása miatt indukcioval , magyarul rádios jelekkel kommunikálnak
Az nvidia gf8800-as sorozata altalanos cpu-kat tartalmaz, egyszeru felepitessel, alacsony orajelen, de sokat. Ezzel szemben az intel terve a keves, bonyolult, de nagy orajelu cpu gpu-kenti felhasznalasa. A ps3-ban ilyenek az spe egysegek. (6-8 darab kozepesen bonyolult, nagyon gyors altalanos cpu)
Mindharom megoldas mukodokepes, bar az nvidia fele megoldas olcsobb, kevesebb fejlesztest igenyel es regebbi technologiaval is mukodokepes. Amig a pixelek szama tobb mint a cpu-k szama, addig az o techikajuk jol skalazhato. (tehat jelenleg kb. 2 millio gpu magnal van az elmeleti limit)
Az ibm fele cell-es megoldas sem rossz, viszont otvozi a gpu-k bonyolult programozhatosagat a cpu-k teljesitmenybeli hatranyaival.
Az intel fele megoldas pedig csak az olcso szegmensbe jo, ahol eddig egy 1-4 pipeline-os integralt gpu volt, es ebben az esetben mar a 10 pipeline (mag) is jonak szamit. A legjobb inteles kiserleti rendszerben 80 mag volt. Ez az nvidia 128-ahoz kepest meg mindig keves, bar az intelnek annyi az elonye, hogy modernebb a gyartasi technikaja, tehat magasabb orajelet hasznalhat.
A szemelyes velemenyem az, hogy jelenleg a legjobb eredmenyt az xbox360-as architektura dx10-es valtozata hozna. Ez all egy egyszeru tobbmagos cpu-bol, egy cpu magokat tartalmazo gpu chipbol es a gpu-hoz kotott memoriabol. A gpu-cpu hid pedig egy sima soros busz (pcie16/pcie32) lehetne. A cpu oldalara meg memoria sem kell, gyorsabb ha a grafikus rambol dolgozik a gpu-t hasznalva memoriakezelonek. (a grafikus ram gyorsabb) Veletlenul ugyanezt a megoldast hasznaltak annak idejen az amiga rendszerek, de meglepo modon hasolno volt a felepitese az elso sinclair zx81-eseknek is.
Azért a realtime raytracing-tõl sztem még vagyunk min. 10 évre, ami alatt a "trükkös" 3D is fejlõdik majd, és fog majdnem olyan képet produkálni, mint a tracing. Az a "majdnem" meg a játékoknak elég lesz (a 3D ipart meg ugye a játékok táplálják).
A trükkös 3D akkor fog majd csak kihalni, ha már nem lehet tovább fokozni a teljesítményét, meg szebbé tenni az effekteket. És akkor, a DirectX 19 után úgy jön be új slágernek a realtime raytracing, ahogy most jön be a DirectX 10... (ugyanaz, csak lassabb) És sajnos meg fogjuk venni, akármennyire is hülyeség lesz.
"mivel nekik nincs tapasztalatuk CPU-tervezésben" -> mondjuk épp most olvastam, hogy a Nvidia fõnöke, az a Huang akármi régebben CPU tervezõ volt az AMD-nél. :) Szóval azért még ott is történhetnek érdekes dolgok. Bár ehhez kevés egy ember, a többiek meg inkább GPU tervezõk.
Izé, elõször is a cikkhez: a legnagyobb változás inkább az integrált memóriavezérlõ. Nem tudom, a cikk miért nem említi. Plusz ennek folyományaként a QPI már nem a (szokásos értelemben vett) rendszerbusz (mint ahogy a hasonló, és hasonló szerepet betöltõ HyperTransport sem annak hívatik AMD-nél).
A külsõ GPU még egy ideig (amíg létezik ebben a formában) sokkal jobb lesz a mostani típusú 3D grafikára, mint az akár hová integrált, mert nem kell osztoznia sem chipterületbn, sem hõtermelésben...
Legalábbis egyelõre két dolgot céloztak meg: 1. A mobil és belépõ szinten költségcsökkentés, tehát az eddigi chipsetbe integrált grafika kerül majd át a prociba - a proci mindig fejlettebb technológiával, így kisebb vonalszélességgel (nm) készül, mint a chipset, így a prociban kisebb chipterületet fog igényelni. Plusz miután a memóriavezérlõ is átkerült, nem is lenne okos dolog ezt kint hagyni. 2. GPGPU alkalmazások, ahol a GPU számoló egységeivel egyéb számítási feladatokat végeztetnek. A CPU és egy GPU közelebb kerülése gyorsabb adatcserét tesz lehetõvé, így optimálisabb algoritmusok születhetnek. (A GPU nagyon gyors bizonyos alapvetõ számításokban, de összetettebb mûveletekhez a CPU-ra is szükség van. Ketten együtt lesznek igazán ütõsek.)
Viszont ahogy fejlõdik ez a dolog, és növekszik az összetettebb algoritmusok futtatására is felhasználható teljesítmény (és az Intel máris konkrét terveket szövöget errõl), lassan a mostani 3D-grafikai módszerek, ahol az élethû hatásokat sokszor csak mindenféle trükkel lehet elérni, szal ez átadja a helyét a sokkal kézenfekvõbb módon élethû képet generáló real-time ray-tracingnek...
Tulajdonképpen részben így akarják kiütni a nyeregbõl az Nvidiát, akik már elõre félnek, mivel nekik nincs tapasztalatuk CPU-tervezésben. (És ezt látva elõre egyesült az AMD és az ATI is.)
Szót ejthetünk a Larrabee-rõl is (ez lesz az Intel külsõ "GPU"-ja), ami a hagyománnyal szakítva nem sok-sok kis számoló egységet tartalmaz, mint a szokásos GPU-k (mondjuk ez nem is lenne igazán az õ asztaluk), hanem pártíz matematikai számításokra optimizált, leegyszerûsített CPU-magot, ami azért elbír összetettebb kódokkal is. Esetleg már ez is képes lesz a real-time ray-tracingre. De legalábbis újabb érdekes effektekre. És minden bizonnyal késõbb ez veszi át a szokásosabb GPU helyét a proci mellett is. Ezzel tulajdonképpen a Cell proci fejlesztési stratégiáját követik majd: a Cellbõl is lesz olyan, ami több CPU magot, és még több kiegészítõ magot tartalmaz. Meg nyilván az AMD is ott lesz a sorban. Az a nagy kérdés, az Nvidia hol lesz...
voxeles motort nem tudnak a mostani gpu-k kezelni, szóval egy elõnye már van a cpu-nak ezzel szemben :) mondjuk arra az irányra rá is gyúrhatnának, mert több lehetõség van benne, mint a poligonos megoldásokban. de majd eldöntik.
Ez nem fogja xarrá verni a külsõ vga-t, az még messze van gondolom. Sztem talán arra megy ki a dolog, hogy lassan egyre több mindent egybegyúrnak, így olcsóbb alaplapok gyárthatók, mobil pc-khez is jól jöhet. A Sun Niagara 2 szerverproci péld. már tartalmaz 2 ethernet és egy nyolcsávos pci-e vezérlõt. Lehet pc-nél is ebbe az irányba mennek. Na, ha valami hülyeséget írtam, dezz majd kijavít. :)
"Kiváncsi leszek ezekra a VGA+cpu egybe dologra lesz-e valami olyan elõnye amivel szarrá aláz egy külön álló VGA és cpu párost." Egyértelmû hogy nem. De nem kis számítási teljesítményt fog jelenteni pluszban.
Egyébként meg akinek nagy teljesítmény kell úgy fogja használni, hogy GPUCPU + rendes videokártya.