Végiggondolva:persze,ha lerendelsz egy scene-t akkor kinyomod az összes poligont,míg raynál csak a pixel metszéspontot kell meghatároznod.De enyhe gond,hogy BSP-t bspline-n nem tudsz csinálni(obj. a származtatott poligonhálót minden frame-nál fel kellene dolgozni),így marad a poligonok elõzetes indexelése(powervr által alkalmazott technológia).Ráadsásul le kell vágni a viszaverõdési lehetõségeket ált.felületnél 1-re,tükröknél pedig elõre programozni a lehetséges állásokat a többszörös viszaverõdések kivédésére. De amit kaunk,az nem lesz más mint a powervr által alkalmazott eljárás.(kyro,DC pl.) A kapott képmínõség egyenértékû lesz legjobb esetben a normál módszerekkel,ellenben a poligonindexelés,az indexelt poligonok tárolása és a feldolgozás nagy bonyolultásgú hardwert,illetve a maiaktol különbözõ programozási módszereket igényel.(árnyékok,alpha ....) Szóval jobban végiggondolva nincs új a nap alatt.Ez a rayos dolog egyszer már létezett,a neve powervr és kyro volt...
Hmm.A valós idejû(inkrementális) megjelenítés a 1 lépésben követi csak vissza a dolgokat a fényforrásig.Kettõ vagy több visszakövetési pont steciles trükkökel valósítható meg. Ha ezt érted ray-tracing alatt,akkor már most ebben van részünk.:-)
Mi is lenne a ray?Ugye a nézöpontbol viszaindulva metszük a felületet(tök mndegy a teszeláció modja,hogy kvadratikus v. poligon,max a kvadratikus/poliline felület lassabb lesz 100*),majd a talált felületi végpontra viszaszámolunk valailyen szródásfügyvényel,meghatározzuk a sugárirányt,esetleg a szineloszlás szerint rgb-re másmilyen szögekkel,majd bizsgálju a pontbol látható felületeket.Ezt gyakolratilag a fényforrások mérete és a felületi minõség alapján bizonyos minimális számú lépésben el kell végezni,különben a fényforrások nem világítanak,illetve jópofa artifactok jönnek elõ! Tehát a felületi elemek növekedése mit is hoz magával?Elõször is,a metszéspontmeghatáorzás elõre nem jósolható modon alakul,vagyi a fõ memóriábol kell viszonylag kis adatcsomagokat elõbányászni.Ennek következtében a pixelszámmal arányosan csökken a sebesség és a memóriaigény. A rekurziv sugárkövetõ fügvény úthoszának növekedése,ami több felület esetén mindenképpen elõjön ha el akarunk jutni a fényforrásba,további sebeségvesztést eredményez.A geometriai részletesgé növekedése is szintugy drasuztikusan rontja a sebességet. Továbbá ott van hogy igazábol csak poligonoknál lehet geometriai LOD-ot alkalmazni...
Tehát mondjuk power vr technikával csinálunk egy képet,300kpixel,akkor ennyi metszés kell.Ha tovább megyünk,akkor a metszések száma arányosan növekszik.Helyezzünk bele új objektumokat(feltételezve hogy lodoljuk a cuccokat,és minden az optimális poligonszámon van.) Ha ezeket nem helyezzük bele a sugárkövetési útba újabb metszéspontokkal,akkor biz kellemetlen élményben lesz részünknem látszódnak a tükrözõ felületeken,illetve nem látszódik az árnyékuk.
Tehát:a poligonszám növelése a képalkotás miatt tényleg csak kismértékben befolyásolja a sebeésget,de az objektuok számáva legyütt növelni illik a sugármetszések számát is ,ami viszont drasztikusan rontja a sebeséget.
(ezt még át kell gondolnom,methogy soha nem foglalkoztam ray-tracingal.)
#65, #66 az ilyen emberek és beszólások miatt érdemes ide járni :)
ott hibázik az elméleted hogy a raytracingnél logaritmikusan növekszik a számmitási teljesitmény és nem exponenciálisan emiatt komplex scenéknél a raytracing gyorsabb természetesen senki ne gondolkodjon 100-szoros rekurziv fénykövetésen mert az lassu mint állat de 1-2 ütközés-követés belefér
A poligonok a teszeláció során jönnek létre.Nem muszáj velük számolni,de ha kvadratikus illetve spline felületekböl számolod ki a sugármetszéseket,akkor khm... szóval nem lesz valami gyors a megejelenítés.Ráadásul a scene létrehozása és leprogramozása sem lesz egy triviális feladat.Szóval ez egy eléggé elvetélt ötlet...(obj:a csg fák azok nem egy vertexlista,tehát nem lehet kihasználni a nagy sávszélességet,hanem az alacsony latencí a nyerõ.De még úgy is tetûlassú lesz...) A megivlágítási algoritmusank pedig azért használják ezeket az inkrementális cuccokat(amik tulajdonképpen már nem teljesen ezek...)mertugye a ray-tracingnál egy kis méretû flület modelbekerülése nagyságrendi lassulásokat tud hozni.Tehát a scene méretével nem lineárisan,hanem exponenciálisan növekszik a számítási teljesítményigény,mig inkrementális képszintézisnél lineráisan növekszik.Tehát ez a ray-tracing megoldás valós idejû megjelenítésnél max. kisméetû demoknál müx,egyébként csak egyes elemeket lehet ilyen módon rednerelni.(pl. a türöknél használt stenciles cuccok közel álnak ehez,öszeházasítva egy ps-el jó kis rayos rednerelést lehetne öszehozni,addig míg nem fordítasz egybe több tükröt...)
"a raytracing gyorsabb mint a polygonos hülyeség, csak a kérdés az hopgy a ps3 architectura jo lesz e hozzá"
Khm... hát én ezt azért nem igy tudom, mellesleg általában a raytracing is poligonos objecteket használ csak éppen sokkal élethûbb megvilágitási algoritmust jelent mint a játékoknál ma használatos árnyékolás/megvilágitás modellek. Minden számitógép alkalmas raytracingre, csak éppen lehet hogy napokba tellne, amig egyetlen képkockát kiszámolna. Egy ilyen bikabivaj teljesitményû hw, mint a ps3 -ha tényleg tudja hozni ezeket a paramétereket - talán már valóban képes lesz valósidejû sugárkövetés modellezésre. Azért kiváncsi vagyok megbirkozik-e majd egy finalfantasy movie összetettségû scenevel? ;)
"igy minden kommunikálhat mindennel, és mindenen fut minden, egy nagy cell hálozat lesz a világ , remélem m$ nélkül :)"
Ez meg mire lenne jó? Miért kellene fölcserélni az egyik bigbradert egy másikra? Én inkább a fejlõdésnek vagyok hive, nem pedig valamelyik nagy cégnek.
Amúgy köszi a linket! :)))
a raytracing gyorsabb mint a polygonos hülyeség, csak a kérdés az hopgy a ps3 architectura jo lesz e hozzá
dehogynem tudják felhasználni, elvileg a sony mindenbe cell-t akar tenni tv-be,pda-ba,ps3-ba igy minden kommunikálhat mindennel, és mindenen fut minden, egy nagy cell hálozat lesz a világ , remélem m$ nélkül :)
Hol lehet ilyen detailed infokat látni a PS3-ról, mint amilyen az a vázlat, amit betettél?
Amúgy ezek tényleg korrekt, hívatalos(félhívatalos) adatok? Én egy kicsit lehidaltam tõlük:)
Hát gondoltam, hogy valami nagy dobásra készül a Sanyi, de ez egy kicsit mellbe vágó!
Pl 2x64 MB beágyazott memcsi, hát a legnagyobb paperware cég a Bitboys ígérgetett valami ilyesmit, azóta se látta õket senki:)
Amúgy iszonyú technológiát fog követelni a megfelelõen alacsony selejtszázalék kihozása. Sajna asanyi nem tudja eljáccani azt amit az intel: ha szar a cache/beágyazott memcsi eladjuk a selejtet sx, celeron, vagy PS3economic márkanéven;)
talán éppen azér nem lesz benne hdd hogy maradjon pénz a procira:D
"Mir: Ps2-on valoban nem igazan szoktak cpu-t assembly-ben programozni, egyedul a vu-kat, amibol a VU1 durva hasonlattal a vertex shaderenek felel meg..." ok, még régebben olvastam(megjelenés után), hogy a MIPS fordítók nem szerették az EEt, lehet, hogy rosszul emlékeztem. vagy 4 év alatt kitaláltak valamit.
"Mir: Ps2-on valoban nem igazan szoktak cpu-t assembly-ben programozni, egyedul a vu-kat, amibol a VU1 durva hasonlattal a vertex shaderenek felel meg..."
pedig érdemes asm-ban nyomni a ps2 cpu-t mivel a simd utasitásokat csak ugy éred el ,a fordito képtelen simd kodot generálni, ja és 16 darab 16 bites müveletet tud végrehajtani ciklusonként(2 orajel), mig a vector proci 8 -at orajelenként tehát kb egyforma gyors
ez meg egy kis érdekesség, FÉNYPROCESSOR, 8 teraflops, 20 watton, az intel mehet a sunyiba
PS3:
PS2:
azér az EE-t nem lehet ilyen könnyen lerendezni ahogy te tetted van abban pár regiszter és mindegyik más bitszélességü r0 - r31 f0 - f31 v0f0 - v0f31 v1f0 - v1f31 vi0f0 - vi0f15 vi1f0 - vi1f15
ez kb olyan 150 register amik közül rengeteg 128 bites, a floating regek 32, a vector integer meg 16 bitesek a pentim prociban örülsz ha össze tudsz szedni 32 registert
az xbox az szar ezt aláirom, de az x2 nem lesz az legalábbis a procija biztos nem , mondjon valaki jobb procit a g5-nél az viszont igaz hogy az x2 is pc szerü felépitésü lesz csak más procival ,semmi különleges technologia , viszont joval gyorsabb lesz egy mai csucs pc-nél a ps3 cell procija is power pc alapokra épül csak meg van támogatva pár vectoregységgel kb 32-vel
azon meg hülyeség vitatkozni hogy hány bites egy mai proci mert minden busz más szélességü , pl a cimbusz mi a ráknak legyen nagyobb 32 bitnél amikor a konzolban nem mostanában lesz 4 giganal több ram
A ps2 teljesen más.Ugye a box cpu->vertexshader->texura kitömörítés->renderelés vonalat úgy követi,hogy csak az elsõt végzi a p3-as,addig az EE-nél az elsõ 3 feladat a procin belül marad. Gyakoraltilag az EE 4 procit foglal magában,az egyik ugye maga a konvencionális cpu,ami azért rendelkezik brutál vektrorrészel,a másik kettõ pedig a két vu,illetve az mpeg kitömörítõ.
Az EE-nél a nehézséget az okozza,hogy a 4 db procit,a fõ rednsermemóriát és a grafikus kártyának a sávszélességigényét úgy kell kiegyensúlyozni alacsony szinten,hogy királyul menjen a progi.A gond csak az,hogy az egyes egységekhez pár kbytes cache-k vannak rednelve , amik megnehezitik a dolgot. Ezzel szemben az xbox rendszere nagyságrendekkel kevesebb munkát igényel,és igaz ugyan hogy a teljesítménye valahol ott van ahol a ps2-é,csak éppen a maximum kihozatalához nem kell phd-val rednelkezni és nem igényel több hónapos opitmalizálást. Rányomod a p3-ra a fizszimet és az ütközésvizsgálatot,a vs nyomatja kifele a poligonokat anélkül,hogy a programozonak irási-olvasási és sávszélességmarhaságokkal kellene foglalkoznia,és kész.Igaz ugyan,hogy a sávszélesség limitált az egységek között,viszont a kommersz cpu akkora cache-t tartalmazz,ami lazán kielégítit az igényeket,ráadásul a videochip is jóféle tömörítõ algoritmusokat tartalmaz,meg aztán ott van a pixel saheder.
Ja,az utobbit pedig nem ,illetve iszonyatos erõfeszítések árán potolja csak az EE,hiszen itt alapvetõen cpu feladatrol van szó.
A pentium proci belsõ adatbusza256 bites,a p3-nak 128 bites az fpu-ja.
Az EE legjobb esetben is 64 bites.:-) Ha a regiszetméreteket akarod nézni,akkor az integer regiszterei 16bitesek.
Egyébként a vu0 dedikált csatornával rednelkezik a cpu,a vu1 pedig a GS felé,de ez nem jelenti azt hogy ne lehetne õket másmilyen konfigban dolgoztatni.Objektíve mindkettõ hozáfér a fõ rednszerbuszhoz... A SIMD jelentése SingleInstructionMultipleData.Ennek szerinted mi köze van a cpu cím,utasítás és ált. használatú regisztereihez?Mertugye azoknak kéne 128biteseknek lenni,nem a simd regisztereknek.
hehe :) ez a jo amikor az osszes vita egyszerre elokerul. oprendszerek, processzorok, videokartyak, browserek, email kliensek, stb :))
dilettáns: ezt nem tudom megítélni. a sonyt nem utálom. mondjuk ha tehetem panasonicot veszek, de nem utálom a SONYt, és jelenleg a PS2-t tartom a legjobb konzolnak a piacon. és te meg csak azért nevezed el a processzort 128bitesnek, mert 128bites ALUja van? akkor a P4 meg 16bites, vagy mi a ****? merthogy annak meg 16bites aluja van. itt az érvem: az ALU által elvégezhetõ utasítások csak 64bitesek, és a virtuális memóriacímtér is 64 bites. bár a regiszterek 128bitesek. de szerintem ez akkor is 64bites.
az, hogy leírják, hogy 128bites nem azt jelenti, hogy annyi. szerintem csak 64bites. a sony PR meg azoknak van, akik elhiszik.
"A cpu meg nem igazán lényeges már.A videókártyát kell ugyis low levelen programozni,a cpu-n maradnak a magasabb szinten írt nyelvek,azoknak meg tökmindegy hogy milyen vasora vannak fordítva." a PS2ben nincs T n' L , ott még nagyon fontos volt a CPU
az ASM kódolás iszonyatosan lelasítja a játék fejlesztését, és a debugging költségeit meg többszörösére emeli. ezért nehéz az ASM kódolás(nem azért, mert nagy rogramozói feladat, nem az. gazdaságilag nehezíti meg a dolgot)
de az EE akkor sem 128bites. van benne 128bites ALU, de az úgy 128bites, hogy egyszerre tud 2 db. 64 bites mûveletet elvégezni. tehát 1 db. 1238bitest NEM. ezért csak 64bites. arról meg már ne is beszéljünk, hogy a memóriacímtér is csak 64bites (virtuálisan) más megközelítésbõl az EE MIPS12K alapú cucc, ami szintén 64bites, mint az EE is. az, hogy van benne 128bites végrehajtóegység ne tévesszen meg, már a Pentium MMX-ben is volt 64bites integer egység(MMX néven :) )
csak most olvastam, hogy kettõt írtál. csak most látom, mekkora fasz is vagy. a duál-programozás egy megoldható feladat, de az EE teljesítmény szempontjából kritikus kódjait ASMben kellett írni, és ez volt a szopatás felsõ foka. duál processzorra fejleszteni meg közel sem olyan vasz-iszt-dasz mint ASMben írni valami komolyabb cuccot.
Elemér: ezt már megbeszéltük vagy 2 hete: a PS2 nem 128 bites, csak 64. és az, hogy egy processzor hány bites igen kis befolyással van a teljesítményre. és az xbox igen is konzol. mert nem a közpointi processzor típusa határozza meg konzol-e valami. ha az határozná meg, akkor a GC megjelenésekor középkategóriás UNIX szervernek számított volna, ami meg nem egészen igaz :) és valüóban: lol lol :D
Áljunk csak meg egy picit! Nemtom emlékszik-e valaki a jó öreg dreamcastre. Namármost,az ugye egy hitachi cpu-t tartalmazott,illetve powervr grafikus magot és egy winCE-t dx6-al.Az elsõ szoftvereket powervr kártyát tartalmazó PC-ken kezdték fejleszteniés a valódi katana sdk megjelenésekor fordították csak be a kódt a hitachi cpu-ra.Szóval ez a hír tökéletesen híhetõ és reális.Az meg hogy elkészítsék az nt kernelt(nevezzûk xp kernelnek inkább) a powerpc-re....Hát,nem hangzik valami katasztrofális nehéznek. Kompatibilitás:Ki nem teszik rá?Nem azért veszel új gépet,és a gyártók sem azért nyomnak bele milliókat az új gép ártámogatásába hogy a régi géphez készült játékokat futathasd rajta.A ps2 emelt szintû ps1 futtatása is kétséges volt a gép kijöveteléig.
A cpu meg nem igazán lényeges már.A videókártyát kell ugyis low levelen programozni,a cpu-n maradnak a magasabb szinten írt nyelvek,azoknak meg tökmindegy hogy milyen vasora vannak fordítva.
az elegendõ itt elég érdekes szó, ugyanis tizmillió feletti XBOXnál elég ha csak minden huszadik játékos megveszi az adott cimet és máris félmillió elkelt, ami nagy piaci sikernek tekinthetõ
De ez felvet egy másik kérdést! (Nagyon filozófikus kedvemben vagyok) Tegyük fel valóban egy elõzetesen kiadott béta kit-rõl van szó és nem egy átizélés, amit a nagyon szavahihetõ forrástól átvettek.
Ez azt jelenti, hogy valóban érdemes megkezdeni a X2 rendszerre írt szoftverek fejlesztését, mert az X2 hardvere természetes evolúciója már meglevõ rendszereknek, nem úgy mint a SANYI Cell-re épülõ rendszere.
Csakhogy ekkor érdemes azon elgondolkozni, hogy a M$-nek vajon valóban megéri-e áttérni az X1 intel/nvidia/DirectX platformjáról egy PPC/ATI/DX(X?) platformra, feláldozva a kompatibilitást illetve a szoftverfejlesztõ cégeknél meghonosodott programozói kultúrát -ami ugye azért volt könnyen elsajátítható, mert a intel-x86/win hardver/szoftver programozási "kultúrán" alapult. Honnan vesz most hirtelen minden fejlesztõcég ppc hardver programozásában járatos emberkéket?
A X1 viszonylagos sikerét épp ez a könnyû áttérés jelentette, amit most egy csapásra feláldoznak.
Mert miröl is van szó? Ahogy a NautyDog egyik programozója megjegyezte, megtanul õ bármire programozni akár szovjet gyármányú elektrónyika kalkulátorra is, ha valamennyire biztos a piaci siker, és ezen van a hangsúly mert...
A PS3 visszafelé kompatibilis lesz az elõzõ generáció(k)-val, vagy is induláskor pár száz gáméval indul. Csak néhány olyan effektet kell az új hardverbe belecsempészni, amit a PS2-is tudott a PS1-es játékokkal csinálni-pl textura simítás, nagyobb frame rate-és az emberek el fogják hinni, hogy már csak ezért is érdemes a SANYIÉKNÁL MARADNI.
Ha ezt látják a progizó cégek, valszeg csak félerõvel fognak megint fejleszteni az x-re, vagy is megismételheti magát a korábbi szitu. Lehet akár duplabivalyerõs az új X, de ha már a kezdetektõl le van osztva a SANYI elsõsége akkor nincs mirõl beszélni, mert igazán ezen a piacon csak az elsõ tud szakítani, szerintem a M$-nek a mai napig ráfizetéses a konzol üzlet.
Az meg ugye nyílvánvaló, ha nem adnak el elegendõ konzolt akkor a szupergámékat se tudják megfelelõ példányszámban eladni.
Háj _!
Hát ezt mondom én is! Ha nincs semmi extra ebben a masinériában, akkor mitõl dev kit egyáltalán, ezek szerint csak az árától! Még mindíg nem találod furcsának? -akkor azt javaslom, elösször beszéld meg a pénzügyi tanácsadóiddal a dolgot ha ilyet veszel!
Mi az a szoftver, amit a M$ a fejlesztésnek ebben a "viszonylag korai" stádiumában feltehetett rá, egy PPC-s C++ fordítót, vagy egy 3d modellezõ szoftvert, mert hardver specifikus szoftvert(drivert, os, stb) azt nem nagyon, mert az ezen a vason nem mehet el, lévén meglehetõsen különbözik a végleges X2-tõl(hacsak ugye... - M$;) hát ez sokaknak azért mond valamit).
Szóval szerintem max egy általános fejlesztõ környezet, amit amúgy egy G5 Mac(hardver) + (szoftver) -jó eséllyel ingyért a netrõl le tudsz bányászni- áráért meg tudnál szerezni.
G5-ön fottatható NT kernel??? Lemeradtam valamirõl????
Úgy néz ki, nagyon is...
hát ez elég nevetségesen hangzik
ennek a hírnek a részletei már korábban is ismertek voltak, csak ez a power pc nem - de végülis nem lenne meglepõ, sõt, mondhatnám logikus lenne, hogy ha az xbox2ben power pc procik lesznek, akkor az ezen futó programokat is ibm procin kezdik el fejleszteni
szal a hir igaz LEHET, nem állítom hogy igy van, de lehetséges
Hát erre én is kíváncsi vagyok, mert ennek így se füle se farka.
Vagy az a bizonyos bulvárlap siette el egy kicsit a dolgokat vagy a M$: se CPU, se grafrendszer, se driver, se oprendszer. Khm, szóval valakinek eladtak egy powermacet, és feltelepítették rá az õsöreg PPC winNT-t, és valaki azt mondta rá, hogy ez az X2 fejlesztõ kit. Gondolom ráadásul nem is két fillérbe került ez a develop kit, de egy szimpla powermac-nél biztos drágább volt. Hát itt valakit nagyon átvertek, vagy valaki bennünket akar átverni.
Én az utóbbit tartom valószínûnek.
ha mégis lesz win ppc-re? :))
Bár nem szeretem a konzolokat, azért az X-Box2-re kíváncsi vagyok.