Eleg nagy a kavarodas, de a helyzet a kovetkezo: Vannak a mai gpu-k amikben van X darab altalanos cpu mag. Ezek a magok tartalmaznak simd utasitasokat, amiket a felhasznalva egy utasitasban tobb muvelet vegezheto el. Az altalanos megoldasok 8-16 parhuzamos muveletet engednek meg egy fizikai utasitasban. Igy a gpu keszitok beszoroztak a magok szamat a simd utasitasok parhuzamossagaval. Ezeket hivjak szalaknak, vagy szal csoportoknak. A vliw rendszer egy egyszerusitett megoldas, ha valaki nem akar valodi szuperskalar cpu-t kesziteni. Egy mai intel proci tartalmaz atlag 5 pipeline-t, amik egymastol fuggetlenek, egy kulon in-order koherencia egyseggel megtamogatva. A gpu-k ezt ugy oldottak meg, hogy egy pipeline van, igy a koherenciat a fordito biztositja elore. Ez kb. 50%-al gyengebb mint a dinamikus futasideju optimalizacio, de nem igenyel kulon aramkoroket. A gpu keszitok kulon celhardverkent szoktak feltuntetni a load/store egysegeket is, pedig ez minden cpu-ban alap. A texture unit-ok is csak specialis load egysegek, mig a rop unit-ok specialis store egysegek. Erre a celra x86-os csaladban kombinalt egysegek szolgalnak, tehat minden load/store unit kepes irni es olvasni is. A lokalis rambol ket fajta van. A thread group local (vagy L1) az amit az intel regisztereknek hiv. A masik pedig a kartya teljes dinamikus ram-ja, amit a load/store egysegek cache-elhetnek ha akarnak (L2/L3). A valodi gpu magok szamat mindig a branch egysegek szama adja meg, a tobbi csak simd utasitasokbol van osszerakva.
Tehat egy mai core2 quad processzor gpu terminlologiaval elve egy 64 magos videokartyanak felel meg, csak a szuperskalar felepites miatt a gpu-khoz kepest azonos orajelen ketszeres teljesitmennyel. (azaz egy 2Ghz-es core2-es egy 4Ghz-es gpu-val merheto ossze mips-ben)
Az intel 48 magos rendszere pedig egy 768 magos gpu-nak felel meg, de a PI-es mikroarchitektura miatt itt nem ervenyes a ketszeres orjel szoro, tehat ezek orajelben mar 1:1-ben hasonlithatoak ossze a mai gpu-kkal. Fontos teljesitmenyveszteseg az is, hogy a textura szures szoftveres (mint a gf8800-asoknal volt), tehat egy filtered texture load akar 4 utasitas idejet is megeszi, ami a shader kodtol fuggoen lassitja a feldolgozast.
"A (1 PPE & 7 SPEs) inkább egy többmagos x86-ra hasonlít mint akármelyik gpu-ra. Abban egyetértek hogy az összehasonlítást óvatosan kell kezelni."
A cell-ekben van 1 darab 64 bites powerpc proci, ez egy modern risc ami jo. A 7 spe (8 volt, de a ps3-asok csak a selejteseket kaptak, amiben meg 2 hibas volt ment a bravia tv-kbe), amibol 6 volt hasznalhato (1-en ment a masolasvedelem) csak sima dsp volt. Egy viszonylag kis lokalis memoriaval felszerelt, nagyon gyors, de nagyon buta dsp. A fejlesztest pedig az fogta meg, hogy az spe-k nem lattak a teljes memoriat. Tehat mig egy gpu latja a kartya teljes sajat ram-jat, addig a cell spe-k dma-val keregethettek el a rendszerrambol az adatokat. Az az algoritmus aminek a dataset-je koddal es stack-el egyutt nem fer el 128 KB-on, csak modositva volt futtathato spe-n. Marpedig csak ezert az egy dsp-jert nem fogja senki atirni a kodjat, ami az osszes tobbi architekturan jol fut. Nem eri meg penzugyileg. Nem veletlen, hogy az ibm dobta a cell-ek fejleszteset. A sajat tervezoje is elismerte, hogy a crossbar memoriavezerlo kihagyasa sporolas miatt hiba volt, a kis lokalis ram pedig betett a programozok lelkesedesenek. Ki akar ugy fejleszteni, hogy a nagy szamitasi kapacitas egy merevlemez csatolonak is epphogy elegseges csatorna vegen van, es csak par KB ram van a procikkal egy oldalon? Ugy nez ki, hogy az ibm is megunta.
ps: Miert nem arulja ezeket a sokmagos chipeket az intel? Mert teljesitmenyben eppen csak ott vannak mint a konkurensek, de az altalanos memoriakezeles es vedelem miatt ketszer annyi tranzisztor kellett ezekhez a chip-ekhez, tehat valami katasztrofalis a kihozataluk. Viszont 1-2 magos formaban atom-oknak hivjuk oket (16-32 magos gpu-k lennenek ha nem cpu-nak hasznalnak oket). Ha viszont elkezdenek arulni az eredetileg 48, de csak 12/24/36 mukodo magos hibas chipeket, mint low end cpu/gpu kombokat...
Az hogy az x86-on nevelkedett programozók nem tudtak mit kezdeni a Cell-procikkal, inkább a programozók "érdeme", mint az architektúra hibája, aki megtanult rá programot annak nem okozott problémát.
A (1 PPE & 7 SPEs) inkább egy többmagos x86-ra hasonlít mint akármelyik gpu-ra. Abban egyetértek hogy az összehasonlítást óvatosan kell kezelni.
Ami tény az elérhetõ teljesítmény / felhasznált energia arányban idáig a legjobb általános célra használható processzor. Lehet hogy a GPU-k nyers teljesítmény / felhasznált energia arányba verik de ott az elérhetõ teljesítmény általában a nyers teljesítmény alig tizede, kivéve a speciális feladatokat (a Fermirõl meg majd idõvel nyilatkozzunk).
Egyesek total megfeledkeznek errol: http://www.sg.hu/cikkek/33541/asztali_szuperszamitogepeket_iger_a_nemreg_megalapitott_orion
Es errol: http://www.hwsw.hu/hirek/30775/bezarja-kapuit-a-96-processzoros-munkaallomasarol-ismert-orion.html
Nyhe koppintas az egesz, a hatterben pedig az Orion ceg fejlesztesei vannak, amely ceg mara mar megszunt, nem veletlenul *valakiknek a keze rendesen ott volt*. Erdekesseg keppen csak a kovetkezot sugallom: 48*2=96
Linuxon 3D-re melyik programot ajánljátok? Objektum tervezésre, renderre valamint kisebb animációk készítésére gondoltam. Konfig egy Quad proci 4GB Rammal és egy nagyon profi videokarival támogatva a konfigom.
Úgy írd inkább, hogy boxon, meg vannak a paraméterek, mikor készítesz egy játékot, ha valami túl nagy, vagy kevés a gépnek, a szoftver jelzi azt. PS3-nál ha valami nagy vagy kicsi, csak akkor tudod, meg ha játszol vele, mert mindent ki kell hozzá számolni. Milyen jó lehet, úgy programozni, hogy pluszba még egy szoftver munkáját is el kell végezni...
Nekem van mindkettõ grafban szerintem x jobb, ezt a Mirror's Edge alapján mondom...boxra megvettem, ps3-hoz adták... Heavy Rainben az arcok nagyon jók, de pl. a háttér az nagyon rossz, rengeteg szögletes tárgy van(aminek kereknek kéne lennie), mint anno ps2-n. God of War 3 nem rossz játék, de nem az csúcs grafika, amit vártam. Talán 2-3 év múlva már elõ tudják hozni belõle a szörnyet, de addigra késõ lesz már valószínûleg...hülyeség volt a cell-t belerakni, mert inkább visszavetett a ps3-ra való fejlesztésben...
nem nyers erõbõl verik meg a pc-t hanem az optimalizálásban! nyilván sokkal egyszerûbb egy szabvány gépre célprogramot írni, mint úgy megtenni, hogy állítgathasson minden faszságot a kedves user, meg ezerféle konfiguráción fusson ugyan úgy... ne hajtsad a butaságot plz
@philcsy a cell processzor miért is volt csúcs? gyakorlatilag a programozók rémálma! de leegyszerûsítem: ha van egy 600 lóerõs autód aminek olyan rossz a tapadása hogy nem tudsz elindulni vele normálisan, de ha elindulsz is csúszkálsz az úton. csúcsnak neveznéd? nem!
tudna nekem abban vlki segíteni, hogy abit kn8/kn8 ultra -ba be tudok rakni, egy nvidia gts 250-et? az nvidia oldala írja, hogy ez a kártya pci-e 2.0-ás, csak az abit oldalán nem találom, hogy milyen típusú a pci-e foglalata. ha netalántán nem 2.0-ás a foglalat, attól még bele lehet rakni, fog mûködni?
plz, hlp, thx, b.
arról nem is beszélve hogy az amd prociknál, csak opteronnál volt nem 2xX magos, asztaliak mindig natívan x magosak, tehát már jó rég van 4 magos nem csak 2x2.
Na igen, de a cell ez akkor is nyers erõben egy core2duonak felel meg, simán high grafikával viszi a gta4et, a crysis2t, és a ps3 legszebb játékai simán kinéznek úgy mint a legszebb pc játékok maxon egy drága pcn (pl grand turismo 5, uncharted 2, final fantasy 13 (az x360asnál jóval szebb! még mielõtt monodod hogy ott láttad). Bár szerintem magyarországon a legtöbben túlértékelik játékélmény szempontjából egy gép teljesítményét.
"ha jól tudom 1 év mulva jött ki pc-be, és az elmúlt 1.5 évben lett 4 magos proci elõtte csak core 2 quad volt..." Az oké, hogy a C2Q "csak" 2x2 magos volt, de pl. 12 magos Opteronnál se vitatná senki, hogy a 2x6 mag az 12, skálázódásban ugyan ott van ...
Ez oltári nagy baromság, mert az USB 3.0 sem képes szinkron adatátvitelre."
Remélem tisztában vagy vele, hogy vannak USB2.0-ás monitorok és mûködnek jól? Annyi hátulütõje van, hogy mondjuk jó ha 30 képet tud másodpercenként, de nem hiszem, hogy az USB3 esetén ne lehetne ezt megoldani.
Xbox 360 mikor kijött 3 magos ibm power proci 3.6 ghz, 512 megás videkarival, ha jól tudom 1 év mulva jött ki pc-be, és az elmúlt 1.5 évben lett 4 magos proci elõtte csak core 2 quad volt... A cell szerintem meg felesleges bármihez hasonlítani, esélytelen. Nem azonos a felépítése, és nem váltotta be a reményeket, és zsákutcába futott. Nehéz rá viszonylag írni bármilyen progit, mert a 0-ról kell kezdeni.
"egy konzol még a kiadása napján se képviseli a csúcshardvereket befoglaló piac kis szegletét se!"
Lássuk csak:
PS3: November 11, 2006 proci: 3.2 GHz Cell Broadband Engine with 1 PPE & 7 SPEs(eredetileg 8 volt de 1 le lett tiltva?) Minden SPE egy 128bites SIMD egység.
Hol volt neked 4 éve 7 magos géped mi 3.2GHz-en pörög? Még álmodba se.
Még egy példa arra hogy mennyire sokféleképpen nevezik el az egyébként azonos dolgokat: Egy 2 magos pentium-ot még véletlenül sem neveznének 8 magosnak csak azért mert SSE utasításkészletet használ ami képes 4*32bites mûveletet elvégezni magonként. Az ATI HD5870-ben 320 db stream core található ezek 5 "szó" hosszú VLIW utasításkészlettel rendelkeznek. Ez összesen 1600 db utasítás párhuzamosan. Ha a processzorok számáról van szó 1600 magos GPU-nak nevezik és nem 320 magosnak. (A VLIW és az SSE közötti hasonlóságot most nem akarom kifejteni.)
"Amit "shared memory"-nak hív az Nvidia azt a többi "local memory"nak. És úgy tudom hogy terminológiailag is ez az utóbbi a helyes.
Nem így van." Szerintem félreértettél. "AMD GPUs include a fast, high-bandwidth local memory for each work-group. Local memory is shared among all work-items in a work-group." ATI STREAM COMPUTING(4.5) "Local Memory: A memory region local to a work-group. This memory region can be used to allocate variables that are shared by all work-items in that work-group." OpenCL(3.3) "Each thread block has shared memory visible to all threads of the block and with the same lifetime as the block." NVIDIA_CUDA(2.3) (DirectCompute-ot nem ismerem.) Szóval mind a három lényegében ugyanarról a "memória tipusról" beszél, csak máshogy hívják. A problémát bonyolítja hogy a klasszikus parallel programozásban (régebben 1 magos hagyományos CPU-s hállózatba kötött egységekbõl indultak ki) is használták/használják ezeket a kifejezések. Ott a "local memory"-t csak egy processzor éri el, a "shared memory"-t pedig a processzorok egy csoportja. Persze azóta sok minden megváltozott, de ezek a kifejezések elég megtéveszõek lehetnek. Remélem így már érthetõ mire gondoltam.
"Amikor meg az ATI specifikációban azt olvastam hogy "wawefromt" azt sem tudtam hogy eszik-e vagy isszák.
Szinte biztos, hogy egy wavelet alapú codec-et támogató függvényre gondolsz. A mostani videó codec szinte kivétel nélkül FFT alapú, a wavelet a következõ generáció (pl. Dirac), de egy nagyságrenddel számításigényesebb." A föntebb linkelt ATI STREAM COMPUTING dokumentációban (1.3) résznél megtalálod milyen "wavefront"-ra gondoltam.
Az érdekes lenne ha a többihez is hozzá lehetne férni. Bár nem tudom mire lehetne használni.
Hozzá lehet férni, csak nem publikus a módszer (csak NDA alatt érhetõ el). Egyedi meghajtókat lehetne írni a segítségével. Néhány CAD szoftver a mostani kártyákhoz (Quadro, FirePro) tartalmaz céloptimalizált egyedi meghajtót, és nem OpenGL vagy DirectX alatt mûködnek.
Amit "shared memory"-nak hív az Nvidia azt a többi "local memory"nak. És úgy tudom hogy terminológiailag is ez az utóbbi a helyes.
Nem így van. Az nVidia local memory nevet a regiszterekre alkalmazza (1024 db van magonként, de ez kicsit mixelt), de használatos az L1 memory név is. A shared memory a blokk memória neve, ennek is sok neve van, ez a másodszintû (Fermi: 64kB). A harmadszintû a globális memória, lényegében ez a grafikus processzor melletti memória (1-2 GB). Az nVidia lazán DRAM-nak hívja. Van még negyed szintû is, ez a host memory, ami a CPU mellett van. Az összes szint független egymástól, egyik sem gyorstár. Viszont a drága nVidia bevezette az L1 és L2 nevû (félkoherens) cache-t, ami a második és harmadik szinten található. Az OpenCL azért jobb, mert ott nem kell mindevvel törõdni, a CUDA bonyolultabb de hatékonyabb.
Amikor meg az ATI specifikációban azt olvastam hogy "wawefromt" azt sem tudtam hogy eszik-e vagy isszák.
Szinte biztos, hogy egy wavelet alapú codec-et támogató függvényre gondolsz. A mostani videó codec szinte kivétel nélkül FFT alapú, a wavelet a következõ generáció (pl. Dirac), de egy nagyságrenddel számításigényesebb.
egy konzol még a kiadása napján se képviseli a csúcshardvereket befoglaló piac kis szegletét se! max a ps1 amikor megjelent mindenki elélvezett a cd berakásán. és kifújt
Eléred a "texture units"-ot is. Az érdekes lenne ha a többihez is hozzá lehetne férni. Bár nem tudom mire lehetne használni.
A nevezéktan tényleg érdekes. Pl.: Amit "shared memory"-nak hív az Nvidia azt a többi "local memory"nak. És úgy tudom hogy terminológiailag is ez az utóbbi a helyes. Amikor meg az ATI specifikációban azt olvastam hogy "wawefromt" azt sem tudtam hogy eszik-e vagy isszák. Még most sem teljesen világos hogy ez számomra mitjen következményekkel jár. (Ha ebben jártas vagy leírhatnád röviden.) De ezen nem kell csodálkozni. Új terület, megbocsátható. Mind a két oldal elég zártan fejlõdött idáig, így nem csoda hogy saját szleng alakult ki. Mi meg foghatjuk a fejünket.
48 mag, aztaa, de szerintem elõször csak konzolokban lesz ilyen technológia megfizethetõ árban, az ilyen pck csak megint a generációváltás után 3 évvel fognak elterjedni...
Az SFU nem CUDA mag része.
Igaz, az SFU a szálblokk része. Viszont a CUDA magok közvetlenül elérhetik, a többi céláramkört csak a DirecX/OpenGL meghajtón keresztül, CUDA nem tud mit kezdeni velük.
Mellesleg amit szálblokknak hívok az - nVidia szerint: Streaming Multiprocessor (SM) - Khronos (OpenCL): Compute Unit - Brook+ (ATI): Stream Processor - programozási leírások + régi CUDA: thread block, vagy simán block, szóval nem egyértelmû.
Nézd meg jobban a doksikat, az SFU a Cuda mag része. Minden szálblokkhoz tartozik 4, és a GPGPU számításokhoz is használhatóak. A többi céláramkör meg nem.
"if the read and write paths are separate, it may be necessary to explicitly flush the entire write / ‘‘export’’ path before it is safe to issue the read, and any caches on the read path would not be coherent with respect to the write data." Forrás
Viszont az Opteron a foglalatok között is cache koherens (L3).
Az elõbb linkelt oldalról ajánlom figyelmedbe a következõ idézetet: "each core has 2 levels of cache, there is no hardware cache coherence support among cores" Ebbõl a szempontból primitívebb mint a Fermi.
"Az intel 48 magos chipje 48 darab pentium 1 mmx-es felig skalar cisc processzor magot tartalmaz, csak felbovitettek 64 bites vektoros utasitasokkal." Nem. 24db 2 magos egységet tartalmaz. Ergó 24db független 2 magos processzor, közös memóriavezérlõvel. Annyira elszeparáltak hogy külön L2 cache-ük van és a magok közötti kapcsolatot is routernek nevezik.
"Nem fujtak le, csak elhalasztottak, mert nem erdekuk versenyezni. Ha az lesz, akkor a tobbi cegnek annyi." Lehet szépítgetni adolgon de a tények: -2010 ejére volt mejelentve a Larabee -2090 nyár végén bejelentették hogy nem adják ki a Larabee-t, mert az nem lenne versenyképes a konkurens termékekkel, de a tapasztalatot felhasználják a késõbbi sokmagos architektóráknál Ez nekem buktaszagú.
Mi az hogy ne lenne érdekük versenyezni? Ilyet még nem hallott a kapitalista világ!
Ma mar egy gpu-ban sincs celhardver, mind kivetel nelkul altalanos cpu
Ekkora marhaságot..
Még az nVidia Fermi (GF100) is tartalmaz tartalmaz célhardvert, nemhogy a AMD Radeon (Cypress).
"The GF100 will have: * 512 CUDA processors (Unified Shader cores) * 16 geometry units * 4 raster units * 64 texture units * 48 ROP engines" Forrás
A GPGPU egy más világ, a magok nem függetlenek hanem szálblokkonként programozhatóak (pl. fermi esetén 32 db egységekben). Azaz minden 32 mag szinkronban végzi ugyanazt a mûveletet, vagy 16 (= 512/32) független processzorként használható 32-ed teljesítménnyel.
Ma mar egy gpu-ban sincs celhardver, mind kivetel nelkul altalanos cpu, csak cisc helyett risc-es utasitaskeszlettel, vektormuveletekkel es memoriavedelem es virtualis memoriakezeles nelkul. Az intel 48 magos chipje 48 darab pentium 1 mmx-es felig skalar cisc processzor magot tartalmaz, csak felbovitettek 64 bites vektoros utasitasokkal. Viszont megmaradt a lapkezles alapu memoriavedelem es a virtualis memoria lehetosege is.
"Ha ez tényleg versenybeszállhatott volna a grafikus processzorokkal akkor féléve nem fújják le a Larabee-projectet."
Nem fujtak le, csak elhalasztottak, mert nem erdekuk versenyezni. Ha az lesz, akkor a tobbi cegnek annyi.
"nem kell majd 3d gyorsítás, dsp, meg egyéb célhardver. a monitorok usb-sek lesznek, azt jóvan. bár a drágajó májkroszoftnak lesz ehhez az extra védett módhoz egykét szava."
3D gyorsitas kelleni fog, dedikalt shader szoftverrel, csak altalanos cpu magon futtatva. (az intel integralt ramdac chipeknel most is ez tortenik) Az ibm anno csinalt mar intel cpu-s 3d gyorsitos videokartyat, meg az xt-k idejeben. (egy kisebb csaladi haz araba kerult es par Mhz-es, 1 magos 8086-os volt, 640x480x8bbp-s felbontassal) Az usb pont nem jo a monitorokhoz, ennel sokkal hasznosabb es olcsobb lenne rezes 10G-s ethernetet hasznalni. Letezik, es kis tavolsagokra (2.5 meter) pont jo. De mar terjed az olcso optika is.
A microsoftnak egyebkent ez az egysegesitett architektura lenne a legjobb, mert mindent ok fejleszthetnenek, belertve a 3d-s driver-eket, ami egyszerubbe tenne az eletuket. (kevesebb fele hardver tamogatasa = stabilabb windows)
Találtam egy decemberi cikket a HWSW-n. Úgytûnik ez ugyanaz, és ennek nincs köze a Larabee-hoz.
Hát nem is tudom... 48 darab atom-mag :) Ha hozzámvágnák se kéne :D
lesz vagy 200ezer
A célhardware-ek hatékonysága mindig jobb lesz, ez tény. Ha ez tényleg versenybeszállhatott volna a grafikus processzorokkal akkor féléve nem fújják le a Larabee-projectet. Van arról hír hogy milyen csíkszélességgel készül? Mert anélkül nem szabad összehasonlítani õket.
Végre megjelent a Larabee, vagyis az ami lett belõle..
"akkor is siman lehet belole egy rendes pc-t epiteni, mondjuk 24 mag a videokartyanak, 2 a rendszernek. Es meg igy is hozna egy jobb geforce tudasat. "
Erdekes lenne,ha jovoben a videokartyak szoftveresek lenenek.Alaposan atalakitanak a videokartya piacot.
a monitorok usb-sek lesznek, azt jóvan
Ez oltári nagy baromság, mert az USB 3.0 sem képes szinkron adatátvitelre. Ráadásul hiába képes 4.8 GB/s vonalsebességre, ha a protokoll és az átvitelvezérlés miatti veszteségek a legnagyobbak a hálózati protokollok között. Jó ha 2GB/s tartós sebességre képes, ami már nem elég egy HDTV (1920x1080x24 bit) átvitelhez.
na már látom, hogy mi lesz a mondás pár év múlva: "most vettem egy 3 gigamagos procit"
A 48 mag nem is olyan sok, a már most boltban megvásárolható 4 foglalatos AMD Opteron 61xx is éppen 48 magot tartalmaz. A fõ probléma az, hogy a párhuzamos szoftverek fejlesztési ideje közel exponenciálisan növekszik a magok számához képest, kivéve a triviálisan párhuzamos szoftverekét (pl. webszerver, 3D raytrace/reyes grafika, FEA). Ráadásul 16 mag felett a desktop Windows sem skálázódik megfelelõen, bár ennek inkább marketinges okai vannak. Linux/UNIX alatt is inkább N:M szálkezelés ajánlott 16 mag felett. Vagy 4-16 magonként virtuális gépeket lehet futtatni, hogy megfelelõ legyen a szálak kihasználtsága.
nem kell majd 3d gyorsítás, dsp, meg egyéb célhardver. a monitorok usb-sek lesznek, azt jóvan. bár a drágajó májkroszoftnak lesz ehhez az extra védett módhoz egykét szava.
48 mag, magonkent 8 muvelet / utasitas = 384 alu muvelet / orajel, mindez 1-2 Ghz-en. Szerintem ha csak 26 mag jo belole, mar akkor is siman lehet belole egy rendes pc-t epiteni, mondjuk 24 mag a videokartyanak, 2 a rendszernek. Es meg igy is hozna egy jobb geforce tudasat. Mindezt egy chip-ben, tehat csak ram-ot es egy deli hidat kell melle rakni es kesz az alaplap, ami akar laptopba is mehet. Mondjuk 1Ghz-en jaratva, 25 Wattos fogyasztassal boven jo lenne laptopba vagy akar telefonba is. Ha egy intel magot nem hasznal a rendszer, akkor ki is tudja kapcsolni, tehat leallitja az orajelet es hibernalja a cpu-t. Ezzel akar mar telefon/tablet/laptop/desktop rendszerekhez is lehet ugyanazt az alaplapot hasznalni. Ha az intel sporolni akar, akkor a 3-bol csak 1-2 memoriavezerlot hagy meg, vagy crossbar-on kereszult osszekoti oket mondjuk 4 vagy 8 fizikai csatornara.
Jo lenne ha nem kutatnak, hanem elkezdenek arulni, lenne ra kereslet, ebben biztos vagyok.
Érdekes processzor, én egyenlõre csak a végeselem módszerekre látom hasznosnak, de arra egy vektor processzor jóval hatásosabb. Talán még adatbázis kezelésre.