"Hát csak letölteni meg nem is nagyon szokott semmi..."
Már jópár éve van wmv kitömörítésre hardveres támogatás a GPU-kban. Normál esetben ugyan nem kell a kész képet letölteni, de van amikor igen. Pl. ha a direkt megjelenítés nem mûködik, mert a játék 3D motorjával összeakad. Én ebbe futottam bele. Le kell tölteni a kész képet a rendszer memóriába, majd onnnan a másik szálon visszatölteni textúrába. Itt a letöltés annyira lassú, hogy egy átlagos gépen a szoftveres kicsomagolás kb. egy nagyságrenddel gyorsabb.
a fentiek ellenére lokids nek van valamennyire igaza. a gpu-t az amd fogja támogatni, és olyan technikákkal vértezi fel, ami eddíg nem volt a gpu ban.
Látom többen is úgy képzelték el ezt az összeolvadást, hogy ezentúl nem lesz gpu a gépben. :P Az összeolvdás csak a procit érinti, zt ezentúl sem fogják grafikai számításokra használni. Egyszerüsítve csak annyi, hogy a gpu-ban lévõ jobb technológiát pelepakolják a cpu-ba.
"133 MB/s? Nem a pci 1.0-át kéne nézni, az egy kicsit régi..."
Uhh, szakértelem a köbön. A legújabb spec. (ami kb. 1.1) szerint is a mai pc-kben lévõ PCI busz 133MB/s-es. Ez nem olyan dolog, ami csak úgy össze-vissza változik.
Nvidiánál már a 7800-asokból is csak a leggyengébb 7800GS-es van AGP-ben (kb. egy gyártótól), a 7900-asokról nem is beszélve. ATI-nál is hasonló a helyzet, a felsõ kategória újabb kártyái mind PCI-E-s.
Információbefogadóképességed konvergál a nullához. Én nem a (jelenlegi) játékok közbeni fps-rõl beszéltem. Másrészt, mint már írtam, eleve nem építettek a mai játékok a CPU-GPU közötti sávszélre, tekintettel az AGP-s konfigokra. Még új pályarészeket se nagyon töltenek be játék közben, mert az is lassú. (Lásd amit írtam az elérési módok külünbségeirõl.) De ennek hamarosan vége. A GPU fogja számolni a fizikát, stb.
Mellesleg valahol láttam olyan tesztet, hogy egy csúcskártyát x16 és x4 PCI-E módban járattak (nem tudom, utóbbit hogy csinálták, mindegy), és 10%-kal lassabb kisebb fps-t kaptak x4-ben. Namost a x4 felel meg az AGP8x-nak (GPU-s olvasási) sávszélben... Érdekes, nem?
Továbbá, olyan tesztek is voltak, hogy jobb-e a 2x 16x-os SLI/CrossFire konfig a 2x 8x-osnál. Eredmény: akár 10%-os különbség (persze csak csúcskártyákkal). Ja, most jut eszembe, az SLI is totál értelmetlen hülyeség, ugyi?
Ez meg az év butasága, hogy azért rossz a HD, mert jobban lehet látni a hibákat. Basszus, akkor te bizonyára moziba sem jársz...! Mert ott még nagyobb a felbontás, még jobb a kép...
133 MB/s? Nem a pci 1.0-át kéne nézni, az egy kicsit régi...
Nem találtam mostani csúcskártyát AGP-ben, csak egyel elõbbi generációsat. De végülis nem ez a lényeg, hanem az, hogy azoknak is ugyanolyan teljesítményt nyújt a pcie-s verziója mint az agp-s, és ez a lényeg, ez elárulja hogy parasztvakítás az egész. És nem neked fogok hinni ilyen dologban... egyszerûen azért van a pcie hogy lehúzzák a vásárlókat, ennyi. Valószínûleg a mostani csúcskártyákból is lesz agp-s, csak elõtte lehúzzák a váltani hajlandó júzereket, mint eddig, hogy azért is a pcie terjedjen.
És ne mond hogy én vagyok képtelen önálló gondolkodásra, amikor te veszel be minden reklámot, nem én ráadásul más véleménye nélkül is ezen a véleményen voltam amikor láttam teszteket, a többi vélemény csak ráadás. HD-ról meg: durva is volt látni egy hd videon az sw ep3-ban azokat az óriási hibákat(katona feje igazi, a többi része meg grafika, és tisztán látszott a különbség), amelyek amúgy normál felbontásban nem látszódtak, és még a film se lett jobb :\ igen ez kell ez a jövõ álljunk a cégek szolgálatába, és fogyasszunk, mer az jó! :DDD
PCI busz: nyilván nem tudod, hogy 2 csatornán (1 a kártyahelyeknek, 1 az alaplapi cuccoknak, általában) ül az összes PCI slot, és ezek közös sávszéle a 133MB/s... Plusz még hátráltatják is egymást (delay). PCI-Express-nél minden x1 slotnak saját, 500 MB/s-es csatornája van.
Ja, a hozzáértõk... Így már világos... Õk mondták neked azt is, hogy a HD-nak sincs semmi értelme, az is csak parasztvakítás? Mondcsak, te önálló gondolkodásra képtelen vagy?
Hát pedig hozzáértõk már jópárszor elmondták, hogy normális videokártyához (nem turbocache-shez), bõven elég lenne a 8x agp is, de biztos hülyék voltak, és csak véletlenül ugyan olyan gyorsak a mostani csúcskártyák agp-s verziói mint a pcie-sek. És miért elavult a pci? Ja mert a videokártyák igényeit nem tudja kielégíteni? Erre lett kitalálva az agp, minden másra elég a pci is. Pcie-re mi van videokártyán kívül?
Csakhogy a CPU feltölteni is csak alapsebességgel tud ám. A 8x-os sebesség az AGP texturingra érvényes, amikor a GPU kénytelen a main ramból olvasni renderelés közben a textúrákat. Bár lehet trükközni azzal, hogy a feltöltést is, meg a poligon-adatokat is a GPU-val másoltatjuk át, ilyen AGP driver nem minden chipsethez elérhetõ, illetve néha le kell tiltani. Meg feltartja a GPU-t is. Továbbá az AGP busszal az ilyen GPU-val számoltatott fizika és egyéb számítások (mint pl. video kódolás/dekódolás gyorsítás) szóba se jöhetett, mert oda felé sem túl gyorsan mehetnek az adatok, visszafelé meg csak a CPU tul pakolni, jó lassan.
Egyszóval nem igaz, hogy ne lenne elõrelépés a PCI-Express.
Meg az is egy szempont, hogy a régi PCI busz is elavult, ahelyett is új kellett.
Az AGP 4x-rõl 8x-ra váltás tényleg nem sok elõnnyel járt, de ebbõl nem következik, hogy a PCI-Express is értelmetlen.
Nem tudom ez hogy jött ide amit írtál, mert végig a videokártyára feltöltésrõl beszéltél, és én a letöltésrõl írtam. CPU feltölt a videokártyához, le nemnagyon, tehát elég az agp, pcie parasztvakítás, ennyi. Textúrákat feltölteni kell a videokártyához, nem le.
Sokan tudják, akiket érdekelhet. Több feljesztés is megy több vonalon. Lásd pl. gpgpu.org. Vagy itt az sg-n is volt róla többször cikk, hogy mind az Nvidia, mind az ATI feljeszt egy megoldást, amivel elterjedten használt fizikai motorok gyorsítására lehet használni a 2.(-3.) kártyát SLI v. CrossFire konfigban. Ha megvalósul ez a Fusion dolog, külön kártya sem kell majd erre... (Itt a játékprogramozónak csak az a dolga, hogy a megfelelõ fizika-API-t használja.) Plusz most a 8000-es sorozattal bevezettett az Nvidia egy olyat, hogy CUDA, ami a sok (8800GTX esetén 128, de késõbb ugye jönnek majd a kisebbek is, pl. 64-es) kis shader-procira való C-nyelvû fejlesztési környezet!
Pont a kis sávszél miatt nem volt korábban szokás textúrát áttöltögetni run-time. (Csak ha nincs elég grafikus mem, de ez igencsak lassú volt.) De az sem lenne baj, ha játék közben nem kellene várogatni, amikor új pálya töltõdik befele.
De nézzük az objekteket, ill. azok poligonjait! Szerinted mi mozgatja, animálja most (DX9) õket? A proci... Bár ez a DX10-zel változik, mert abban van geometria-shader is. Plusz az új, még univerzálisabb gpu-kkal mindenfélét lehet csinálni. Viszont komplex a helyzet, mert sokmindenben mégis be kellhet segítenie a cpu-nak is.
Plusz kompatibilitási problémák miatt gyakran elõfordult, hogy csak lassú módban mûködtek együtt az alaplap és a grafkártya.
Másképp megfogalmazva: ha a GPU-nak elég saját memcsit biztosítassz akkor csak minimális elõnye lesz az összeépítésnek!
Folyománya, úgy tûnik véleményed szerint felesleges, egy PCIe kártyára több száz mega memóriát rakni?
Továbbá egy összeépített rendszernek a teljes memóriáját a ma használt legbaróbb memcsivel kéne megcsinálni!!! Vajon mennyibe kerülhet 2GB DDR3-as memória?;)))
Hát ezt benézted, mert nem a cache miatt gyorsabb, ugyanis az asztali celeronokban más mag van mint a mobilokban. Az asztali az gigahertzkergetõ amúgy ultraszar, a mobil meg jókis alacsony órajeles jó. Ha cache-bõl eredõ teljesítménykülönbséget akarsz tesztelni, akkor ajánlom a throughbred-b vs bartont. Ott ugyanaz a mag, csak a bartonon van + 256kbyte cache. És hát nem jó semmire, mert csak a winrar tömörítésben ad neki számottevõ elõnyt, sehol máshol, se mp3 kódolás se divx kódolás, se játék, sehol.
Érdekes módon az AMD 99-tõl a k7 megjelenéstõl kezdve a Core-k megjelenéséig elsõ volt teljesítményben és árban(p4 szar is volt teljesítményben, de azért drága is volt), mostmár csak árban az elsõ(core2 már jó teljesítményben, de intel szokás szerint megint drága), de jön a K8L és akkor lehet hogy újra mind2-ben elsõ lesz újra az AMD ;)
Én Ulead VS10-be mepeg1 és mpeg2-es videó anyagokat szoktam megvágni és esetleg feliratokat ill. átvezetõ efektet szoktam rárakni. Az ilyen mûveletek kimentésénél elég gyors minután csak a megmaradtt részeket illyeszti össze és amit meg számolgatnia kell az efekteknél az meg nem sok idõbe tellik egy 2500+ -osnál is. Persze lehet, hogy gyorsabb lenne a kb. 5mp-es átfordító efekt elkészítése, de ez még kibirható! Persze nem azt mondom, hogy nem kellene gyorsabb gép, de ez sem egy lassú dög! Na persze 1Gb RAM-mal érezhetõen gyorsabb a gép mint amikor csak a fele volt !
"Ennyi erõvel cachet is minek raknak a prociba, mert amiatt igazán nagy a selejt arány. Lehet külsõ, alaplapra forrasztott cachet használni, mint 486-osnál, csak lehet nem volna elég gyors."
A tobb chip egy tok megoldas erre jonak tunne. Szvsz a samsung csinalt ilyet eloszor memoriakkal. A chipek egymas fole kerulnek, es a labaik egy resze nem a tokon kivulre kerul, hanem belul ossze van forrasztva. Igy egy komplett gep epitheto egy cpu, egy spu, egy i/o es egy memoria chipbol.
Az ibm nemreg talalta ki, hogy hogyan lehet labak nelkul, sziliciumtuskekkel 3d-ben illeszteni a lapokat. Igy az egyik szelet lehet a cpu, alatta az spu, legalul pedig a memoria. Osszekapcsolashoz pedig annyi tut hasznalnak amennyit akarnak, tehat lehet akar tobb ezer bites memoriabusz is.
"Az AGP4X is tökéletesen elegendõ kommunikációt biztosított a CPU és GPU között" Ez az allitas addig igaz, amig a jatek elejen a cpu mindent betolt a kartyaba, majd csak a rajzold ki x-et y-helyre parancsokat kuldozgeti. Az xbox360 nagy mertekben gyorsabb lett attol, hogy a cpu egyenesen a gpu cache-ebe tudja irni a futas kozben generalt geometriat. (ez persze csak akkor jo ha van ilyen feladat, tehat pl. a fizikai szimulacio deformalja a modelleket)
A stream processzorok nagyon gyorsak ha egyszeru feladatot kell rovid ido alatt sokszor vegrehajtani. (grafika, fizika es huzalozott mi) A cpu-k pedig akkor jok, ha logikai szabalyrendszert kell kovetni. (uzleti vagy jatek logika, szakerto mi) A ketto kombinalasabol nagyon jo rendszereket lehet kihozni. Az uj core 2 sorozatban 4 alu van egy core-ban, azaz egy ketmagos rendszerben 8 fuggetlen alu van. (magonkent 2 szallal) Ez azt jelenti, hogy ha az uj nvidia procit nem grafikara hanem x86 emulaciora hasznalnank, akkor kb. egy 1.3-as core2-es teljesitmenyet hozna. (lassabb szalankenti teljesitmennyel, de tobb szallal mint pl. a sun niagara processzora, vagy a kozos os az elso hyperthread-es gep a xerox alto)
"mondjuk az x86 lecserélése, az kezdésnek jó megoldás lenne."
Sajnos arra még várni kell nagyon sokat. A probléma a kompatibilitás. Senki sem vesz olyan gépet, amire nincs szoftver, és senki nem fejleszt olyan gépre, amit nem használnak. Tehát olyan gépet kéne építeni, ami futtatni tudja az x86-os progikat egy mai erõsebb gép sebességével. Ilyet értelmes áron nem tud senki építeni. A másik lehetõség, hogy a szoftverek a platformfüggetlenség felé fejlõdnek (JAVA, .NET, stb). De mire a ma használt szoftverek kifutnak, az minimum 10 év, de akár 20 is (ma is használnak még pár helyen 20 éves szoftvereket!).
"A GPU és a CPU egyesítése révén a szuperszámítógépekre jellemzõ teljesítmény és sebességek jelenhetnek meg az asztali konfigurációk területén"
Elmagyarázom. Egy átlag 1 magos CPU nagyságrendileg 10gflops körüli teljesítményû. Egy szupercsúcs 4 magos kb. 40. Valójában kevesebb, mert nincs elég memória sávszélesség (foleg a mostani Intel-féle 2x2-es felállásban). Az nVidia új GPU-ja viszont 520gflops teljesítményû, és rengeteg féle számítási feladatra használható. Például a játékokban fizikára. Az 500gflops az bizony már szuperszámítógépes teljesítmény. Egy ilyen Quad-SLI rendszer már bekerülhetne a TOP500-ba. A trükk az benne, hogy a GPU nem általános célú proci, hanem számítási feladatokra optimalizált sokmagos (a legújabb 128) vektorproci.
Ennyi erõvel cachet is minek raknak a prociba, mert amiatt igazán nagy a selejt arány. Lehet külsõ, alaplapra forrasztott cachet használni, mint 486-osnál, csak lehet nem volna elég gyors.
Konvertálni (reenkódolni) nem szoktál? Abban a dual-core 2x-es gyorsulást hoz, ez a Fusion dolog meg akár többszöröset. Talán nem mindegy, hogy 2 nap a konvertálás, vagy csak pár óra...
Édes Istenem! Ezek itt a 4magos CPU-ról meg integrált CPU-GPU -ról beszélnek én meg egy AthlonXP 2500+ -ost használok és vigan vágok videót VideoStudio 10-ben. Na azért majd jövõre beujíok egy X2-est, hátha meglep a sebességkülömbség! :)
egyébként az átlag usernek, de még az átlag gamernek sem kell szerintem conroe/x2...pláne az ára miatt... mire lesz k8 v. Fusion adigra már talán
LOL Valszeg élõben nem láttál még akkorát mint amekkorát az AMD öszetett már.
Jók (még most is nagyon jók) voltak az Amiga-k. Sõt a fiammal sokszor elõveszem a régebbi gépeket. Bár én Atari Falcon-ra szavaztam, de mindig vágyakozva néztem ismerõseim Amiga gépeire. Addig vágyakoztam, hogy amikor már lecsengõben volt az "életgörbéje" beruháztam egyre (a4000). Ja és ha ilyen jól felsoroltad lehetne említeni az Apple gépeket is. Onnan is sok minden jött át a Pc-s világba még szerencse.
Az én A1200-esem gond nélkül kezeli a szabványos AT DVD írót, amit rákötöttem, írás/olvasás módban egyaránt.
Valószínûleg zsenge korod miatt (<15) nem ismerheted az amigákat. Az amigák idejében a PC a 486DX4/100 nevú "processzorral" hasított maximum, 256szinû vga kártyája nagyrészt a cégeknek volt (õk tudták megfizetni), és a hangja kimerült a covox nevû ellenálássorral élpített hangkeltõ eszközzel, vagy a C64 minõségnél alig jobb sound blasterrel. Mindez meghajtotta a windows3.1 nevû DOS GUI. Játék kizárólag DOS alatt volt eklépzelhetõ.
Az Amigákról származik a 3D raytracing, a grafika, a többcsatornás PCM hang, a multimédia (Scala MM), a videoszerkesztés / vágás, és a preemptive multitasking - többek között.
mondjuk az x86 lecserélése, az kezdésnek jó megoldás lenne. :)
Kedves ismeretlen kergemarhakoros. DVD-t nézni egy 80 as években kifejlesztett gépen értelme nem sok, hiszen egy évtizeddel késöbbi a DVD szabvány. halgass zenét: elég sokat lehettet rajta hallgatni és elég jokat vágj videokat : az összes kapható video vágo mefvolt Amigára is, elég sokat vágtam vele videót. Na most a Lightwave ha mond neked valamit, az sem PC re volt kifejlesztve hanem Amigára pl.
Látom eccerû arcú gyermek vagy, aki semmit sem tudsz az egészrõl csak szeretsz kötekedni. Nem vagy Te politikus véletlenül?
Látom fékezhetetlen vágy él benned egy újabb felkijáltójel megszerzésére. :/ Nos mindazt meg lehet tenni egy Amigával is, amit írtál. Persze nem egy régi A500-assal, és az is igaz, hogy a legkomolyabb Amiga sem ér a legcsúcsabb PC nyomába, ami a teljesítményt illeti. De azokra kevesebb is elég, ha nem hajt a tatár.
Game grafika szempontjából sokkal többet számít a saját gyors elérésû grafika. Itt viszont osztozik a CPU-val egy viszonylag lassú memórián. Tehát, ez a hibrid vagy irodai gépbe való, ha VGA-ként használják, vagy matematikai számítások gyorsítására.
az tény, hogy manapság már figyelnek annyira egy oprendszer készítésénél a gépigényre, mint akkor - a kiegészítõ eszközbõl kõkemény üzlet lett, annak minden elõnyével és hátrányával. utóbbinál fontos, hogy a sok marhára mindent rá lehet sózni
Nagyhülyeség. Intel csak az utóbbi idõben elõzte meg.. Pl. AMD stb..2500+,3200+..stb neveker az Intel oltására csinálta. Pl. Egy 3200+ vagy 2500+ megfelelt egy Intel Pentim 3GHz-es procinak, kisebb effektív órajellel.
te kergemarha ha neked annyira nagy élményet nyúj az amiga akkor használd, nézz rajta DVD filmeket, játsz rajta 3d játékokat, hallgass zenét, internetezz, vágj videókat, szerkessz 3d objektumakat stb de kurvára nem érdekekel senkit a baromságod, szóval csít
Az Amiga a maga 512 Kb jével, és 7.14 Mhz ével sokkkal emberibb rencer volt, mint pl az 3 gigás PC az XP vel felfegyverkezve. Most duál mag kerreg a gépben több mint 2 GB memoriával (azaz kb 300x nagyobb orajellel és 4000x! akkora memoriával. És az élmény nem annyiszor nagyobb, sõt jóesetben kb akkora)
De ha már az alaplapra van integrálva a zsuga, akkor nem értelmesebb a prociba integrálni? 1x kell tokozni, egyszerûbb alaplap - ez nem kevés pénz. Meg mellékesen gyorsabb is ha a vga+cpu egy tokozáson belül helyezkedik el, mintha volna köztük 20 centi drót meg pár tetû, mindennel inkompatíbilis, taiwani busz.
Durva.Sietnie kell az amd-nek ha lépést akar tartani.
És akkor köss össze 4 db g80-at és lesheted majd az E-onos csekket, hogy mennyit is fogyasztott a kis drágaszzzzzág :) Gondolom ezt nem átlagfelhaszáloknak tartogatják. De igaz valamit valamiért..... (Aki már 4 kártyát köt össze az nem foglalkozik a fogyasztásssal)
Bizony, úgy néz ki, hamarosan ilyenekbõl épülnek majd a renderparkok (4db G80 SLI-ben 2 TFLOPS általánosan használható teljesítmény [bár itt még valamennyire be kell segítenie a CPU-nak is]), komoly munkaállomások, sõt ez már elérheti a miniszámítógép szintet (bár a kategóriák folyamatosan tolódnak felfelé), stb.
"Aki meg nem grafikazni szeretne, hanem mondjuk fizikai szimulaciokat futtatni, az semmivel sem lesz elorebb egy plusz GPU-val a prociban"
Olyan jó lenne, ha nem csak írkálnál, hanem olvasnál is! Lásd pl. #12, de ha nekem nem hiszel, akkor tessék: www.gpgpu.ort Nézz itt körül kicsit!
"sokkal jobban jarna meg egy altalanos celu maggal, vagy egy nemreg ugy lefikazott fizikai gyorsitokartyaval."
Tévedés. Egy mai középkategóriás gpu keresztben lenyeli fizikai számításokban is a Physix-ot, egy általános cpu meg labdába sem rúg mellette ilyen téren.
Na most végigkötözködted az SG-t remélem most jó. :DD Megyek ki is kapcsolom a pentijumom meg a céerté monitorom, lehet, hogy még a kejbordom is kidobom, de hát akkormeg minek is a vincseszter és a édzsípís esvégéa kártya /naja nem tellik píszíáj ekszpresszre/? :DD
+ egy kis adalék a nvidia 8-ból, gyanítóm at ATI R600-as is ilyen irányba megy
Azok is nagyon örüli fognak az új GeForce-nak, akik nem feltétlenül játékra vagy grafikára igényelnek nagy számítási teljesítményét. Az 520 gigaflops-os nyers erõ standard C programozási nyelven is elérhetõ. A Compute Unified Device Architecture-nek (CUDA) köszönhetõen a masszívan párhuzamosítható, többszálas számítási mûveletekben a G80 128 darab, 1350 MHz-es stream processzora nagyságrendekkel gyorsabb a hagyományos CPU-knál, ráadásul SLI-ben több grafikus kártya is összekapcsolható
"a 128 gepes cluster nem feltetlen szuperszamitogep..."
Nyilvan, eg es fold a ketto, de ha mar egy ilyet lattak volna a T. Marketingesek, akkor nem irnanak ilyen blodsegeket.
"Ott van letjogosultsaga ezeknek a cuccoknak."
??? Milyeneknek? Hogy egybeepitik a CPU-val a GPU-t? Hat nemhiszem. Ha valaki renderfarmot akart epiteni, azt eddig is SGI-bol tette, es vszg ezutan is abbol fogja, az pedig meg egy darabig folenyesen verni fogja muszakilag, es minden egyeb szempontbol is (az arat kiveve :) ) az A(TI/MD) probalkozasait. Aki meg nem grafikazni szeretne, hanem mondjuk fizikai szimulaciokat futtatni, az semmivel sem lesz elorebb egy plusz GPU-val a prociban, sokkal jobban jarna meg egy altalanos celu maggal, vagy egy nemreg ugy lefikazott fizikai gyorsitokartyaval. Kriptoanalizist meg vszg tovabbra is speci celhardvereken fognak futtatni.
"De ha jobban belegondolok akkor a fizikai számításokat pl gyorsíthatná a vga részére"
A jelenlegi GPU-kat nem igazan erre talaltak ki (azaz hogy barmilyen, a feladatuktol minimalis mertekben eltero muveletben gyorsitsak a CPU-t, a fizikai szamitasokban meg kulonosen nem).
roliika: "kess", "gigahercek": áááááááááá!
Hé, az nem a C64 volt! :D 256KB-2MB un. "chipram" (ma úgy hívják, unified ram) lehetett benne, típustól függõen. (Meg persze sima, csak a proci által elérhetõ ram is lehetett benne.)
Úgy látom, többeknek nem világos, mi köze proci mellé integrált gpu-nak a számítási teljesítményhez. Itt elsõsorban nem a grafika gyorsulásáról van szó, fõleg hogy nem nagyon lehet csúcskártyákra való, sokat fogyasztó gpu-t tenni a proci mellé. Hanem arról van szó, hogy a gpu-kban lévõ, programfuttatási képeséggel rendelkezõ pixel- és vertex-, illetve újabban univerzális (másnéven unified) shader ("árnyaló") egységek nem csak grafikai effekt-programokat tudnak futtatni, hanem sokfajta matematikai számítási feladat is elvégezhetõ velük, mégpedig egy cpu-hoz képest többszörös teljesítménnyel! Viszont, mivel nem tudnak mindent, amit egy CPU, némi CPU-s segítségére is szükség van. Itt nagyon jól jön az összeintegráltság által megnövekedett adatátviteli sebességnövekedés. (Nem kell ide-oda küldözgetni az adatokat az AGP vagy inkább PCI-Express buszon, mint eddig ilyen esetben.)
Röviden és leegyszerûsítve ez kb. olyan, mintha kiegészülne a proci egy szuper-SIMD (SSEx, stb.) egységgel.
Biony biony a kess sokat éér! A mostani öregecske 3 éves PC-mben 2,6-os celka proci megy 256k kessel. Tervezek venni 1 lapitopit abban celka M van 1Mega kessel, 1,6GHz-en. Mégis a mérési eredmények szerint jobb a lapitopi, mert nagyobb a proci kesse és DDR2-es memót használ...tehát nem feltétlen a gigahercek számítanak. :)
Szerintem nem hülyeség. A cpu és a gpu egyesítésével az adatközlés sebessége valószínüleg gyorsabb lenne és akkor már ha mondjuk gddr 4-es memoriákkal párosítva szerintem nem lenne sebbesség hiány. Ja az Amigában mennyi memória volt? 64kbyte? most azért már valamivel elõrébb tartanak.
Szerintem hüleség az egész, van egy GPU ami százzal gázzal kommunikál a saját ramjával a saját buszán, na még erre a buszra ráültetik a CPU-t is a saját vagy ne adj isten egyesítet memóriájával, az miért lenne gyorsabb, csak mert egy tokban vannak?
Az AGP4X is tökéletesen elegendõ kommunikációt biztosított a CPU és GPU között eközben mindegyik tudott a saját memcsijével kommunikálni és minden nagyon jó volt. A PS3-nál is külön memóriája van a GPU-nak és a CPU-nak, és ez így van rendjén.
Emléxem az Amiga esetében 4X gyorsulást lehetett elérni egy kis memcsi bõvítéssel, amikor olyan mecsit adott az ember a rendszerhez amihez csak a CPU tudott hozzáférni.
Egy esetben tudnék kelentõs seb gyorsulást elképzelni, ha a CPU meg a GPU mellé, még vagy 4GB RAM-ot is beintegrálnának a csipbe!;)))
a 128 gepes cluster nem feltetlen szuperszamitogep... Es egy szuperszamitogep nem feltetlen cluster...(last T3e) Ott van letjogosultsaga ezeknek a cuccoknak.
Hogy jön ide a laptop? A gamer laptopokban is van vidkártya nem is akármilyen, van ahol SLI-s a olog. Olcsóbb lapptopok integrált megoldást használnak. Azért nem cserélnek mert nem lehet. Na de a nem lehet az hogy jön ide? Ott sem VGA nálküli a konfig, csak integrálva van az alaplapra.
Miért is ne lehetne VGA kártya nélküli configról beszélni? Szerinted laptopban sûrûn cserélnek VGA-t? Szerintem nem jellemzõ. Laptop meg egyre több kel el, az árrés is nagy rajta, akkor meg logikus döntés, hogy egy chipbe kerüljön a proci és a VGA (1x kell tokozni csak).
Inkább 2-es variáció. A CPU és GPU egy tokozásba kerülésével amúgy tényleg érhetõ el jelentõs gyorsulás játékok, egyéb 3D alkalmazás terén, de maga a színtiszta számítási kapacitás - ami a szuperszámítógépeket jellemzi - nem fog nõni.
De ha jobban belegondolok akkor a fizikai számításokat pl gyorsíthatná a vga részére, de vga kártya nélküli konfigról nemhiszem, hogy lehet itt beszélni... Majd talán 10 év múlva...
"A GPU és a CPU egyesítése révén a szuperszámítógépekre jellemzõ teljesítmény és sebességek jelenhetnek meg az asztali konfigurációk területén"
Ez hogy jott ki nekik? Vajon lattak mar egyaltalan szuperszamitogepet (vagy legalabb egy >=128 node-os PC clustert), vagy csak a marketingesek szeretnenek fizetesemelest?