Egy GPU csak egyes egyszerûbb dolgokra használható önmagában, bár azokban valóban lehet gyorsabb. Pl. Folding@Home-ban: "What type of calculations the PS3 client is capable of running? The PS3 right now runs what are called implicit solvation calculations, including some simple ones (sigmodal dependent dielectric) and some more sophisticated ones (AGBNP, a type of Generalized Born method from Prof. Ron Levy's group at Rutgers). In this respect, the PS3 client is much like our GPU client. However, the PS3 client is more flexible, in that it can also run explicit solvent calculations as well, although not at the same speed increase relative to PC's. We are working to increase the speed of explicit solvent on the PS3 and would then run these calculations on the PS3 as well. In a nutshell, the PS3 takes the middle ground between GPU's (extreme speed, but at limited types of WU's) and CPU's (less speed, but more flexibility in types of WU's)."link Vagy amirõl korábban beszéltünk, az a ray-tracer, ami 5x gyorsabban futott Cellen, mint G70-en, amire eredetileg írták.
Az angol nyelvhez sem volt szerencséd: fun = szórakozás, fan = (ide vonatkozóan) rajongó. És a korrekt információhoz sem volt túl sok: a Cell 9 magos proci, olyan matematikai számítási teljesíménnyel, amit egy 16 magos x86 proci fog kb. tudni. Tényleg, mennyire elavult... Amúgy szerintem te a GPU-ról beszélsz, csak azt sem tudod, ezeket eszik vagy isszák. LOL. A G71-esnek felel kb. meg (GF7900), annyira talán még nem elavult, és itt rendesen ki is fogják használni.
Emléxem még tavaly KB ilyenkor pár PS3 Fun Azt írta 6 évre megelõzi a PC-t a cell :)) Ahozképest már elavultan dobták piacra:) " nah ez azért tulzás volt" mert volt szerencsém PS3 hoz . De hogy nem elõzött meg semmit az biztos.
Ne keverd a floating-point számításokra vonatkozó single- és double-precisiont az integer kódra vonatkozó 32 és 64 bites móddal. Már rég óta tudnak a procik double-precision floating-pointot, nem kell hozzá 64 bites mód. (Viszont túl gyakran nem használatos.)
Hát a videochip biztos sokat dob rajta, mert mostanában bármelyik procinál soxor nagyobb számítási teljesítményû egy videochip, csak éppen az egy bizonyos feladatkörön belül. 1ébként a 2 teraflops valószínûleg a szokásos marketingtúlzás, vagy pedig egy bizonyos esetben érvényesül, ami ritkán valósul meg. shabba is leírta hogy minél hogy van, de pl a core2-t is fel lehet hozni példának, ami jó gyors 32bites alkalmazásokkal, de 64biten a jelenlegi, tehát mégcsak nem is k8l amd procik is jobbak, mondjuk 64bit még mindíg nincs elterjedve szal nem nagy hátrány.
Kb 2 éve olvastam 1 számtech magazinban. :D Vagyis azt, hogy a PS3 teljesítménye ennyi...de ha nem így van akkor ennyit dobna rajta a videóchipje? Mert az összteljesítménye 2Tera... Szerintem nem csak a sok mag a jövõ útja, hanem minden kombinálva...pl a procin belül megfelelõ kábelezés, új anyagok használata, kvantum proci több maggal...ez a max amit egyenlõre reálisnak látok.
Hol láttál le 2 tflopsos cellt? Tudtommal a teoretikus maximuma 25.6 Gflops/SPE és ugyanennyit tud a PPE is single precision mellett 3.2Ghz-en. Ez max 230 Gflops nem 2 tflops. És double precision mellett ez a tizedére csökken, amit kb. egy Core2Duo is tud.
Nem lepõdnék meg azon ha az Intel TeraScale project double precisionban tudná a tflops teljesítményt.
Az intelnek sok fejlesztése fut párhuzamosan. Ezek egyike pl. a sziliciúm lézer megoldásuk amit pl. a chipek és a memória közötti adatátvitelhez és a hálózati technológiák terén is fel akarnak majd használni. Tavaly amikor ezt a fejlesztést megszellõztették pont a TeraScale projectjük is képbe jött ezzel kapcsolatban. Szóval 5 év alatt a külön futó fejlesztések akár még össze is érhetnek egy közös termék formájában. A harmadik ilyen amit megszellõztettek az a szendvicses memória összeépítés volt a chippel.
Én is kíváncsi leszek még mit árulnak el, szerintem nem fogják túlzásba vinni.
Látom azért még van aki szokott olvasni. :) 1 aprócska gondolat...mi a halállal vezetik el ez a hatalmas adatmennyiséget? Optikai kábelek lesznek a gép rézdrótjai helyett? Nah pár nap és elvileg kiderül, én nagyon kíváncsi leszek. :) 1 kis dobozka ami bemutat a szuperszámítógépeknek. :)
Nevetséges ez a 80 magos erõlködés...már megint a Cell-t tudom felhozni, 2 Tera flop, nem eszik 62W-ot sem, és csak 9 mag. Intel...ejnye!
Ezen mit nem lehet érteni? Kevesebbet fogyaszt, mint a jelenleg piacon lévõ processzorok, akár X2 akár Core2Duo... Az energiatakarékos X2-k fogyasztanak csak ennyire keveset, de azoknak az órajelük sokkal alacsonyabb. Ebbõl következõen kisebb teljesítményû hûtés kell rá, mint a jelenlegi procikra.
Annyira nem hülyeség ez a dolog, mint elsõre, vagy ahogy a cikkbõl, kitûnik. A fejlõdés mindenképpen erre fog vezetni, és most kövezzetek meg, ha elárulom, hogy az ati amd egyesített cpu+vga csipjének is feltételezhetõen ehhez hasonló szerkezete lesz.
Ezen új architektúra a jelenlegi 2-4 magos processzoroktól radikálisan eltér, és nem is biztos, hogy itt 80 elkülönülõ thread kiszolgálásáról lesz szó. Ez fogja lehetõvé tenni, hogy a processzorok újra elláthassanak sokféle feladatot: nevezetesen a grafikai gyorsítást is, kiváltva a grafikus kártyákat. A sok mag teszi lehetõvé a nagymértékû skálázást.
Csak emlékeztetõnek szeretném elmondani, hogy a GeForce 8-as szériában is a GPU-n belül 96 db elkülönülõ stream processzor van, az intel új architektúrája gyakorlatilag ugyanígy épül fel. Szerintem nem telik el sok idõ, mire az AMD is bejelenti ugyanilyen jellegû új terveit. Ezek természetesen még jónéhány év múlva kerülnek csak piacra (mondjuk 5).
Ez jéghûtésû Komplett téli tájat szimulálnak majd a házadba. Választhaszt hóesés meg hóvíhar meg jéghegy közt :D Nah jó ez szar volt :D De erre valami ultrabrutál hûtés kell, hogy nem süljön meg a mostani forgalomban lévõkkel. Bár lehet van olyan brutál vízhûtés ami alatt nem sülne meg. Fene se tudja.
Azt olvastam, kerskedelmi forgalomba került az elsõ kvantumszámítógép, ami ráadásul 65000 q-bites (szemben pl a manapság használatos 64 bites x86-os procikkal).
És ha jól tudom a kvantumszámítógép full mûködés közben sem termel hõt;)))
Teljes logikus a fejlõdés. Eddig volt a léghûtéses gép (szélerõmû). Aztán már egyre terjed a vízhûtéses gép (vízerõmû). Most meg az atom. Na de ez milyen hûtésû is lesz???
Következõ mi lesz? :D Házi atomerõmû? :D Minek olyanfejlesztésre elbaszni az idõt meg a pénzt amit semmire sem tudnak egyenlõre használni, legalábbis hibamentesen tuti nem!
májkül! Te vagy szánalmas. Mást nem is tudsz írni? Az R600-as cikknél is ennyi volt a komment: SZÁNALOM. Tegnap az AMD/ATI-val volt problémád, ma meg az Intel-el. Ha ennyire undorítónak tartod a technológia fejlõdését, akkor ne idegesítsd magad azzal, hogy elolvasod az sg-n a cikkeket.
A PowerNow új verziójára támaszkodó négymagos chipek eszerint dinamikusan tudják majd változtatni mind a négy processzormag órajelét, ezek akár el is térhetnek egymástól. Elõfordulhat tehát, hogy egy mag 2 GHz felett fut, míg a másik három 1 GHz alatt marad, ezzel is visszafogva a fogyasztást. A cég tájékoztatása szerint ezzel a megoldással újabb 10 wattot sikerült lefaragni a chipek étvágyából.
Nekem ez teccik... minek pörögjön, ha nincs rá szükség?
A cikkhez: bazzeeeeee :D
Azért nincs teljesen igazad, mivel eléggé elhanyagolják az optimalizációt mostanában a programfejlesztõ cégek. Igaz Vistát még nem futtattam, de ha igaz amit írtak, hogy mekkora a gépigénye, akkor befonom a fülem az orromba.. Egy op.rendszernek nem szabadna ekkora erõforrásokat felemésztenie!
A sokmagos megoldások viszont jól hangzanak, csak egy normális fejlesztõkörnyezet+op.rendszer+progik amik kihasználják kellene. Pl 80 magon mennyi ideig tartana egy film kódolása? Élõben menne a render a játékoknál, stb...
Szerintem a programok ugyanúgy fejlõdnek, mint a hardware. Csak egyre többet tudnak v. egyre szebbek. A programokba ma már olyan dolgokat építenek bele, amikre pl. 10 éve még gondolni sem mertek. Ma viszont elviszi a hardware, ezért lehetségesek.
Ha a világ úgy fejlõdött volna, ahogy te szeretnéd, akkor még ma is ásóbotot használnánk, mert ugye a kapa miatt ne kelljen már kidobni a vadi új ásóbotot. ;-)))
szerintem addig jó amíg csak mutogatja... még az kéne hogy a most vásárolt 2 magos procim 1 év mulva elavultnak számítson :S nekem már nagyon elegem van ebbõl az erõltetett versenybõl, arról nem is beszélve, hogy egyre szarabb programok születnek, mert hát "az új vasak"-on úgyis elfut, minek optimalizálni, minek dolgozni vele, ha össze lehet csapni és kevés melóval jó sok pénzt lehet csinálni... ezidáig jó volt az athlon xp 1700+-os(2000+ra felhúzva) procim meg a 256 mega memória, aztán jött a netbeans 5.5béta, mert hogy gyakorlaton azt kell használni, és hirtelen kevés lett a gépem... nem egy játéktól vagy multimédiás vacaktól, hanem 1 fejlesztõi környezettõl! nagyon jó gép a k5-ös is, csak manapság nem veszik a fárattságot hogy jó programokat írjanak... úgyhogy az intel a 80 magjával együtt elmehet a 3,14csába...
Sajnos az AMD-nek mostanában nincsenek nagy dobásai. Pedig csak így lehet rávenni az Intelt, hogy a 80 procis magot gyártsa és el is adja, ne csak mutogassa...
2 OS egyszerre, két monitor 1 bill, 1 egyér): http://www.youtube.com/watch?v=RNlVrqtBHq4
Hát így ki lehet használni talán a sok magot de itt szerintem megint csak szép marketingfogásról van szó hogy nekik már ez most ment... ha véletlen kihozna valamit az AMD. Bár AMD-nél mintha lett volna egy hír, hogy a mostani processzoraikat vagy a következõt elméletben 256 db-ot lehetne összekötni. ) És egy fél szobát foglalna el ja) Memória meg nem kell neki)Minek is az csak mûködjön.Az AMD meg már a procikba integrálja a memóriavezérlõt amit leugattak hogy ezáltal le fog maradni az inteltõl. Most meg nem látszik rajta. Az AMD virtualizációs teknikája pedig pont az ilyen több OS futtatása 1 gépen feladatok megkönnyítésére szolgál.
3 OS 1 alaplapon http://www.youtube.com/watch?v=5Xl03eWbwWY
3OS egyszerre 1 laptopon: http://www.youtube.com/watch?v=gE1XQyT_IbA http://www.youtube.com/watch?v=xf3vh91KIrY
síma otthoni pc-kbõl ezek a legjobbak amit láttam eddig.
Ez a jövõ. Egy jó operációs rendszer képes teljesen elszeparálni a folyamatokat egymástól.
Egy programot kis fáradtsággal meg lehet írni multithread-re. Kb. 10%-al több meló van vele az elején, aztán, ha a keret megvan és mindent így ír az ember, akkor már ugyanúgy programozza, mint a "normál" programot. Elég sok ilyen programot írtam már. A keretben még azt is állítani lehet, hogy hány processzort használjon.
Egy játékot is meg lehet írni multithreadre. Fõleg azért, mert rengeteg számításigényes rész sokszor lefut benne. Kell hozzá a keret, ami elvégzi a "load-balancing"-ot, tehát optimálisan kiosztja, hogy melyik kis részfeladat melyik procin fusson.
Amit még az Intel-nek ajánlanék, hogy a Cache-t programozhatóvá tegyék. Ennek azért van értelme, mert még nem találtak ki egy olyan jó algoritmust, ami jobban tudná, hogy mi kell a Cache-be, mint a programozó, aki a programot írja...
Legyen a Cache dinamikusan foglalható.
LOL
S.Z.Á.N.A.L.O.M.
"sikerült elérni a tekintélyt parancsoló eredményt" gondolom nem egyetlen prototípust csináltak, akkor meg vajon miért húzzák halasztják a sorozatgyártást? Hiszen most is el lehetne adni milliós áron darabját...
Valaki tud olyan op.rendszerrõl, amelyik mondjuk ki tud használni 4 külön proci magot, hozzá tartozó 4 külön RAM és 4 winyó val? És mondjuk alt+tab -al váltani lehet a 4 különálló alkalmazás között? Van ilyen?
Megint kezdodik a hajsza. :) Csak a programozok gyozzek lelkesedessel. :D
Egy kis olvasnivaló: UltraSparc T1 8 mag, amelyek mindegyike 4 szálon képes végrehajtani. Ez 32 szálú valóban párhuzamos végrehajtást jelent kontext switch-ek nélkül. És már elég régóta lehet kapni.
lehet ez valami marketing fogás ami miatt méginkább intel procikat vesznek majd amd helyett
Ha a memória-gondokat megoldják, szerverekbe jó lesz ez nagyon. Egy tipikus web-szerver pl. ma is több száz vagy ezer szálat futtat egyszerre. A szerver-alkalmazásokat még csak át sem kell írni, csak újrafordítani vagy rosszabb esetben portolni az új architektúrára. A SUN már ma is egy rakás magot tesz a CPU-iba.
mindenki fúj a cell-re (ps3), hogy nem lehet összehangolni a hét magot... akkor most mi van?
kiváncsivagyok hogy az intelnek sikerül e megszervezni ugy a dolgokat hogy ezt használja is majd valaki mert ha nem csak egy próbálkozás lesz a sok közül
"A legnagyobb problémát jelenleg azt jelenti, hogy nem áll rendelkezésre megfelelõ összeköttetés a memóriával, illetve arra sincs kidolgozott eljárás, hogy a programozók szoftveres oldalon hogyan használhatnák ki a 80 mag egyesített erejét."
Akkor mi volt a koncepció az egész mögött??? Vagy csak terveztetek egy csipet a mérnökökkel, hogy majd csak jó lesz valamire? Eddig belerakatak sok, sok megahertzet, de most már a mag a trendi, ezért azt rakják bele?
Ez nem fikázás, de tényleg kíváncsi vagyok, hogy vajon milyen rendszerbe képzelhették el mûködni a csipjüket, és milyen célra tervezték felhasználni.
Amúgy azt sem értem, hogy pusztán a magok növelésével miért számítanak általános sebességnövekedésre. Ha van egy x alpterületû szilicium csip, y millió tranzisztorral, z GHz frenkvencián üzemeltetve, ami összemérhetõ a jelenleg alakalmazott kevés magos alkalmazásokkal, akkor pusztán azáltal, hogy a tranyókat más csoportokban rendezve párhuzamosan mûködtetem, egy egy vagy kevés szálú feladatot nem biztos hogy ugyan olyan hatékonyan meg tud oldani.
Az emberi agy is ilyen sokmagos procinak tekínthetõ. Néhány dologban kiba jó, pl képfelismerés/feldolgozás, de azért egyszálú logikai/matematikai feladatokat kiba lassan tud csak megcsinálni!
a dinnyenek is ennyi magja van
az addig rendben van hogy a magok száma nõni fog de szerintem 1hamar max. 16 magos procikat tudnak csak rendesen megoldani, és persze igény sincs annál többre... nah meg ugye a memória, most általában 4 slot van, hát 1 16 magosnál majd lehet úgy lesz, hogy mindbe kell 1-1 memória ha használni akarsz 4-4 magot legalábbis én így tudom elképzelni az ecceû megoldást, aztán meg majd a sima eccerû alaplapokon is lesz 8-16-32 memórifoglalat vagy a memóriát egybeépítik a procival, aztán már cache se lesz külön
Talán 2 magra is fejlesztenek majd, ha ez kijön,D
már a négymagosban is kételkedtem de ebben
Valoban a programozas teren kell majd feljeszteniuk az illetekeseknek.......
ja hehe, akinek nincs szerencséje vehet 49magos 80magos procit :)
"Egyébként a többszálú fejlesztés egy rémálom" - Valószinüleg ezért nincs még ma sem olyan játék, ami jelentõsen profitálna többmagos procikból :/
De elõbb-utóbb muszály lesz valamit alkotni a programozás terén, mert az igencsak gáz lenne ha 8-16 magos méjnsztrím procikat alig pár progi használná majd ki pár év mulva...
hmm 80mag szépen hangzik, reklámfogásnak jó, de télleg lesz némi probléma a használatával, szép is lenne ha 80 szál 1 dõben valós párhuzamossággal futna, de amíg 1 a memória, addig a kölcsönös kizárás, meg a swap-olás eléggé le fogja fogni a teljesítményt szerintem, inkább legyen 8 nagyongyors mag, mint 80 kihasználhatatlan, és akkor még nemis beszéltünk arról, hogy a 80 mag irányítása mennyire bonyolult a 4-8-hoz képest, és mennyi a hibalehetõség, és a gyár szemszögébõl nézve a selejtek száma... mert eddig rendben volt hogy mondjuk minden proci 4ghz-esnek indul aztán ami selejt az elmegy 3,5-3-2,66osnak, de ennél ami selejtes abból lesz 73 magos, meg 49 magos...?
Ha csak a játékokat nézzük akkor a CPU által számol fizika ill AI sokat profitálhat a sok magbol. Csak gondoljatok bele hogy minden egység AI-át egy külön mag számolja stb. Egyébként a többszálú fejlesztés egy rémálom, fõleg a debugnál. Én 1.5 év mulva szerzem meg a programtervezõi diplomát, de már félek.
A legnagyobb problémát jelenleg azt jelenti, hogy nem áll rendelkezésre megfelelõ összeköttetés a memóriával, illetve arra sincs kidolgozott eljárás, hogy a programozók szoftveres oldalon hogyan használhatnák ki a 80 mag egyesített erejét ... ezekszerint szép és jó csak nem lehet kihasználni vagy lehet inkább a programozokat el kellene küldeni tovább képzésre vagy esetleg máshova...
Errõl már tényleg ez a véleményem: Nagyon nagy lol