Az eredeti cikkben szó sem esik procikról, hanem a kommunikáció sebességére koncentrál:
"In electronics, we're always trying to increase the frequency," Palacios says, in order to make "faster and faster computers" and cellphones that can send data at higher rates, for example. "It's very difficult to generate high frequencies above 4 or 5 gigahertz," he says, but the new graphene technology could lead to practical systems in the 500 to 1,000 gigahertz range.
(Természetesen a grafén alapú proci is sokkal gyorsabb lesz, mint a maiak, de nem 1 THz-es lesz.)
Nem a tok számít, hanem a terület. A többmagos procikat kisebb csíkszélességgel gyártják, így adott területen növekszik a tranzisztorok (és más elemek) száma.
Közben megtaláltam, hogy legalábbis az 1.5 GHz-esnél 3 GHz-en járt két (egyszerû) ALU. De ez nem jelenti azt, hogy a 4 GHz-eseknél is megvolt ez a duplázás.
Annyival nem lesz gyorsabb, de azért sokkal gyorsabb lesz, mint ma, hidd el... Pl. egy mai 1 GHz-es proci is sokkal gyorsabb, mint a 25 évvel ezelõtti C64 1 MHz-es procija...
A több magos CPU-k: több magot tartalmaznak egy tokban. Azaz: a magoknak (mini CPU-k) semmi közük egymáshoz, mert ún. buszokkal kommunikálnak csak egymással, és a feladatokat a memória vezérlõn át kapják/teljesítik.
Ha 21 meggymagot egymás mellé teszel egy dobozban, attól az még nem lesz egy sûrûbb meggymag.
Kutya se mondta, hogy duplázódással számolunk. Sõt, te is rosszul számolsz... mert ezek szerint, jövöre már 6,4 GHz-es CPU-kkal kellene számolnunk magonként... Ergo: nem duplázódik évente. És a MHz-ekrõl beszél a cikk is, mi is. Nézd csak meg: a P4 esetében is még csak 3,x GHz (3xxx MHz) körül jártunk. 2009 van és még mindig nincs 4 GHz-es CPU... (ja, és nem is lesz)
Szóval, a tendencia olyan, 5 évente 0,05 GHz-es lépés... 1 magon.
akkor telepítsd fel a BOINC nevû progit. máris 100%-on fog menni a procid az uptime 99%-ában. ja hogy pár ezer forinttal megnõ a villanyszámla? legalább ki van használva a procid :D
Hát, ha az általad - ki nem mondott - érvet vesszük alapul, akkor ezer év alatt a mostani fejlõséi tendenciával is eljut az emberiség az 1000 GHz-ig... :))))))))
És kimondta, hogy ezt egybõl érik el ezt az órajelet???
Némi óvatosság nem árt a "megy ez a freki még feljebb is" tipusú remények dédelgetésekor:-)) Az 1000GHz frekvenciájú elektromágneses sugárzás hullámhossza VÁKUMBAN 0.3 mm, a félvezetõben még kisebb. Ez jelentõsen kisebb a mai procik méreténél, és valószínûleg a mag méreténél is. Nem mondom, hogy lehetetlen, de minimum olyan adatszervezési és idõzítési problémákat vet fel, amelyekrõl még nem is hallottam.
Hát az IBM 4-5 Ghz körül jár nekik el is hiszem az figyelitek hogy ezt is magyarok találták ki!!!
Persze, és ugyanúgy az uptime 90%-ban szart se csinálna a több magnyi terahertz... Mert a jelenlegi PC-d is uptime-ban max. - ha elvakult játékbuzie-vagy - 60%-ot megy "full load"-ban. A többit zenehallgatás, dokumentum kezelés, netezés, fórumozás, filmnézés stb. idejére pazarlod.
Gyartottak 10 Ghz-es cpu-t is, par az powerpc-s volt. (a konzolok pl. ugyancsak ppc-sek). Az x86-osok kozott a 4 Ghz-es P4-es volt a legjobb, ez az alu egyseg belso orajelduplazasa miatt 8 Ghz-en szamolt, ami mar eleg kozel volt az ibm fele 10Ghz-hez.
A leggyorsabb jelenlegi digitalis aramkorok mar kozelitik a 200 Ghz-et is, de ezek nagyon primitiv chipek, amilyenek pl. a kommunikacios rendszerekben vannak. (egy 10 gigabites halokartya 20 Ghz-en kell hogy mintavetelezzen)
Az 1 Thz-es chipek elvileg megoldhatoak, de ez mar a termikus tartomanyban van (gyakorlatilag ekkora orajelen maga a jel mar hosugarzaskent terjed). Ennyi erovel epithetnenek optikai szamitogepeket is, ahol 10^12 helyett mar 10^15 (1000 szeres) lenne a mukodesi frekvencia. (1000 Thz vagy 1000000 Ghz)
a 2.-es pont nem stimmel, az éremnek nem egy oldala van, hanem kettõ. és ha a bûnözõknek van olyan jó gépük, hogy gyorsan fel tudják törni az RSA kódolást, akkor a titkosítóknak is lesz olyan jó gépük, hogy még nagyobb prímeket találjanak.
Tuninggal és megfelelõ hûtéssel persze, hogy mehet, de tudtommal tömeggyártásban nem igazán készítettek ennél magasabb órajelen mûködõ egymagos procikat. Úgy tudom, voltak olyan tervek, hogy 10 GHz-es procikat gyártanak, de túlmelegedés miatt nem kerültek forgalomba.
Na igen, de szerintem csak azért kezdtek el párhuzamosításon gondolkodni, mert elérték a végsõ korlátait a szilícium alapú CPU-nak (tudtommal ez olyan 3,6GHz). 1000GHz és ez még csak a kezdet, gondolom ebbõl az anyagból idõvel még többet is ki lehet hozni.:) Több magú CPU-t meg gondolom ilyen anyagból sem lehetetlen csinálni.:-D
Egy valamit elmondok én nektek a jövõrõl: a jövõ számítógépei százszor nagyobbak lesznek - egy szoba kell majd a tárolásukhoz és a Crysist akár 30 FPS el futtatják majd.
Prognosztizáltam.
Talán azért nem említi senki, mert annyira magától értetõdõ.
Erdekes, hogy azt senki nem emliti, hogy a gigaherzek nem jelentik a szamitasi kapacitas azonos aranyu novekedeset... azert mert valami 1000x akkora herzen megy, attol meg nem lesz 1000x olyan komoly a szamitasi kapacitasa, sot ugye a 3,2GHz-es P4 -es proci kisebb szamitasi kapatiassal rendelkezik, mint egy 1.8GHz-es Core2Duo... ugyanis a magok ugye... a jovot inkabb a parhuzamositott tobbszalon futo szinergikus cuccok jelentik, nem a gigaherzek novelese a vegtelensegig....
Mert a tulaj spórolni akar. Az üveggyapot olcsóbb és tökre nem érdekli, mennyire szar a a melósnak:)
Egyébként az ilyen számítási kapacitásu proci a robottechnikában is jelentõs elõrelépést hozhat (képfeldolgozás, munkaszervezés, több manipulátor vezérlése, stb).
Ami a legfontosabb, a jövõ összes gazdasági, politikai, társadalmi döntéseit ilyen technológiájú neuron hálózatos chipek végezhetnék, és ezzel beköszönthetne a hatékony, igazságos kormányzás és a kutatás-fejlesztés aranykora. (persze addig a matematikusoknak számos feladatot meg kell oldaniuk: algoritmusok, programnyelv, stb)
A probléma az, hogy ez nem tûnik igaznak. Attól, mert gyors géped van nem lesz AI. A C64 Intkarate játékban az AI egy idõ után elvert bármit csináltál.
Jelenleg az AI mindehol csak iszonyatosan leszûkült helyzetben képes az embert megverni és 20 év alatt jóformán semmi sem változott. Sakkban nagynehezen elveri a nagymesetereket egy olyan gép amit csak arra gyúrtak. Csak ott nem a gép okos. Több millió parti van benne. Olyan, mintha az egy sakkozó 1000 tudása ellen játszanai. A Go játkban ma totál esélytelen bármilyen AI még egy közepes Go játékos ellen is.
A számítási teljesítmény nem vezet intelligenciához.
A nagy számítási kapacitás (nem az intelligencia) jelentõs tudományos fejlõdést tesz majd lehetõvé. Sok olyan probléma van, ami analitikusan nem oldható meg, csak nukerikusan. Például egy sor plazmafizikai jelenség. A fúziós reaktornak és a csillagászatnak is lökést adna a jelenleginél 1000-szer nagyobb számítási teljesítmény. (az áramlástant már említették) Azután itt a meteorológia, vagy a Föld belsejében végbemenõ jelenségeket is jobban lehetne modellezni.
Hááátt.... Nem igazán tudok lelkesedni az ötletért. Inkább elvégezném én azt a szellemi munkát
Ma még nagyon ott tartunk, hogy a fizikai munkát se veszi le a vállunkról semmi. Én is félóra múlva megyek gipszkartonozni...undi egy meló... az üveggyapot szúr mit állat, a gipszpor mindent ellep, nem is részletezem
Ha a szuperintelligens számítógépet megcsinálják, akkor nagy az esélye, hogy uralkodásra készítik majd azok, akik mostanság is irányítják a sorsunkat, arctalanul, gátlástalanul, jellemtelenül, érzéketlenül.
Inkább az ember intelligenciáját kellene fokozni, de ahhoz nem ilyen oktatási rendszer kell, fõleg az a szenny amit az utóbbi években vezettek be egyre erõszakosabban és durvábban. És megoldani, hogy ne a genetikai hulladékok szaporodjanak, mert így az emberiség hamarosan rá fog szorulni az intelligens gépekre, annyira hülyék leszünk.
Egyébként meg hajráááááá Nagyon örülök ennek a hírnek, mert így egy lépéssel közelebb vagyunk ahhoz a számítási teljesítményhez, amely majd valamikor lehetõvé fogja tenni az ember számára, hogy egy emberi intelligenciával rendelkezõ gépet, programot alkothasson. Amely már nem csupán a fizikai, hanem már a szellemi munka nagy részét is le veszi az ember válláról.
Csak azt kell elérnünk, hogy ez ne a gazdag tõkések kiváltsága legyen, hanem a népé. Hogy, az emberiséget szabadítsa fel a munka végzés alól, és ne a szupergazdagokat tõkésítse még tovább.
Az x86-os felépítést már régen lecserélték, csak még nem vezették ki a processzorból. Mivel minden kód x86 os op utasításokból áll. Ezért a proci mikor behívja ezeket, elõbb átfordítja a saját interpretációjára. Van mikor több, hosszabb utasítás sorozatot, alakít át egy komplexebb, de egy utasításos operandussá. Az alacsony regiszter készletet is amivel az x86 dolgozik "eax,ebx,ecx stb , a procik virtuálisan meg tudják sokszorozni a regiszter átnevezés találmánnyal.
Az ilyen progikhoz külön kell egy gép, ami semmi más feladatot nem lát el. Ezt agyba-fõbe kell turbózni; a világ minden memóriája, merevlemeze és processzora nem elég; bármennyit raksz bele, olyan nincs, hogy ne lehetne kifingatni. Ehhez egy office-komfort pc kevés.
Én máris ki tudnám használni. After Effectsben vannak cuccok, amiket 0,1 FPS-sel tudok kezelni egy 4 magos, 4*2 GHz-es procival. Ha ezt real-time tudnám nyomni, annak igenis tudnék örülni :)
áh, a mit! gordon freeman is ott végzett, oszt lám mi lett belõle...
Molnibalage: kodfeltoresben semmit nem jelentene, mivel a kodolasi eljarasok (legalabbis a kulcsrendszeruek) nagyobb bitszamu kulcsokat tolnanak. Csak a sima piti kis pgp es hasonszoru csalo cegek szamara jelenthet gondot a dolog, mert nekik sokmindent kellene atirni a forraskodjukban, de amugy az en RSA applikaciom siman nyomulhatna 100.000 bites kulccsal is /merthogy most is tudja ezt, csak kicsit lassan/ :)
ja végre lenne rendes hang játékokban sõt hangalapú játék
Nagy tévedés. Sok mérnöki számításhoz jó lenne. Ma egy egyszerû szelep áramlás szimulációja egy PC-n hetekig eltarthat. A repcsiké és egyéb durva áramlástani dolgoké mégtovább. Minden mérnöki ágban van numerikus szim. Nagyon is igényelnék ezt a fajta kapacitást.
Windows 12 pedig 250 GHz-es CPU minimummal indítana... :))))))
Dehogynem lesz parhuzamositas! Ugyanugy lehet ez a rendszer is tobbmagos, etc! Orajel? Nem csak matematikusoknak, hanem: 1. jatekipar: lehet ujra eroforrasokkal pazarloan banni, gyors ganyolos fejlesztesekkel eloallni! 2. Kriptografia hatalmas loketet fog kapni, a csalassal rendelkezo hibrid eljarasok konnyen eltunhetnek, feleslegesse, illetve szuksegtelenne vallhatnak *elegseges szamitasi kapacitas miatt - realtime stream jellegu kulcsrendszeres titkositasok* (ilyenek: pgp, ssl, ssh, es egyeb ismert eljarasok) 3. valoszinuleg a microsoft egy uj oprendszert vagna rea, uj utasitaselemkeszlet mellett, s mint ahogy anno a kulonfele megszakitasokat hasznaltak a programozok (geninterrupt-ok), ugyanugy eltunhetnek a winapik, s lesznek helyettuk valami mas, hasonlo cuccok /nehogy belekoss a mondandomba, ezert ezt is ideirom: nem azt mondtam, hogy a geninterrupt-ok ekvivalensek a winapi-kkal/ :) 4. a grafikai chipek valoban belekerulhetnek a processzorokba
..... es igy tovabb egy rakat valtozas
Szerintem csak úgy egyszerûen soha nem fogják lecserélni az x86os felépítést. Gondolom ahogy a grafikus mag is bekerül a prociba, úgy elõbb utóbb bekerülhet más felépítésû általános célú mag is a meglévõ x86os mellé.
Na akkor mégse a párhuzamosítás lesz a jövõ? :) Vagy akkor az lesz, hogy 256magos processzor 1THz-es órajelen? Jól hangzik. :)
És vajon mikor cserélik le az x86-os felépítést?
Mikor Commodore64-ese volt mindenkinek akkor ha elõálltak volna hirtelen a Core2 Duoval mindenki aszondta volna, hogy minek ilyen hihetetlen órajel meg 2 mag? Baromság mikor nem használja ki senki max a matematikusok...
Ezz dúrva. Reszkess Crysis! Bár azt kétlem, hogy belátható idõn belül ez és a támogató technológiák eljutnának a tömegek asztalaira... Amúgy a hatalmas kapacitást teljesen max a matematikusok és szuperszámítógépek tudnák kihasználni, azt nem tudom, milyen hatékony programozással... Talán majd tíz év múlva nekünk is lesz ^^
örvendetes, de amíg nem kerül kereskedelmi forgalomba nem érdemes komolyan venni.