Meg kell kövesselek, felét írtam csak le annak, amit gondoltam. Belenyugodtam abba, hogy egy tisztán CNN szervezésû processzor nem általános célú proci, és azon kezdett el járni az agyam, hogy heydeszépis lenne, ha egyszer majd a CNN által villámnyorsan végezhetõ mûveletekhez egy CNN alegységet építenének a processzorokba. Valahogy úgy, mint ahogyan a lebegõpontos egység szép lassan bemigrált a CPUba. Eközben eszembe jutott, hogy olvastam is valami effélét, és csak ezt írtam le. Valóban csak rendkívül felületesen értek a dologhoz, és talán helyesebb lenne, ha szabadidõmet mûemlemzéssel tölteném.. ha ott kitalálok valami baromságot, akkor valahogy kimagyarázhatom magam, nem kell szembesülnöm azokkal a fránya tényekkel..:-)
U.I.: A PC-be építhetõ CNN modul csak nagy jooindulattal nevezhetõ társprocesszornak.. ha jool emlékszem, akkor egy kupac PCI buszos kártya.
Szép, szép, de amíg az asztali gépembe nem tudok ilyet belepászítani különösebben nem érint. Konzolt meg elvbõl nem veszek.
A nagytávolságú hálózatok késleltetése túl nagy ahhoz, hogy nagybonyolultságú interaktív környezetet lehessen létrehozni thin-kliensekkel nem, nem, nem. nem így gondoltam. a hálózat nyilvántartja a környezetet, és ha te mondjuk a baltáddal suhintasz a gerenda felé, akkor van vagy fél másodperc, amíg a balta odaér. azalatt 1 broadband kapcsolattal, mint ami a PS3hoz kell majd bõven el lehet küldeni a problémát, hogy hogyan fog a balta lesúlytani a szerveren is nyilvántartott világ mely pontjára, és ott nem csak a texttúrák vannak meg, hanem mndjuk az anyag minõsége, meg hasonlók is, és ott a szervernek van ideje kiszámolni, hogy mi történik, feldarabolni az objektumot, és minden szilánknak ami elrepuül megadni az indító erõket, aztán ki tudja számolni, hogy összedõl-e az épület, és van ideje minden egyes gerendát feldarabolni, kiszámolni, hogy esnek le, és elküldeni az eredményt minden közelben tartózkodó kliensnek, akik ugyan úgy látják, hogy összeomlik az épület, mint az a barom, aki magárabontotta. nem kell a központi szervernek kiszámolni minden fizikát, csak mondjuk azt, amit télleg nem lehet a grafika mellé a PS3ra bízni. a PS3 már az akciógomb lenyomása pillanatában tudja, hogy hová fog az ütés becsapódni. és ha akkor elküldi, megkaphatja az eredményt, mire a fejsze valóban becsapódik. vagy ha ráüt valamelyik játékostársára, pontosabban lehet kiszámolni a sérülést. vagy esõben vagy porban lábnyomokat hagyhat.(na jó, ez nem új)
télleg. cellrõl én is olvastam, hogy .09 mikron lesz.
"A Toshiba tervei szerint a cég ohitai gyárában még az év vége elõtt megkezdõdik a Sonyval közösen kifejlesztett 90 nanométeres gyártástechnológia bevezetése is. "
ennyit az intelröl :LOL
Aha.
"hogy GRID technologiára tervezik a procit ez annyit jelent hogy a helyi Cell procis egységed mondjuk a PS3 hozzá kapcsolodik több 1000 GRID serverhez, amik segitenek neki egy komplett világ modellezéséhez"
"Grid computing is a variation of distributed computing, and presumably involves networked game machines sharing software, processing power and data."
Akkor szépen döntsd el végre, hogy is gondolod ezt az egészet, mert mostmár a SONY hivatalos dumáját vonod kétségbe, a saját szavaidról már nem is beszélve.
tévedésben vagy nem a ps3-ak fognak egymással kapcsolatban lenni
#61: Nem. #60: Döntsd el: idõjárás-szimulátort akarsz, ez esetben ajánld fel a SONY-nak, hogy szerzel megrendelést a NASA-tol, vagy pedig játékgépek hálózatát, ahol az egyes gépek éppen eléggé el lesznek foglalva a saját nézõpontból látható kép kidolgozásával. Ez utóbbi esetben ugyanis semmi fölös kapacitást nem fognak hagyni arra, hogy egymásnak bármennyire is "segítsenek" az egyes konzolok. Más: az NPC karakterek viselkedésének modellezése még ma is igen jól megoldható akár XT-n is. A megjelenítésük pedig a grafikus motor dolga.
ezt irtam én: "hát nem azt ami a cache meg a memoria között van hanem azt ami a cache - ALU- regiszterek között van 128 bites busznál minden regiszter 128 bites az alu is 128 bites stb... egyedül a cimbusz térhet el ettöl mert nincs értelme 128 bites cimzésnek"
ezt meg te: "Az hogy egy proci hány bites, általában az általános célú regisztereinek a bitszáma határozza meg."
#58: így mûködik gyakorlatilag az összes virtuális 'világ' a SW galactic mittudoménmitõl a Q3-ig. Amirõl az eredeti állítás szólt: "ez annyit jelent hogy a helyi Cell procis egységed mondjuk a PS3 hozzá kapcsolodik több 1000 GRID serverhez, amik segitenek neki egy komplett világ modellezéséhez" nem mûködik. Ha a modellezésben szorul _segítségre_ a gép, már régen rossz...
Végre valaki még megmondta a frankót rajtam kivül is.
Remélem Version most már elhiszed, hogy hibás volt a gondolatmeneted.
Az hogy egy proci hány bites, általában az általános célú regisztereinek a bitszáma határozza meg.
Egyébként nem akartam az intelt jobb szinben feltüntetni mint amilyen, de azért nem szabad alábecsülni a képességeit, ne csak az asztali processzorait nézzétek, regeteg más terméke is van, és igensok szabadalom fûzõdik az õ nevéhez is.
Nem megy. Bár az eredeti példám nem teljesen stimmel (elegendõen sok képkocka elõnnyel egy real-time mozi számításait össze lehetne hozni: a központi gép csak sorbaszedné a kész képeket), a lényeg mégiscsak benne van.
A nagytávolságú hálózatok késleltetése túl nagy ahhoz, hogy nagybonyolultságú interaktív környezetet lehessen létrehozni thin-kliensekkel. A 3D mindenképpen a helyi gépre marad: a központi gép maximum tárolhatja az eseményeket, valamint jelezhet a klienseknek, ha valami történt - de a történés megjelenítése a helyi gépen kell, hogy maradjon.
Amolyan Q3 server módra...
"A GRID technológia játéktechnikai szempontból semmit sem ér. Olyan, mintha a seti@home-ra bíznának valami real-time mozi renderelését. Ehhez nem készíthetõ elég gyors és kis késleltetésû összeköttetés, nagy távolságra (>4-5m). " éppen most gondolkoztam el ezen, és eszembe jutott, hogy az efféle hatalmas szerverfatrmokat mire lehetne használni. pl. az RPGkben 1 full+Ds világban lehetne a környezet változásait szimulálni vele. mondjuk hogyha te a baltáddal beleversz 1 gerendába, nem a te kis PS3madat kell majd izzasztanod a komoly mûveletek elvégzésével, ami ráadásul nagyon komplikált programrészt is igényel, hanem a szerverfarm, ahová mindenki fel van csatlakoztatva, és ha te beleversz a baltáddal a gerendába, akkor rádzuhan a tetõ. és ezt mindenki láthatja, aki ott van. pl. ha a szerverfarmokat rendesen megcsinálják, akkor szerintem hihetetlen dolgokat meg lehet oldani... képzeld el, hogy 1 olyan világban játszhatsz, ahol télleg mindent szabad, azt, amit csak akarsz. pl. elkezded kapapálni a falat, és lebontod. efféle dolgokra, a virtuális világ szimulálására szerintem nagyon jól használható lenne 1 központi szuperszámítógép.
Na, elõrõl.
#12: Ez az emuláló-áramkör dolog kissé sántít. Vagy számítsd ide az összes 486 után kijött processzort - mindegyik RISC-szerû kikroutasításokat használ a futószalagban -, vagy csak az Itanium alapúakat. A K7, K8 architektúra az x86 ISA-ra épül, semmi szüksége szigorúan vett emulálásra. Az Itanium más utasításkészletet használ, így ott valóban szükség van erre.
#15 és egyébb Version: Azt, hogy egy processzor hány bites, általában a leghoszabb egyszeres integer-konstans méretével számítják, nem pedig az FSB szélességével. Mint már Mir is írta, pl. az Intel használ 256bites adatvonalakat a processzorain belül, valamint a regisztereket összekötõ fõ adatvonalak sem 32 (vagy éppen 64) bit szélesek. Valamelyik proci pl. összevont regiszter-file-ra épül: egy helyen tárolja az FX és a LP konstansokat (80 bit), a regiszter-file-hoz kapcsolódó adatvonalak szélessége is ennyi - ez tehát egy 80 bites proci? Megsúgom: nem...
A GRID technológia játéktechnikai szempontból semmit sem ér. Olyan, mintha a seti@home-ra bíznának valami real-time mozi renderelését. Ehhez nem készíthetõ elég gyors és kis késleltetésû összeköttetés, nagy távolságra (>4-5m).
#27: az alkatrészek gyártása során az egyik legnagyobb költségnövelõ tényezõ a lábszám emelkedése. 256 bit széles memória-csatlakozás nem hozható ki 4-500 lábnál kevesebbõl. Ez, ha chipsetben tervezünk, egy ca. 1000 lábas BGA tokot jelent. A gyártási selejt, a chipset drágulása, a több nyák-réteg, nagyobb felület durván öt-tízszeres árat jelentene. Megoldható a dolog, persze, de akkor integrált memória-vezérlõ kell: ilyenkor összességében elég nagy a megtakarítás. Ez van a GPU-k esetében.
A Hammer-ben az AMD is azért használhat 128 bit széles külsõ adatbuszt, mert a memória-kontroller integrált: amennyivel emiatt többe kerül maga a processzor, annyival olcsóbb lehet az alaplap, így a rendszer ára korlátok között tartható.
#43, Gunman: Jelenleg, ca. a P1-tõl nincs elég gyors memória-technológia a PC szegmensben. Na és akkor?
#45: az a hír kacsa, amit pedig elõtte írtál, eleve kétségbe vonja, hogy valaha is dolgoztál G4 alapú gépen. Megszerkeszteni valóban sokmindent lehet, de 1024 bites utasításokkal mûködõ processzort már a nyolcvanas években _gyártottak_, katonai célokra, igen magas minõségben. Ha pedig az AMD becsõdölne, akkor igen nagy valószínûséggel a VIA fogja megvenni.
#49: itt inkább a hiperkockába rendezett processzorokról van szó, a CNN más téma.
#50: a selejtarány valóban elég magas (relatív), de azért nem ennyire...
#52: a tervezés elég sok fázisból áll. Egy új processzor kifejlesztése során a fele termékciklust lefoglalja a logikai tervezés, amikor még sehol semmi áramkör, csak cluster-be kapcsolt gépek garmadáján próbálják áramkörileg leszimulálni a tervezett processzort. Ilyenkor a sebesség úgy pár száz utasítás/másodperc :) Na, ezen vannak túl a SONY-nál. A következõ lépés az, hogy a kész logikai tervekbõl kialakítják a chipgyártáshoz szükséges maszkokat, majd utána jöhet a próbapéldányok legyártása.
Jó hosszú lett...
1-3 % nagyon gyenge, még az 50% is. Valahol valamit elovashattál. Vagy lehet, hogy az NV30-ról olvastál? :-)))
A Cell-nek még a tervei sincsenek kész!!! Nem a mai gyártástechnológiához fejlesztik, másrészt több cpu magot raknak 1 chipben ami, azért egyszerûbb legyártani, mint 1 böszmét 1-ben.
Na akkor néhány dolog. 1. Jelenleg az IBM-nek van, mind gyártásilag, mind teljesítményileg a legfejletebb procija(ez a Power4 (0,13 + réz + SOI), 170 millió tranzisztor) - 1,3 GHz). Tehát, ha a szellemi és technikai erõforrása megvan. Nem ez a kérdés, hanem az, hogy mennyibe fog kerülni.
2. Az Intel az R&D az alapkutatásban már nem egyszer mutatta a gyengeségét(pl. IA64 - 7-8 éve), viszont a kutatási eredmények gyakorlatban való gyors átültetésében le a kalappal elõtte.
3. A Sony egyedül nem volna képes tartani az iramot, ezért volt szükség az IBM-re, viszont az IBM-nek is szüksége van rá, hogy eladja a vki procit(Sony + Toshiba). A Cell chip többféle lesz, kezdve az mp3 lejátszóktól, a ps3-on át, a nagygépekig alkalmazni fogják.
Hm.. a processzorgyártás, és úgy általában a hasonló szintû félvezetõgyártás területén mennyi a selejt hányada? Olyasmit hallottam, hogy a legyártott magoknak mindössze 1-3 százaléka megfelelõ.. nekem ez nagyon rossz aránynak tûnik.
Énnekem ez a Cell név a Cellular Neural Networkot juttatja az eszembe.. CNN szervezésû chip bizonyos alkalmazásokban egymaga lenyom egy szuperszámítógépet. Emlékeim szerint a CNN/UM is valamiféle egyszerû, de gyors magok célszerûen összekapcsolt hálózata.
Akit érdekel a CNN annak:
http://lab.analogic.sztaki.hu
Innét el lehet indulni.
Ja egyébként meg javarészt magyar ötleten alapul. Természetesen.
További kellemest.
hmm, de ez nem az az új 64 bit-es PowerPC processzor ami Power 4-re épül és októberben mutatja be az IBM, ugye... :)
idézem: IBM to unveil 64-bit PowerPC in October
August 8 - 10:29 EDT IBM will disclose the details of its upcoming 64-bit PowerPC processor at the Microprocessor Forum on October 15, French-speaking Mac site MacPlus notes. The chip is based on IBM's Power4 design and features a vector processing unit similar to what Motorola employs in its 32-bit PowerPC G4 processor. IBM's new processor could theoretically find its way into Macs when it is complete.
veszett:"hogy lehetne pc-ben ki mondta azt hogy ez x86 -os proci? :) Annyira nem értek hozzá, de ugy tudom komoly hátrány Intelnek-amd-nek hogy kompatibilisnek kell maradnia magával, felülröl, balról, jobbról. " senki sem mondta, hogy minde PC x86 procira épül. Borg:"2 év sok idõ! Gondoljatok csak arra, hogy mekkora ütemben gyorsulnak a mai processzorok is, és mennyi új technológia vár bevezetésre a közeljövöben." azért 100*os sebességnövekedáést 2 év alatt új architektúra meg 3 zseni nélkül elég nehéz elképzelni. és amint az a P4en, és az itanium1en látszik(mert a 2 az nagyrészt HP) az intelnek nem sok ilyen van. persze az AMDnek sem.
"Hát a chipgyártás tapasztalatai nyomán. Egészen pontosan az Intel tapasztalatai nyomán" nem hiszem, hogy az intel bármit is taníthatna az IBMnek.
"a processzor belsö adatbusz szélessége dönti el hogy hány bites a processzor
intel,amd: 32 sony 128 ps3: 256" nem. 1:azt, hogy a proci hány bites, a marketing dönti el. ha a megcímezhetõ memóriaterület dönti el, akkor P3óta 36bitesek a gépeink. ha az adatbusz, akkor meg 64. ha az elvégezhetõ legnagyobb integer, akkor 64bit, ha a legnagyobb float, akkor 80. azalatt, hogy belsõ adatbusz mit értesz? mert akkor a 128 sem elképzelhetetlen, mert a mai procik már nem nagyon hasonlítanak az õskorszak 10Ktranyós futószalag nélküli procijaira, ahol még valóban volt belsõ adatbusz. és a sony PS2ben található(ugyan úgy, mint a PS1ben található 64bites procit) a MIPS technologies gyártja, a saját régebbi(R12K, R6K) processzormagjaiból. pontosabban õ tervezte, és az TSMC gyártja, ha jól emléxem. de az a 128bit az 2 db. 64bites utasítást takar 1 órajel alatt.
borg írta:"PROCESSZOR IA64 tehát 64bites VLIW (very long instucuon word) architektúrájú." nem egészen. EPIC, a célja hasonló, mint a VLIW, de a rugalmasság érdekében nem 1 nagyon hosszú utasításszót használ, hanem sok rövidet, így nem kell mindent mindíg feltétlenül újrafordítni, ha 1 új prociból többet akarsz kisajtolni, mert az autómatikusan több kis packetet dolgoz fel. tehát csak olyan, mint a VLIW, de nem az.
version:mibõl gondolod, hogy a cell olyan olcsó lesz? azt nevezhetjük elhanyagolhatónak is. megkockáztatom, hogy 1 EE kerül akár 2-300$ba most...
borg: annyira nem kell elájulni az inteltõl. anyira nem nagy az. ha megnézed a grafikonokat, akkor persze azt látod, hogy 4*akkora, mint az IBM. dez nem ilyen egyszerû. ezek a grafikonok vagy a megtermelt tranyószámot, vagy a megtermelt prociszámot, vagy a félvezetõrészleg forgalmát mérik. namármost az intel az alacsony haszonrésû PCprocesszorokból nagyon nagyon sokat ad el, és ezek összértéke is nagyon nagy, de kicsi a haszonrés, és lehet, hogy az IBM 1/4edannyi forgalmából közel ugyanannyi összejön. az intel az IBMel összehasonlítani elég nagy amatõrség. no nem csak az elõbb említett dolog miatt: pl. az IBMnek csak 1 kicsin jelentéktelen rész foglalkozik chipgyártással, mert sokkal nagyobb a bevétele az ezen chipekre épülõ rendszerekbõl, ezek szoftvereibõl, és az egyéb szoftverekbõl. csak a DB2bõl több bevétele, és sokkal sokkal több nyeresége van, mint az össze POWER4es prociból.(goto www.ibm.com oszt nézegetni mérleg) hidd el: ha az IBM ki akar valamit fejleszteni, ami 100*olyan gyors, mint bármi más, akkor ki is fejleszti. és ha neki ehez partner kell, akkor nincolyan, aki ne csatlakozna hozzá. amint látod, ottvan a sony, és a toshiba. mindkettõ nagyon nagyon nagy és tõkeerõs cég, valószínûleg mind a kettõ nagyobb, mint az INTEL. ha nagyon odáig akarsz lenni valamilyen nagy IT cégért, akkor talán nem az egyik legkisebbet kellene kiválasztanod. (Fujitsu/Siemens SONY, IBM, CISCO MAtschiusha, ST) ezeknek nem mindegyike hnagyobb, mint az INTEL, de egyikük sem függ annyira egyetlen1 szûkös piactól.
amugy meg az itanium 10000$ meg egy bukott hardver
Szerinted a cache bus a memória és a cache között van? Jó, tényleg ne vitázzunk errõl. Hidd el belátnám ha tévedek, de nem igazán tudsz meggyõzni róla, eddig minden elgondolásod logikailag hibás...
...Akkor te meg állj neki olvasni, ajánlom figyelmedbe a #33 itaniumról szóló bekezdését.
hát nem azt ami a cache meg a memoria között van hanem azt ami a cache - ALU- regiszterek között van 128 bites busznál minden regiszter 128 bites az alu is 128 bites stb... egyedül a cimbusz térhet el ettöl mert nincs értelme 128 bites cimzésnek
Én is valami ilyesmi összeállást gyanitok (AMD,Intel, IBM, HP stb közül valakik..).
Csak az a gáz, hogy mindössze a terv van készen. És köztudott, hogy a legtöbb ilyesmi a technoligiai/kivitelezési/gyártási nehézségeken bukik el, vagy legalábbis szépen átalakul, a kor technológiájához képest....
Uraim, hûvös fej! Erre bizony két évig várni kell. Bár nekem hirtelen errõl az egészrõl a 3D számítások "netesítése" jutott eszembe, amikor is bejelentették hogy a 3D számítások zömét az összekapcsolt gépek (konzolok) egymást közt elosztják. Kb. ezen tudtam ekkorát ámulni. Éppen ezért ha csak a SONY mondaná, nem hinném el :), de az IBM-rõl elhiszem hogy képes volt kierõlködni magából valamit. Amúgy az IBM elsõsorban nem chip-gyár, hanem komplett rendszereket és megoldásokat kínáló, és a kutatás-fejlesztésben érdekelt cég. Annak idején, amikor a PC-t megalkották, egy "külsõs" cégtõl vették a processzort - ez volt az Intel, és az õ 8086 prockója (csodálták is sokan, hogy miért nem a Motorola 68000 processzorát választották, de ez egy másik sztori) Az IBM hátán sokan felkapaszkodtak!!! Gondolok itt a szoftverbárókra is... Na, de a lényeg a lényeg: az IBM fejlesztései és kutatásai valóban lenyûgözõek. Elképzelhetõ hgy õk megalkottak egy ilyen processzor-architektúrát, csak a gazdaságos gyártással (Csíkszélesség!!!) várniuk kelett ezidáig. Én úgy képzelem, hogy a mostanában kissé (pénzügyileg) visszakullogó IBM mögé anyagilag állt a két másik cég. Egy ilyen hiper PS3 pedig nagyobb reklámot jelentene a cégnek, mintha a PC vagy szerver-piacon jelenne meg egyedül.
Ez LOL már tényleg:)
"Quad QuadWord Wide (256bit) cache data bus provides extremely high througput on read/store operations"
Ez csak egy idézet volt a Pentium III Tualatin szerver verzió doksijából.
Version te annyira hülye vagy hogy az már fáj, és ráadásul görcsösen bizonygatod az igazad, mikor tök hülyeség amit irsz.
Az Itanium 64 bites, 133 MHz-es "double pumped" buszt használ, amelynek maximális sávszélessége 2,1 Gbyte/sec, az Itanium 2 busza 128 bites és 200 MHz-en mûködik, elméleti maximális adatáteresztõ képessége 6,4 Gbyte/sec. ETTÕL MÉG MINDKÉT PROCESSZOR IA64 tehát 64bites VLIW (very long instucuon word) architektúrájú. További specifikációkért ajánlom a tájékozódást, mielött megint a hülyeségeidet hajtogatod it..
Akkor most nem kötök beléd. Majd valaki felvilágosit téged a témából, mert alapvetõ dolgokban el vagy tévedve. Talán majd 8.-ban számtech fakultáción megtanulod...
De jelen pillanatban õ a világ legnagyobb chipgyártója (igen még az IBMnél is nagyobb), és elég badarság lenne alábecsülni...
Fejlesztés, pénzügy... szerinted ezek nem függenek össze? Pénzügy nélkül nincs fejlesztés... és az intel per pillanat nem éppen kifogásolható anyagi helyzetben van... szóval lehetne vitatkozni arról, hogy kinek van nagyobb anyagi kerete kifejleszteni egy ilyen procit..
ez annyit jelent hogy a helyi Cell procis egységed mondjuk a PS3 hozzá kapcsolodik több 1000 GRID serverhez, amik segitenek neki egy komplett világ modellezéséhez
majd megnézzük meddig jut az intel csoda 2 év mulva max 5-8 Ghz.ig :LOL
ja
aki még nem tudná a CELL 256 bites lesz
szoval jöhet a hammer meg a többi loszar a 64 bitjével :LOOL
"persze az intel amd felkötheti magát utána, na meg az egsz pc-s ágazat :DDDD" pont errõl beszéltem, hogy ez egyátalán nem igy van...
Ez részben igaz. Ne felejtsd el, hogy már a mai processzorok SEM x86 procik. A mai x86-64(a nagy mitosz, a hammer) és az IA64 64bites procik is mindössze kompatibilisek egy emuláló áramkör segitségével, ami a hammerben ÁLLITÓLAG sokkal jobban sikerült mint az Itaniumban.
SZVSZ a piac hozzáállása miatt ez a 64bites mizéria születésétõl fogva halálra van itélve, nem fog ez elterjedni még, hiába jönnek ki az opteronok stb.. nem hiába nem forszirozza az intel sem az itanium szerû desktop procik megjelenését, azért a marketingeseik sem hülyék, látható hogy ennek MÉG nincs létjogosultsága... (talán az opteronnak több lesz...)
Persze ez csak az én véleményem, majd a történelem megmutatja mi lesz:)
Meg azért az sem elfejetendõ, hogy sok más processzor techológia is a tervezõ asztalon van, nem csak ilyen lineáris szinkron órajeles megoldások. Vannak olyanok is, amik tényleg merõben mások. Van egy cég pl aki aszinkron (órajel nélküli - elég kaotikus) processzorokat fejleszt már egy ideje, és azt állitják hogy jóval nagyobb teljesitményre lehetnek képesek, mint egy hagyományos proci. Vagy a nanotechnológia, optikai megoldások, és egyéb biotechnológiai cuccok. Szóval ez a cell hiába hangzik jól, szerintem akkora nagy durranás nem lesz, mint amekkorának tûnik. Fõleg a dátuma miatt...
amugy egy risc proci 5-10 millio tranyobol áll ha 16 cpu-t raknak 1 chipre az 160 millio tranyo
az nvidia uj chipje 120 millio tranyot tartalmaz
és ez a Cell proci 2 év mulva jön ki semmi hihetetln nincs abban hogy ilyen gyors lesz a CELL
persze az intel amd felkötheti magát utána, na meg az egsz pc-s ágazat :DDDD
1. mindaddig a levegõbe beszélnek, amig MÛKÖDÖ proci nincs készen, és kész.
2. 2 év sok idõ! Gondoljatok csak arra, hogy mekkora ütemben gyorsulnak a mai processzorok is, és mennyi új technológia vár bevezetésre a közeljövöben.
3. A P4-el való összehasonlitása éppen ezért komolytalan. Addigra egész más processzorai lesznek az intelnek is, és gondolom senkit nem kell felhomályositani arról, hogy micsoda erõforrások állnak a világ legnagyobb chipgyártójának rendelkezésére, hogy ezt megvalósitsa. El nem hiszem hogy az Intelnek ne lenne hasonló terve stb.
4. Gondolkozzunk logikusan. Ez a cell processzor a mai ismert legmodernebb technológiákra épül. Namost ki fejleszti, és MINEK NYOMÁN fejleszti ezeket a technológiákat? Hát a chipgyártás tapasztalatai nyomán. Egészen pontosan az Intel tapasztalatai nyomán, és persze a más cégekén is. Magyarán ha az IBM kutatói, fejlesztõmérnökei képesek voltak ma egy ilyen chipet összehozni (AMIRE SEMMI KÉZZEL FOGHATÓ BIZONYITÉK NINCS MÉG HOGY SIKERÜLT!) akkor az is 100%, hogy a HP, Intel, stb nagyobb cégek tarsolyában is vannak ilyen tervek már, max nem verik nagy dobra mert esetleg nem a várva várt PS3ba készül.
5. Az meg eleve idiótaság, hogy az IBM nem követi el mégegyszer azt a hibát, hogy kompatibilis megoldásokat enged gyártani. Ilyen ma már nem létezik, egész egyszerûen a technológiai fejlettség miatt. Ha meg is próbálná kisajátitani a technológiát szabadalmak útján, akkor meg ugyanaz várna rá mint a Micro$oftra.
enterprise: ezt a procit nem fogod boltban megvenni, csak PS3ban, vagy komplett IBM gépben. az IBM nem hiszem, hogy elköveti mégeccer azt a hibát, hogyha netán PCproci is lesz belõle, hogy engedi kompatibilis gépek gyártását, mint anno. és az IBM nem szokott a levegõbe beszélni. ha azt mondják, hogy annyi, akkor az annyi. akár 100*os is. bár én az õ helyükben az egész POWER4es kidobnám, ha ez télleg ilyen piszokgyors lesz...
Jo hat csinaljak, en meg lefikazom oket.. ahogy mondtad ez a rendje a dolgoknak ;>
Ne fanyalogj már, unalmas...
Egy processzor termékciklusának fele arról szól, hogy összehozzák a terveket, másik harmadában a terveket szilíciumra viszik, a fennmaradó rész az, amikor eladják. Utóélet: néhány kisebb-nagyobb revízió, és kész.
Ugyanez volt az Intel-féle Itanium körül, de ugyanezt csinálta az AMD is. Ez a rendje a dolognak.
(Ja, a vicc kedvéért: a BitBoys is ezt mûveli :) )
Jajj csodas... 100 gyorsabb lesz, se legalabb enyiszer dragabb is... raadasul meg prototipus sincs, de mar dobaloznak a szamitasi teljesitmenyekkel... zuper.