Ez nem feltalálás. Logikus lépés volt korábban a modularitás, és most logikus lépés a CPU és egy GPU közelebbi viszonyba hozása, a gyorsabb közös munka érdekében.
Én vennék, ha lenne elegendõ pénzem. Késõbb, ha átvészeli ezt a pár hónapot a cég (szerintem át fogja), és visszaemelkedik az árfolyam, máris közel megdupláztam a pénzem...
Ez így jó, szép, csak szerezzenek már valami nagy tõkét. Nem jó a többfrontos háború tartalékok nélkül. Mindneki vegyen AMD részvényt! Hol maradnak a befektetõk?
A spanyolviasz ismét fel találásra került és újból el lehet adni azt, amit már 15-20 éve is eladtak, vagyis az integrált architektúrát.
C64 forever.
Ahogy elnéztem az Itanium felépítését, nem éppen a programozók álma. Baromi jó ötletekre épül, de szvsz nem biztos, hogy a leghatékonyabb erõforráskihasználás a legjobb megoldás. Tipikusan Tanenbaum prof-nak való a rendszer. Õ szereti a gazdasági szempontból nem éppen életképes megoldásokat.
hááá, az a durva" tuning ram 27embe került.800as kingmaxok :D:D:D teszik a dolgukat szépen a kis drágák whahah meg az ultra tuning alaplap 30 vót, vaniliapéötbé.jó, szerencse is kell hozzá, de sztem eleget kutakodtam, meg bevállaltam oszt helókiti.Persze, most kicsit tépem a hajam mert 1066-os ramokat kapok 11ért 1giga akkor meg 27 volt 1 giga szal bekaphassák.
A lényeg a lényeg.lehet mondom bontott árba van nagyon jó ár/teljesítmény arányú amd masinéria de nekem a teljesítmény nagyon fontos volt, még ha ez az arany csökken, akkor is.Nem csak kánterezésre használom a gépet :D
nem tom, sztem sztár vagyok :D:D:D mivel 38 ért vettem 8 hónapja...és akkor fel is rántottam 3.4G-re.szal 38as árkörül nézegessünk szét ár/teljesitménybe, milyen amd pocit is vehettem volna akkor ami megfelel egy 3.4-es c2dnek 38ért :P :D:D:D (asszem akkor még nem volt X2-tizen pár rongyé....szal az is kilõve, a másikmeg hogy 40 ezres árkategóriát nézzük ár/értékbe nehogy gyertek a szinte már bontott áron kaphat X2esekkel :D ) dez neked +üzenem, hogy ki is használom.Ne erõködj :D és élvezem a 2 mag elõnyét is...mivel a program multicpus :P szóval ez a 11-es hárítva :P
Amúgy tök jó, hogy mi itt tépjük a szánkat, a cikkekben meg olyan képtelenségek virítanak, mint pl. "A GPGPU, vagyis az általános célú grafikus vezérlõ"...
A GPGPU.org mottója (ha a kedves cikkíró nekem nem hisz - ha egyátalán olvassák a kommenteket): "GPGPU stands for General-Purpose computation on GPUs. With the increasing programmability of commodity graphics processing units (GPUs), these chips are capable of performing more than the specific graphics computations for which they were designed. They are now capable coprocessors, and their high speed makes them useful for a variety of applications. The goal of this page is to catalog the current and historical use of GPUs for general-purpose computation."
A piac már most ismerkedik a GPGPU-s témával, szóval a dolog "adja magát", és egy logikus fejlõdési irány. Az Intel, akármilyen nagy, nem nagyon tehet mást, mint követi az AMD-t ebben is.
Aztán hogy melyik oldalon mivé fejlõdik tovább, az más kérdés. Mindenesetre, az Itanium is megmutatta, hogy még az Intel sem elég nagy ahhoz, hogy a piacra tudjon csak úgy kényszeríteni egy teljesen új, a meglévõtõl teljesen eltérõ platformot.
Egy éves késése viszont akkor lenne, ha hamarosan a piacon lenne egy HT-s R6xx, ami nem nagyon várható egyelõre. Mondjuk a Cray még idén piacra dob olyan mini- és szuperszámítógépeket, amik az AMD Torrenza platformján alapulnak, és saját fejlesztésû célchipekkel egészítik ki a K10 alapú új Opteronokat.
Hát, elindult, de eléggé gyerekcipõben jár: nem tudok róla, hogy a GPU-s gyorsításra épülõ Havok FX akár egyetlen játékban alkalmazva lenne már. :) Persze ami késik, nem múlik.
Persze, az otthoni v. akár félprofi hang- és videofeldolgozásban is alkalmazható lesz, én is erre gondoltam.
Ha jobban megnézed, én sem egybeépítettrõl beszéltem, sõt írtam is (az eredeti interjúban is benne van), hogy a Fusion nem feltétlenül csak egybeintegráltat jelent. A 4x4-et és a HT-t is elmítettem már. Talán ha nem csak minden 5. hsz-emet olvasnád el... :) Egyvalami azonban még hiányzik ehhez: egy HT interfészes GPU. (Abban ugye nem kételkedsz, hogy bizonyos feladatokra jobb egy GPU, mint akár 10 CPU?)
Azért tegyük hozzá, hogy a Javánál van egy elõfordított, un. bytecode, amit már jóval könnyebb továbbfordítani a kérdéses platformra. Nem tudom, ilyen van-e, lesz-e C#-nél. Multitasking: not azért a Windowsos megvalósítás nem éppen az számtech csúcsa...
Oké, de én nem is azt mondtam, hogy a Larrabee nem ringbuszos lesz, hanem azt, hogy az elsõ lépés Intelnél is a Nehalem + CSI + 1 GPU lesz, márpedig a CSI nem egy sokbites ringbusz. :)
Az x64-et az intel kénytelen volt átvenni, de a lényeg, hogy egy fél-egy éves késéstõl az intel részérõl egy vadiúj technológiánál, ami még szoftvertámogatást, és a fejlesztõk aktív közremûködését is igényli nem fog felborulni a piac.
GPGPU már játékoknál is elindult. Lásd GPU-val történõ fizika számítás/gyorsítás. Az otthoni hang és videó feldolgozás meg jóformán hasonló kategória.
Bármilyen kis költségvetésûek is, a tudományos számítási feladatok megengedhetnek maguknak egy szervert amelyben viszont már nincs sok értelme egybe épített CPU/GPU-t használni, ugyanis ott már nyugodtan lehet több különálló processzort használni. És az AMD architektúrája már most is lehetõvé is teszi, hogy célprocesszorokat kössenek össze hagyományos CPU-kkal Hypertranszporton keresztül.
Aki emlékszik rá az MS Vista fejlesztése úgy indult, hogy C#- ben lesz megírva, tehát futásidõben fordul a kód az éppen aktuális harveren, az éppen aktuális verziószámú Micrsoft .NET framework-ön (ála JAVA). Aztán ment a levesbe az egész, mert nem volt vas amin elfutott volna megfelelõ teljesítménnyel. Igaz itt csak maga az op.rendszer kódja fordult, és futott volna valós idõben, a külsõs alkalmazásoké nem. Figyeljétek meg az MS meg fogja csinálni valamilyen szinten, implementálja a directX-et is (anno A JAVA-ba az openGL-t akarták) , rápirít a hardvegyártókra, a megfelelõ C# driver-ekért és kész. Mondjuk kicsit szkeptikus vagyok a szoftveres megoldásokkal kapcsolatban, pl.: 15 évig ment, hogy milyen jó a szoftveres multitasking, aztán mégis kellett a több mag, és meg is látszik a különbség.
Hát, ha az anyagiak kisebb szerepet játszanak, akkor jöhet a Power, a Niagara, és a többiek...
Azt nem igazán tudjuk, mit tervez az AMD hosszabb távon, de az elsõ lépések igencsak hasonlítanak a két cég között. Magyarán, elsõször az Intel is valószínûleg 1db GPU-t fog a Nehalem mellé tenni, egy a HyperTransportra hajazó buszon (CSI, Common System Interface). Ez azért még elég messze áll a Cell belsõ architektúrájától, pl. a belsõ sokbites ring busztól.
Az AMD64-nél sem úgy történt... Azt is az Intel volt kénytelen átvenni (pedig elõtte szídta, mint a bokrot, mert õk az Itaniumot nyomták volna, mint új 64 bites platform az x86 helyett - kár, hogy az sem volt éppen az igazi). Igaz legtöbben ma is 32 bites Windowsokat futtatnak, azért koránt sem mindenki.
Ezt PC-n elõször valószínû nem is játékok terén fogják használni, hanem ott, ahol a GPGPU alkalmazás már elindult: video- és hangfeldolgozás, (kisebb költségvetésû) tudományos célzatú számítások. Lásd gpgpu.org. Ez azt teszi optimálisabbá a CPU és a GPU közelebbi kapcsolatba hozásával, mert a PCIe buszon keresztül nem az igazi, ha sokat kell adatot cserélni. (Márpedig kell, mert a GPU csak bizonyos részfeladatokat tud igazán gyorsítani, a többi a CPU dolga továbbra is.)
Tehát, ha úgy tetszik, ez a dolog már most "támogatva van". Csak így még jobb lesz.
" "egyfajta speciális CrossFire technológia" = HypertTransport? Ennek lenne értelme. Megvan minden technológiájuk hozzá."
Hát ja, HT, meg ugye a Torrenza platform. A nyilatkozó egyébként konkrétan CrossFire összeköttetésrõl beszélt (CPU és GPU között, szal nem több GPU-ról volt szó), de bizonyára valójában a HT-re gondolt. (A felsõvezetõk néha kicsit keverik a dolgokat. :D) (Máshol én is írtam, de itt már nem akartam túl sokat "okoskodni".)
"Meglátásom szerint még mindig az lenne szép, ha egy többfoglalatos alaplapra lehetne pakolni különbözõ procikat, az alaplapon meg ott lenne egy buta framebuffer memória, meg egy DVI kimenet."
A 4x4 (Quad FX) rendszer kapásból használható lenne erre, a Torrenza keretein belül. Csak le kell majd cserélni a PCIe interfészt HT-re az ide illõ GPU-kon. És lõn, éppen ezt csinálják. Viszont, mivel ez elsõsorban GPGPU alkalmazás célzatú lesz, nem kell külön vram, meg képkimenet sem.
Kicsit más az olcsóbb kategóriás laptopok, és talán irodai célra gyártott asztali változat. Ott továbbra is a képmegjelenítés minnél gazdaságosabb megoldása lesz a cél. (Esetleg egy high-end laptopban mindkettõre használják majd.)
Az Intel szerintem teljesen más irányba indult el GPGPU terén, inkább a Cell-hez jobban hasonlító irányba indult el a számítási teljesítmény növelése érdekében. Azok a fejlesztések meg már jó pár éve folynak, jóval az elõtt hogy az AMD és az ATI egyesült volna.
Az Intel Larrabee-járól túl sokat nem tudni, de állítólag 2009 elejére már kész termék lesz 24/32 maggal, 2010-tõl 48 maggal és Teraflops feletti teljesítménnyel. Mivel 2008 végén kijövõ új architektúrás Nahalem natív 4 magosát az Intel erõsen úgy csinálja hogy modulárisan jól összekapcsolható legyen dolgokkal. Egy lapkára integrálva mellé grafikus egység biztos lesz, de talán még egy Larrabee-t is mellé rakhatnak és máris lesz egy Cell-hez erõsen hasonlító egységük. Az Intel a demonstrációi alapján grafika terén inkább a ray-trace felé kacsingat, legalábbis emlékem szerint volt valami Quake4 féle ray-trace demonstráció a tavaszi IDF-en.
Az Intel másik multi-core fejlesztése a TeraScale ami szintén több éve zajlik, hisz lassan egy éve már mûködõ példány demonstráltak 1 teraflops teljesítménnyel, amit azóta már 2 TF-ra emeltek. Ez a jól ismert 80 magos CPU-juk. Ebbõl viszont az Intel elmondása szerint nem lesz késõbb konkrét piaci termék, inkább csak fejlesztési projectnek szánják, amolyan CPU-k Forma 1-je, ahol jõvõbeli technológiákat tesztegetnek, amit majd késõbb piaci termékekbe emelnek át. Szóval a Larrabee-t követõen 2010 után talán már a TeraScale fejlesztésekbõl is jelenik meg az azt követõ generációkban.
A Larrabbe kvázi egyszerûsített x86 magokból áll, jó sokból akár 24-48-ból, a TeraScale meg VLIW magokból ami inkább az Itanumhoz köti jobban.
A legtöbb fejlesztõ azt használja ami mindkét rendszerben elérhetõ. AZ AMD inkább az Intel magatartása miatt nem szerzett nagyobb piaci részesedést. A 64bit-es címzést azért kellett bevezetni, mert a 32bit-es címzés nem képes 4GB-nál több fizikai memóriát kezelni. Az Intel lényegében az AMD 64bit-es megoldását használja, a keresztlicensz szerzõdé értelmében jogot formált rá.
AZ nV szerepe egyelõre kétes, de van egy szép Via nevû cég akinek megvannak a megfelelõ licensszei, így még az is lehet, hogy egy bevásárlással az nV is elkezd valami fusion féle rendszert fejleszteni. Bár nagyobb esély van rá, hogy teljesen áttérnek a chipset fejlesztésre, legalábbis jelenleg nagy erõltetik ezt a területet. Õszintén szólva én nagyon örülnék egy szép kis háromszereplõs piacnak.
"érdekes lenne a helyzet, ha az intel mondjuk jó háromnegyed, vagy akár egy év csúszással hozná kis a saját hasonló technológiájú megoldását->ha az AMDnek sikerül egy kis elõnyre szert tennie, borulhatnak ám a papírformák!"
Hallottál már az 3DNow!-ról? Nem lepõdnék meg ha nem. Elõbb jött ki, mint az SSE, sokak szerint jobb is volt, aztán kutya sem használta. 64bites kiterjesztés majdnem ugyanez. Elõbb jött ki, jobb volt mint az Intel elsõ hasonló megoldása (P4-ben lévõ) mégsem játszott túl nagy szerepet a Athlon64 piacszerzésében, mert a piaci részesedés nélkül nem fejlesztenek rá -> a sebességnövelõ hatása sem érvényesül. Ugyanettõl félek ennél a cuccnál is, ha nem dolgoznak össze az Intellel, és nem lesz kompatibilis a megoldásuk.
nVidia viszont kapásból beperli õket ez esetben szerintem, mert számára ez a halált jelentené.
Itt fõleg azt kellene részletezni mit értesz professzionális felhasználás alatt. Pusztán maradva az IBM PC szerver piacán, látható, hogy igen erõs az AMD Opteron. Ezt fõleg a kiváló Unix-os fejlesztési dokumentációinak köszönheti. A munkaállomás réteg komolyabb rendszereket igényel a megfelelõ hardverek kiválasztásában nagyon sok tényezõ játszik szerepet. Például nyilván nem mindegy, hogy egy szerverparknak mennyi a fogyasztása, mert a villanyszámla igencsak megdobhatja a cégek költségeit.
Természetesen el is távolodhatunk az IBM PC platformtól. Láthatjuk, hogy a Sun UltraSPARC-jai, az IBM PowerPC-jei, és az Intel Itanium-jai is elterjedtek, de ezek már tényleg nagyon professzionális eszközök. Amit fontos megjegyezni, hogy a fenti három platform küzöl egyik sem tartozik az IBM PC x86 családjába, tehát nem közvetlen ellenségei az Opteron-oknak és a Xeon-oknak.
A GPGPU az általános feldolgozóként használt GPU. Lényegében a shader nyelv használható bármilyen adat számítására. Speciel az R600 számítási teljesítmény 475GFLOPS, ami a mai 20-30GFLOPS-os CPU teljesítmény többszöröse. Erõsen párhuzamosítot számításokra ideális a rendszer, persze elõbb meg kell írni az R600-hoz megfelelõ fordítókat. Egyelõre CTM felület van az R580-R600 féle GPGPU fejlesztésekre, ami nem túl egyszerû. A GPGPU borzasztó fontos üzleti szempont lesz, mert a GPU-k gyártása és fejlesztése nem olyan jövedelmezõ, mint kellene.
Az Intel az új ütemtervében már hasonló elképzeléseket láthatunk, csúnyán fogalmazva, lemásolta a Fusiont. A keresztlicensz szerzõdés pont a kompatibilítás megörzése miatt jött létre, "ami az enyé az a tied is, és fordítva". A piac választása erõsen függ a Microsoft-tól jelenleg, márpedig az AMD-vel az utóbbi idõben eléggé puszipajtások lettek a Redmondiak.
már csak azért is kibírja, mert a notebook (esetleg aztali gép) gyártók szeretnek olcsóbb AMDs megoldásokat csinálni (amit aztán a vevõk szeretnek megvenni:D). Meg van az AMD-nek is egy nem elhanyagolható tábora. Nem rossz procik az AMD-k, egyetlen bajuk, hogy professzionális felhasználásra NEM alkalmasak (valaki majd fogja írni, hogy amikor gyorsabbak voltak, akkor is ezt mondták: nem ettõl függ).
Mindenesetre végre egy elõre mutató fejlesztés! Hajrá AMD (még ha inkább inteles is vagyok :) ). Mondjuk kicsit érdekes lesz, hogy 10 GB-os gépek lesznek: 8 a 'CPU'-nak, 2 a 'GPU'-nak:). Meg kíváncsi vagyok egy hibrid megoldás árban hova lesz pozícionálva (GPGPU, tehát lényegében egy videókari+proci szintjére? nyilván kivéve videokarinál a kártya és a RAM költségét -> ami meg alap áránál viszajöhet :D)
L3zl13: érdekes lenne a helyzet, ha az intel mondjuk jó háromnegyed, vagy akár egy év csúszással hozná kis a saját hasonló technológiájú megoldását->ha az AMDnek sikerül egy kis elõnyre szert tennie, borulhatnak ám a papírformák!
Szerintem a végsõ megoldás vagy az említett fordító lesz(külön AMD/intel), vagy egy közös megállapodás és egy szabvány bevezetése (utóbbi hát nem is tudom-valószínûbb-fõleg, ha az intel csúszik).
Szabvány azért is kérdéses, mert ha az intel nem vásárolja fel, vagy köt egy szorosabb együttmûködési szerzõdést az nVIDIA-val: kérdés: AMD gyárt-e intelnek ATI GPU-t, amit õk is tudnak integrálni? Egyáltalán: az nV gyárt-e majd az AMDnek? Kíváncsi vagyok, mit hoz a jövõ, addig is MacBook Pro xD
Tõlem akár szeptikus is lehetsz. Kibírja. Sokkal rosszabbul is állt már ennél.
Lehetek egy kicsit skeptikus? Kibirja az AMD 2010-ig??
Igen, és ugye tudjuk mennyire hívei a cégek a nyilt forrásnak, hogy mindenki lefordíthassa a saját platformjára a programot. Tehát továbbra is érvényesek a #16-ban elmondott dolgok.
Már többször láthattuk, hogy egy elvileg jobb technológia elbukott a rosszabbal szemben, mert a piac nem ált mellé. Attól tartok, ha az intel nem ilyen megoldást választ, vagy éppen ilyet választ, de nem lesz kompatibilis, akkor az AMD ötlete bukni fog, mert a fejlesztõk a nagyobb piaci részesedésre mennek rá.
Nem fogják a programokat külön AMD-s és Inteles változatban is kiadni. Vagy hanyagolják az egész optimalizációt, és így a platform rendszer nem hoz semmi sebességbeli elõnyt, vagy az Intel megoldására optimalizálnak.
Fordítóról van szó, tehát az ártalad tetszõleges nyelvben legyártott programkód architektúrára való illesztését elvégzõ eljárásról.
Egyszerûen fogalmazva: Te továbbra is ugyanúgy fejlesztesz - külön CPU- és GPU-specifikus kódrészleteket írhatsz, ahogy eddig. De maga a fordító ebbõl olyan alkalmazást épít fel gépi kóddal, amely ezeket a rutinokat a megfelelõ feldolgozó egységen futtatja, hatékonyabban managelve az erõforrásokat.
Nem veszed figyelembe, hogy nincs más lehetõség. A teljesítmény növelésére a legkézenfekvõbb az órajel emelése, csak annak is megvannak a határai. Az IPC növelése is csak idõlegesen járható, sok függõség esetén nem lehet túl nagy. Innentõl kezdve kilõttük a legjobb lehetõségeket, így érdemes kutatni a kevésbé jók után. Több magos CPU-k bevezetése, életképes ötlet, de mivan akkor ha nincs két szálnál több a programban, akkor hiába van 8 magos procink. Meg ugye ezt sem könnyû programozni, így logikus lépés a célprocesszorok integárlása. Ez remélhetõleg kitart addig amíg valamelyik fejlettebb architektúra képes lesz az x86 emulálására.
A hírhez kapcsolódóan. Ott látok buktatót, hogy ha jól vettem ki máshogy kell rá programokat fejleszteni/optimalizálni. Saját fejlesztõplatform meg hasonlók. Ez célfelhasználásnál nem gond (talán csak fordító kérdése), de általános PC programoknál (pl játékok) lehet, hogy nem foglalkoznak vele a fejlesztõk, és mehet az egész a kukába.
A licenszük is megvan hozzá mivel megvete az ATI Radaont
"egyfajta speciális CrossFire technológia" = HypertTransport? Ennek lenne értelme. Megvan minden technológiájuk hozzá.
Meglátásom szerint még mindig az lenne szép, ha egy többfoglalatos alaplapra lehetne pakolni különbözõ procikat, az alaplapon meg ott lenne egy buta framebuffer memória, meg egy DVI kimenet.
Egyébként Timna volt a neve, és feljesztési nehézségek miatt törölték. link Nem csak grafikus vezérlõt, hanem memória-kontollert, és egyéb eszközöket is integráltak volna, egy un. system-on-a-chip chipet létrehozva. Amik egyébként léteznek más platformokon.
A Fusionnak egyébként nem kell feltétlenül egychipesnek lennie. Elõször két tokos rendszer lesz, majd egy tokban két lapkás, és csak még késõbb egy chipre integrált. Szal nem ez a lényeg benne, hanem a CPU és a GPU szorosabb, és nem csak grafikai célzatú összedolgozásra "szoktatása".
Akkoriban kb. semmi hasznát nem vette volna egy nem-grafikai program egy GPU-nak, mivel azok akkoriban nem, vagy nagyon egyszerûcske, grafika-célorientált programokat (shadereket) voltak képesek futtatni. Szóval nem hinném, hogy ilyen célzatú volt a dolog... Itt egy kissé másról van szó.
Nem is próbálkozott. Az egy egy összeépített cpu és gpu lett volna, amelyek külön külön dolgoznak, egyik sem segít be a másiknak. Szal egy cpu és egy gpu egy chipen, röviden egy nagy semmi.
Ez tényleg tök jó újitás lenne, ha az Intel nem probálkozott volna már ilyennel a Pentium III.-as korszakban ( emlékeim szerint "Timma v. Tinma" volt a cucc fejlesztési kódneve). De akkor valamiért törölték a projecet, ha az AMD most feléleszti akkor gondolom rendelkezik a hozzá való licenszekkel.
Ja, egyébként meg a GPGPU annyit tesz: a GPU általános célokra való felhasználása.
Hát te teljesen kész vagy. Kicsit több értelme lett volna, ha leírod, hogy kedvenc Inteled is hasonlón dolgozik, a Nehalem kapcsán. (Ha nem is elsõk az innovációban, legalább felismerik mások jó ötleteit. )
Cikkhez: "A GPGPU, vagyis az általános célú grafikus vezérlõ" - Ebbõl most biztos mindenki pontosan megértette. :) Kicsit "rávezetõbb" lett volna így fogalmazni: grafikai feldolgozó egység. De amúgy sem ártott volna 1-2 szóban leírni a "most bekapcsolódoknak", tulajdonképpen mirõl is van szó, mert így kcsit semmitmondó. Tehát hogy a GPU-k bizonyos mûveletekben sokkal hatékonyabbak, mint a CPU-k, és ezt nem csak grafikai mûveletekben lehet kihasználni. És ezen alkalmazások számára optimálisabb, ha a CPU és a GPU közelebbi viszonyba kerül, mint eddig volt. És hogy mik ezek az alkalmazások: sokféle jól párhuzamosítható, nagy számítási kapacitást igénylõ mûvelet, pl. video- és hangfeldolgozás, különféle tudományos számítások, stb.