Mi ebben a marketing, használd a józan eszedet. Ha írnak egy játékot, ami ALAPOSAN KIHASZNÁL akár csak 3 vektorprocit, azt elég nehéz lesz portolni PC-re.
"miközben egy ízig-vérig PS3-as programot úgysem lehet csak úgy portolni PC-re" Ismét jót röhögtünk. Úgy látom nálad bejött a sanyi marketing, elvakított a "sonyrulezpcsuxx" reklám, de annál keservesebb lesz az ébredés, mikor rájössz hogy ez se váltotta meg a világot.
Persze hogy szükség van a physx-re, mint ahogy a cellnek is a 7 vektorprocira. Ezzel mit is akartál mondani?
Kapásból tudok pár okot mondani, miért volt okosabb dolog inkább megvenni a licencet, mint nekiállni sajátot fejleszteni: 1. Egyszerûen nem lenne sok értelme most (már) ennek. Idõ is, pénz is, és csak megnehezítenék a PC-rõl való portolást (miközben egy ízig-vérig PS3-as programot úgysem lehet csak úgy portolni PC-re, tehát a máshova portolást csak kis mértékben segíti). 2. PC-n sürgõsen szükség lesz arra a Physix chipre, mert már nagyon ráfér a játékokra valami normálisabb fizika, de azt a chipet egy második, max. 10 GFLOPS-os x86 mag nem tudja helyettesíteni, és nem is akarják csak erre elhasználni a 2. magot, és ezzel elvágni az utat az egyéb, ugyancsak idõszerû elõrelépések elõtt. Tehát hamar szabvány lesz a dolog PC-n. 3. Nem csak a chip a lényeg, hanem maguk a jól kidolgozott mûveletek. Ez kb. olyan, mintha azt mondanád, hogy az OpenGL-lel is versenyezniük kellene valami saját szabványnal. Túl nagy fába vágnák vele a fejszéjüket.
Persze, de az üzletben éppen ez a legnehezebb, mágtalálni a "mit" és a "hogyan"-t az relatív egyszerû, viszont a "mikor" az már bonyolultabb, a szoftveripar azon dolgozik, hogy absztrakt hardveren mûködjön (ez nem csak a Microsoft, pl. a Java is erre céloz), de ez a tranzició évekig tart, mert sok a legacy rendszer, és ezt nehéz csak úgy kidobni az ablakon. Az Intel itt tévedett, azt hitte, hogy a maga által ellenõrzött szegmenset lassan eltudja temetni, de elfelejtette, hogy a konkurencia (AMD) ezt nem szeretné és már elegendõ piaci és technológiai erõforrással rendelkezik, hogy ebben megakadályozza. Hasonló probléma volt a régi Windows vonal (Workgroups, Win9x) felváltása az NT vonallal, a Microsoft elõbb szerette volna elérni, de a piac volt az ami diktált a Microsoft meg csak kísérte a piacot... "Power wears out those who don’t have it..." mondják és az MS itt felismerte, hogy ezen a téren nincs hatalma, az Intel viszont nem.
Errõl beszélünk mi is, a duál mag lényege a multitasking. DE: ugyancsak készülnek már olyan programok, amik programon belül is képesek kihasználni a több szál elõnyeit. Most csak multitasknál jön elõ, késõbb mindenben. De már most is ki tudod használni, hiszen ki az aki mindig szigorúan csak 1 dolgot csinál a gépével?
Végülis felválthatja, csak nem most. Az MS is azért csinálja a WinFX-et, meg a C#-ot hogy lehessen platformfüggetleníteni. Igaz ezzel az intel konkurrenciáját is segíti, viszont az x86 alapoktól való elszakadást is. De legalább idõt kap az intel a további fejlesztésre, biztos van mit, olyan nincs hogy ne lenne, aztán ha eljön az ideje egy korrektebb cuccal állhat elõ, nem egy újabb összegányolt cuccal. Bár elõbb-utóbb mindegyik technológia eléri a határait, de nem mindegy mikor. Ez egy elég nagy horderejû váltás lenne, olyat alkossanak ami sokáig kitart, logikusan továbbfejleszthetõ, mert ha átlapátolnak rá mindent, megint jó ideig nem mer hozzányúlni senki a kompatibilitás szükségessége miatt.
Aha, és a sanyinak pont az ageia szabványa kell, mert az már olyan elterjedt hogy kihagyhatatlan... A sanyi eddig is a maximális kompatibilitásáról volt híres, umd is azért kellett a psp-hez, mert olyan szabványos... Hogy ez eddig miért nem tûnt fel senkinek...
Látom nem vagy otthon dual proci (mag) témában... nekem egy BP6 - VP6-tal a hátam mögött szerintem több a tapasztalatom. 4db program használta ki a dual core-t és azok sem hajtották ki 100%-ra mindkettõt. A két (4 stb) proci sosem arra volt hivatott hogy EGY alkalmazás sebességét növeljék.
az Itanium mindenben OK, kivéve abban, hogy az Intel egy nagy hibát követett el, azt hitte, hogy egy teljessen új (kompatibilitás szoftver szinten) architektúrával felvált egy olyan nagy értékû struktúrát mint az x86 aminek értékét egyébként õk maguk és még az egéssz világ évtizedek óta növelte. Ez üzleti baklõvés volt nem technológiai, az Itanium elsõdleges betegségei is ebbõl eredtek, ugyanis túl kicsi volt az õrdeklõdés a real-world pre-release alkalmazás ezért a fejlesztési költségek sokkal negyobbak lettek mint amennyire számítóttak, míg a problémák megoldása sokkal lasabban történt. Az Itanium az Intel (és az egéssz iparág) üzleti baklõvése, a mai napig is csak sajnálni lehet, hogy most nem ez az architektúra lett az amit nagy erõvel fejlesztenek nem csak az Intel, hanem az egéssz ipar... de ez is csak bizonyíték, hogy nem szabad semmit sem csak a szép elképzelésekre alapozni, nagyon komolyan kell beszámítani a piac által gyakorolt akadáljokat is, az Intel ezt túlélte, ha valami kisebb cég lett volna, becsõdölt volna egy ilyen üzleti (mégegyszer hangsúlyozom NEM technikai) baklõvéstõl, és ezt az egéssz ipar is nagyon megérezné.
Na mit árul el, mesélj! Ennek a lényege az egységes fizikai API. Így könnyebben portolhatók az ezt használó programok PS3-ra. (Jobb, mintha minden játékmotorhoz saját fizikai motort is kellene csinálni.)
Csak a te hiányos tudásod szerint "hibás", inkább olvass utána mielõtt ész nélkül fikázni kezdesz mindent ami nem sony! Legközelebb az "opteron verõ" danon kefírrõl fogsz hablatyolni...
Cell: Welcome Physx: Welcome ... szerintem egyik sem vacak, mindkettõ kemény munka eredménye, lehet, hogy más-más oldalról közelítették meg a problémát, de miért lenne valakinek megkérdõjelezhetetlen igaza, elvégre az igaz és nem igaz a beszéd atributúma és mint olyan a valós világban nem létezik... mi a jobb, a légy vagy a szúnyog?
AFAIK abban nincs is már HT (bár annyira nem követem az Inteles vonalat).
Az itanium alapkoncepciója helyes dolog, csak épp a gyakorlatban elég karcsún produkál az elvárthoz képest. Ezért szállt be az intel is az x86-64 bizniszben, eredetileg _ehelyett_ akarta az itaniumot!
Majd meglátjuk mit szól hozzá. A duál magos p4 ee ht-vel van hogy lassabb mint ht nélkül, ettõl még nem lesz hanyattesés. Már a power5-re is vízhûtés kell, erre elég lesz a dupla nitrogénhûtés?
Neked ugyanaz megírni egy enginet más procira is, mint leemulálni valamit? Dzsízösz, súlyos fogalomzavar... Far Cry meg Doom3 is van Xboxra, akkor leemulálták a directx9-et is a módosított gf3-al? Remélem ezt te is csak viccnek szántad.
"A többmagos procikat játékban te nem fogod kihasználni."
Már hogy a francba ne használnám ki. A mai játékokkal talán még nem, de ami ezután jelenik meg, annak illik odafigyelni erre is. Óriási lehetõségek vannak a multicore procikban, és nem hiszem, hogy sokáig kihasználatlan maradna.
Ami pedig az Itaniumot illeti, a proci jelenleg nagyon jól szerepel a HPC osztályban (mint teljesítményben, úgy mennyiségben is) és még olyan helyeken, ahol egy Xeon vagy Opteron nem is jöhet szóba, ezen a téren a Niagara meg a Power5 a konkurenciája, csak, hogy ezek nem támogatják a Windows-ot, mivel a Windows Server esetében az Itanium az egyetlen megoldás ezekre a területekre, azt hiszem van jövõje (a Microsoft bejelentette a további támogatást - igaz csak meghatározott alkalmazásterületekre, de ez normális is, felesleges valamit fejleszteni azokon a területeken ahol nem használják). Különben a minden attól függ mire használják. De egy Itanium, Opteron, Xeon, Niagara, Power, Cell stb. jelenlét a piacon szerintem csak serkenti a fejlõdést és ezért nem szeretném ha akármelyik is megszünne.
Na akkor most 2005-ben a Niagara 8 magos (mindegyik 4 szálas)... mit szól ehhez? És ezek az "alternatív procifánok" elég sok esetben ilyen procis szerverekkel dolgoznak minden nap, na ehhez mit szólsz?
Látom figyelemmel követed a híreket... Volt róla több cikk is hogy az X360 kevés hozzá de a PS3-mon simán megcsinálják az engeine-ket chip nélkül is. Nézz utána és gyere vissza.
A többmagos procikat játékban te nem fogod kihasználni. Anno a Quake3 sem futott sokkal jobban dual lapokon mint single-ben. A többmagos procik pont arra jók hogy a winfos ne akadjon le ha behívok egy word-ot miközben fut még másik task is mellette - mögötte - elõtte (mert a párhuzamos mûködést csak papíron ismeri billgecc cége). Eleve milyen hülyeség winre a többmagos proci... Ezt is csak a kis pécéhuszárok elvakítására és pénzük elszedésére használják. Vagy te otthon szervereket üzemeltetsz?
"A cell ereje a 7 vektorprociban van, ennek nem a cpu a versenytársa, hanem az ageia physx ppu. Ez már készül is, az unreal engine 3 támogatja is 1000-rel."
Ez az a chip amit a ps3 szoftveresen simán emulál...?
De mivel az x86-ot továbbra is kicsinként fejlesztik (annyi bõrt húznak le róla, és így zsetont ki a userek zsebébõl, amennyit lehet). Más meg (újra) összerakhat valami kapásból jobbat.
review #8... а válasz ott hever... de még mindég nem értem a fanatikusokat... az én apukám erõsebb, az én kutyámnak nagyobb a foga... bla bla bla. (persze ez nem neked szól).
Nem volt teljesítménye hozzá? Ezt most nem értem, 1996-ban a PI-es procik 1 egész utasítást hajtottak végre órajel ciklusonként, az US II meg 4-et (ezen felül 64 bites volt, és tudta a 2D meg a 3d utasításokat, amikor az intel még csak a 2D-t próbálgatta (MMX)). Két mpeg2 streamet tudott realtime kitömöríteni egyszerre. Mégis milyen teljesítményról beszélsz?
Persze, hiszen a tökéletes magok mind version ps3-jába mennek, amit ingyen adnak neki folyékony nitrogénhûtéssel 8 ghz-n, és egybõl 15-öt pakolnak bele nehogy elégedetlen legyen. :D
gondolom a sok selejtes sz*rt fogják belerakni a mosógépekbe, tv-kbe, stb.
Azért a 4 mag még kicsit odébb van. :) A cellbõl egyedül a ppc mag konkurrencia az x86-nak, a vektorprocik meg a physx-nek, ezért értelmetlen összehasonlítani a kettõt.
Az az 1 nem kihasználatlan lesz a cellben, hanem halott, legalábbis a sanyi nemrég azt nyilatkozta hogy nem feltétlenül fog mind a 7 vektorproci mûködni a cellben.
Ez egy loál kategóriás divatfikázó "vélemény". Csak szánni tudom azokat akik "fújintel", "fújmikroszoft" jelmondatokat szajkóznak pingvines pólóban, mert ettõl érzik magukat menõ csávónak. Közben azt se tudják hogy az elmúlt 10 évben nemcsak a házikedvencük, hanem az "ellenfelük" is fejlõdött, méghozzá sokkal nagyobb ütemben. Ezek az alternatív gyártók a 10 évvel ezelõtti sikereikbõl, hírnevükbõl próbálnak megélni, ami elég kevés a vásárlóknak, akik értelemszerûen a névnél többet: teljesítményt akarnak kapni a pénzükért. Ugyanazt, vagy mégnagyobb teljesítményt megkapják töredékáron x86 procival, akkor szted melyiket választják? Ha nem megy a megoldás, nézz meg néhány eladsi statisztikát!
majd meglássuk mennyire terjednek a több magos procik, ezeket nem lehet eladni jo nagy fake freki adatokkal, inkább vissza kell venniük mindig az orajelet mivel a tranzisztorszám duplázodik kétévente de a hötermelés meg nem felezödik :LOL és nem is nagyon használja ki semmi a több magot de ha feltételezzük hogy minden ugy megy mint eddig, akkor a 2006-2007 a 2 magos prociké lesz 2007-ben megjelenik a 4 magos, ez elterjed 2008-2009-ban ekkor megjelenhet a 8 magos ha nem lép közbe semmi és 2010 körül talán már elérhetö árban lesz , de ez még mindig csak 100Gflops körül lesz , a cell meg 250 :DDDDDDDDDDDDDDDDD
A cell ereje a 7 vektorprociban van, ennek nem a cpu a versenytársa, hanem az ageia physx ppu. Ez már készül is, az unreal engine 3 támogatja is 1000-rel.
Én már tudom is, hogy mi fog marha gyorsan elkészülni ezekre a linuxos gépekre (pláne ha bele megy egy jobb videókaresz): ps3 emulátor ;)
Azért ne rohanj ennyire, még a kétmagos procik sem terjedtek el, sõt... te meg már jövõre jósolod a 4magosat, aztán a 8magosat.... Évente azért nem duplázódnak a magok, ez nem a Moore törvénye... :))
"az intel meg az amd kb 2010-re csinál a cell tudását megközelitö processzort"
Ezt azért kétlem. Jövõre lesznek már 4 magos procik, aztán meg akár 8 (majd 45 nm-en). 8 A64 mag pedig már elég a Cell ellen is (ráadásul ezek általános célú procik). És ez még csak 2007-2008. De az sem lehetetlen, hogy az x86 vonalon is megjelennek az erõs vektorprocik, és akkor a Cell elõnye semmivé foszlik.
"Ez utóbbi akár 48 nagyfelbontású mûsor (SDTV, MPEG2, 1920 x 1080) egyidejû lejátszásával is megbírkózik"
Bocs, de itt kell 1-2 javítás. Az SDTV azt jelenti, standard definition TV, azaz a szokásos, nem a HDTV. Így "csak" 48 ~DVD-bontású anyagot dekódolt (és tett ki egyszerre egy HDTV képre). Mondjuk közben nem izzadt meg túlzottan, egy SPE kihasználatlanul is maradt (és egy gyorsan összedobott kód volt).
jo lenne már megtanulni tökéletes dolog nincs , igy tökéletes processzor sem létezik, és nem is lesz soha mindegyik kompromisszumok tárháza, és mindegyiknek megvan az elönye és hátránya, a cell most a világ leggyorsabb processzora gaméra,mediára és grafikára, viszont szerverben egy niagara gyözne az intel meg az amd kb 2010-re csinál a cell tudását megközelitö processzort, addig is jo gamázást kivánok nektek , szenvedjetek csak a pc-tekkel, ja és kb akkor jön az uj cell, szörnyü érzés lehet egy 100 ezres intel processzor tulajdonosnak lenni igy a cell árnyékában
Ja és nem hinném, hogy az Intel lenne a leghatalmasabb cég ezen a területen (üzleti szempontból), ha az x86 csk 2% lenne. De tudom az ilyen pofákat, én általában úgy szoktam befogni a szájukat, hogy megkérdezem tõllük pl., hogy mi az Enterprise Service Bus, vagy mi az Active Directory fegfelelõje pl. az AIX-on vagy Solarison... érdekes, de még eddig egyik sem tudta a választ (pedig olyan komoly ultra szakértõknek adták ki magukat ) de aztán egy pici ellemzés után megfejtettem az ügyet, és ez remélem válasz a "Az x86 remek ,,gyalogprocesszor'' otthon játszadozni meg miegymás..." és a "Csak azt tudnám, hogy ki gyártja a SZÁMÍTÓGÉP-procikat? Mert azok sem a szilíciumvölgyben teremnek..." kérdéseidre...
Ezek a bohócok egy 20-30 évvel ezelõtti Számitástechnika alapjai címû könyvbõl merítik tudományuk 90 százalékát és ebben az esetben el kell ismerni, hogy idõben és térben a jelentõl eltérõen igazat mondanak, persze a sziliciumvölgy így is nehezen magyarázható, de akkor még pl. Texasban is nagyon sok integrált áromkört (hogy ne nevezzem ezt CPU-nak mai szemmel nézve) gyártottak.
Ez meg a másik oldal... érdekes de egyiknek sincs igaza... minden CPU komoly, és ezen nem kell vitatkozni, teljessen normális, hogy egy néhányezer dolláros CPU egy-néhány olyan dolgot is magába foglal, amit a széleskörû olcsó CPU-k majd csak néhány év múlva fognak tartalmazni, viszont az is nyilvánvaló, hogy az x86 már sokkal több dolgot implementált mint amennyit a userek 95% igényel ezért egyrészt sem a költség szempontból sem funkcionális szempontból nem lehet semmit sem mondani ellene, egyszerûen megfelel a követelményeknek és megfizethetõ és ez a legfontosabb, akinek meg valami extra kell az vagy vár míg ez az extra lejön az x86-ba sub $1K áton, vagy benyúl a zsebébe és egy egésszen más kategóriába lép... itt meg aztán minden 10x drágább, ahogy az amcsik mondják gaziliónadikszor mondom, hogy semmit sem szabad légüres térben ellemezni és nincs olyan dolog amely mindenkinek minden igényét megfizethetõ áron kielégíti, ezért is fontos a gazdag választási lehetõség.
Látott ön már számítógépet? Én nem hiszem! Ez a leghíresebb mondata az egyetemen az egyik elõadónak(SZ.A.R.) Az x86 remek ,,gyalogprocesszor'' otthon játszadozni meg miegymás... A processzorok csupán 2%-a x86 alapú. A SZÁMÍTÓGÉP-ekben futnak az US-2 procik, nem a ,,szerverekben''. Csak azt tudnám, hogy ki gyártja a SZÁMÍTÓGÉP-procikat? Mert azok sem a szilíciumvölgyben teremnek...
Éppen errõl beszéltem . Csak azt hiszem ezt a területet nem lehet picit ismerni... ezt vagy ismered, vagy nem. És éppen ezért nem lehet megértetni azokkal akik még soha nem láttak egy helységen 10 gépnél tübbet, nemhogy munkaállomásokat vagy szervereket. Azt hiszik, hogy az õ szuper ultra x86-os gamemachine-juk a számítógép világ alfája és omegája...
Aki picit ismeri ezt a területet, az tudja, hogy pl az ultra sparc II proci 1996-ban(!) tudta azokat a dolgokat amiket csak most vezetnek be az x86-os technológiába, sõt, többet is. Néhány érdekes infó róla (mégegyszer: 1996!): beépített memóriavezérlõ, optimális esetben 9 utasítás párhuzamos végrehajtása, nem optimális esetben 4 utasítás (elágazás és cache hiba esetén is). És talán még idén elkészülnek a legújabb US procival a niagarával, ami 8 darab 4 szálas magot tartalmaz egy lapkán. Illetve már kész a legfrisseb USIV proci ami 32 megabyte harmadszintû cache-t kapott. Vagy nézzük a memóriavezérlõt: pc-s világban egyre nagyobb divat a dual channel, manapság mindkét x86-os procival elérhetõ ez, sõt az A64 integráltan tartalmazza a hozzá szükséges memóriavazérlõt. Van itt mellettem egy Ultra2-es munkaállomás, benne 2 US II-es proci ami alapból quad channeles, de mivel a 16 slotban egyforma 64 megás modulok vannak, a memóriavezérlõ képes a 16 csatornásításra (ilyenkor már egy külsõ chip is besegít, mert ez osztja tovább a ramot a 2 procinak). Ez a 2*300 MHz-es procival szerelt gép kb. egy 2 GHz-es pentium vagy athlon sebességét nyújtja linuxal.