Na most annyira ne nevezzük már bukásnak az Ageia-t. Mert tegyük fel, hogy annyira sz*r és értéktelen, mint ahogy kiderült a Celllfactor-os balhéból ... (Bár megjegyzem, hogy PhysX nélkül kb. 10x kevesebb objektumot kell lekezzelnie kártya nélkül, mert a látványosabb dolgok kártya nélkül NEM is mûködnek, másrészt láttam miként néz ki a hordókból szétfolyó üzemanyag, amikor berántja a gravitációs bomba ... na az sincs a kártya nélkül.)
De!
Nézd meg, az összes nagyobb ismert (és nem ismert!) gyártó az erõsebb gamer gépeit PhisX-el szereli. (Nem csak a Dell, Alien, hanem sok más német, japán, angol, stb. cég.) Ezért ha nem is ér sokat, maga a fizika használata (és talán az Ageia API) életben fog maradni. Az meg senkit se tévesszen meg, hogy a DirectX10-ben lesz fizika. A DirectSound3D is benne van a DirectX-ben, még is van EAX, A3D, Miles 3D, stb. API ami mind a DirectX-en keresztül mûködik, még is egyediek ...
Olvastad az Ageia bukást, vagy az ATI 3 kártyás megoldását? Ez szerinted normális és helyénvaló?
Egyfelõl az Ageia nem bukott, csupán kijátszható, és jelenleg nem olyan látványos a változás általa, mint nélküle. Másfelõl az ATi 3 kártyás megoldása egy lehetõség. Megoldható két kártyával is (pl. egy X1900XT és egy X1600XT segítségével). Harmadrészt tény, hogy jelenleg a grafikai megjelenítés mellett fizika-mánia van. Az is tény, hogy ehhez jelentõs számítási teljesítményre van szükség, amit valahogy biztosítani kell. A programozók nem szeretnék külön CPU-n, VPU/GPU-n és PPU-n is leprogramozni a fizikai számításokat, tehát valamilyen egységes megoldás lenne az ideális (vagy egy közös platform, és ez a platform számít majd azzal, amit a gépben talál).
Lock On.... arra nem gondoltál, hogy a hanyag programozás miatt ilyen? Nehogymár 1 (azaz egy darab!) játék alapján mondjuk azt, hogy megéri az 512MB a plusz pénzt.
Nem az optimalizáltság csúcsa a Lock-On, de történetesen itt arra tértem ki, hogy történetesen a teljes, többszáz km-es terep, a kismillióféle tereptárgy és a játékban lévõ párszáz darab objektum textúrái még 512Mbyte-ba sem férnek bele...
PCIe--->vicc. Egyértelmûen akkora bukás, hogy szégyen. Kénytelenek kijönni az AGP-s karikkal mert ezt már nem vették be a júzerek.
Janos666 már leírta a lényeget: azért jönnek ki az AGP-s kártyákkal, mert még mindig nagy az igény rá. Ám talán értelmezhetnéd azt, amit a PCI-E-rõl írtam. Rugalmasabb, egységesebb csatolófelület, ami bizonyított is. A csúcsgépekben mikor látsz mostanság AGP csatit?
64 bit--> LOL, 64bites win egy VICC. Igy nagybetûvel-> VICC.
Most a 64bites win-rõl beszélünk, vagy a 64bites architectúráról. Mert nem cserélhetõ fel a kettõ. Egyébként már a FarCry és a Source is bebizonyította, hogy 64biten nagyobb teljesítményt lehet biztosítani. Csak át kéne térni rá. (no persze tényleg rendesen megcsinálhatná az M$ is a 64bites windosát)
Ja, a 64 bites XP vicc, de még a 64 bites Vista is éppolyan alapokon nyugszik (Wow64 ami a NEM_WorldOfWarkract64 ), viszont ezzel az emulátorral se lenne gond ha minden programból lenne 64-bites kiadás, és nem használnánk szinte semmibõl 32 biteset, ezesetben talán több driver is kijönne, és talán mire a Vista elterjed ez meg is történik. A többmagos processzorok dte lehetõséget már 4-5 hónapja otthon is kihasználhatja aki feltett egy 81.xx-nél újabb nVidia drivert, lehet nem akkora mértékben mintha eleve így írták volna a játékot, de szépen gyosul. Azért kell AGP-s variánsokat is kiadni mert vannak akik nem akarnak PCI-E-s alaplapot venni, de az már inkább az alaplapgyártók hülyesége hogy gyakran procicserével is járhat a procedúra, nameg egyébként is, elég kiadás egy CGA csere, nem kéne csak a csatoló miatt az alaplapccserére is rávágni vagy 15000-et amitõl se jobb se rosszabb nem lesz csak belemegy az új VGA. (én is az AGP-s 7600GT-re várok). Az Ageia se bukott még el csak bontránycikkeznek róla. Szerintem a DX10-es GPU-fizikázás jó ötlet, szerintem már egy mai GPU-nak (ha nyerserõs flopsokat nézünk 10egynehányszor gyorsabb egy kis 7800-as GPU mint egy 4800-as, kétmagos AMD) se kottyan meg ugyanaz a fizikai számítási mennyiség ami pl. egy 4000+-os CPU-t 30%-al leszívna.
Fizikai gyorsító->LOL. Olvastad az Ageia bukást, vagy az ATI 3 kártyás megoldását? Ez szerinted normális és helyénvaló?
Meg ez a sok HA. Ha a ha nem lenne ott, akkor azt mondom OK! De így egyértelmû vakítás.
Lock On.... arra nem gondoltál, hogy a hanyag programozás miatt ilyen? Nehogymár 1 (azaz egy darab!) játék alapján mondjuk azt, hogy megéri az 512MB a plusz pénzt.
PCIe--->vicc. Egyértelmûen akkora bukás, hogy szégyen. Kénytelenek kijönni az AGP-s karikkal mert ezt már nem vették be a júzerek.
64 bit--> LOL, 64bites win egy VICC. Igy nagybetûvel-> VICC.
-2 magos proci: valós teljesítménynövekedés, HA kihasználja a program -PCI-e: egységes, rugalmas csatolófelület, amit ugye már többször bizonyított (SLI, Crossfire, példának okáért) -512Mbyte-os VGA: Lock-On-ozzál nagy felbontású textúrákkal 128Mbyte-os kártyán reggeltõl napestig. Könyörögni fogsz egy 512-es kártyáért utána! -DDR2: ez especiel tényleg csalódás -64bit: valós teljesítménynövekedés, HA támogatja a program (pl. Source).
A fizikai gyorsító nem vakítás, de ez is csak akkor ér valamit, ha kihasználják a programok. A 3D gyorsítók is így indultak, ha emlékszel rá...
Sztem óriási vakítás ez a fizikai gpu, sok buta meg beveszi. :) Mint a 2magos procit, mint a PCIe-t, mint az 512 megás VGA-t, mint a DDR2-õt, mint a 64bites procit.
Nem láttok fát az erõtõl??? :P
Ebben a topicban én így a ASUS PhysX P1 kártyát ajánlom.
Ez a hír ebben a formában kissé nagyon marhaság. Ha a videókártya a grafikai számítások helyett egyes órajelekben a fizikát fogja számolni, akkor esni fog a teljesítmény. Magyarul szép és jó, csak ha te max.-ra akarod rakni a grafikai megjelenítést, akkor nem azért fog szaggatni, mert a CPU nem bírkózik meg a fizikai számításokkal, hanem azért, mert a videókártya az idejének egy nagy részében valójában nem grafikát, hanem fizikát számol.
Inkább a többmagos procik és a 64 bit támogatásán ügyködjenek...
Eléggé csúsztatás jellege van a hírnek, tekintve azt, hogy lassan 2-3 hónapja kering pletykaként, 1 hónapja meg volt valami hír, hogy az új DX10 SDK-ban benne lesz. (Még volt is egy nyilatkozat, hogy az MS reméli minden játéban alap! lesz a fizika használata a DX11-ig!) Az tuti, hogy ha az Ageia nem jelenti be 2005 elején a cuccát, akor ez SE történt volna meg. Lenne egy fogadásom, hogy a DX-ben lévõ fizikai részek referencia részéért legalább részben az Ageia arcok felelõsek, és tuti benne van a Havok team is. AMi nem lesz szerves része a DX-nek az eltûnik hosszú távon, ezt õk is tudják. De majd meglátjuk.
Megérkezett a Microsoft válasza a PhysX-re!!! [2006. június 21. @ 07:12 - ZeroCool]
Bár hivatalos bejelentés még nem történt, a Microsoft olyan szoftverfejlesztõket keres, akik a Direct Physics nevezetû csapat tagjai lennének. Feladatuk a Direct3D csapattal szorosan összedolgozva az lesz, hogy kitalálják és lefejlesszenek fizikai szimulációkat és ütközési algoritmusokat, melyeket a GPU, vagyis a grafikuskártyánk processzora tud majd hasznosítani.
Ez igazából nem meglepõ lépés, sõt, talán ez tûnik a legjobbnak is. Az AGEIA PhysX kártya ugyabár plusz pénz. Az ATI megoldása szintén elég elérhetetlen, lévén az õ fizikai számításukhoz három kártyát kell a gépbe pakolni. A Microsoft lépése nagyon jó, hiszen így a Physics segédlet nemcsak, hogy ingyenes lenne, de még grafikuskártya márka és platform független is - nyilván azért az egykori VGA-nak ismernie kell minimum a DirectX 9-et, de nem lepõdnék meg, ha a DX10-et, vagy esetleg a DX11-et is!
info: Gamestar
Az 1080-as Serenity trailer elsõre tényleg megszaggatott, aztán a 2D mód órajeleit is alap 3D-re húztam és már tûrhetõen ment, aztán erre a 610/1220-ra erõltettem 2D-ben és már szépen lejátszotta.
A driverek miatt tti nem, de szerintem amúgy is feleslegesen nagy feladat lenne megoldani? Amúgy ez is hülyeség hogy vegyél egy VGA-t és használd grafikus gyorsítóként, akkor inkább veszek fizikai gyorsítót.
Sziasztok! Én most a nyárra tervezek egy kisebb újítást a konfigomon és kinéztem magamnak egy Inno3D Geforce 7600GS-t 256MB DDR2 ramokkal. Mit gondoltok errõl a kártyáról? A Szegedi IDC árlistáján csupán 28000 Ft. Teszteket nézve elveri az Ati Radeon x1600Pro-t elég szépen ( http://sg.vr-zone.com/?i=3694&s=4 ) - íme egy teszt Ati Radeon X1600Pro vs. Geforce 7600GS vs Geforce 6800GS ..... Szerintem ennyi pénzért nem rossz, sõt.. SLI képes, szóval idõvel vehetek mellé mégegyet ha épp ugy alakul.. Szerintetek milyen? Ha van valakinek akkor irja meg a tapasztalatait vele kapcsolatban. Elõre is köszi mindenkinek a tanácsot, ötletet.
Vajon a két rendszer kompatibilis abból a szempontból, hogy milyen kártyát használunk fizikai gyorsítóként? Tehát ha én jövõre lecserélem az alaplapom és a VGA-m, és tegyük fel vissza akarok térni ATi-ra, akkor megtehetem-e azt, hogy mellette a GTX lesz fizikai gyorsítókártya? Vagy rá leszünk kényszerítve a választásra, tehát ATi VGA / alaplap mellett csak ATi videókártyát lehet használni fizikai gyorsításra, nVidia VGA / alaplap mellett pedig csak nVidiát?
We have heard that MVIDIA will also come out with their triple PCI Express GPU + Physics platform, similar to what ATi demoed in Computex. The platform will offer 2 x16 PCIE and 1 x8 PCIE capability, running off 2 NVIDIA MCPs. The x8 PCIE can be used to run an NVIDIA Graphics Card to process physics calculations. Will that start to make Aegia Physics PPU cards less attractive with both GPU Companies offering their alternatives further down the road
Lehet, hogy nem (csak) az ATI örült meg?
akkor valamelyik el van írva, nem valószínû hog ymind2-vel foglalkoznak, túl szép lenne nekünk felhasználóknak.
Akkor lehet hülye vagyok, mert én arról olvastam a fõoldalon cikket, hogy az ATI bemutatta a HAVOK FX gyorsítást a kártyáin. (Amit mllékesen Áprilisban már megtett a Cebiten!) Ez a hír meg arról szól (azért emeltem ki a végét!), hogy tárgyalnak az AGEIA-val is!
Másik fórumon Acu kolléga linkelte a VR-Zone oldaláról:
ATI has a running system with 3 X1900XTX cards running with 2 running in Crossfire mode and one doing the physics calculations in one of the private rooms and there are several Havok FX demos installed to show the power of physics calculations on ATi cards. The system is running off Conroe 2.66GHz and Intel D975XBX board on x8 /x8 /x4 PCI-E configurations as well as a 1KW PCPowerCooling PSU.
There is also another system running with 2 x X1900XTX cards and 1 x X1600XT card on ATi RD600 chipset on x8 /x8 /x4 PCI-E configurations. It is also possible to run on mismatched cards for eg. one X1900XTX paired up with one X1600 or X1300 card with the former doing the rendering and the latter doing the physics.
VR-Zone has the opportunity to talk to the VP of the ATI desktop graphics dept and learn more about this new technology. He revealed that the X1900XTX delivers 9x better performance than the AGEIA PhysX card and X1600XT is twice faster. The speed of physics calculation depends on two main factors; core clock and parallel pipelines and the reason why GPU is much faster than CPU in physics calculations is due to the fact that GPU is capable of data parallel processing. Apart of Havok, ATi is currently in talks with AGEIA to include their API as well.
Most akkor az ATI vagy támogatni fogja a HAVOK-ot ÉS az AGEIA-t, vagy azt fogja támogatni, akivel kedvezõbb szerzõdnie?
Nem vagyok biztos benne, de a QT formátumú cuccok spéci MPG4 formátumban vannak, aminek kisebb a gépigénye, de hardveresen nem is nagyon van támogatva Windows alatt. (Erre a TMCP Playert szoktam használni) De vannak WMV9 formátumúak is, az MS oldaláról valahonnan le lehet tölteni párat (T2 Special, megy ilyenek), csak fejbõl ne tudom a címét. Azoknak erõsebb vas kell, de azokat támogatja a HW is. (Szebben is néznek ki, de nagyobb is a bitráta sokkal.)
Alapkérdés, hogy mi az összehasonlítási mód. Ugye az egyik Havok motor, a másik pedig PhysX, tehát fej-fej ellen nem lehet összevetni õket (vagy van Havok-ot és PhysX-et egyaránt támogató játék?).
Hát mondjuk próbálj meg 1920-ban megnézni egy 1920x1080-as videot, pl. valami trailert Ultraviolet, X-man III, stb. Pedig azok szénné vannak tömörítve és így kicsi a bitrátája viszonylag ...
Mekkora procira gondolsz mikor brutálnagyról van szó? Én azzel ami az aláírásomba van néztem már egy 2,5 perces HD videót 1024-es felbontásba. Bitrátát nem tudom, de a 2,5 perc volt úgy 350Mb
Majd ha látok egy gyengébb procival akár GF akár Radeon kárytát normálisan lejátszani egy 1080-as videót hanggal együtt, akkor el is hiszem. De éppen azt magyarázom, hogy brutál procival is éppenhogy. Most gondolj bele, ha a GPU nem segítene ...?
Minden Gef6 (legalja 6200 is amit meg lehet fizteni ha csak a videóra van is igény) tud High Definition Videót kódolni, ezekben konkrétan 400Mhz-es videó proci van. Aki meg mindenáron célprocit akar az vehet Agieia physicset, látod ez it mennyit ér. Ha elbasszák akkor a célproci is lehet szar, de ha faszául megcsinálnák szerintem a Physics-es játékól ma kihozott fizikához fasza lenne az a CPU utasításkészlet is.
"Szerintem bõven elég lenne ma az is ha kapnának a CPU-k egy külön utasításkészletet fzikai számítások végzéséhez. Mint például ahogy az SSE1-4/3DNow!/MMX stb." Hát nem is tudom. Egy célproci 2-300MHz-en akár HDTV felbontású videót bont ki vagy csomagol be, az asztali procikban ott figyel MMX, SSE, SSE2, SSE3, stb. meg a videokártyákban a HW dekódolás, aztán még se elég egy 3GHz-s proci meg egy közepesnél jobb VGA egy nagyobb videó lejátszásához.
ATI’s physics will have support for Havok FX as well as asymmetrical configurations meaning gamers can delivery physics in a 1+1 and a 2 +1 Crossfire configuration.
Also ATI says they are going to be simply faster than an Ageia PhysX card even with using a X1600 XT and that a X1900 XT should deliver 9 X the performance of an Ageia PhysX card.
Most akkor a PhisX Card a lassúság mértékegysége, vagy ennyire gyors az ATI megoldása, vagy simán kamu marketing duma?
Ha kicsit visszaolvasol hasonló dolgot vetettem fel én is, annyi külömbséggel hogy szerintem erõs túzás egy dedikál mag a CPU-ban fizikai célprocesszornak. Szerintem bõven elég lenne ma az is ha kapnának a CPU-k egy külön utasításkészletet fzikai számítások végzéséhez. Mint például ahogy az SSE1-4/3DNow!/MMX stb. is ottvan a garafikához, kéne egy hasonló ami gyorsabbá teszi a Havok és hasonló motorok számára a fizikai számításokat. De ha minden jól megy akkor a következõ VGA generációt elétben is alkamassá teszik a SM3.0 alapú fizikázásra. A mai kártyákkal az a gond hogy gyönyörûen számolnak fizikát animációkhoz, de valódi játékokban használhatatlan, mert nem jut vissza az információ a VGA-ból (a VGA-k GPUja a RAMba dolgozik, ahonnan a kártya a motnitorodra küldi, de még PCI expressen se az igazi visszanyerni az információt a régi hagyomásony tervezés miatt) így ha játék közben nekimennél egy doboznak akkor egyszerûen átszaladnál rajta vagy legalább is erõsen lagolna a fizika.
Végülis egyetértünk, meg a procigyártók is, hogy GHz-ben már nem sokat lehet turbózni a jelenlegi procikon, szóval megtorpanás következik (azaz már van is) Ahhoz hogy újabb procikat tudjanak eladni új fejlesztések kellenek, ezek pedig a többmag irányába mennek.
Az, hogy nem tudnak a fejlesztõk többmagra fejleszteni? Tovább tart? Persze, de ahogy a grafikára is kijött egy DirectX, illetve a PS2-re többmagot kezelni tudó fejlesztõi környezet ugyanúgy a többmagra is egy api-val kellene segíteni a fejlesztõknek, és máris elszaporodnának a többmagot megkövetelõ játékok. Pölö most Delphi-ben próbálgatom (SetThreadIdealProcessor) de iszonyat szenvedés, nincs rendesen támogatva op-rendszer oldaláról, meg olyan furi az egész (pedig semmivel sem bonyolultabb így feljeszteni, mint multiThread-esen, csak így már multiprocesszor-multithread-esen kell gondolkodni)
Programozható koprocesszor Opteronok mellé " A fejlesztõk szerint 40 százalékos fogyasztásnövekedés mellett akár 10–20-szoros lehet a gyorsulás, ..." Akkor tévedtem, "csak" 20x gyorsabb. "A gyártó szerint a koprocesszor kezdõára idén 4500 dollár körül alakulhat, jövõre pedig a kereslet függvényében akár 3000 dollárra csökkenhet, miközben teljesítményben más vállalatok 10 ezer dollár feletti gyorsítóival is felveheti a versenyt." Tehát több ilyen is létezik.
Szerintem a programozóknak lenne erre egy-két ízes kommentjük. ;)
Lehet igen jól optimalizált játékot írni, de az idõbe tellik, és sok ember kell hozzá a mai komplex játékmotoroknál. Márpedig a mai idõkben a játékfejlesztések amúgy is a határídõkkel és a költségekkel küzdenek, tehát megnézik, hogy mit miért tesznek bele. Miért nem nagyon látunk 64bites támogatást például a játékokban? Procija már lassan mindenkinek van hozzá - node az op.rendszer terén még igencsak gyenge lábakon áll az elterejdés...
Ha meg valaki nem hiszi el, hogy mennyivel többet tudhat egy célproci, akkor nézzetek utána létezik speciális FPU avagy Cooproci, ami többprocis Opteron alaplapba lehet építeni, és vagy 100 CPU számítási teljesítményét tudja. Igaz, annyiba is kerül :)
Hi!
Szerintem érdemes elolvasni a physx.hu oldalon lévõ leírást. A processzorok kérdésében pedig: a processzorok nincsenek célterületre optimalizálva. Nagy számítási teljesítményt pedig valóban csak a professzionális felhasználásra szánják, pl. majdnem az összes Adobe szoftver többszálú számításokat végez. A játékok sokkal inkább memória "függõk", a programozók meg lusták/képzetlenek több szálon megírni a játékokat. Nem véletlen, hogy kellett a GPU, most meg jön a PPU is. Ahhoz, hogy igazán élethû legyen egy játék, még sokat kell fejlõdnie a hardvereknek is.
A PC nem játékgép, nagyon sokan sokmindenre használják. A különféle utasítás-bõvítményeket még elintézték a multimédiával, de a többprocis rendszerekre az emberek többségének jelenleg nincs szüksége. Kihasználják a grafikusok, a videóeditálással, szerkesztéssel foglalkozó emberkék, de ennyi.
Amit te leírsz, az pont az, hogy a PC-t játékgéppé alakítaná. Ez viszont a konzolok "bája", annak minden elõnyével (egységes platform) és hátrányával (a sok célproc miatt nehézkes programozás).
A CPU fejlesztések biztos, hogy PC terén nem ebbe az irányba fognak elmenni. Jelenleg az az út, hogy több mag a prociban, és a több magot kell(ene) kihasználniuk a programozóknak. Csakhát ez nem olyan egyszerû dolog, és ugye ráadásul az emberek elsöprõ többségének még egymagos procija van, tehát nem fogja látni az ebbõl fakadó elõnyöket sem. Viszont ez a jövõ, csak idõ kell, hogy áthangolódjon rá a fejlesztés...
Na jó, de ha csak több procimaggal tudnak a CPU gyártok plusz teljesítményt adni, akkor pont attól esünk el, ha "másra" használja valamelyik magot, nem?
Ami hiányzik hozzá: 1) ki kellene találni, hogy hogy is mûködhetne a dolog 2) legalább pár próbapéldányt gyártani 3) überszép tech demót hozzá, amivel be lehet mutatni, hogy mire is képes és itt jönne az, hogy már a játékkészítõk is ráharapnak, és beépítik a játékaikba (elsõnek persze opcionálisak, tehát ha van szép a víz és testek mozgása, különben csak buta, mint eddig, aztán úgyis elterjed) Valójában én a proci gyártóktól azt várnám, hogy (mivel frekibe már nem igazán lehet überelni a procikat ezért a többmagosság az egyetlen "kiút", erre már rájöttek, azaz ) különbözõ teljesítményû célmagokat építsenek a procikba (fizika, AI, útvonalkeresés, ...), ezzel tényleg "játékgéppé" fejlõdne a PC Az azonos kinemhasznált magok eleve hallva született dolog (célproci olcsóbb, kisebb, gyorsabb, ...)
Behype-olták, de látod, a hype hiába nagy, ha nincs húzónév mögötte, nincs semmi, amit letéve egyértelmûvé válik a PhysX létjogosultsága. A Ghost Recon AW esetén sokan megjegyezték, hogy azért annyit nem dob rajta a gyorsítókártya. A Cell Factor pedig nem olyan játék, amelytõl padlót fog a közönség. Az olyan nevek kellettek volna az induláshoz, mint a Prey, az UT2k7 vagy a Crysis...
Jó de most már a cpu gyártók is belátták hogy nem tudnak a végtelenségig mhz-et emelni most már a programozóknak is rá kéne lassan jönniük.. Nem hiszem el hogy nem érné meg optimalizálni. A Fear az Oblivion és a GR:Advanced Warfighter is megtáltosodik 2 magos gépen. Egyszerûen ez a jövõ! Nehogy már a szoftver cégek diktálják az iramot! Pedig most nagyon õk a legkisebb keresztmetszet a dologban. (Home szinten persze)
Csakhogy ez munka. Az meg idõ és pénz. Megcsinálni azt, hogy menjen 32bites és 64bites rendszeren, sõt, ki is használja az utóbbit idõ és pénz. Megcsinálni kétmagos támogatásra szintén. Utána supportot nyújtani, kijavítani a bugokat, stb. szintén. A mai játékiparban a fejlesztések pedig igencsak idõkorlátozottak...
Ez a probléma. Ott van a 64 bit a CPU-kba hány éve is? 3-4? Hány játék használja ki? Az összesbõl talán 1-2%? Kint van a dual-core asztali CPU hány éve? 2? Hány játék használja ki? Kevesebb mint 1%...
Pont az a poén, hogy a Virge 3D volt az, ami már sokat késett, és ráadásul gyenge volt a teljesítménye. Ha jól tudom az elsõ gyorsítókártyák az 1995-ben debütált Number Nine Imagine 128, a Real3D, a 3DLabs Gigi chipes Creative 3DBlaster és valóban az nVidia NV1-ese volt, ami éppen egy összeépített videó és hangkártya volt, amit a Diamond adott ki Edge nevû kártyáján. Ezek szinte egytõl egyik elbuktak...
Mert a PC nem csak és kifejezetten játékra készül Egyértelmû, de nem is fog senki dual, meg 4 magos procit venni szövegszerkesztõhöz, viszont ha az egyik mag fizikai, akkor azt ki tudnák használni a játékosok, 3D-s animátorok, ... (mellesleg épp a játékosok a legnagyobb gépfejlesztgetõk) Persze gameknak kell épülni rá, csak úgy eladható
Hát ja, kipusztult az S3 Virge 3D(én emlékszem mikor Kompjúter Karácsonyon a Guru standon mentek a játékdemok Win 3.1 alatt rajta), kipusztult valami másik kártya aminek nevére se emléxem (NV1?) ami nem háromszögekkel, hanem négyszögekkel dolgozott, majd megbukott az eredeti GL-Quaket rendelõ Rendition is. A 3Dfx Voodoo maradt fent. Most meg hol van?
Megnéztem a teszteket/videókat még eme topic beindulása idején, meg a nagyjáboli adatokat, az SLI rendszer is nagyságrendekkel kevesebb objektumot tud lekezelni, másrészt a Havok kevesebbet tud az Ageia-nál. Amúgy a Ghost Recon AW-ban/hoz megvásárolták a Havoc-ot is, és állítólag a konzolos verziókban Havoc volt, a PC verzióból meg kiszedték.
Mert a PC nem csak és kifejezetten játékra készül. A másik probléma pedig az, hogy szép és jó a célproci, de azt ki is kell használni. Nem tudom hányan emlékszünk itt, hogy melyik is volt az elsõ 3D-s gyorsító kártya, és hogy milyen véget is ért...
Hiába lesz a CPU-ba beépítve egy fizikai gyorsítórész, ha nem használja ki semmi, akkor nem fogja megvenni a kutya sem...
Hát nézd, a Cyrix gyártott procit hangkártyával és VGA-val integrálva, nem volt túl sikeres. Most azok az emberek minek vegyék meg és fizessék ki a fejlesztését/gyártását egy olyan részének a procinak, amit sose fognak használni? :) Másrészt akkor hosszú távon tök mindegy, hogy a prociban kell pluszban megfizetni vagy kártyán, max. hûtés/kártyafoglalat szempontjából praktikusabb. Aztán ki tudja, lehet jövõhéten kijön a Creative XFi 256MB ramal, és fikzikai gyorsítós driverrel? :D
Elbeszélünk egymás mellett. A kérdésem az, hogy ugyan mié nem csinálják úgy a 4 magos procikat, hogy ebbõl egy mag fizikára optimalizálva (azaz célprocesszor)? Miért kell ezt külön kivezetni egy kártyára, amikor prociközelben is megoldható?
Egy proci sose lehet olyan gyors, mint egy célprocesszor. Na most nem kell elhinni, amit az Ageia sugall, hogy a PhysX 100x gyorsabb 2db P4 magnál, de például egy 200MHz körül ketyegõ célproci csontnélkül csinál oda vissza MPeg2/Mpeg4 videot folyamatos jelfolyamból, míg számítógépen (nem is döccenõmentes) olyan 2Ghz fölötti procikkal tudja ugyan ezt.
Hát pedig de. A múltkor volt egy cikk pár fejlesztõvel, a most kint lévõ X360 játékok nem nagyon használják ki a multi procit, és arról sírtak, hogy X360-ra IS nehéz fejleszteni, de a Ps3-ra még nehezebb. A konzolokban meg régóta van sok külön célproci, de az más tészta.
Emlékszel a régi 386-os idõkre, ott még külön Coproci volt, aztán szépen beépítették a prociba. Szóval pölö a 4 magból egyet nyugodtan lehetne fizikára optimalizálni sztem. A Wordre meg netre bõven elég az elsõ proci is :)
Ehez meg kéne tanulnia a fejlesztõknek normális többszálú programokat fejleszteni, másrészt feltételeznünk kéne, hogy 1 proci mag nem lasabb mint egy célprocesszor, ami nem igaz, még ha nem is a PPU-ra gondolok.
Hûha, potpm egy hét késéssel leadták ezt a hírt? Lol. (Mondjuk papírújság korukban is akkor írtak a PIII-450 megjelenésérõl amikor már 600-as procit kapott az ember.)
Eddig is azon töprengtem, hogy jönnek a 2-4 magos procik, akkor ez minek? Ha megtanultak fejleszteni akkor képesek olyan progit írni, ami egy procin csak a fizikát számolja, egy az AI ...
Felraktam a driverüket, néztem ezt a dobozos demót, persze csak szoftwer módban, mert nim vettem kártyát. A CPU terhelést vizsgálatát alaposan kitrükközték, mert az érintetlen dobozoknál is mereven 100%-ot eszik. De lehet hogy így szoftwer módban is jobb motor ez mint az a Havok amit utóljára láttam játékban. Nincs hasonló házilag futtatható demó az új GPU-s Havokról?
Szerintem év végénél elõbb semmiképpen nem éri meg a +70 ezres kiadás, de jövõ évre már biztosan kelleni fog. Én arra lennék kiváncsi, hogy nem több fajta van? Mintha 256 mb-ról is olvastam vólna valahol...
Még nagyon nem éri meg. Majd ha 20-30e között lesz és a játékok jórésze támogatja ... majd akkor.
Ha végigfutod az oldalukon tervezett egyneányet azok közül a címek közül nekem csak az UT2007 mond annyit hogy talán meg kéne majd venni. De az még csak 1 játék jövõre...