Na, kiváncsi leszek mit hoznak ki ezekbõl 1 év alatt :) Fõleg úgy, hogy a Havok Engine "nem élvezi" ennek a támogatását...
A Game Developer Conference alkalmából az Ageia nemcsak PhysX szoftverfejlesztõ-csomagja legújabb változatával állt elõ, hanem az eddig csupán a híroldalakon látható PhysX fizikai processzort (Physics Processing Unit, PPU) is bejelentette.
A bõvítõkártya elsõként az Egyesült Államokban rendelhetõ a Dell, az Alienware és a Falcon Northwest játékosoknak szánt konfigurációival együtt, e gyártók közül az Alienware már jelezte, hogy áprilistól Európában is értékesít PhysX kártyával Area-51 és Aurora 7500 rendszereket. Az Asus és a BFG által gyártott fizikai gyorsítók önállóan májusban kerülnek forgalomba, nettó áruk várhatóan 300 dollár körül alakul.
A PCI csatolófelületû kártyán 128 MB 128 bites GDDR3 memória található a PPU társaságában, a hardver külön tápellátást is igényel. A PhysX PPU a fizikai modellel kapcsolatos számítások hardveres gyorsítására szakosodott; használatának feltétele a PhysX fizikai motorjának alkalmazása a játékban, így például a konkurens Havok eljárásait használó programok nem tudják kiaknázni a PPU képességeit. Az Ageia bejelentése szerint hatvannál több fejlesztõ mintegy száz játéka fogja támogatni ebben az évben a PhysX fizikai processzort. - PH
Ez mar eleg regi Borg, legalabbis mar regen fejleszteni kezdtek. Jo sokk cikk is megjelent mar vele kapcsoltaban, viszont, mar jo egy eve igertek a piacra keruleset. Azota sincs semmi nagy hir. Ebben a forumban kezdtuk anno a kivesezeset. Olvasd el ha erdekel komolyabban a tema.
fizikai modellel kapcsolatos számítások hardveres gyorsítására szakosodott ebbol arra kovetkeztetek, hogy nem a megjelenitest szamolja (mint a grafikus kartya) hanem az adott software fizikajat, tehat nem +1 videokartyaval er fel
nah toroltek az elottem levo hsz-t, en meg nem vagyok vip uh nem tudom megtenni, sorry az igy ertelmetlenne valt postert :]
Gyorsabb lesz, mert a procinak több ideje marad más feladatokra, nem kell a fizikai részt is számolnia. Persze nem fog az FPS 100-ról 180-ra felugrani, azért a videokártya felelõs. Csak míg pl. a Karma motor egyszerre csak 10 test esését tudta számolni, egy ilyen lehet, hogy akár egyszerre több százat, vagy akár ezret is képes. Pl. játékban kirobbantasz egy téglafalat, akkor minden egyes tégladarab valós fizikával fog szerte repülni úgy, hogy nem fog a proci meggebedni.
Kíváncsi vagyok mi lesz a következõ, amit hardveresíteni fognak. Játékban már csak az AI maradt. Képzelem, ahogy a sok csóringer ideges lesz, mert az occsó AI kari miatt a botok hülyék lesznek mint a föld
Pont errõl szól a dolog, hogy most dobják piacra õket.
300 dolcsi?? Akkor már a havok motor! Az lagalább a gpu-ra támaszkodik. 2 részre szakad ez a szegmens is jön majd a havok vs ageia vita. Remélem verseny is lehet belõle, bár ha a vga gyártók ezt a megoldást a gpu-val oldják meg akkor szerintem hamar eldõl a dolog.
A probléma csak az, hogy a GPU-nak lenne más dolga is, nevezetesen a videómegjelenítést. Szép, hogy képes átvenni a fizikai számításokat a CPU-tól, de mi értelme ennek, ha az az ára, hogy a videókártyának kevesebb framet tud kinyomni magából...
Ez így van. De ha hozzávágnak +1 cpu-t meg egy kis +memcsit a fizikának dedikálva akkor gyorsan le van rendezve a dolog. Az egyértelmû hogy ez nem a jelen vga kártyáival fog ütni. De a köv generációval (vagy a rá következõvel) már megoldható. Meg hát ha az ait/nvidia azt mondja hogy holnaptól ez szabvány akkor az az is lesz :D
Kicsit lemaradtál :) A Havok motor támogatni fogja azt, hogy a GPU számolja a fizikai motor dolgait, és ehhez a PS3.0-át támogató videókarik már képesek lesznek az nVidia szerint (tehát Gf6600+). A lehetõség tehát az, hogy PhysX PPU + PhysX fizikai motor vagy Havok motor + GPU által számolt fizika. A Havok egyelõre nem támogatja a PhysX-et, a két rendszer egymás konkurense.
Jol van kicsit koran van meg. Azt hittem a PhysX-re ertetted ezt a GPUs dolgot. Azert nem ertettem az egeszet. Mar latom , hogy a Havocra gondoltal. Mert maskent ertelmetlen lenne amit leirtal. :P
Végülis jelen pillanatban még bármelyik lehet sikeresebb a másiknál.
Havok: A videokártyák tudása az átlag felbontáson és grafikán ma még kihasználatlan, még egy 6800gt-nél is (6600gt-nél már nem biztos). Tehát van kapacitás arra, hogy mellette fizikát is számoljon valamennyit. Márpedig ezt a valamennyit gyorsan fogja tudni, mert agp/pciex + a videokártyán lévõ ram is sokkal gyorsabb.
PhysX: A dedikált kártya számol mindent, közepes sebességû rammal, a relatíve lassú PCI csatolón át. Viszont mivel a GPU és a CPU is teljesen felszabadul, kb ugyanott lehet majd a teljesítményben. Viszont hátránya, hogy plusz driver, és plusz támogatás kell hozzá, a kompatibilitási problémák megoldásáról nem is beszélve.
Szal mindent összevetve még lehet, hogy a Havok jobb, de legalábbis egyik sem holtvágány.
Ez egy újdonság, majd megy lejjebb az ára. Minél többen foglalkoznak vele, annál olcsóbb lesz majd. Anno mikor bejött a 3dfx voodoo1, az sem volt olcsó éppen :) Aztán mégis mekkora áttörést jelentett néhány hónapon belül...
a havok megoldása szvsz csak sli esetén lesz ütõképes... a bemutató képen is GPU1+GPU2 van
Nem mondanám, hogy a Gf6800GT-nak olyan sok feles ereje lenne, egy CS:S 1024x768-ben minden maxon, 4xFSAA, 8xAniso, full HDR bizony már éppen a játszhatósághoz, 1680x1050 esetén pedig FSAA nélkül is leesik 20 környékére mozgalmasabb pillanatokban. Az új játékok, mint az Oblivion már annyira eszik a VGA-t, hogy nem lehet max. részletesség és nagy felbontás mellett 30+ FPS-t látni. Hogy akarnak akkor még fizikát is számoltatni vele?
Mennyi lehet a PhysX chip ára? 50-60 dollár? Ennyivel nõne meg legalább a kártya ára. Ráadásul plusz fogyasztó, vagyis lassan már három molex csatit kell rádugni a videókarira, vagy külsõ áramforrást. :)
Szóval én nem hiszem, hogy a videókarit fognák be erre a célra. A külön kártya megfelelõ lenne - de akkor azért valami emberibb árat szabjanak neki, vagy komolyabb támogatást (jelenleg az Unreal engine az egyetlen valóban nagy név a palettán).
Hát azért én emlékszem arra, hogy a vadonatúj Voodoo-mmal, amit akkor 50 000 Ft-t fizettem, nem pár hónapig, hanem kb. egy évig komoly játéktámogatás nélkül ücsörgött a gépemben. A haveroknak mutogatthattam a gyári techdemokat, meg egy-két játékdemot....
1. AGPs kartyakon eddig is volt molex csati senkit nem zavart. PCI-es kartyakon nincs ha rakerul megegy molex senkit sem fog ugyanugy zavarni. 50 dollar 10k, nem fog zavarni senkit, ha egy kozepkategorias kartya 10k-val tobb lesz. Mondjuk mint most, nem 30k lenne az ara egy 6600GT-nek hanem 40. Raadasul minnel tobb ilyen chipet gyartan nagy tetelben annal jobban csokken a chip eloallitasi ara. Akar lemehet egy-ket dollaros szintre. 3. Mar annyi VGA tipus van a piacon, hogy siman megoldhato ugyis hogy az egyik tipuson van kulon PPU masikon nincs, max a vevo kivalasztja a neki megfelelot.
De ez nem az átlag. Az átlagember nem használ AF+AA-t, fõleg nem magasabb szinteken. Nekem a 6600GT-n 1280x1024-ben, 4xAF-el teljesen tökéletesen fut a CSS. Ennek sokkal inkább CPU kell, mintsem VGA. És pont azért kell neki a CPU, mert az AI+fizika számítás fingatja ki. Szal CSS-ben tipikusan nem azért alacsony az fps, mert a vga nem bírja.
PCI-es kartyakon nincs ha rakerul megegy molex senkit sem fog ugyanugy zavarni.
Az én kártyámon két molex csati is van. ;)
Mondjuk mint most, nem 30k lenne az ara egy 6600GT-nek hanem 40. 3. Mar annyi VGA tipus van a piacon, hogy siman megoldhato ugyis hogy az egyik tipuson van kulon PPU masikon nincs, max a vevo kivalasztja a neki megfelelot.
És már így is nehezen igazodnak el az átlag userek, hogy melyik videokártyát érdemes megvenni, és melyiket nem. Az pedig a vásárlón múlik, hogy ki is fogja-e fizetni a különbözetett.
6600GT-n, minden high és full HDR? Azért szvsz ez már eléggé megeszi a videokarit. A 6800GT-t pedig te hoztad fel, ha pedig már ilyen szintû kártyát vesz az ember, el is várja, hogy max. részletesség és bekapcsolt FSAA mellett lehessen játszani vele.
"Mennyi lehet a PhysX chip ára? 50-60 dollár? Ennyivel nõne meg legalább a kártya ára." Aham, meg plusz 3-4 nyákréteg (+40USD), meg spéci hûtés (20-50USD) ... és akkor lesz egy mindentudó kártya, ami mindent csak kevéssé tud. lehet választani, hogy a GPU vagy a PPU kapja a sávszélleséget :P
A PhysX megoldása abból a szempontból szimpatikus, hogy (remélhetõleg) hosszú ideig (3-5 év) elég egy kártya fizikai motorhoz. Ellenben engem továbbra is aggaszt, hogy kevés a nagy név mögötte. A Havok motort azért már nem egy és nem két játékba beépítették.
Egyrészt senki sem tzhatja, hogy a PhysiX nem fog e gyorsítani Havok motort, csak megállapodás kérdése, másrészt azért Engine szinten az UE3 és a CryTek2 is alapból támogatja a kártyát. (Pedig ugye az UE3 a Havok-ot IS támogatja) Másrészt a 60 fejlesztõ 100 játéka ugyan kamu, mert a fele konzolos, de azért elég jó kis játékok vannak a listán. Azért a Ghost recon 3 nem lesz gagyi, vagy maga az UT2007 se ... Nem mellékesen a Havok, Novodex, Ageia API-kon kívûl van még pár, szóval ha valaki kiesik, lesz más helyette ;)
Közben nézem az NVidia demókat is. A Dinos kint van az NVidia oldalán is, igazából nem hat meg, hogy kiszámol néhán ticat objektumot, az NVidia Bricks demo a végén a sokezer téglával már érdekes. Viszont a Havok-nak is milyen szép techdemoi voltak sokezer objektummal, aztán mai gépek még se tudják kiizzadni. Még a Vortex demot töltöm, remélem az meggyõzõbb.
A PhysiX videóknál azért érdemes figyelni rá, hogy azok nem techdemók, hanem futó játék, full 3D megjelenítéssel, AI-val, meg mindennel. Szóval a GPU-s megoldást majd akkor hiszem el, ha minmum egy Doom's Hangar szintû cuccot lerenderelnek játék közben fizikával, és nem csak techdemóban ;)
Megörülök, vagy 20x írtam PhysiX helyett PhysiX-et.
el sem hiszem, hogy azutan, minden jatekban az evszazadok ota napot nem latott cellak is ugy csillognak villognak, mint hogyha egy csapat takarito atment volna rajta felmosoval, vegre foglalkoznak azzal, hogy legyen csak egy egeszn aprocska minimalis kolcsonhatas a karakterek kozott, ne csak elore legyartott mozgasanimaciok fuzodjenek egymas utan.
Hát az NVidia Vortex demo elég gázos. Van egy vagy 20 poligonos pálya (még a lépcsõ is egy gány textúra), és azon van 1db krapek (dísznek, semmi köze a fizikához szinte), meg 1 pontos objektumként kezelt sokezer doboz. És kb. ennyi :(
Én az ATI fejlesztésére szavazok, nekem mondjuk nvidia-m van :) de az ATI oldalán vagyok...
Hát pedig azért linkeltem be ezt a sok dolgot, hogy mindenki tisztán lásson. Elvileg a GPU számolta "fizika" inkább látványelemekre (tûz, víz, szikrák, stb.) vannak kihatással, míg a teljesen HW megoldás a játékmenetre is, mondjuk a HL2 vagy a Tresspasser szerû dolgokra gondolva, azoknál sokkal életszerûbb verzióban.
Szerintem boven marad ideje egy gyengebb vga kartyanak is fizika szamolgatasara, meg akkor is, ha kozben meggebeszted kozben hdr-el meg fsaa-val. Ha jol sejtem foleg a VS melozik a fizikan, az pedig majdnem minden kartyan joval erosebb a szuksegesnel(akar a fele is eleg lenne..), mivel a jatekok 99.9%-ban a pixel fill rate a szuk keresztmetszet.
Most hogy itt ez a kártya is már értem miért volt ez a demonstráció az új Havok motorról ami CPU helyett Nvidia GPU-kat használja. Kár hogy arról savanyú szájízzel vélekednek a játékfejlesztõk, mert nincs kedvem egy ilyen kártyát venni. (tudom ma még nem kell, de jövõre talán már nem árt...)
Mint említettem, várjuk meg a teszteket. Hajdan a CPU csinált mindent. Már lekerült a vállásról a 3D grafikai megjelenítét és a 3D hangzás számításának terhe. Most lekerül a fizikai motor számításának terhe is. Elvileg ez azt is jelentheti, hogy felesleges lesz kétmagos (majd négymagos) procit venned, mert szinte már csak az AI és a játék "magja" maradt rá. Minden mást gyorsítókártyák végeznek helyette.
Gondolj bele, így gyakorlatilag a procicserét elhalaszthatod, hiszen abból a pénzból, amit pluszba el kellene költeni a kétmagos procikra, elköltheted egy fizikai gyorsítókártyára is. Így tehát a géped tovább bírja.
Eddig szól az elmélkedés. A kõkemény, vad igazság meg az, hogy szívni fogunk, mint a torkos borz, mert tuti, hogy az nVidia és az ATi nem fogja ennyiben hagyni a dolgot, vagyis a 3D-s grafikai szabványok (D3D és OpenGL) versenye után (amit a játékok terén a D3D nyert) itt a fizikai motorok versenye. Ha azt akarod, hogy a PhysX és a Havok motoros játékok is jól fussanak, akkor kell egy jó PhysX chipes gyorsítókártya plusz egy fizikai gyorsítókártyaként is funkcionáló kellõ teljesítményû videókártya.
Te most ezt viccnek szántad, de hdd el, ha minden fórumon kitalálják ezt páran (és biztosítlak, hogy mindegyiken eszébe jutott valakinek), akkor a HW gyártóknak is eszébe fog jutni.
Sõt! Hogy elébe menjek a dolgoknak ... Ha letöltöd az ATI féle fizikai demonstrációt, akkor láthatod van benne AI demonstráció is! Szóval ha nem jön be az ATI-nak a fizikai gyorsítás (mert pl. a PhysX, az NVidia vagy más lhappolja), még mindíg ráfoghatja, hogy AI gyorsító. Másrészt a PhysX-et is lehet használni AI számításokra, ezt még az elsõ, egy évvel ezelötti bejelentés körül pedzegették.)
Hát várjuk. De most néztem a CellFactory videót ami tényleg baszott látványos, ha 35-40000 köré megy majd az ára ennek a szarnak és ügyesen sikerül megejteni egy VGA cserét még veszek is majd egyet, mert úgy tûnik megéri. (a játék is érdekesnek tûnt hogy fél órát baszogassan, de nem merem letölteni a hogy a kártya nélkül elindítva lelombozódjon a pillanatnyi illúzióm )
Szerintem pont hogy a CPU amit a legjobb mindíg jobbra cserélgetni, hisz játékon kívül minden rendszermûvelet (tömörítés, videókódolás ésatöbbi ; jut eszembe itt ül a kártáymon egy on-chip videó processzor de a seggem törölhetném vele mert pl. egy DivX kodek szarik rá DVD-rippelésnél hogy ez encodeolni is tud, csak a VIVO-t lehet vele kódoltatni, filet nem) használja. A fizika kapcsán is talán többet érne ha a jövõbeni 4 magos procik kapnának egy új utasításkészletet a játékok fizikai számításaihoz, mint grafikához SSE-t meg 3DNow!-ot.
Amúgy az Nvidia féle hasonlóan látványos on-GPU grafikáról kiderült hogy játékokban szart nem ér, mert a GPU-k nem szeretnek visszafele dolgozni, vagyis amit számolnak tovább tart visszapaszírozni a CPU-ba mint ha az számolta voltna ki (ha meglöksz egy dobozt stb). Csak szép, komplex grafikák animálásához jó, de nem ilyen lövöldözõs real-time játékokhoz. Az utólsó mondtatot meg nem értem. Már a mostani GPU-kon is megy az nvidia cucca, nem kell külön várni a Gef8-ra ami majd tudja ezt. (vagyis hogy fizikázik is nem csak grafikázik a GPU ugyanúgy csak egy aktuálisan gyors kártya kell) Viszont az új havokkal kidobott játék még várat magára és amiatt amit írtam az elõbb valószinûleg egy darabig nem is lesz. (na tényleg itt jön a Gef8 ami visszafele is tud majd komunikálni )
OFF: Nem tudom, de az ATI-nál az AVIVO (értsd X1000 széria) kártyáknál az utolsó drivertõl lehet konvertálni is a videot a GPU-val. Csak a szándék hiányzik a gyártókból, hogy a többi kártyán is menjen.
Ez a legnagyobb verzió, elvileg 399USD Nem tudom hány kisebb lesz (szerintem csak egy), annak kisebb az órajele, és 128MB-os, valószínüleg 249USD körül lesz.
Az ATI-s cuccról meg nem tudok nyilatkozni, mert nekem régi R9500 van, ezért ne próbáltam. De azt hiszem csak DivX/Mpeg4 (Xvid?) formátumokról volt szó.
Izlések és pofonok, én például iszonyú ritkán tömörítek videókat, így nincs szükséges jelenleg még kétmagos procira sem. Az utolsó mondat alatt én is inkább a Gf8x00 szériát értem, mert ez az SLI dolog inkább vicc kategória...
Azt írja az Alienware oldalán 275 dollár volt a BFG 128 megás kártyája. Na most ez egy megjelenés elötti vas volt, az Alienware meg nem az ólcsóságáról híres. Én 250USD körüli kezdõárat jóslom (249-re ígérték eredetileg is) májusra a kicsi kártyának. Aztán remélhetõleg nyárra leesik 200 alá.
1.: Otthon fut a gép magában -> nem érdekel, mennyi CPU idõt foglal le a kliens. 2.: Valami átlag dolgot csinálok a gépen, böngészés, szövegszerkesztés, videónézés -> bõven belefér az a pár százalék, a gép leterheltsége átlalában 20-50% között mozog. 3.: Játszom a géppel, ez esetben minden más nem fontos dolog ki van kapcsolva.
Magyarul továbbra sincs értelme számomra a kétmagos prociknak... :|
Majd ha esetleg a számomra érdekes játékok támogatni és kihasználni fogják a többmagos rendszereket... akkor majd...
BFG has updated their website today with tons of new info on their PhysX game physics card. For starters, BFG's board ships with 128MB of GDDR3 memory and boasts specs such as 20 billion peak instructions per second and 530 Million/sec Sphere-Sphere Collisions max (Complex Convex-Convex Collisions are listed as 533,000/sec max).
Ez a "kicsi" teljesítmény adata ha minden igaz. A másik szerintem 1,5-2x gyorsabb. Mivel mindkét esetben iszonyú mennyiségû objektumot tud lekezelni, azt hiszem tök mindegy lesz melyiket veszi az ember ;)
Másik fórumon (PH) srác azt számolgatta, hogy a megadott objektumszám töredékét se lehet kiszámolni, mert a PCI sávszélessége visszafogja a dolgokat. Ha igaza van, majd kiderül, de csak kitaláltak erre valamit ...
Erre akartam egyfelõl kijukadni, mert akárhogy is nézem, a lényeg az, hogy adva van rengeteg számítás, viszont mennyi lehet az adatforgalom a CPU és a PPU között, mert nem sokra megyünk a csudigyors fizikai gyorsítókártyánkal, ha 1x nem tudja elég gyorsan eljutattni az információt a CPU-nak.
A másik fele viszont a változatok közötti eltérés. Irtó mókás lesz, talán majd megjelenik a menõpontok között, hogy a fizikai motor részletessége "LOW/MED/HIGH" legyen?
A különbözõ részletességû fizika már benne volt a Karmaban (vagy Havok?), pl. az UT2004-ben. Valami változott ugyan, de értelme semilyen beállításon se volt. Azért reménykedem benne, hogy a fizikai gyorsító (akár hasznos, akár nem!) magával vonza majd a játékokban igényesen kialakított fizikát.
talán egy ilyen kártyával lehet majd csinálni egy normális szimulátort, szép grafikával :)
Én ennél is tovább megyek - például az igényesebb FPS-eknél már az olyan dolgok is fizikailag lesznek lemodellezve, mint a fegyver felugrása (visszarúgása). Viszont ez óhatattlanul magával vonja azt, hogy még többet kell szöszölni majd -> hosszabb fejlesztési idõ...
Én nem félteném a fejlsztõket az idejükért. Most néztem meg a Cryengine 2.0 bemutatóját. hát bazdmeg, olyan mint egy elmosódott valóság, nagyon odavág. Felülmúlta legjobb animációs filmet amit eddig láttam és ez elvileg real-time is így fog kinézni megfelelõ DX10-es kártyával ha kiadják 2007 elején.
Azért az emberek mozgásán, animációján még lenne mit dolgozni. Igazából a Crysis esetén is attól félek, hogy az lesz, ami a FarCry-al volt: nagyon szép, nagyon jó, de egy technikai demónál nem nagyon több, mivel a játék maga nem volt úgy istenigazából kidolgozva. Láthatsz szép tájakat, beltereket, effekteket, egy decens fizikát, de hiányzik belõle az a plusz, ami egy sokkal gyengébb grafikájú játék képes a géphez láncolni a játékost. A megjelenési dátummal meg csínján bánjunk... ;)
Jah, egyetértek, tök ugyanez a véleményem a FarCry-ról. De ha más nem is ez a Crysis is jó kis techdemo lesz. Picit tényleg látszik a videón hogy dolgoznak még rajta, de nem is mai már a videó, most csak HD minõségben adtak ki valami fél éves vagy öregebb videót.