Ha jól tudom 220 angol font online boltban, hivatalosan meg ehéttõl kezdik csak árulni. Állítólag az USA-ban 299USD körül van. Ez a "sima" BFG féle 128MB-os. A 256MB-os Asus egy 100 dollárral drágább, azt hiszem. Ezek egyike se hivatalos ár ...
Nem tudjátok véletlenûl, hogy az AGEIA PhysX karit honnan lehetne beszerezni, mennyiért, és milyen fajtái vannak?
"Tetszik hogy azt mondod nem is techdemó, és enek bizonyítására egy vadkos bekezdésedben fel is sorolod a technikai újításokat amiket képvel és demostrál (dmózik). "
Erdekes felfogas, ha ebben az ertelemben hasznaljuk a techdemo szot, akkor az osszes jatek amiben van barmi uj egy techdemo...
gyk: Egy jatekot ha techdemonak hivnak altalaban pejorativ ertelmu: ertsd vmi uj feature marketingjere keszult, mig a jatek maga foghijas. Szamomra a hl2 inkabb techdemo, hisz egy tortenetvezetett fps tortenet nelkul.
Ha a témával kapcsolatban valaki lemaradt valami hírrõl, techdemóról stb ... az nézzen el erre az oldalra. Jó kis linkgyûjtemény.
A 249 dolcsis kezdo ar nem olyan remiszto, mire megjelennek azok a jatekok, amelyek mar nagyon hianyoljak a fiziksz kardot az aruk lemegy 150 doll kornyekere, az meg mar magyar viszonylatban is megfizetheto :) En inkabb attol felek, hogy ezt a gyartok & fejlesztok ujra arra hasznaljak fel hogy lenyuljanak minket csunyan :))
Én pont hogy szerettem ezt a Hl2-ben és hasonló játékokban hogy interaktív filmek. Vagyis nem kószálsz mindenfelé és ha szerencséd van történik is veled valami azon kívül hogy keresed merre is kéne menni hogy lelõhess megint 20 embert, hanem nyomatják a történetet és néha még be is avatkozhatsz meg lövöldözhetsz... Tetszik hogy azt mondod nem is techdemó, és enek bizonyítására egy vadkos bekezdésedben fel is sorolod a technikai újításokat amiket képvel és demostrál (dmózik).
Persze, hogy izlesek es pofonok, de azert szerintem techdemonak hivni enyhe tulzas. Volt sok erenye, ami a legtobb jateknal sajnos meg mindig ritkasagszambamegy. A nagy terepek, a tobbfele utvonal es eszkozok, random elhelyezesu ellenfelek. Vegre volt valamicske gogyija is az AI-nak idonkent. Es persze a gfx ami nem csak kulsosegekben jon jol, de vegre lehetove valt vmi dzsungelharc. A sztori tenyleg kettes ala', de a jatekmenet elvezetes, par palyanak erdemes volt tobbszor is nekiallni. Ellentetben pl egy COD2, vagy HL2-vel, ami hiabak voltak jol megcsinalt jatekok, annyira kotottek, hogy inkabb egy filmhez hasonloak, ahol a celkereszt iranyanak valtoztatasaban merul ki az interaktivitas. Meg egy eltero velemeny :)
Egyesek meg nem tudják elfogadni, hogy valakinek eltérõ véleménye lehet valamirõl, mint neki. Utána pedig valamilyen érthetettlen okból ezt úgy próbálják beállítani, mintha ez nem az õ, hanem a másik fél hibája lenne...
Jah, egyetértek, tök ugyanez a véleményem a FarCry-ról. De ha más nem is ez a Crysis is jó kis techdemo lesz. Picit tényleg látszik a videón hogy dolgoznak még rajta, de nem is mai már a videó, most csak HD minõségben adtak ki valami fél éves vagy öregebb videót.
Azért az emberek mozgásán, animációján még lenne mit dolgozni. Igazából a Crysis esetén is attól félek, hogy az lesz, ami a FarCry-al volt: nagyon szép, nagyon jó, de egy technikai demónál nem nagyon több, mivel a játék maga nem volt úgy istenigazából kidolgozva. Láthatsz szép tájakat, beltereket, effekteket, egy decens fizikát, de hiányzik belõle az a plusz, ami egy sokkal gyengébb grafikájú játék képes a géphez láncolni a játékost. A megjelenési dátummal meg csínján bánjunk... ;)
Én nem félteném a fejlsztõket az idejükért. Most néztem meg a Cryengine 2.0 bemutatóját. hát bazdmeg, olyan mint egy elmosódott valóság, nagyon odavág. Felülmúlta legjobb animációs filmet amit eddig láttam és ez elvileg real-time is így fog kinézni megfelelõ DX10-es kártyával ha kiadják 2007 elején.
Én ennél is tovább megyek - például az igényesebb FPS-eknél már az olyan dolgok is fizikailag lesznek lemodellezve, mint a fegyver felugrása (visszarúgása). Viszont ez óhatattlanul magával vonja azt, hogy még többet kell szöszölni majd -> hosszabb fejlesztési idõ...
talán egy ilyen kártyával lehet majd csinálni egy normális szimulátort, szép grafikával :)
A különbözõ részletességû fizika már benne volt a Karmaban (vagy Havok?), pl. az UT2004-ben. Valami változott ugyan, de értelme semilyen beállításon se volt. Azért reménykedem benne, hogy a fizikai gyorsító (akár hasznos, akár nem!) magával vonza majd a játékokban igényesen kialakított fizikát.
Erre akartam egyfelõl kijukadni, mert akárhogy is nézem, a lényeg az, hogy adva van rengeteg számítás, viszont mennyi lehet az adatforgalom a CPU és a PPU között, mert nem sokra megyünk a csudigyors fizikai gyorsítókártyánkal, ha 1x nem tudja elég gyorsan eljutattni az információt a CPU-nak.
A másik fele viszont a változatok közötti eltérés. Irtó mókás lesz, talán majd megjelenik a menõpontok között, hogy a fizikai motor részletessége "LOW/MED/HIGH" legyen?
BFG has updated their website today with tons of new info on their PhysX game physics card. For starters, BFG's board ships with 128MB of GDDR3 memory and boasts specs such as 20 billion peak instructions per second and 530 Million/sec Sphere-Sphere Collisions max (Complex Convex-Convex Collisions are listed as 533,000/sec max).
Ez a "kicsi" teljesítmény adata ha minden igaz. A másik szerintem 1,5-2x gyorsabb. Mivel mindkét esetben iszonyú mennyiségû objektumot tud lekezelni, azt hiszem tök mindegy lesz melyiket veszi az ember ;)
Másik fórumon (PH) srác azt számolgatta, hogy a megadott objektumszám töredékét se lehet kiszámolni, mert a PCI sávszélessége visszafogja a dolgokat. Ha igaza van, majd kiderül, de csak kitaláltak erre valamit ...
1.: Otthon fut a gép magában -> nem érdekel, mennyi CPU idõt foglal le a kliens. 2.: Valami átlag dolgot csinálok a gépen, böngészés, szövegszerkesztés, videónézés -> bõven belefér az a pár százalék, a gép leterheltsége átlalában 20-50% között mozog. 3.: Játszom a géppel, ez esetben minden más nem fontos dolog ki van kapcsolva.
Magyarul továbbra sincs értelme számomra a kétmagos prociknak... :|
Majd ha esetleg a számomra érdekes játékok támogatni és kihasználni fogják a többmagos rendszereket... akkor majd...
Azt írja az Alienware oldalán 275 dollár volt a BFG 128 megás kártyája. Na most ez egy megjelenés elötti vas volt, az Alienware meg nem az ólcsóságáról híres. Én 250USD körüli kezdõárat jóslom (249-re ígérték eredetileg is) májusra a kicsi kártyának. Aztán remélhetõleg nyárra leesik 200 alá.
Izlések és pofonok, én például iszonyú ritkán tömörítek videókat, így nincs szükséges jelenleg még kétmagos procira sem. Az utolsó mondat alatt én is inkább a Gf8x00 szériát értem, mert ez az SLI dolog inkább vicc kategória...
Ez a legnagyobb verzió, elvileg 399USD Nem tudom hány kisebb lesz (szerintem csak egy), annak kisebb az órajele, és 128MB-os, valószínüleg 249USD körül lesz.
Az ATI-s cuccról meg nem tudok nyilatkozni, mert nekem régi R9500 van, ezért ne próbáltam. De azt hiszem csak DivX/Mpeg4 (Xvid?) formátumokról volt szó.
Copy Paste hozzászólás a HWSW-rõl, ACU kartárstól ... Asus 256MB Ageia PhysX card
Szép kártya :)
OFF: Nem tudom, de az ATI-nál az AVIVO (értsd X1000 széria) kártyáknál az utolsó drivertõl lehet konvertálni is a videot a GPU-val. Csak a szándék hiányzik a gyártókból, hogy a többi kártyán is menjen.
Hát várjuk. De most néztem a CellFactory videót ami tényleg baszott látványos, ha 35-40000 köré megy majd az ára ennek a szarnak és ügyesen sikerül megejteni egy VGA cserét még veszek is majd egyet, mert úgy tûnik megéri. (a játék is érdekesnek tûnt hogy fél órát baszogassan, de nem merem letölteni a hogy a kártya nélkül elindítva lelombozódjon a pillanatnyi illúzióm )
Szerintem pont hogy a CPU amit a legjobb mindíg jobbra cserélgetni, hisz játékon kívül minden rendszermûvelet (tömörítés, videókódolás ésatöbbi ; jut eszembe itt ül a kártáymon egy on-chip videó processzor de a seggem törölhetném vele mert pl. egy DivX kodek szarik rá DVD-rippelésnél hogy ez encodeolni is tud, csak a VIVO-t lehet vele kódoltatni, filet nem) használja. A fizika kapcsán is talán többet érne ha a jövõbeni 4 magos procik kapnának egy új utasításkészletet a játékok fizikai számításaihoz, mint grafikához SSE-t meg 3DNow!-ot.
Amúgy az Nvidia féle hasonlóan látványos on-GPU grafikáról kiderült hogy játékokban szart nem ér, mert a GPU-k nem szeretnek visszafele dolgozni, vagyis amit számolnak tovább tart visszapaszírozni a CPU-ba mint ha az számolta voltna ki (ha meglöksz egy dobozt stb). Csak szép, komplex grafikák animálásához jó, de nem ilyen lövöldözõs real-time játékokhoz. Az utólsó mondtatot meg nem értem. Már a mostani GPU-kon is megy az nvidia cucca, nem kell külön várni a Gef8-ra ami majd tudja ezt. (vagyis hogy fizikázik is nem csak grafikázik a GPU ugyanúgy csak egy aktuálisan gyors kártya kell) Viszont az új havokkal kidobott játék még várat magára és amiatt amit írtam az elõbb valószinûleg egy darabig nem is lesz. (na tényleg itt jön a Gef8 ami visszafele is tud majd komunikálni )
Te most ezt viccnek szántad, de hdd el, ha minden fórumon kitalálják ezt páran (és biztosítlak, hogy mindegyiken eszébe jutott valakinek), akkor a HW gyártóknak is eszébe fog jutni.
Sõt! Hogy elébe menjek a dolgoknak ... Ha letöltöd az ATI féle fizikai demonstrációt, akkor láthatod van benne AI demonstráció is! Szóval ha nem jön be az ATI-nak a fizikai gyorsítás (mert pl. a PhysX, az NVidia vagy más lhappolja), még mindíg ráfoghatja, hogy AI gyorsító. Másrészt a PhysX-et is lehet használni AI számításokra, ezt még az elsõ, egy évvel ezelötti bejelentés körül pedzegették.)
Mint említettem, várjuk meg a teszteket. Hajdan a CPU csinált mindent. Már lekerült a vállásról a 3D grafikai megjelenítét és a 3D hangzás számításának terhe. Most lekerül a fizikai motor számításának terhe is. Elvileg ez azt is jelentheti, hogy felesleges lesz kétmagos (majd négymagos) procit venned, mert szinte már csak az AI és a játék "magja" maradt rá. Minden mást gyorsítókártyák végeznek helyette.
Gondolj bele, így gyakorlatilag a procicserét elhalaszthatod, hiszen abból a pénzból, amit pluszba el kellene költeni a kétmagos procikra, elköltheted egy fizikai gyorsítókártyára is. Így tehát a géped tovább bírja.
Eddig szól az elmélkedés. A kõkemény, vad igazság meg az, hogy szívni fogunk, mint a torkos borz, mert tuti, hogy az nVidia és az ATi nem fogja ennyiben hagyni a dolgot, vagyis a 3D-s grafikai szabványok (D3D és OpenGL) versenye után (amit a játékok terén a D3D nyert) itt a fizikai motorok versenye. Ha azt akarod, hogy a PhysX és a Havok motoros játékok is jól fussanak, akkor kell egy jó PhysX chipes gyorsítókártya plusz egy fizikai gyorsítókártyaként is funkcionáló kellõ teljesítményû videókártya.
Most hogy itt ez a kártya is már értem miért volt ez a demonstráció az új Havok motorról ami CPU helyett Nvidia GPU-kat használja. Kár hogy arról savanyú szájízzel vélekednek a játékfejlesztõk, mert nincs kedvem egy ilyen kártyát venni. (tudom ma még nem kell, de jövõre talán már nem árt...)
Nem tudom, kétséggel fogadom ezt a magyarázatott, szvsz várjuk meg az elsõ ilyen teszteket, majd csak kiderül merre mennyi a répa... :)
Szerintem boven marad ideje egy gyengebb vga kartyanak is fizika szamolgatasara, meg akkor is, ha kozben meggebeszted kozben hdr-el meg fsaa-val. Ha jol sejtem foleg a VS melozik a fizikan, az pedig majdnem minden kartyan joval erosebb a szuksegesnel(akar a fele is eleg lenne..), mivel a jatekok 99.9%-ban a pixel fill rate a szuk keresztmetszet.
Hát pedig azért linkeltem be ezt a sok dolgot, hogy mindenki tisztán lásson. Elvileg a GPU számolta "fizika" inkább látványelemekre (tûz, víz, szikrák, stb.) vannak kihatással, míg a teljesen HW megoldás a játékmenetre is, mondjuk a HL2 vagy a Tresspasser szerû dolgokra gondolva, azoknál sokkal életszerûbb verzióban.
Én az ATI fejlesztésére szavazok, nekem mondjuk nvidia-m van :) de az ATI oldalán vagyok...
Hát az NVidia Vortex demo elég gázos. Van egy vagy 20 poligonos pálya (még a lépcsõ is egy gány textúra), és azon van 1db krapek (dísznek, semmi köze a fizikához szinte), meg 1 pontos objektumként kezelt sokezer doboz. És kb. ennyi :(
el sem hiszem, hogy azutan, minden jatekban az evszazadok ota napot nem latott cellak is ugy csillognak villognak, mint hogyha egy csapat takarito atment volna rajta felmosoval, vegre foglalkoznak azzal, hogy legyen csak egy egeszn aprocska minimalis kolcsonhatas a karakterek kozott, ne csak elore legyartott mozgasanimaciok fuzodjenek egymas utan.
Megörülök, vagy 20x írtam PhysiX helyett PhysiX-et.
Közben nézem az NVidia demókat is. A Dinos kint van az NVidia oldalán is, igazából nem hat meg, hogy kiszámol néhán ticat objektumot, az NVidia Bricks demo a végén a sokezer téglával már érdekes. Viszont a Havok-nak is milyen szép techdemoi voltak sokezer objektummal, aztán mai gépek még se tudják kiizzadni. Még a Vortex demot töltöm, remélem az meggyõzõbb.
A PhysiX videóknál azért érdemes figyelni rá, hogy azok nem techdemók, hanem futó játék, full 3D megjelenítéssel, AI-val, meg mindennel. Szóval a GPU-s megoldást majd akkor hiszem el, ha minmum egy Doom's Hangar szintû cuccot lerenderelnek játék közben fizikával, és nem csak techdemóban ;)
Egyrészt senki sem tzhatja, hogy a PhysiX nem fog e gyorsítani Havok motort, csak megállapodás kérdése, másrészt azért Engine szinten az UE3 és a CryTek2 is alapból támogatja a kártyát. (Pedig ugye az UE3 a Havok-ot IS támogatja) Másrészt a 60 fejlesztõ 100 játéka ugyan kamu, mert a fele konzolos, de azért elég jó kis játékok vannak a listán. Azért a Ghost recon 3 nem lesz gagyi, vagy maga az UT2007 se ... Nem mellékesen a Havok, Novodex, Ageia API-kon kívûl van még pár, szóval ha valaki kiesik, lesz más helyette ;)
A PhysX megoldása abból a szempontból szimpatikus, hogy (remélhetõleg) hosszú ideig (3-5 év) elég egy kártya fizikai motorhoz. Ellenben engem továbbra is aggaszt, hogy kevés a nagy név mögötte. A Havok motort azért már nem egy és nem két játékba beépítették.
Nem is rossz az a 911.360 objektumos particle effekt, sem a szövetanyag szimuláció. Mondjuk a GPU-ból számolt AI részt nem értettem ...
"Mennyi lehet a PhysX chip ára? 50-60 dollár? Ennyivel nõne meg legalább a kártya ára." Aham, meg plusz 3-4 nyákréteg (+40USD), meg spéci hûtés (20-50USD) ... és akkor lesz egy mindentudó kártya, ami mindent csak kevéssé tud. lehet választani, hogy a GPU vagy a PPU kapja a sávszélleséget :P
6600GT-n, minden high és full HDR? Azért szvsz ez már eléggé megeszi a videokarit. A 6800GT-t pedig te hoztad fel, ha pedig már ilyen szintû kártyát vesz az ember, el is várja, hogy max. részletesség és bekapcsolt FSAA mellett lehessen játszani vele.
PCI-es kartyakon nincs ha rakerul megegy molex senkit sem fog ugyanugy zavarni.
Az én kártyámon két molex csati is van. ;)
Mondjuk mint most, nem 30k lenne az ara egy 6600GT-nek hanem 40. 3. Mar annyi VGA tipus van a piacon, hogy siman megoldhato ugyis hogy az egyik tipuson van kulon PPU masikon nincs, max a vevo kivalasztja a neki megfelelot.
És már így is nehezen igazodnak el az átlag userek, hogy melyik videokártyát érdemes megvenni, és melyiket nem. Az pedig a vásárlón múlik, hogy ki is fogja-e fizetni a különbözetett.
De ez nem az átlag. Az átlagember nem használ AF+AA-t, fõleg nem magasabb szinteken. Nekem a 6600GT-n 1280x1024-ben, 4xAF-el teljesen tökéletesen fut a CSS. Ennek sokkal inkább CPU kell, mintsem VGA. És pont azért kell neki a CPU, mert az AI+fizika számítás fingatja ki. Szal CSS-ben tipikusan nem azért alacsony az fps, mert a vga nem bírja.
1. AGPs kartyakon eddig is volt molex csati senkit nem zavart. PCI-es kartyakon nincs ha rakerul megegy molex senkit sem fog ugyanugy zavarni. 50 dollar 10k, nem fog zavarni senkit, ha egy kozepkategorias kartya 10k-val tobb lesz. Mondjuk mint most, nem 30k lenne az ara egy 6600GT-nek hanem 40. Raadasul minnel tobb ilyen chipet gyartan nagy tetelben annal jobban csokken a chip eloallitasi ara. Akar lemehet egy-ket dollaros szintre. 3. Mar annyi VGA tipus van a piacon, hogy siman megoldhato ugyis hogy az egyik tipuson van kulon PPU masikon nincs, max a vevo kivalasztja a neki megfelelot.
Hát azért én emlékszem arra, hogy a vadonatúj Voodoo-mmal, amit akkor 50 000 Ft-t fizettem, nem pár hónapig, hanem kb. egy évig komoly játéktámogatás nélkül ücsörgött a gépemben. A haveroknak mutogatthattam a gyári techdemokat, meg egy-két játékdemot....
Mennyi lehet a PhysX chip ára? 50-60 dollár? Ennyivel nõne meg legalább a kártya ára. Ráadásul plusz fogyasztó, vagyis lassan már három molex csatit kell rádugni a videókarira, vagy külsõ áramforrást. :)
Szóval én nem hiszem, hogy a videókarit fognák be erre a célra. A külön kártya megfelelõ lenne - de akkor azért valami emberibb árat szabjanak neki, vagy komolyabb támogatást (jelenleg az Unreal engine az egyetlen valóban nagy név a palettán).
Nem mondanám, hogy a Gf6800GT-nak olyan sok feles ereje lenne, egy CS:S 1024x768-ben minden maxon, 4xFSAA, 8xAniso, full HDR bizony már éppen a játszhatósághoz, 1680x1050 esetén pedig FSAA nélkül is leesik 20 környékére mozgalmasabb pillanatokban. Az új játékok, mint az Oblivion már annyira eszik a VGA-t, hogy nem lehet max. részletesség és nagy felbontás mellett 30+ FPS-t látni. Hogy akarnak akkor még fizikát is számoltatni vele?
Ez egy újdonság, majd megy lejjebb az ára. Minél többen foglalkoznak vele, annál olcsóbb lesz majd. Anno mikor bejött a 3dfx voodoo1, az sem volt olcsó éppen :) Aztán mégis mekkora áttörést jelentett néhány hónapon belül...
Végülis jelen pillanatban még bármelyik lehet sikeresebb a másiknál.
Havok: A videokártyák tudása az átlag felbontáson és grafikán ma még kihasználatlan, még egy 6800gt-nél is (6600gt-nél már nem biztos). Tehát van kapacitás arra, hogy mellette fizikát is számoljon valamennyit. Márpedig ezt a valamennyit gyorsan fogja tudni, mert agp/pciex + a videokártyán lévõ ram is sokkal gyorsabb.
PhysX: A dedikált kártya számol mindent, közepes sebességû rammal, a relatíve lassú PCI csatolón át. Viszont mivel a GPU és a CPU is teljesen felszabadul, kb ugyanott lehet majd a teljesítményben. Viszont hátránya, hogy plusz driver, és plusz támogatás kell hozzá, a kompatibilitási problémák megoldásáról nem is beszélve.
Szal mindent összevetve még lehet, hogy a Havok jobb, de legalábbis egyik sem holtvágány.