""De pl. egy csúcs FPS esetén szinte elvárás, hogy a legerõsebb konfigon is akadjon." Akkor mirõl is beszélünk??"
Ez mindenki felõl elvárás, nem a GPU gyártók erõltetik. De ez csak a csúcs FPS-ekre vonatkozik, mint pl. DooM3 meg UT.
"De manapság ez terheli legjobban a GPU-t, és talán ebbõl a legkönnyebb visszavenni utólag."
Nem feltétlenül. Épp nemrég fejeztünk be egy projektet, és az utolsó fázis az optimalizáció volt. Szóval van tapasztalatom, hogy min múlik a dolog. A shader-eken szinte csak annyit kellett optimalizálni, hogy ne játék közben fordítsa õket. A grafikán leginkább azt kellett optimalizálni, hogy mit mikor renderelünk, meg egy csomó más dolog volt, ami a látványt nem befolyásolja, csak egyszerûen nem hatékonyan volt megoldva valami (pl. egy 10 pixeles modellen 2048-as textúra).
"Ez is történik többnyire."
A csúcs FPS-eket leszámítva a legtöbb játék vígan elmegy belépõ szintû kártyákon is, legfeljebb vissza kell venni a grafikából. Pl. nélunk X700 meg 6600 van a fejlesztõk gépében, és ezeken fullos grafikával megy minden, még a debug verzió is tûrhetõen fut.
"Na de milyen sebességgel...!? Vagy ha úgy érted, jól menjen, akkor egyik szavaddal ütöd a másikat."
Ezt nem értem.
"Igen, ezt már hallottuk. De nem feltétlenül hisszük. Pl. milyen sebességgel megy nálad az, ami egy 7800-on is max. 30-40fps-sel megy (1280x1024-ben)."
Mint mondtam: a többség jól megy. Nem sok olyan játék van, ami egy 7800-at megfog. Meg bármikor lejjebb lehet venni a grafikát.
"De pl. egy csúcs FPS esetén szinte elvárás, hogy a legerõsebb konfigon is akadjon."
Akkor mirõl is beszélünk?? :D
"Nem csak ezen múlik. Elég sok tényezõtõl függ a sebesség."
Nyilván. De manapság ez terheli legjobban a GPU-t, és talán ebbõl a legkönnyebb visszavenni utólag.
"Ez is történik többnyire."
Nem éppen.
"A játékfejlesztést elsõsorban a kiadó fizeti, neki meg az az érdeke, hogy minél több gépen menjen a cuccos."
Na de milyen sebességgel...!? Vagy ha úgy érted, jól menjen, akkor egyik szavaddal ütöd a másikat.
"Egyébként a tapasztalat is ellened szól, mert az én õsrégi R9700-am vígan elvisz majdnem minden új játékot, közepes, vagy akár max. grafikával (Az OpenGL-esek kivételek)."
Igen, ezt már hallottuk. De nem feltétlenül hisszük. Pl. milyen sebességgel megy nálad az, ami egy 7800-on is max. 30-40fps-sel megy (1280x1024-ben).
"Nam. A kiadók érdeke az, hogy minél olcsóbban kihozzanak valamit, amit minél többen megvesznek. A játékélménynek ehhez sajnos kevés köze van."
A jobb (ez persze relatív) játékoknak áruk is van.
hehehe, Kovácsúr megmondta, hogy AGP az isten és 2 AGP egy PCI-E-t ér, szóval egy ideig nincs gáz.
Srécek tök okosak vagytok, meg minden, de a legmenõbb akkor is a CS és a WOW. A többi csak füst. Nézétek már meg a Valve illetve a Blizzard éves jelentését. (Na jü, a Cs-t lehet, hogy a Valve csak fejlesztette, tessék gúglázni)
"Na persze, biztos csak arról van szó, hogy pár fejlesztõ önfejûen villogni akar. Biztos nem b@szná le a projektvezetõ/cégvezetõ/stb., ha... folyt. lásd alább."
Nem elsõsorban a fejlesztõk. Leginkább a kiadó szokott látványosabb játékot akarni. De pl. egy csúcs FPS esetén szinte elvárás, hogy a legerõsebb konfigon is akadjon.
"Ez már hihetõbb, de pl. egy-egy nem-túl-rosszul megírt shaderen nem lehet már olyan sokat optimizálni. Viszont kicsit csökkenteni a számukat nem lenne nagy ügy."
Nem csak ezen múlik. Elég sok tényezõtõl függ a sebesség.
"Hát ez az érdekes, hogy józan paraszti ésszel abban lenne nekik üzlet, ha minnél több gépen minnél jobban fut, miközben szebb, mint a korábbiak."
Ez is történik többnyire. Csak elavult hardverrel nem foglalkoznak, mint pl. most a GeF4.
"Nos te nem lehetsz túl magas pozicióban, mert különben tudnád, hogy több módja is van a befolyásolásnak: támogatás (HW és/vagy anyagi), reklámozás, egy kis zsebpénz a managerek zsebecskéjébe. :)"
A játékfejlesztést elsõsorban a kiadó fizeti, neki meg az az érdeke, hogy minél több gépen menjen a cuccos. ÉS ha egy fejlesztõ cég nem felel meg a kiadók érdekeinek, akkor tönkre fog menni villámgyorsan. Egyébként a tapasztalat is ellened szól, mert az én õsrégi R9700-am vígan elvisz majdnem minden új játékot, közepes, vagy akár max. grafikával (Az OpenGL-esek kivételek).
"De itt is áll, hogy a kiadóknak az lenne az érdeke, hogy minnél többen részesedjenek a "kifogástalan játékélményben" - közben ilyen alig van."
Nam. A kiadók érdeke az, hogy minél olcsóbban kihozzanak valamit, amit minél többen megvesznek. A játékélménynek ehhez sajnos kevés köze van.
Nézd, lehet nézni az éremnek csak az egyik oldalát, vagy csak a másikat. De valójában mindkét oldalon van valami, szerintem ez nem kérdés. Az OFP nem a legjobb példa erre, mert ott már extremitásokról van szó, nem csak egyszerûen arról, hogy a fullos, úgy mint hiánytalan grafika (mégcsak nem is aa+af-fel) néha as low as 15 fps-ekkel megy az aktuális csúcskártyán. De még ha 30-cal megy (átlagban, ami adott esetben 10), az sem túl sok. És az átlagos kártyákon csak ilyen 800x600-ban megy értelmes sebességgel, butított grafikával. Azaz erõs túlméretezésrõl van szó. Ne mondja senki, hogy ebben nincs benne az állandó hw-upgrade stimulálása, azaz egy százmilliós üzlet életbentartása. Ez nem minden szempontból rossz, mert fejlõdés van, csak már kezdik túlzásba vinni. És emiatt egyre több felhasználó zúgolódik, mert állandó hiányérzete van.
Most kérdezhetnéd, hogy akkor ne csináljanak egyre jobban kinézõ jétékokat? Én erre azt felelném, hogy az újabb kártyák az alap dolgokban is sokkal gyorsabbak, és többnyire az új featúrékat is megfelelõ sebességgel tudják (persze van 1-2 kivétel). Tehát lenne tere a látványosság növelésének. De ez az olyan szintû túlméretezés, hogy valami még a köv. csúcskártyán sem fut igazán jól, ez már túlzás.
Szerintem részben ezért fordulnak el sokan a PC-tõl, a konzolok felé. Persze a chipgyártók ott is ott vannak, nekik ez kisebb veszteség...
Hát ez az érdekes, hogy józan paraszti ésszel abban lenne nekik üzlet, ha minnél több gépen minnél jobban fut, miközben szebb, mint a korábbiak. Mégsem ezt teszik...
Az átlag gépeken jól fusson, még ha nem is a legmagasabb beállításokkal - ez szerintem inkább a fejlesztõk célja. Vannak korlátai annak, hogy mit lehet kihozni egy videókártyából, és a vásárlók, a felhasználók is egyre szebb és szebb grafikát várnak el. A szebb grafika viszont leginkább az új hardvereken megvalósítható, tehát értelemszerûen a legmagasabb grafikai beállításokat a legújabb videókártyákhoz mérik.
Felmerült, hogy még a csúcs hardveren sem mindig fut legmagasabb részletesség mellett a játék megfelelõ sebességgel. Mintapélda erre az OFP - be lehetett rajta állítani elõször az 3, majd az 5km-es látótávolságot. Persze gép nem volt akkoriban, ami élvezhetõ sebességgel meg tudta volna mozdítani azt a grafikát. Ugyanígy a textúratámogatás is adott volt, egészen 2048x2048-as méretig - akkor, amikor az átlag videókártyákon 32Mbyte ram volt. Értelemszerû, hogy ez túlzás volt. Ettõl függetlenül volt benne egy ilyen lehetõség, és a felhasználókra bízták, hogy ki-e használják.
kkor lehet, hogy nem is a fejlesztõk nem is kapnak semmit, hanem a kiadók? :) De itt is áll, hogy a kiadóknak az lenne az érdeke, hogy minnél többen részesedjenek a "kifogástalan játékélményben" - közben ilyen alig van.
Valamit ne felejts el: a felhasználók is generálnak elvárásokat. Egyre szebb és szebb grafikát akarnak látni. Ha egy fejlesztõcsapat kihoz egy amúgy középszerû játékot, amely viszont brutálisan jó grafikával van megverve, még ha teljes részletességéhez egy elég jó kártya is kell, akkor mindenki azt fogja ezután etalonnak tekinteni, és egyeláltalán arról fog mindenki beszélni. Erre tökéletes példa a FarCry.
"Vannak akik azzal villognak, hogy a legújabb csúcs kártyát is meg tudják fogni."
Na persze, biztos csak arról van szó, hogy pár fejlesztõ önfejûen villogni akar. Biztos nem b@szná le a projektvezetõ/cégvezetõ/stb., ha... folyt. lásd alább.
"Vagy egyszerûen nem jut idõ az optimalizációra, és inkább kiadják félkészen a játékot."
Ez már hihetõbb, de pl. egy-egy nem-túl-rosszul megírt shaderen nem lehet már olyan sokat optimizálni. Viszont kicsit csökkenteni a számukat nem lenne nagy ügy. Valamennyire lehet elõre kalkulálni is, hogy egy scene-en mennyi fér bele ebbõl, poligonból, stb.
"Továbbra se látom, hogy a játék készítõinek ebben hol van az üzlet."
Hát ez az érdekes, hogy józan paraszti ésszel abban lenne nekik üzlet, ha minnél több gépen minnél jobban fut, miközben szebb, mint a korábbiak. Mégsem ezt teszik... Nos te nem lehetsz túl magas pozicióban, mert különben tudnád, hogy több módja is van a befolyásolásnak: támogatás (HW és/vagy anyagi), reklámozás, egy kis zsebpénz a managerek zsebecskéjébe. :)
"A túlzásbavivést általában a kiadók erõltetik, akik minél látványosabb játékot akarnak."
Akkor lehet, hogy nem is a fejlesztõk nem is kapnak semmit, hanem a kiadók? :) De itt is áll, hogy a kiadóknak az lenne az érdeke, hogy minnél többen részesedjenek a "kifogástalan játékélményben" - közben ilyen alig van.
"Érdekes módon azért mindig van egy pár új, felkapott játék, ami az aktuális csúcskártyákon sem fut igazán jól..."
Vannak akik azzal villognak, hogy a legújabb csúcs kártyát is meg tudják fogni. Vagy egyszerûen nem jut idõ az optimalizációra, és inkább kiadják félkészen a játékot.
"Teljesen nyilvánvaló, hogy ez azért van, hogy legyen ok a rákövetkezõ kártya megvételére is."
Továbbra se látom, hogy a játék készítõinek ebben hol van az üzlet.
"Alig lehetne észrevenni a különbséget, ha ugyan használná az új képességeket, de nem vinné túlzásba azok használatát..."
A túlzásbavivést általában a kiadók erõltetik, akik minél látványosabb játékot akarnak.
Ja, és egy érdekesség. A GPU-m (gf6600) hõmérséklete erõs terheléskor felmegy 85 fokra. [Tudom, ez nem kevés, bár állítólag jápár fokot is téved a belsõ mérõ, de hamarosan le lesz cserélve a hûtõ.] Nos, 3DMark06 alatt max. 75 fokra megy fel! Azaz nem is használja ki az összes rendekezésre álló powert. De azt kötve hiszem, hogy procilimites lenne...
"Még ha fizetnének is, akkor se érné meg, mert a nagyobb HW igény csökkenti az eladhatóságot."
Érdekes módon azért mindig van egy pár új, felkapott játék, ami az aktuális csúcskártyákon sem fut igazán jól... Teljesen nyilvánvaló, hogy ez azért van, hogy legyen ok a rákövetkezõ kártya megvételére is. Alig lehetne észrevenni a különbséget, ha ugyan használná az új képességeket, de nem vinné túlzásba azok használatát... Különben minek venne bárki újabb csúcskártyát? Csak azért, hogy majd ha egy évvel késõbb jön egy annak új képességeit használó játék, jó legyen?
Tehát ha nincs is teljesen igaza Sanyixnak, azért bõven van abban valami, amit ír.
"Egyébként is a legtöbb játék remekül elmegy középkategóriás kártyákon is."
A korábbiak és/vagy az új featúrák kikapcsolásával.
"A mieink pl. qrva jól néznek ki, mégis egy X700-on remekül mennek."
Talán azért nem kaptok külön támogatást a cégektõl... ;)
Miért van az hogy nem csodálkoznék ha még ezek után is azt állítaná? :) Hidd el Sanyix... az a kártya nem fogja megjeleníteni azt az effektet amit nem is ismer, mint ahogy te sem fogsz a vizen sétálni, ennek fizikai korlátai vannak.
"Most van 6.01-es catalyst és egy patch után a játék 1.02-es verziónál tart, és nekem legalább 25%-al gyorsabban fut(másnak is jóval gyorsabban, de gépenként változó mennyivel gyorsabban), mint az 1.0 5.7-es catalysttal!"
Egy újabb generációs kártya meg 100%-os gyorsulást is hozhat. Senki sem vitatja, hogy fontos az optimalizáció, de az egyszerûen hülyeség, hogy a HW fejlõdése nem számít.
"Kb egy éve volt egy olyan FPS progi, ami elég fejlett grafikát használt és asszem olyan 90KB-a mérete. Persze utána legenerál egy csomó matematikai textúrát és 500MB alatt talán el sem indul. De azok a fickók akkor is tudnak valamit!"
Ez nem így mûködik. Ennyi erõvel azt is kérdezhetnéd, hogy egy trabantot mért nem úgy építenek meg, mint egy McLaren F1-et.
"Olyan valamit amit egy mások által átvett enginnel (ahogy ez manapság divat) nem lehet megcsinálni."
Sokan saját motort használnak (pl. mi is). Azzal sem lehet csodát mûvelni, bár kétségtelenül szebb az eredmény.
"Programozók el vannak kényeztetve, az új "képességekkel" egy egyszerû paranccsal mondjuk beállítják hogy mi hogy tükrözõdjön, egy régebbi kártyánál is elérhetõ ez, csak nem egy paranccsal"
A programozók a belüket kidolgozzák, hogy kész legyenek határidõre. Az, hogy valamit könnyû, vagy nehéz megcsinálni, könnyen abban nyilvánul meg, hogy marad rá idõ, vagy nem. Vagy el lehet gondolkodni róla, hogy nem érdemesebb-e más hasznosabb dologra forgdítani azt az idõt.
"Pl miért volt a 1998-ban a monster truck madness 2-ben egy voodoo kártyával valós idõben tükrõzõdõ víz, amikor még azt sem tudták hogy mi az a pixel seder?"
Passz, én nem láttam csak az 1. részt. Valószínûleg ügyes trükkel oldották meg, hogy úgy nézzen ki, mintha tükrözõdne. A Duke Nukem 3D-ben is volt tükörszoba, ott is egy ügyes trükkel oldották meg (a szoba meg volt építve még 1x a tükör mögött, és csak a monsztákat meg a minket kellett duplán renderelni).
"Amúgy én is indítottam már el Doom3-at PCI-os (nem expressz!!!) GF2MX-en!!;))) Hát a sebbel voltak gondjai, de a garfika kb ugyan az volt mint pl egy rad 9600-on."
A 9600 se egy csúcs kari. A DooM3-hoz nem árt egy rendes DX9-es kártya, mondjuk egy 9800pro. Egyébként nekem se tetszett.
"És ha belegondolsz, ha a 64MB Rammal "megáldott" xboxra is áttudták írni, akkor talán ez nem is olyan nagy csoda!"
Az egészen más. TV-re sokkal kisebb textúrák kellenek, ezért fér el 64 megán.
"Hidd el akár egy gf4-tõl is lehet olyan grafikát kapni, mint egy sokkal újabb videokártyával, már írtam, csak akarni kell, ez a lényeg."
Csináld meg, akkor elhiszem. De kezdetnek mondjuk azt áruld el, hogy a kártyán levõ 64MB RAM-ba hogy fér bele 256 mega textúra? Meg hogy lehet DX9 fícsöröket elõvarázsolni GeF4-en (DX7-es HW)?
"A mai videokártyák képességeibõl jó esetben maxmimum 75%-ot használnak ki a játékok"
Egy GeF7800GTX (de legyen csak 6600) 75%-a szerinted megfelel egy GeF4-nek???
"Remek példák ilyenre a konzolok. Ugyan az a hardver van bennük mégis fejlõdik a grafikája a rájuk írt játékoknak."
Persze de azért mégis csak lesz PS3, ami némiképpen fejlettebb, mint az elõd. Hiába használnak ki a PS2-bõl 120%-ot, attól még nem képes lépést tartani a PC-kkel. Pl. PC-n ha akarom 1600x1200-ban játszom élsimítással, PS2-n meg 720x576 és a TV mossa el az éleket.
"A videochipgyártók nem azért "fejlesztenek", hogy nekünk minél jobb legyen, hanem azért hogy minél jobban lehúzzanak minket..."
"xar hardveren is nézhet ki jól valami, csak akarás kérdése"
Léteznek úgynevezett fizikai korlátok.
"de ha akarnák, nem lenne nagy üzlet, mert nem vásárolnának jópénzé videjókártyákat."
A játék íróknak minimális érdekeltsége van a GPU üzletben. Õket az érdekli, hogy minél szebb grafikát préseljenek ki az adott HW-bõl, mert azzal lehet eladni a játékokat. Az optimalizációra vagy jut idõ vagy nem, mindkettõre vannak példák.
"Igen tényleg szigorú határidõk vannak, és összetettek a játékok, DE hányan is dolgoznak egy nagyobb játékon? Hát akár több mint 100-an."
Tévedsz. Igaz, mi nem vagyunk igazán nagyok, de csak 30-40 ember dolgozik egy nagyobb projekten, és ennek is csak max. negyede programozó.
"a hardvergyártó(videochipgyártóra gondolok fõleg) akivel jó kapcsolatban vannak(fizetnek a fejlesztõnek a nagyobb hardverkövetelményért)."
Ez hülyeség. Még ha fizetnének is, akkor se érné meg, mert a nagyobb HW igény csökkenti az eladhatóságot. Egyébként is a legtöbb játék remekül elmegy középkategóriás kártyákon is. A mieink pl. qrva jól néznek ki, mégis egy X700-on remekül mennek.
Ja amúgy csak hogy érzékeltessem mennyire számít a szoftver. Van egy játék, kiadták ugye 1.0-ás verziót, akkor 5.7-es catalyst volt a legújabb driver. Most van 6.01-es catalyst és egy patch után a játék 1.02-es verziónál tart, és nekem legalább 25%-al gyorsabban fut(másnak is jóval gyorsabban, de gépenként változó mennyivel gyorsabban), mint az 1.0 5.7-es catalysttal! 25% az nagyon nem kevés, és mindez egy "pici optimalizálás miatt...
Úgylátom még mindíg semmit sem értesz abból amit írtam. Tudom hogy van különbség, volt is különbség amikor gf2mx400 radeon9600-ra váltottam, de ennek semmi köze nincs ahhoz amit írtam...
Amúgy ki az a barom, aki a GF7800GS-t egy X800 szériával méri össze? Mi értelme?
"A far cry 2 rõl tud valaki valamit?" Hivatalosan nincs ilyen játék. Ellenben arról tudunk, hogy jön egy FarCry "folytatás" valamelyik NextGen konzolra (X360?) ami azt hiszem exclusive, tehát PC-re nem várható. Viszont a CryTech Engine v2.0 bemutatóról szóló utolsó hírekben felmerült egy új PC-s játék, meg abból pár kép, amiket ugyan az a banda készít, igaz nem lesz köze a FarCry-hoz, de dzsungel az lesz benne dögivel ;) Azt hiszem lentebb írta valaki a címét? Crysis? Na õ lész az elsõ DX10 játék, legalább is ezt jelentették be elöször.
Ide a bökõt, hogy minimális lesz a két kari közt a különbség.
Amikor az X800 kijött, akkor ugye az 9800-as már csaknem egyéves volt (sõt, ugye a 9800 a 9700 "nagytesója", vagyis valójában csaknem két évvel számolhatunk), tehát eléggé kiforrott driverekrõl beszélhettünk, míg az X800-ashoz ez volt az "elsõ" driver. És itt az eredmény... Ahol nem a CPU vagy az játék grafikai engine limitálja, ott egyértelmû az X800Pro fölénye, a mai játékoknál pedig ennél is egyértelmûbb lenne a helyzet... :)
Mióta vannak DX8.1/DX9-es karik, amik pl tudnak séderezni? Olyan 5 éve! És mióta vannak olyan gámák, amik ezt rendesen ki is használják, talán 1.5-2 éve.
Én inkább úgy mondanám, hogy cirka 3 éve kezdtek elterjedni széles körben (pl. az UT2k3 és az Unreal 2 is kihasználta õket).
Gef2-re is volt olyan demó, ami bumpmappingolt, meg olyan vízeffektet tudott, hogy ihaly. De abból a korszakból ezek a dolgok a játékok esetén eccerûen kimaradtak.
Miután szépen meg lehetett õket valósítani egy látványos, de egyszerû techdemóban, ám egy valódi játékban belerakni úgy, hogy szépen nézzen ki, és szépen is fusson, már nehezebb ügy volt.
Kb egy éve volt egy olyan FPS progi, ami elég fejlett grafikát használt és asszem olyan 90KB-a mérete. Persze utána legenerál egy csomó matematikai textúrát és 500MB alatt talán el sem indul. De azok a fickók akkor is tudnak valamit!
A kkrieger, egen, emlékszem rá. Meg arra is, hogy az egyetlen említésre méltó újdonsága az volt, hogy 96kbyte-ba belepakoltak egy igen egyszerû, de szép játékot. Azóta se hallani errõl többet (ugye elvileg ez volt a chapter I., elõrevetítve a késõbbi folytatást). Amúgy a Theprodukkt team szépeket és jókat csináltak, csakhát továbbra is scene demókról beszélünk (emlékszem csináltak is jópár durva demót - amely még az akkori csúcsgépeken is olyan diavetítés volt, hogy csak ihaj).
Szerintem meg alapvetõen nem ugyan arról beszélünk!
Mióta vannak DX8.1/DX9-es karik, amik pl tudnak séderezni? Olyan 5 éve! És mióta vannak olyan gámák, amik ezt rendesen ki is használják, talán 1.5-2 éve.
Gef2-re is volt olyan demó, ami bumpmappingolt, meg olyan vízeffektet tudott, hogy ihaly. De abból a korszakból ezek a dolgok a játékok esetén eccerûen kimaradtak.
Kb egy éve volt egy olyan FPS progi, ami elég fejlett grafikát használt és asszem olyan 90KB-a mérete. Persze utána legenerál egy csomó matematikai textúrát és 500MB alatt talán el sem indul. De azok a fickók akkor is tudnak valamit!
Olyan valamit amit egy mások által átvett enginnel (ahogy ez manapság divat) nem lehet megcsinálni.
Nos akkor írok még egy példát: Ti4200-on játszottam az nfs-most wanteddel, és játszottam az új 6800gs-ts-vel is. utóbbival olyan árnyékokat, és olyan minõséget fedeztem fel, amilyet az elõbbivel nem... és ezt én tapasztaltam, nekem nem kell megmagyarázni hogy mit látok, és mit tapasztalok. Ha meg te nem veszed észre akkor sajnálom, mert neked tényleg tök felesleges egy új kártya... de ha nincs, akkor hogy tudod kijelenteni hogy mi jobb és mi nem? Elolvastam a postod, ugyanis arra válaszoltam.
Felõlem jöhetnek minél hamarabb a kártyák, legalább olcsóbbak lesznek a mostaniak is. Eltudom képzelni amikor majd veszek 2 db GeForce 7800-ast SLI-be 20 000 Ft-ért (bár erre lehet hogy még kell egy picit várni)
Szerintem kérdezz meg egy számítógépes játék programozót, hogy mennyire is vannak "elkényeztetve", lehet leharapná a fejed az ilyen kijelentések miatt. :))
Nem tudja ugyanazt egy régi és új kártya, de a régiekbõl is ki lehet hozni olyan grafikát mint egy újból, csak máshogy, foglalkozni kell vele a programozóknak.
Egy Gf4Ti-bõl vagy Radeon 8500-ból sose hozol ki olyan szintû grafikát megfelelõ sebességgel, mint amire egy Gf6600GT vagy Radeon X1600XT képes.
Amúgy ott a konzolos példa, leírom 5.szörre is, hogy vajon miért tudnak ugyan olyan hardverre egyre jobb grafikát csinálni? Mert foglalkoznak vele. PC-nél nem foglalkoznak vele, mert mindíg lehet új kártyát venni, hát minek használják ki a régi maximális teljesítményét, ha van újabb, és annak van még maradék ereje amit el lehet pazarolni...
Mert teljesen eltérõ a két architectura. Egy konzolnál van egy fix rendszer, azzal lehet ügyeskedni. PC-nél adva van egy grafikai programfelület (OpenGL vagy DirectX), amelyen programozva lehet bizonyos grafikát prezentálni. Az pedig már a hardvertõl függ, hogy milyen minõségben és milyen sebességgel fogja megjeleníteni azt az adott grafikát. A FEAR is nagyon szépen nézhet ki egy Radeon 9600XT-n, csak éppen a sebességge... na az nem elegendõ hozzá...
Valahol volt, egy grafikon, hogy egy ati radeon 9700-as mért teljesítménye mennyiben változott az elsõ ilyen kártyát támogató drivertõl a legújabbig. Hát legújabb driverrel sokkal (tényleg) gyorsabb volt, mint az elsõ driverrel. Szóval a szoftveren nagyon sok múlik, ugyan olyan fontos lenne mint a hardver. Dehát a hardvert pénzért kapni, videodriver meg ingyen van, így inkább a hardvert érdemes fejleszteni, mert többet kaszálnak vele.
Programozók el vannak kényeztetve, az új "képességekkel" egy egyszerû paranccsal mondjuk beállítják hogy mi hogy tükrözõdjön, egy régebbi kártyánál is elérhetõ ez, csak nem egy paranccsal (most ez csak példa volt) Pl miért volt a 1998-ban a monster truck madness 2-ben egy voodoo kártyával valós idõben tükrõzõdõ víz, amikor még azt sem tudták hogy mi az a pixel seder? Hát úgy volt, hogy a programozók foglalkoztak vele, és megcsinálták...
Nemá ha nem mondod hogy szebb el se hiszem :DDDD lol Látom kb semmit nem értettél abból amit írtam (vagy el se olvastad). Azért szebb mer úgy van megírva, a játék. Régi kártyán is lehetne nagyon szép, ha úgy írnák meg, de nem úgy írják meg, mert akkor nem mennél új kártyáért, és nem fizetnél ki egy rakás pénzt. Nem tudja ugyanazt egy régi és új kártya, de a régiekbõl is ki lehet hozni olyan grafikát mint egy újból, csak máshogy, foglalkozni kell vele a programozóknak. Amúgy ott a konzolos példa, leírom 5.szörre is, hogy vajon miért tudnak ugyan olyan hardverre egyre jobb grafikát csinálni? Mert foglalkoznak vele. PC-nél nem foglalkoznak vele, mert mindíg lehet új kártyát venni, hát minek használják ki a régi maximális teljesítményét, ha van újabb, és annak van még maradék ereje amit el lehet pazarolni...
Hat, oke lenne, ha lenne valosagtartalma annak amit irsz :) Volt mar olyan generaciovaltas ami csak 30% novekmenyt hozott? Mikor novekszik 30% -t a teljesitmeny egy driverrel? maximum egy fel evvel megjelenes elotti kiadatlan belso pre-analpha-beta driverhez kepest. Nem mintha ez sokat szamitana, az uj kartya is gyorsul az uj driverrel, es megmarad a res 2 generacio kozott.
Es ekkor az extra featureokrol meg nem is beszeltunk. Amugy nekemis tesco vga-m van, csak nem nyomok savanyu a szolo dumat :)
Hát most gondolkoztam el azon mit sanyix mondott, és igaza van!!! kicsit le kell butítani az újat a régi szintjére, és máris kész van... bár hülyeséget beszélek.. még talán úgy is szebb lenne...
Természetesen nem tudja, de a powa' mégiscsak a szoftverben van! Két generációs vas között átlag 30%-különbség van. Na most ez a különbség egy szarabb és egy jobb driver között is megvan ua karin, és mindezt ingyér!
Igen, eleg vicces mikor jonnek az ilyen gf2-n is szep a doom3 meg gf4 is tudja ugyanazt, amit egy uj kartya :) Persze a jol fut az <20 fps. A cs source-al kapcsolatban pl meg mindig kifejti nekem neha valami fel-vak, hogy vissza kell venni dx7-re mert ugyanugy nez ki azzal is. Persze bump, specu-t stb-t csak hulyesegnek talaltak ki :)
Hát barátom nekem volt gf4ti4200-am 2-3 évig, és kb 2 hónapja cseréltem le 6800gs-td, pcie-re... Meg kell mondanom, még a neten játszott sof2 is sokkal szebb rajt!!! Hogy a fear-ról, farcry-ról és a duake4-rõl ne is beszéljek!!! Én átéltem a változást, és tudom milyen különbségek vannak, és nem csak sebesség tekintetében... pont a minap néztem egy képet a különbségrõl, ha megtalálom a linket beteszem ide, de a régi kártyákon a kép szerint is, meg szerintem is, kicsit homályosabb, szürkébb...volt. A képeket bármilyen kártyán "akármilyen" szépre meg lehet csinálni, de egy játékot, ahol a vga-nak ki kell számolnia mindent, közel sem ilyen egyszerû a helyzet...
Én azthiszem, valamennyi igazság van abban amit mond! Pl vegyünk 1 Xbox-ot,egykoron milyen gagyi játékok voltak rájuk, most meg van 1-2 ami igencsak jó grafikával van megáldva! Emlékeztek még pl az Nvidia Zoltar techdemójára ??, meg a korábbi pl kameleon demóra ?? Azokat a Gef 3-ak meg 4 ek milyen jól nyomták nem?!
http://www.nvnews.net/previews/nforce2/zoltar.jpg
http://www.overclockersrip.net/reviews/smcham.png
http://www.debevec.org/RNL/standard4.jpg
http://www.alaide.com/img/wp/00013/p_000082.jpg
Csekkoljátok le ezeket, nemsok játékban veszel észre hasonló grafikát. Nagyon sok játékban még ott rohangálnak a szögletes fejû emberkék.
Amúgy én is indítottam már el Doom3-at PCI-os (nem expressz!!!) GF2MX-en!!;))) Hát a sebbel voltak gondjai, de a garfika kb ugyan az volt mint pl egy rad 9600-on. És ha belegondolsz, ha a 64MB Rammal "megáldott" xboxra is áttudták írni, akkor talán ez nem is olyan nagy csoda!
Hidd el akár egy gf4-tõl is lehet olyan grafikát kapni, mint egy sokkal újabb videokártyával, már írtam, csak akarni kell, ez a lényeg. Sajnálom hogy elhiszed amivel beetetik az embereket a hardvergyártók, de az az igazság amit írtam. A mai videokártyák képességeibõl jó esetben maxmimum 75%-ot használnak ki a játékok, mert nem optimalizálnak a kártyákra(pazarolják az erõforrásokat), és nem is fognak. Ha teljesen megállna a fejlõdés, akkor is egyre szebb játékok jönnének ki, mert egyre jobban ki tudnák használni a hardver adta lehetõséget. Remek példák ilyenre a konzolok. Ugyan az a hardver van bennük mégis fejlõdik a grafikája a rájuk írt játékoknak. A videochipgyártók nem azért "fejlesztenek", hogy nekünk minél jobb legyen, hanem azért hogy minél jobban lehúzzanak minket...
"A G80, illetve az erre épülõ kártyák az egyesített shader megoldásra épülnek, az órajelet illetõen az 1/2,5 GHz-es párosítás valószínû, és számíthatunk a DirectX 10, WGF 2.0 és Shader Model 4.0 támogatásra. " Hát nemtudom, elég izmos adatok ezek.
Ez az egységesített shader architektúra meg érdekes lesz,csak azt nem értem, hogy eddig miért nem rukkoltak elõ vele, csak azt ne mondjátok hogy ez annyira új dolog??! Eddig a "kinek több a pipelinje,meg pixel,vertex egysége" volt a menõ, most jön az hogy bebee az enyémben 128 shader a tiedben megcsak 100 shader van ezért a tied gagyibb. Amúgy ezt az egységesített shader dolgot vágják a programozók?? Ha jól tudom a nextgen konzolok is ezt használják majd, illetve a X360 as már nyomja.
2.1.: Márpedig el kell ismerni, hogy egy Gf4Ti-tõl sose fogsz olyan grafikát kapni, mint egy Gf6x00 vagy Radeon X1x00 videókártyától. 2.2.: Hány játék fejlesztõgárda áll több, mint 100 emberbõl? Egy-két MMORPG gárdája, esetleg. Az optimalizációt, bugvadászatot meg nem a HW gyártók akadályozzák, hanem a kiadási határidõk. Egy ki sem adott játék nem termel hasznot, és a fejlesztõgárdák többsége az egyre összetettebb grafikai motorok miatt egyre több és több idõt kénytelenek szánni a fejlesztésekre. Még a Quake 4-nél buggyant ki a Raven-bõl, hogy míg a Quake 3 motornál egy grafikus naponta négy textúrát tudott megcsinálni, a Doom 3 motornál egy grafikus napi egy textúrát tudott prezentálni az összetettebb munka és nagyobb felbontás miatt. Ugyanez igaz a programozók munkájára is. Egyre összetettebb grafikai motorok, fizikai motorok, amik rengeteg munkát jelentenek...
Az már legyen a Sony baja. :) Egyébként nem tudom, mi ez a nagy hajcihõ. Emlékszem anno is ez volt a Voodoo 1 / Voodoo 2 / Voodoo 3, TnT / TnT2, Matrox G400, stb. csatában. Az a videókari cserélgetés már évek óta megy, lassan már 10 éve, ha jól számolom. :)
X3: Reunion topic <- nézz be. Egyébként szerintem nagyon brutális grafikája van, most már szépen lassan a nagyobb bugokat is kijavítják benne, de persze el kell fogadni, hogy még egy Gf6800GT-n sincs túl folyamatos mozgás a nagy csaták alkalmával. De túlzott realitásokat ettõl a játéktól se várj... Hejj, egy I-War háromra vágyom én... :)
2.1: Én egy ideje már nem hiszem el ezt amit a játékgyártók, hardvergyártók, mondanak, xar hardveren is nézhet ki jól valami, csak akarás kérdése, de ha akarnák, nem lenne nagy üzlet, mert nem vásárolnának jópénzé videjókártyákat. Igazából a fejlõdés eléggé lelassult az utóbbi idõben, ezért nyúltak a hardvergyártók a "képességekhez" ha nincs megfelelõ "képesség" akkor nem olyan szép/nem indul a játék, ügyes húzás, hogy kitalált, valótlan ürügyekkel rábírják a felhasználót az új hardvervásárlásra. (lehet azt mondani hogy de ezek valós képességek, de ezt a hardvergyártók etetik be nekünk, és sajnos nagyon sokan elhiszik). 2.2: Igen tényleg szigorú határidõk vannak, és összetettek a játékok, DE hányan is dolgoznak egy nagyobb játékon? Hát akár több mint 100-an. Sztem ennyi ember simán tudna bugok vadászni, optimalizálni, de nemteszik, mert a hardvergyártó(videochipgyártóra gondolok fõleg) akivel jó kapcsolatban vannak(fizetnek a fejlesztõnek a nagyobb hardverkövetelményért). De mindez látszik is a játékok minõségén...
OFF Az X3-al én is szemezek, jobban sikerült mint az X2? Mert amikor abban nekimentem a bolygóobjektnek és lepattantam mint a billiárdgolyó, akkor kicsit deinstalláltam az egészet.
Szal nálam még mindíg a Frontier a standard realitásból (persze az I-war2 se volt rosz), és ha ez is csak amolyan ürtaxizás, amilyen az elõzõ rész is volt, akkor maradok annyiban, hogy néha lefuttatom a demóját és megcsodálom a grafikát.;( ON
Két dologban nem értünk egyet: 1.1.: Például a FEAR, a Lock-On vagy a X3:Reunion játékokkal max. részletesség mellett nem bírkózik meg egy Radeon 9800Pro. 1.2.: Másfelõl az élsimitás és a textúraszûrés egyértelmûen grafikai látvány növelõ effektus, nézz meg egy FPS-t textúraszûrés nélkül, utána meg 16x Anisotropic szûréssel. Eléggé mellbevágó a különbség. 2.1.: Az egyre nagyobb hardverigény a max. részletesség mellett nem a programozók bénasága, hanem egyszerûen az új hardverek kihasználása. Ne mond, hogy nem néz ki jobban a DoD:Source például egy Gf6600+ kártyán, mint egy Gf4Ti kártyán. Jobban néz ki. Ez egyszerû fejlõdés, kihasználják az újabb effekteket, HW és SW lehetõséget. Ez a másik fele a dolognak 2.2.: A programozók a legtöbb esetben a szigorú határidõk áldozatai. Egyre öszetettebb és összetetebb a játékok grafikai motorja, amelynek menet közben is tartania kell a lépést a fejlõdéssel. Ha a kiadó és a fejlesztõ kellõ figyelmet fordít a bugvadászatra, akkor egy kiforrot, jól mûködõ motor lesz az eredménye. Ha viszont nem, akkor egy bugos, optimalizálatlan játék lesz az eredménye.
A teljes grafikai részletesség sztem a játékban beállított high beállításokat jelenti, sztem az élsimítás meg az anisoizé szûrés az már plusz grafika. De egy 9800 elbánik a sima high-al a legtöbb játékkal, szûrõk nélkül, sõt az én 9600prom is. Egyébként a nagyobb hardverigény csak a programozók bénaságát bizonyítja, nem dicsõség, inkább szégyen.
Jeleneleg egy Savage3D 8 megás kártya dolgozik a gépemben. Most tervezem lecserélni TNT2-re, mert szegény Savage elég bugos, 3D-ben fagy, meg egy-két hülyesége van. Szerintetek nagyon le vagyok maradva?
Ehh én meg kapok még 1 6600-at, aztán egy darabig elleszek velük
Jól beszél az ember. Nagyjából hasonló gondolatok által vezérelve most készülök 9800 körüli kártyát venni a 9000 helyett...
LOL éppen ez az szerintem bárki aki dolgozik mindig tuna venni csúcskártyát de mi a fasz értelme lenne Ezzel abszolút de nem értek egyet. Jómagam is kb. 10 éve dolgozom de azért nem engedhetek meg magamnak mondjuk három havonta 130.000Ft kiadást videokártyára, sõt, igencsak van máshová tenni a pénzt.. Egy valamire jók a legújabbak nagyképüsködni Pont ezt mondtam én is.
LOL éppen ez az szerintem bárki aki dolgozik mindig tuna venni csúcskártyát de mi a fasz értelme lenne. Egy valamire jók a legújabbak nagyképüsködni. Pl 6800Ultra tulaj ha cserélne most pl 7800GTX-re mi értelme lenne . Mert szerintem kurvára mindegy hogy egy game 120 vagy 170 FPS-el megy.
Van 1000 más jó játék, meg a 4-5 nagyágyú,amin esetleg nem ft maxon, csak azokért meg szerintem nem éri meg vga-t cserélni, ahhoz nagyon fanatikusnak kell lenni. nyaSGem: ezt a 3DM õrületet én sem értem, jómagam kemény 600 pontot kapok a 06-ban, de asszem a FEAR-en és a BF2-õn kívül alig találtam olyat, ami ne futna jól részletes beállításokkal (persze nekem nincs 21"-es tft-m, szal megelégszem 800x600-zal).
Látom a parasztvakítás megy folyamatosan. A játékok meg egyre szarabbak, egyre kevesebb a hangulat. De a sok hülye megveszi az új kártyát, mert megéri azt a 60E Ft-os kiadást, hogy a 3DMark teszt az új kártya behelyezése után már nem 12600 pontot ér el, hanem 12736-ot...
Elfutni elfut, de a "top" játékok többsége alatt azért nem teljes grafikai részletesség mellett..
Nemtom mit vagytok ugy oda ezzel az Ati a jobb, meg nvidia a jobb. Meddig jobb? 1-2 honapig amig a rivális ki nem ad egy jbbat, mindig is igy volt. Kiad az egyik egy tachnologiát, pár honapra rá ellopják az ötleteket, és kiad a másik egy jobbat. Egyébként addig örüljünk amig verseny van, bár igyis elég gáz hogy csak 2 cég között, ugyanaz min ta procikánl, amd-intel. Igy legalább van verseny, fejlödés, és árverseny. Amugy ezekhez az uj technologiáju kártyákhoz, se driver, se direct x, se program nincs még ami kihasználná. Pl egyik burzsuly haverom rendelt x1900-at, és azt irta hogy még normális driver sincs hozzá, ugyhogy a az összehasonlitásos teszteket sem tudom mire alapozzák még.
Dehogynem, ha nincsenek százezreid párhavonta egy új videokarira akkor lemaradsz.. A maximalizmus nem itt kezdõdik, ez csak blõdség.
Azért nem ilyen rossz a helyzet. Jómagam két évig egy fx5900 xt-t használtam ami már akkoriban sem volt elérhetetlenül drága és a mai játékok is elszaladgálnak vele(igaz, most váltottam egy x800 guru-ra de azt hiszem az elkövetkezõ két évben nem leszek szomorú miatta).
Ki gyõzi követni ezeket? Mikor megvettem az X800-at, ez volt a legfrissebb generáció. úgy számoltam 1 évig legalább húznia kell a gépben. Mire lejár, már 3 generációval elõrébb járnak? Az a gazdag ember aki mindig a legújabbra hajt nem is mer venni semmit, mert mire elhatározásra jut, már azt hallja, hogy mindjárt itt a következõ mégjobbmégszebb generáció. OK. Akkor azt még megvárja, de mire az piacra kerül, már megint mindjárt jön a köv. és így tovább. Ki is dobom mindjárt a gépet, és inkább a kertészkedést választom hobbinak.
Nekem teljesen mindegy hogy éppen ki áll jobban a versengésben, ha éppen ati a jobb, akkor azt veszek, ha meg nvidia, akkor azt, szerintem felesleges egy márkához kötõdni. Amúgy egy 9800 Pro-n a mai játékok 95%-a tökéletesen elfut, pedig ez már majdnem 3 éves kártya:-)
Úgy érzem, hogy az ati kicsit le van maradva, hiszen a legutóbb bejelentett csúcskártya azért nem alázta az nvidia zászlóshajóját.
De az is lehet, hogy az nvidia elõnye csak ideiglenes, és az ati technológiai fejlesztése idõvel nagy elõnyt fog neki jelenteni.
Jó lenne ha valami igazán ütõset tudna alkotni az ati csapata.
elsõ DX9-es VGA a Radeon 9700 Pro volt ha jól tudom, valamikor 2002 nyarán talán. Ha ezek idén kijönnek, akkor 4 év, de mire dx10-es játékot látunk, lesz az 5 is.