Hát öcsém, mennyi hardwarelayoutos szakember van itt a fórumon, azokkal karöltve egy cégben mindenkit le lehetne mosni...
"Ja, ma. De meddig tart ez a "ma"? Jópár jéték még alacsonyabb felbontáson is alig megy 100fps fölé, a proci miatt, pedig még bõven lehetne mivel terhelni szegényt. Így amíg nem lesz legalább a játékosok többségének dual-core procija, nem érdemes fejlettebb, összetettebb játékmotorokkal próbálkozni PC-n."
1-2 év múlva már alap lesz a dualcore. Addig is meg lehet írni a játékokat úgy, hogy a második magon csak az extra fícsörök fussanak. De szerintem már az is épp elég, ha a render külön szálon megy.
"Úgy értettem, amikor letöltöd az új drivert, nem olvasod el a hozzá való release notest, hogy mégis mit javítottak, stb.?"
"Nem a mai játékokra gondoltam, hanem általában. Az a kijelentés, hogy "már nem kell gyorsabb GPU" erõs túlzás. Annyit lehet max. mondani, hogy ma még nem kell."
Ja, ma. De meddig tart ez a "ma"? Jópár jéték még alacsonyabb felbontáson is alig megy 100fps fölé, a proci miatt, pedig még bõven lehetne mivel terhelni szegényt. Így amíg nem lesz legalább a játékosok többségének dual-core procija, nem érdemes fejlettebb, összetettebb játékmotorokkal próbálkozni PC-n.
A hírek szerint a Crytek engine következõ változata,valóban DX10-re épül.Ki is adtak egy rövidke kis bemutatót sajna csak kis felbontású kézikamerás felvételt találtam pl itt: http://www.gamestar.hu/kommentek.php?sid=18377 Meglehetõsen meggyõzõ.Megjegyzem nem olvastam konkrét híreket azzal kapcsolatban hogy az Xbox2 Dx10-es lenne ,persze az tény hogy több van benne Dx9-nél.Ha valaki látott ilyen specifikációt linkelje be ide plíz.
"A többmagos prociké a jövõ, de jelenleg zéró támogatásuk van a játékok alatt, ha a drivereket megoldják, akkor is sokára lesznek kihasználva."
Szerintem nem olyan sokára. Az új játékoknál nem túl nagy munkával kihasználhatók. Fõleg a renderelésre. De már akár a régebbieknél is segíthet, ha a render külön szálon megy (tudom, a tesztek szerint szinte sehol nincs így).
"Te nem szoktál GPU-driver release notest olvasni? Ezeket a hibákat szinte mindíg õk javítják. Az egy kérdés, kinek a hibája (eleve rossz volt a driver, vagy a játékfejlesztõ csinál valamit rosszul)."
Nem én fejlesztem a 3D motort, úgyhogy részleteket nem tudok, de gyakran hallok ilyen bugokról.
"A legtöbb mai játékkal min. 1600x1200-ban, vagy még ott sem..."
Nem a mai játékokra gondoltam, hanem általában. Az a kijelentés, hogy "már nem kell gyorsabb GPU" erõs túlzás. Annyit lehet max. mondani, hogy ma még nem kell.
Jaj milyen butasagokat olvasok itt.Foleg az olyanok tetszenek, hogy az FX szeria azert lett rossz, mert az Xboxra fejlesztett kozben az Nvidia. LOL Nos hogy tisztan lassanak ezek a "szakertok" Az FX sorozatot az Nvidia a Taiwan Semiconductor Manufacturing Co.-ra bizta, aki a 90 nanometeres atalasert volt felelos. Kozben kiderult, hogy a technologia nem eleg kiforott es egy 350millio tranzisztort tartalmazo chipnel kulonbozo problemakba utkoztek. Ezert az Nvidia a kovetkezo sorozatoknal visszaallt a 110nm-re. Az is kiderult, hogy nem a gyartoban keresendo a hiba, hanem a technologiaban, mert az IBM is az NV40es chipeknel belesetalt ugyenezen hibakba (tul magas fogyaztasz,alacsony kihozatal) Nos az Nvidia inkabb visszatert a 110nanometeres technologiara inkabb es a 7800as chipeket is inkabb igy gyartja. Nezzuk mi tortent ATIeknal, ahol egy ismeros tunik fel a szinen, aki nem mas, mint a Taiwan Semiconductor Manufacturing Co., aki az ATItol ugyanazt a feladatot kapta, mint anno az Nvidiatol, hogy a o hajtsa vegre a 90nanometeres gyartast az ATI reszere, mert az ATI is eltervezte az atallast. S lam milyen egyszeru az elet, ugyanazokba a hibakba beleszaladt o is mint mar regebben az Nvidia. Ha profan az elet es ez latszik a legvaloszinubbnek, akkor a mostani ATI VGA generacio nem lesz olyan jo, viszont a kovetkezo generacio ezzel szemben mint a konkurencianal egy sokkal jobb konstrukcio lesz. De azok az irasok, hogy Xbox, meg hogy felvasarolja az ATI-t az Nvidia akkora blodsegek, hogy az ember kopni nyelni nem tud mar a rohogestol.
Ez már a cikk elején is világosan le volt írva. És az is, hogy azért nem hívták meg õket, mert korábban leközöltek néhány az ATI számára kényes cikket... Persze azt nem írják, hogy ezért most akkor õk bosszút állnak, csak hogy ha már egyszer nem kellett NDA-t aláírniuk, akkor nem is fogják vissza magukat, és leírják a kártyagyártóktól származó információkat. (Ez persze alibiszövegnek is jó.)
Nah, akit erdekel, egy igen nagy ATI hal, Andrzej Bania (PR & marketing manager), par ertekes gondolatot leirt a beyond3d foruman, melynek a lenyege.
A fenti 'cikk' szerzoje (Sandler Sassen) bosszuhadjaratot inditott, mellyel le akartja jaratni az erkezo vid.kartya generaciot, mivel nem hivtak meg az r520-rol szolo sajtotalalkozora. Ez tokeletesen igazalhato a koztuk tortent email valtasokkal.
A 'teszteredmenyek' semmilyen hasonlosagot nem mutatnak az ATI altal mert adatokkal.
A teljes hozzaszolast ITT talaljatok meg. Erdemes elolvasni.
"Kiváncsian vátom mi lesz a far cry utódja... CryTek Engine v2" Nos kapaszkodjatok, több helyen feltünt info )bár lehet kamu), hogy a CryTek Engine v2 DirectX 10!!! alá készült. Persze felmerült, hogy akkor vagy teljesen szoftveresen fut (hiszen nincs kész DX10 GPU) vagy valamelyik gyáró egy prototípúsán futott ... (R580? R600? G80? G90?)
"Azért ki lehet hajtani azokat a kártyákat. Teljesítménybõl sosem elég." Ez nem igaz, soha nem is volt. Az éppen aktuális csúcs kártyákat (TNT2, GeForce2, GeForce 4 - 4600 Radeon 9700, GeForce 6800, GeForce 7800) a megjelenésekor nem, csak sokkal késöbb lehetett kihajtani mert NEM volt alájuk proci! Az Intel eredetileg 2003 végére, majd késöbb 2004 elejére tervezte be a 4GHz procit, és 1 éven belül 5GHz körül kellett volna lenniük. De nem sikerült nekik! Most gondolj bele a 9800Pro-t és anála gyorsabb kártyákat már egy 2,8-as proci SE hajtja ki. A totális kihajtáshoz a procikat 4GHz fölé kellett tuningolni. A mostani csúcskártyáknak meg sokkal nagyobb teljesítmény kell! A többmagos prociké a jövõ, de jelenleg zéró támogatásuk van a játékok alatt, ha a drivereket megoldják, akkor is sokára lesznek kihasználva.
Hát igen, most már annyira nem szörnyedek el hogy ha X1800-asokra gondolok, de azért még minidig a sírógörcs kerülget, hogy ha arra kell gondolnom, hogy ATi régebbi kijelentése szerint: "Az új generációs kártyák felülmúlhatatlan teljesítményrõl tesznek majd tanubizonyságot" :'( Sajnos már azt kell mondanom, hogy gratula Nvidia, Ati meg húzzá' bele :)
Kicsit elszálltak az árak, nem? Van egyáltalán használható kártya 20-30000 Ft-ért? vagy itt mindenk x850xt vesz?
"Szerinted mekkora esélye lenne egy játéknak a piacon, ha mondjuk R9600-on egyáltalán nem megy, és GeF6600-on meg nem látszik a víz? (ezek nem kitalált problémák)"
Te nem szoktál GPU-driver release notest olvasni? Ezeket a hibákat szinte mindíg õk javítják. Az egy kérdés, kinek a hibája (eleve rossz volt a driver, vagy a játékfejlesztõ csinál valamit rosszul).
A legtöbb mai játékkal min. 1600x1200-ban, vagy még ott sem...
"Teljesítménybõl sosem elég."
Aham, lehet még pakolni több és hosszabb shadert a játékokba, már szinte csak azért, hogy legyen min dolgoznia, de ott van még a több poligon problémája, és mostmár ideje lenne a nem-grafikai dolgokkal is többet törõdni... Részletesebb modellek, nagyobb város, amiben összetettebb események zajlanak, jobb AI, fizika, stb. (Jó, majd egyszer jön a fizikai gyorsító chip >50e-ért, ez egy dolog.) Ezekhez már nagyon kevés a proci...
"A CPU-k meg most nagyot ugranak a több maggal."
Hát, nagy ugrás az x86-nak, de kis lépés a játékiparnak... :) Perpill 2 mag ugyanazon a buszon, aminek a sávszélessége töredéke a Cellének? Ha duplázzák is majd ezt, az is kevés. Max. 2-3x-os (2/4 maggal) sebességnövekedés? Amikor a Cell számítási teljesítményben is 30x gyorsabb? Ráadásul brutális ára van még a dual-magosoknak is, így a piac kis részében van csak jelen.
Ne hogy azt hidd hogy a konzolra most megjelenõ játékok ki tudják maximálisan használni a hw-t. Pl.: MGS4 MEGJELENÉS: 2007 -hoppá (két év ...)
Vagy nézzünk egy nemsokára megjelenõ játékot: tgs-rõl egy kép fck
Ne értsél félre nem mondom hogy szar a nextgen konzol csak azt hogy elõbb várjuk meg a megjelenést és hogy mit tud, nem pedig már már elképzelhetetlen grafikát tulajdonítani neki...
Szerintem ez a VGA dolog ugyan olyan, mint az gigás LAN, hiába van egy gigabit ha a lap nem tud annyi adatot feldolgozni adott idõ alatt. Szóval szerintem hiába az atom erõs VGA meg proci, ha a a vinyó lassú és a lap sem képes feldolgozni a kapott információkat. Ezért tartanak a konzolok ott ahol tartanak. Szerintem. Bár ez csak az én véleményem. Én pl. nem érzek különbséget a mostani PCI-E-s 6600GT és az elözõ AGP-s 9600XT-m között, pedig a lap NEO2-rõl NEO4-re cserélõdött ami azért sokkal jobb, de érezhetõ különbség nincs.
Sorry a hosszért, meg ha butaságokat írtam volna.
"De szerintem nem kell hogy a nyakukba vegyék és szerintem nem is veszik a nyakukba a fejlesztõk a kompatibilitás problémáját."
Nem tehetik meg, hogy szarnak a kompatibilitásra. Szerinted mekkora esélye lenne egy játéknak a piacon, ha mondjuk R9600-on egyáltalán nem megy, és GeF6600-on meg nem látszik a víz? (ezek nem kitalált problémák)
"Processzor ua mindenkinek a gépében, a directx dettó!"
Sajnos ez nem egészen igaz. - Nem ugyanaz a proci, mert minimum a sebesség változik erõsen. - Nem ugyanaz a DX, mert belekavar a kártya drivere, és a hardveres megvalósítás is. Sok szopás van ezekkel.
Ha a kiadó a kanzolon többet keres az nem azt jelenti hogy negatív okokat kell arra találni, hogy a PC-re kiadott játékokon meg miért keres kevesebbet. Talán csak tudomásul kell venni, hogy ez kisebb piac és kész.
A warez télleg olyan mumus, amivel a kiadók szeretik riogatni az embereket, bár az hogy menyire valós veszély az megkérdõjelezhetõ.
A kompatibilitás megint csak urban legendnek tûnik. Processzor ua mindenkinek a gépében, a directx dettó! Persze Murphy nem alszik. De szerintem nem kell hogy a nyakukba vegyék és szerintem nem is veszik a nyakukba a fejlesztõk a kompatibilitás problémáját. Egy szar GFX kártya drivert a játékfejlesztõ nem fog megyógyítani! Viszont ez egy jó kifogás a késésekre.
Hogy az eredeti témához is szóljak: nem tudom Mo-on hány ember várja az 520-ast, én biztos nem, engem sokkal jobban érdekel, hogy az 530-as milyen lesz. És azt se felejtsük el, hogy talán az 5.9-es, de inkább az 5.10-es driverben lesz benne ezeknek a kártyáknak a megfelelõ támogatása. Addig meg felesleges teszteredményeket közölni egy mintakártyáról.
Konzolos játékot se olyan nehéz másolni, bár valóban csak a megjelenés után kis idõvel lesz warezon, meg nem mindenki meri átalakíttatni a konzolját, de attól még ott is van bõven másolt játék, szóval ez nem indok. Egyszerûen azért hanyagolják el a PC-s játékokat, mert többet kell dolgozni rajtuk (kompatibilitás) és nem kérhetnek annyit érte, mint egy konzolos játékért, mert akkor tényleg csak warezben terjedne (ki adna ki PC-s játékért 15-16 ezret?)
Én szivesen megmagyarázom neked NEXUS... egyszerûen megint csak a számok beszélnek. Ez a kalózkodásról szól...
Számítógépeken a játékok 90%a már megjelenés napokkal néha hetekkel elõbb letölthetõ... kinek éri ez meg? A kiadónak biztos nem, akkor meg minek adja ki?
Az bitzos!;)
De mire kijön, a PC még mindíg 2-3 évre lesz attól, hogy ua GFX-et elérje. Pedig 2-3 év múlva már milyen GFX karik lesznek!!!! Ahogy inquisitor is írta.
Ha kijön egy új konzol a fejlesztõk pár hónap allatt felszívják magukat és csilivili játékokat írnak az új, teljesen más hardwerre. A PC-n hiába van evolúciós fejlõdés, hiába adják ki már hónapokkal korábban ua GFX hardvert mint ami a kanzolban ketyeg, a játékok még is akár éveket késnek!!!!!!! Na ezt magyarázza meg nekem valaki.
Ja, mellékesen meg a fenti hírrõl napok óta tudni, hogy kamu. Másrészt olyan rohadt nagy teljesítmény különbségeket se láttam, ami miatt temetni kéne az ATI-t ha igaz is lenne, max. ólcsobban adják. Anno a GF4 helyett is R8500-öt vettem, és nem érzem úgy hogy rosszabul jártm, csak mert picit lasabb volt ;)
Ez nyilvánvalóan NEM igaz. Normális PSX emulációhoz vagy 5 évre volt szükség, pedig az gyengébb volt mint egy Voodoo1-es kártya. Nintendo 64 emulátor is éppen csak, a DreamCast emu meg még mindíg lassú. Használható PS2 vagy XBox emu sincs, pedig egy 3GHz-es proci vagy egy GF6600-6800 picit többet tud ám ... majd talán addigra, amikor a PS3 vagy az X360 kifutó lesz.
Másrészt meg tényleg felesleges összehasonlítani a grafikát, mivel egy konzolból (érthetõ okokból) sokkal többet ki lehet hozni ugyanolyan paraméterek mellett.
Tehen_M - Az lehet, hogy sokára jön ki, de akkor is egy rövidesen megjelenõ vason fog kijönni. Nem teljesen mellékesen tudásban és sebességben a PS3 GPU-ja erõsen hajaz a 7800 szériára, de mire olyan GFX lesz PC-n, addigra már lehet GF8xxx meg Radeon 2xxx lesz.
jahh bocsi 6600/ 128 MB RAM van, kicsit mellényúltam.. De gondoljatok bele: a PC re lehet akármilyen konzol szimulátort tenni, ez visszafele nem mûködik..arról nem is beszélve, h a warez konzol CDket és DVDket vajon min törik fel és írják ?? És a konzolokat tilos felupgradelni, a PC-n max a garanciát veszted el, de nem perel be egyik konzol gyártó sem.. Arról meg megint nem beszélve, hogy össze lehetne hasonlítani a PC re megjelent Battlefield 1942-t, meg a konzolos változatát. Lehet kozollal netezni is..de vajon tudod-e tolni a gammát mondjuk 64 fõs szerveren, hatalmas pályákon??? És egér van-e??? célzás egér nélkül igazi szívás.. fõleg FPSben. Szal szegény ATI most egy kicsit lemaradt.. A játékfejlesztõk is inkább az nVidiára számítanak mostanában
"Melyik pc és melyik x360?" Szabad a gazda!;)
Szerintem ez nem volt egy jó példa. Gondolod hogy egy olyan gáme amelyik pc re is megjelenik (a képek, ha jól tévedek a call of duty2-bõl vannak) tartalmazni fog olyan dolgokat amit a PC nem bírna?
Érdemes elgondolkodni azon, hogy vajon nem e az van az egész mögött hogy a PC platform már másodlagos a konzolhoz képest?
Az ATI ráadásul csak egyszer volt képes az NVIDIA elé kerülni, amikor az az FX-el nyûglõdött. A bencsmarkrájderek meg hiába mondanak akármit, az számít, hogy a játékok hogy futnak.
Bár elég érdekes a kép mert az új konzolra készült új játékok garafikailag szerintem messze a PC elött vannak, miközben a konzolban levõ GFX csipek meg nem bizti hogy jobbak mint a legújabb csúcskártyíák!!!!!
kiegészítve az ATI cáfolatával. Nyilvánvaló viszont, ebben a pillanatban nem minõsíthetjük egy legyintéssel kacsának a tesztet, mert az ATI sem mutatott fel konkrétumokat.
Hát ez már napok óta neten terjengõ kacsa, csodálkozom, hogy az SG ennyi nappal a hír után hozta, holott már más oldalakon ki lett vesézve, hogy úgy ahogy van ez egy kacsa, illetve szebb néven spekulatív reklám...
Mindenesetre nagy égés lenne, ha béna lenne. A fõfejes kijelentette, hogy dupla teljesítménynövekedés lesz. De az utolsó elõtti bekezdést nem tudom értelmezni. Az a gond, hogy a nextgen low-end kártya nem nyomja le a jelenlegi high-end kártyát? Bár azzal a kis 450$-os árával nem is annyira low-end... Végül is nekem mindegy, úgyis valami van az alaplapommal, mert nincs AGP gyorsítás...
Az ATI nál hiányolom a dupla vidkari beépítési lehetõséget is Kipróbáltam a 6200-as karimmal az SLI-t, ~1500 ponntal kaptam többet a karihoz adott 3D Markban.. nem beszélve az nVidia 24 pix.futószalagjáról..
Meg aztán nem kell fél évenként vid. karit venni...
Itt az a fõ gond, hogy egyszerre kellett az ATI-nak meglépnie a vonalszélesség csökkentést, és az SM 2.0->3.0 váltást. (Bár az Nvidiának is sikerült, de nem volt olcsó dolog, és mindent bele is kellett adniuk, mert jól tudták, hogy 2x nem hibázhatnak egymás után. Az ATI viszont talán el volt kényelmesedve.) Pontosabban, itt most van még egy 3. dolog is: a unified shaderek.
ugyanmá...az nvidia meg a ps3 mal van elfoglalva..az nem ürügy...nvidia mégis megtudta csinállni attól h ott van a ps3
Tényleg elképzelhetõ, hogy az ATI most az XBOX kártyájával volt/van elfoglalva, és emiatt nem lett komolyabb kártyára idejük. Az ár teljesítmény arány viszont az NVidiánál van elég erõsen.
Több mint 2 éve csak DirectX 9 kártyák vannak, tulajonképpen semmi érdemi válozás nincs. Kívéve a futószallagok, és a órajelek emelésével gyorsítanak. Ez így nagyon gáz... Na, nem mintha errõl az ATI, vagy az Nvidia tehetne. Az is poén hogy, (mivel jövöre megjelenik a Vista) ezek a kártyak már most el vannak avulva...
Na én nem tudom ebbõl mi igaz, pöttyet kamu ízû a cucc. Habár rengeteg helyen nézelõdtem már az Ati legifjabb titánja után, de még nem igazán hiszem el egyiket sem. De derülátó sem vagyok nagyon, nem érzem (megérzés csupán azért, mert konkrét és hiteles eredmény nincs, és a specifikációk sem feltétlen vágnak teljesen össze) azt az átütõ erõt a kártyában, továbbá sokat is késik az nVidia megoldásával szemben, ez talán most kevés lesz. De ne legyen igazam!
De ha megfigyeljük, amikor az nVidia az XBox grafikus vezérlõjét csinálta, akkor jött ki a csóri FX szériával. Lehet, hogy ugyanez történt most az Atinál is. Vagy valamire az nV nagyon rátalált a PS3 graf chip-je során...
Persze mindez csak találgatás. Az igazság azonban nemsokára kiderül, érdemes odafigyelni. Nem hiszem, hogy sokan csalódtak már az Ati megoldásaiban, és ebbõl is kisülhet bármi átütõ. Én szurkolok nekik, a jó izmos verseny mindannyiunknak csak jó lenne (fõleg a pénztárcánknak).
az oldalon benne van hogy azért csinálták ezeket a kamu eredményeket, hogy FIGYELJENEK rájuk...szal úgy kamu az egész ahogy van
Mi ezen a versenyen csak nyerhetünk a két utolsó széria mind az ati-nál mind az Nvidiánál nagyon jó kártyákat hozott!!!Én mondjuk most Nvidia fan vagyok nekem bejött Nem játszom doom 3-at és half life 2-õt sem talán azért is...
Elkepeszto, mennyi ostobasag napvilagot lat. Minek spekulaltok? Varjatok mar meg a hivatalos bemutatot!!!
Benne van az SM 3.0... talán normális hardver híreket kellene olvasgatnod, ahelyett, hogy elsõ blikkre nagyot akarnál ideböffenteni...
Túl sokat ültek a babérjaikon, vagy már egyenesen directX 10 kompatibilitással akarnak elõrukkolni - mindenesetre nem kell sajnálni az ATI-t. Az nVidiát sem sajnálta senki az Fx sorozatért. Vagy talpraállnak, vagy felvásárolják õket.
"Nvidia mindig is nyerni fog" ????????? Úgy érzem ez megint egy vitatkozós topic lesz. :D
Hát igen, Nvidia mindig is nyerni, fog, de ahogy a cikket olvasom, nem halotam hogy Pixel Shadser 3.0 támogatnák, szal ismét maradunk a 2.0 ás sza**-nál, mig már a nvidia 6200 képviseli a shader model 3.0-á, nem mindegy azért, mert már most van egy két game aminek kell, nem ebzsélve a 2006 os gamek-rõl! Meg az Új Windows Vistáról!!!!