Amúgy a control center témával egytértek. Az új AI funkció lényegében semmi más, mint az nVIDIA tavalyi csalása, csak éppen 3 igen fontos különbséggel: -nincs látható képminõség veszteség -be van jelentve (tudunk róla) -KIKAPCSOLHATÓ.
Mindezek mellett a CC egy hulladék lett, szerintem ki sem szabadott volna adniuk még. Ez már nem az elsõ CC-s catalyst, és még mindig sok a gond vele. (én magam inkább Omegát raktam most fel). Magával a driverrel viszont semmi gond.
"Here's a demo that does dynamic branching, without the need for pixel shader 3.0, and still receives the huge performance boost that pixel shader 3.0 dynamic branching supposedly gives when utilized in a similar fashion."
Persze, ahogy lentebb ott le is írják, a devek valszeg inkább az SM3-hoz nyúlnak majd, mint az ilyen fajta speciális 2.0 kódokhoz. Ez csak annyit mutat meg, az elõbbihez képest az utóbbi azért nincs elmaradva különösebben.
Szal, az SM2.0 nem fog úgy teljesíteni és kinézni mint a 3, de nem azért mert nem képes rá, hanem azért, mert a fejlesztõknek egyszerûbb a 3.0-val megvalósítani már a dolgokat. Ezt bizonyítja ez a demo is.
Láttam a Far Cray HDR tesztet, képeket. Nekem is nagyon tetszik ez a HDR már a HL2 videó (háztetõs) óta. Meglepõen sokat jelen ahhoz képest mennyi a hardverigénye. (a Far Cry-nál elvileg ugye 4-5%). Fõleg ha majd rendesen használják, mert nekem a Far Cry erõsen techdemo játék, vagyis túlnomatnak mindent hogy megmutassák viszi a motor...
Hát, ez a csalás dolog kicsit túl van sarkítva. Pl. a csillag rajzolató AF szûrést az ATI találta ki, és többekk szerint is észrevehetõ néha a dolog. Ez eleve egy kis elõnyt jelentett az ATI-nak. (A 6-osban az NV is átvette, sõt, DX alap dolog lett.) Meg valaki itt azt írta nemrég, hogy a mai driverek úgy hoznak ki jobb teljesítményt az FX-bõl, hogy annak semmilyen látható hátránya nincs. Csak ez ma már senkit sem érdekel. Független shader programozók szerint van néhány olyan speciális effekt, amit csak SM3.0-val lehet megvalósítani (élethûbb fénytörés, és egyéb raytracing-szerû megoldások, stb.) - bár ezekkel egyelõre valószínûleg inkább csak techdemókban lehet találkozni (az egyik kevésbé ismert gyártónak vannak is ilyen SM3.0 demói), mert a mai kártyák még nem elég gyorsak ahhoz, hogy ilyenekkel legyen tele a játék. De az igazán valósághû bumpmapping is SM3.0 feature. Persze ettõl még az idõtállóság dolog is kicsit túl van színezve, mert a legtöbben jövõre úgyis lecserélik a kártyáikat. Bár vannak, akik inkább 2 évente cserélnek. (Én mindenesetre nem sokat játszom, inkább techdemókkat nézegetek, és majd eljátszogatok pl. az NV letölthetõ shader-editorjával.)
Elterelhetjük persze idõtállósági kérdésnek az egészet, de anno korántsem ez volt a fõ érv ez vagy az ellen/mellett. Az R300 bõ fél évvel az FX-ek megjelenése elõtt a piacon volt, és még úgy is bõven többet tudott náluk. Illetve amit tudott, azt sokkal gyorsabban. Tény és való, hogy nem volt ps2.0-s játék a piacon hosszú ideig, mint ahogy most ps3.0-s sem lesz. Az csak egy komponense volt az FX-ek bukásának, hogy a jövõjük bizonytalan volt a gyenge PS2.0 miatt. A másik, és legütõsebb érv az nVIDIA csaló magatartása volt, hogy ütõképes termék helyett a driverbe épített csalásokkal próbálta még a DX8-as teljesítményét is az R300-éval egy szintre hozni. Az FX-ek egyes egyedül az OpenGL API alatt voltak egyértelmû elõnyei, és ott is csak a komolyabb driver támogatás miatt. Szal ezt a témát már ne keverjük ide, mert egyátalán nem ugyanaz a helyzet. A GeForce6 család igenis ütõs lett, de valahol természetes, hogy az emberek többsége szkeptikus szemmel nézni az nvidia tevékenységét azokután, ahogy tavaly elásta magát. Ez te sem vitathatod. Ezenkívül, azt sem mondta senki ha jól emlékszem, hogy az X800 sorozat bármennyivel is idõtállóbb lenne. Hol volt ilyen? Sehol. Na látod! Attól, hogy kijelentjük, hogy az SM3-ra a felhasználóknak, tehát a VÁSÁRLÓKNAK nincs szükségük sem jelenleg, sem a közeljövõben, még nem mondtuk ki azt, hogy jobban megéri X800-at venni. Másrészt, azért tegyük hozzá, hogy az SM3.0 korántsem olyan esszenciális technológia, mint a 2.0 volt anno. Mindössze optimalizálásokat, könnyebb programozhatóságot, és így némi teljesítménytöbbletet ígér, korántsem akkora generációváltást, mint a 2.0. Magyarán, noha tény, hogy hiányozni fog az X800-akról jövõ évben a feature, egyátalán nem létfontosságú hiányosságról lesz szó.
Ha a zárójeles megjegyzéseddel netán Cvd-re utalsz, õ már régen bebizonyította, hogy nem érdemes leállni vele vitatkozni. Érvelni nem tud, csak mellébeszéléssel kontrázni. Most is totál más síkra próbálja terelni azt amirõl szó van, ezért nem is foglalkozok vele. Anno már az FX-ek megjelenése elõtt mikor megvolt a specifikációjuk tudni lehetett, hogy simán bebuknak, de õ még akkor is a hülyeségeit szajkózta, hogy 2x gyorsabb lesz az R300-nál, amikor az elsõ tesztek bebizonyították az ellenkezõjét... Akkor is ugyanezt csinálta már, hogy személyeskedéssel próbált visszavágni a felsorolt tényekre. Szal õt hagyjuk ki ebbõl, nálam nincs hitele a mondandójának.
Gondolom nem tûnt fel hogy nem a cikkre reagáltam hanem a hozzászólásodra. Talán nem nekem kellene kinyitnom a szemem. Bagatelizálhatod az ATI-k alacsonyabb fogyását, de tény hogy sokkal jobban fogynak az nV-k a felsõ szegmensben, és hasonló vátható a középmezõnyben is. Anno az ATI is nagyot szakított az R300-zal, holott semmi gyakorlati haszna nem volt a DX9-nek rajta. Arról meg végképp ne beszéljünk hogy ki mond hülyeséget aztán nem ismeri be hanem még rátesz. Emlékszem még a DOOM3 elsõ videobemutatójára Carmackkal Gef3-on ami szerinted nem létezik (még mindig fent van a neten!), vagy az ugyancsak nem létezõ EV6-os Alpha procira, hogy többet ne is említsek. Valamint ideje lenne leszokni arról hogy az embert támadod, a hozzászólása helyett, még mindig gyerekes. Lehet törölni.
Na jó, mondjuk a 9700 idõtállóságához az is kellett, hogy gyenge volt az FX PS2.0-ban, miközben nem lehet tudni, mennyire lesz ütõs az ATI 2005-ös generációja.
Áhh, egyébként felesleges errõl vitázni. Úgysem ismerik el, egyszerûbb, hogy a kedves olvasó a hülye. Pedig a többség nem az, látja a nyilvánvalót, csak nem teszi szóvá, mert minek (bár reméli, hogy van valami értelmes célja a dolognak).
Tökéletesen igaza van Cvd-nek. Tavaly volt a piacon vagy 2 program, ami SM2.0 volt (meg a "riogatás", hogy hú mindjárt megjelenik a HL2!), nem számítva az ATI techdemóit. Mégis "mindenki" azon "kesergett", hogy hú, nem idõtálló az FX. Hát most kb. annyira idõtálló az X sorozat az ATI-nál. (A korábbi programok az FX-en is jól futnak, mint a maiak az X-en.) Az NV 6-os sorozata meg olyan, mint korábban a 9700-as.
De a ti hozzáállásotok viszont egészen más... Ez már az elfogultság krónikus esete, ha már észre sem veszitek (vagy csak úgy tesztek, ami meg egy másik eset). Ezzel lealacsonyítjátok magatokat. (Persze fogalmam sincs, miért aggódok én itt az SG miatt?)
(Arról nem beszélve, hogy ez már nagyon komoly, hogy aki nektek ellentmond, az kapásból le van hülyézve...)
"Hiányolni senki nem fogja az SM3.0-t jövõ év közepéig"
És a fejlesztõk??? Hogy fejlesztenének vas nélkül? Szoftverrenderrel 1fps-sel (ha egyátalán mûködik úgy)? (Nem beszélve arró, hogy az elkövetkezõ honapokban sorra jelennek majd meg kisebb-nagyobb programok SM3.0 támogatással.)
Bár már egyszer megfogadtam, hogy csak értelmes vitapartnerekkel állok le, azért kiváncsi lennék, hogy egyátalán elolvastad-e a fenti hírt? Ha netán így volt, idézd már be azt részt, ami szerinted valótlan állítás, következtetés stb. Mert pl azt sem állította senki, hogy ebben az átmeneti idõszakban az ATI ne sínylené meg az SM3 hiányát. (uristem 3darabbal kevesebb ATI kártya kel majd el, mert a nemlétezõ szoftvereket még nem támogatja...) Ezt is csak te szeretnéd hozzátenni a vitához, hogy méginkább atifannak állíthasd be a tényeket :/ Megint mondtál egy jó nagy hülyeséget, utána meg csak bizonygatod az igazadat eltakart szemekkel...
Halkan jegyzem meg hogy az nVidia is azt mondta a DX9-re Az R300 idején hogy egyenlõre felesleges, le is maradtak benne rendesen. Mivel most kezd csak szükség lenni rá igazán, akkor anno az nVidia is jól csinálta ugye? Ez is ugyanaz a marha egyszerû folyamat, akkor mégis szénné fikáztad az nVidiát. Pedig háttér ugyanaz, az adott cég csak késõbb tudta prezentálni a hardware-t, és kitaláltak valami kifogást. Csak míg ez az nVidia részérõl marketinfogás volt, az ATI viszont tudja a nagy igazságot, legalábbis szerinted. Szerintem meg igenis megsínyli az ATI az SM3.0 hiányát, emiatt is miatt fogynak jobban az nV kártyái a felsõ szegmensben. Az ATI/nVidia ellentétet meg éppen az generálja hogy elfogultak a cikkek az ATI irányába, és bárki meg meri ezt jegyezni, az máris nV fan, nem ért hozzá, és elvakította a marketing.
Jo, akkor szerinted mondjuk ki kerek perec, hogy az nvidia féle SM3.0 implementációból csak az ATI húzott hasznot?:DDD Mert ez az igazság. Hiányolni senki nem fogja az SM3.0-t jövõ év közepéig, addigra meg kijön az ATI is új hardverrel, ami ráadául már modernebb formában, gyorsabban valósítja meg. Na ilyenkor mi van? Az nVIDIA belerakta a geforce6-ba a technológiát, de minek? Attól hogy fejleszteni tudnak rá, neki nem lesz pénze belõle. Majd ha fejlesztettek rá, és az ATI hardvere egyszercsak jobban valósítja meg, na majd ott meg az ATI-nak lesz. Nem véletlenül nyilatkozta Orton még az elején, hogy NEM ÉRTE MEG NEKIK egyelõre az sm3-ba invesztálni. Április óta mindenhol ezt mondják, hogy 1 év mire tényleg szükség lesz rá. Addigra meg lesz ATI oldalról is SM3. Szal akkor most ki csinálta jól? Ezek marha egyszerûen átlátható folyamatok, nemtom miért kell neked mindenbõl atifan.vs.nvfan dolgot faragni.
Két dolog. Nézd meg a legfelsõ hírt. Nvidia fényezés. Na, ilyenkor hol van a Mr. Fõkritikus, aki minden tagmondaot órákig elemez, hogy beleköthessen valamibe? ... A másik meg az SLI, egyszerûen baromság amit irsz. Számtalan hír volt az SLI-rõl, az azt támogató alaplapokról, 3dmark eredményrõl, ÉS az alienware, valamint az ati saját technológiájáról is. Ez megint csak a TE egyéni érzelmi világod, hogy még a nyilvánvaló dolgokból is nvidia fikázást olvasol ki.
Arról nem is beszélve, hogy egy még nem létezõ cuccra nem lehet fejleszteni... Mire az ATI kihozza a SM3.0-s hardverét, addigra le is telik az a bizonyos év, tehát úgymond "beleül a készbe".
Aha. És ezt te el is hiszed? Számtalan példa volt, és többen is szóvá tették már, hogy erõsen kivételeztek az ATI-val. ATI-ról többnyire csak pozitívumokat írtok, NV-rõl inkább csak negatívumokat. Ha véletlenül írtok valami pozitívat, a hír fele arról szól, hogy ilyet az ATI is tud, vagy majd fog tudni, vagy ha nem, akkor az egy felesleges dolog, stb.) Állandóan bizonygatjátok, hogy a SM3.0 szinte értelmetlen, az SLI-rõl is hallgattatok egy ideig, csak akkor beszéltetek róla, amikor már az Alienware jóvoltából ATI-kkal is megvalósítható lett a dolog. És még hosszan lehetne folytatni.
Az, hogy perpill mennyire használatos a játékokban (PS3) a pontencionális vevõkört szerintem nem nagyon érdekli. A fontos számukra, hogy mindezeket már tudja a kártya. Ha már méregdrága VGA-ba "fekteti" pénzét a halandó, akkor jobb esetben megnézi az aktuális teszteket, paramétereket, tudást. És a vásárlásnál itt jön a képbe, kizárólagosan csak az nVidia tudó PS 3.0, illetve a többi nV fricsõr, attól függetlenül, hogy jelenleg mely' játékok használják ezeket az extrákat, és melyek nem. Ami elbizonytalaníthatja a vevõkört az a jó idõzítés, hogy már mégsem PS3.0 az a Ps 3.0, meg WHQL teszten való elbukás, stb... Ami a whql-t illeti talán igaz is lehet. Egyébként a Whql-rõl valahol a paprika botrány jut eszembe. Igaz nem whql billag volt a paprikán, csak a „kiváló magyar termék” és a „hungaricum” névjegy...
Azért tegyük hozzá hogy pl emlékszeim szerint régebben elmondásod szeritn te is igencsak kedveleted és népszerû, populáris játéknak nevezted a Far Cray-t ami most elsõként megkapta azt a részleges SM 3.0 támogatást. (márha ez a szóbanforgó játék ; 2.0-t is csak részlegesen használ, azért van amire bõven elég az 1.1;1.3;1.4 is...)
Aha. Szerintem egy kicsit el vagy tévedve, ami a hírek értelmezését illeti. Valahol kiszivárognak tények, és azt lehozza X oldal logikus következtetésekkel, és kapcsolódó információkkal körítve. Ez a dolog nem a hírírók, és fõleg nem a hírFORDíTÓK költészetérõl szól. Mert ugye itthon javarészt csak utóbbi van. A hír-portálok sosem közölnek kacsákat, egyéni kitalációkat, csak és kizárólag arra építenek, ami információkat máshonnan össze lehet szedni.
Ez megintcsak oda üt vissza, hogy NEKED személy szerint van egy érzelmi beállítottságod, aminek a tükrében ez vagy az a tény másképp csapódik le. Ha éppen nVIDIA fényezés van benne, azt pozitiv szemmel olvasod, ha ATI fényezés azt negatívval. Ez a te egyéni véleményed, de a hírben sehol sincs pl olyan leírva, hogy az nVIDIA mekkora köcsög, mert ígymegúgy. Aki ért hozzá, az a tényekbõl le tud vonni logikus következtetéseket, amelyek korántsem légbõlkapottak, vagy szándékos terelések.
A hírhez kapcsolódóan - az OEM gyártóknak, rendszerépítõknek különösen fontos a WHQL minõsítés, mert a saját hírnevükkel játszanak. Õk komplett, mûködõ gépeket adnak el a usereknek, ahol nincs helye semmilyen szoftverproblémának sem. Szóval a PS3.0 WHQL teszten való elbukása igenis elegendõ ok ahhoz, hogy pölö a dell, vagy a hp ne szereljen csúcsgépeket ilyen kártyákkal - még ha csak átmenetileg is. A következõ logikus gondolat ezután persze az, amit te is felvetettél, hogy az egész elodázza a PS3.0 eltejedését addig, amig a konkurenciának is lesz erre képes hardvere. De ettõl még nem a következtetés okozza a tényeket. Nem a lekvár teszi el a nagymamát... Az elõbbi tény, az utóbbi csak logikus folytatás. Persze, mivel a PS 3.0 elterjedését úgysem saccolta senki 1 éven belülre, nem is értem valójában miféle "elterjedés" akadályozásáról van szó. 1, azaz 1 játék kapta meg eddig, a részleges támogatását.
Ja, és mivel jópár site csinálja, miközben az szóban forgó cég úgy igazán nem szolgált rá a dologra (egy hibára több jó dolog jut, tehát pozitív a mérleg), elgondolkodik ez ember, hogy mi lehet ennek hátterében.
Az egy dolog, ha a cégek próbálnak fogást keresni a másikon, de egy másik dolog, ha egyes site-ok próbálnak "terelni", ellenszenvet (már-már gyûlöletet) gerjeszteni az egyik cég ellen (és mindíg csak ellene).
"Viszont rokonszenvesebb lenne, ha a gyengébb háttérrel rendelkezõ gyártó a maga erejébõl erõsítené meg a piaci pozicióját (ami nem egyenlõ a pillanatnyi sikerekkel)."
Ez ugyan igaz az ATI-ra is, de sokkal inkább az nVIDIA-ra. Érdekes, amikor az nvidia féle dokumentumban állítottak hülyeségeket az ATI chipjeirõl, akkor nem voltál ennyire felháborodva, hogy miért próbálják ilyen módszerekkel elbizonytalanítani a népet. (holott ez itt fent csak tényközlés, ellentétben a múltkori "kiszivárgott dokumentumokkal", ugye.)
Ha abból indulunk ki, hogy valami értelmes célja van a dolognak, akkor az az, hogy segítsék a piaci egyensúly létrejöttét és fenntartását; mert ha az egyik gyártó kiesne a nyeregbõl, lelassulna a fejlõdés, és az árak is inkább csak felfelé mennének. Viszont rokonszenvesebb lenne, ha a gyengébb háttérrel rendelkezõ gyártó a maga erejébõl erõsítené meg a piaci pozicióját (ami nem egyenlõ a pillanatnyi sikerekkel).
Whql ide vagy oda, a lényeg, hogy a játékok mennek vele gond nélkül. Pl.a Far Cry v1.3, veryhigh-on, az összes szûrõ maxon, HDR, Ps/vs 3.0-t aktiválva, full 3d displacement mappinggal megspékelve, gyorsan, hibamentesen, tûéles, fantasztikus látványt nyújtva fut, az nVidia 6800-al.
Egyébként igazad lehet, savanyú a szõlõ, megy a vevõk elbizonytalanítása, gõzerõvel. Nem jött be a ráncfelvarrás. Persze közben kiderült az is, hogy pl. a sima nV6800 kevesebbet eszik mint a 9800Pro, illetve a hûtõik is csendesek, és majd mindegyik példánynál mûködik a 16 pixel futószalag, és 6 vertex egység, és igen gyorsak...)
ha jól emléxem a 61.77 sem whql ;) de jó kötözködni :))) 61.76 whql van, már régen ezt használom és szerintem egy nagyon jól sikerült driver, mondjuk nemtudom mit nyujt geforce 6-os kártyákon, de az fx-emen nagyon jól megy 61.77 meg néha fatális hibával összeomlott és bezáródott a program... valami olyasmi hibát adott, hogy (valami ilyesmi szövege volt) akarom e tájékoztatni róla a mikroszoftvért :)
És az nVidia új tömörítése miért van errefelé elfelejtve ami szintén bekerült a Far Cray 1.3-ba ha már a 3Dc-t emlegetjük amit még semmi nem használ? Azthiszem valami V8V3?
Mindez idáig nem derûlt ki?? Mennyi WHQL driver jött már ki geforce 6-hoz?? Merem remélni, hogy ez csak ennek a verziónak a hibája... újabb vagy régebbi WHQL driverrel nincsenek, illetve nem lesznek ilyen problémák. Mellesleg sztem ez egy felfújt dolog, max nem kapja meg a WHQL minõsítést és kész! Majd legközelebb megkapja.
Az meg vicc, hogy ez a WHQL dolog befolyásolná a SM3.0 elterjedését... A cikk célja nyilvánvalóan a vevõk elbizonytalanítása, és idõhúzás, amíg megjelenik az ATI saját SM3.0 támogatása. Csak tudnám, mire jó ez? Ez már nem lehet pusztán a szerzõ saját személyes ügye.
Csak érdekesség képpen, az utolsó mondatod eredetileg szerepelt ennek a hírnek a címében is.
"HDR és 3Dc technológiák támogatásához. Míg az elõbbi az Industrial Light & Magic fejlesztése és így az nVIDIA GeForce 6 hardver kizárólagos sajátja, az utóbbi technológia az ATI Technologies innovációja, és így érthetõen kizárólag az RADEON X700/X800 família támogatja."
Hmm, tudtommal a HDR-hez egy bizonyos HW feature hiányzik (volt HDR korábban is az ATI kártyákon, de valami miatt nem felelt meg) - ha az meglesz, ATI-n is lesz támogatva a dolog. Nem tudok nem-HW okról.
Viszont a 3Dc az ATI saját levédetett eljárása. (Mint ahogy levédette a "gamma-correction"-t, pontosabban gamma-adjustment-et is az antialiasing funkcióban.)
minden whql cikkhez odairom:
volt olyan whql meghajtoja egy gyártonak (nvidia :D ) ahol a telepitéshez szükséges .inf nem volt része a csomagnak :D
ennyit a tesztelésrõl. pénz beszél ...
"azonban logikus, hogy ez a minõsítési galiba nem éppen fog segíteni elterjedésében"
mi ez a faszság? miért az segíteni fog, ha nem mûködõ, hibás funkciókkal teli a driver? úgy hogyan fejlesszenek rá játékokat?????????
Logikusan semelyik 66.81 elõtti sem lehet WHQL, vagy max a fent taglalt megkötésekkel (disabled PS3.0).
Vagyis a 66.81 beta nem lett teljesen WHQL, nade a mostani 61.77-es az sem az? Mertha igen akkor ezért még csak nem süllyed el a hajó, hisz csak egy beta drivert sikerült elbaszni (amit ugye elevileg is csak tesztelésra/kipróbálásra szánnak), nem? És pl a 66.72 WHQL, az se teljesen WHQL, cskamert ezeknél nem ugrott fel az ablak telepítésnél...