Mert nem rendelnek ilyen kártyát a nagykerek, így csak az tud tesztelni akinek az nVidia biztosít. A GTX260 ára pedig vélhetõleg tovább csökken, mert a HD4870 gyorsabb nála.
Höhö, OWNED xD ezt elkúrta nvidia, nem kicsit nagyon ^^ enyhén szar a széria xD és ez a csúcskategória :D a középpel mi lesz? 50-60k lesz kb és HD4850 közelében lesz teljesítményben? szvsz alatta... Végre ATI elõnybe került x) most talán elkezd gondolkodni nVidia hogy "hmmm... hogyis volt? GDDR5? DX10.1? Kis magméret?" ...
(Ezt a szériát leszámítva nVidia párti vagyok. Mindigis GeForceom volt xD ill nem mert rémlik valami S3 vagy micsoda O.o az nemtom mi...)
A GeForce GTX 280 a tesztek túlnyomó többségében a 9800 GTX-nél 40–90%-kal volt gyorsabb, amirõl tudvalevõ, hogy gyenge memóriavezérlõs és raszterizálós része miatt a nagy felbontásokban lassabb a G80-ra épülõ GeForce 8800 GTX-nél. Márpedig az NVIDIA azt ígérte, hogy a G80-nál közel kétszer gyorsabb chipet készít, ez azonban még a szintetikus tesztekben sem ütközött ki egy-két kivételtõl eltekintve.
ezen lesz 3db 6pines meg 1 8pines csati? :D zoolee: ne magok szerint hanem ár szerint nézd :P 4850CF az 70k (jó, ha alaplap tbletet veszünk legyen 80k), míg a GTX280 meg 100k...
Remek, de ezt még a HD4850 is megveri:D GTX280 55nanoról annyi van eddig hogy õsszel. Attól még ezek a kártyák kurva drágák és kurva szarok. Mindenki ezt mondja csak te vagy ilyen noob nvidia fan:D
És a legenergiazabálóbb is, legdrágább is (aránytalanul) és technológiailag fejletlen. Csak te bedõlsz a marketingnek:) Én is tudom hogy a leggyorsabb 1 gpu-s kari csak ez nem érdekel:D
Felesleges azzal érvelni, "ez lesz, meg az lesz", fingunk sincs mi lesz akár 1 v 2 hónap múlva. Az AMD mindig is brilliáns architektúrájú dolgokat készített, az ATi-s korszakában sincs ez másként. De az Intel és az nVidia erõvel (órajellel) mindig le tudta verni. És ez meglátszik a piaci szereposztáson is. Hiába volt mindig is kedvezõbb áron ATi, a többség akkor is az nVidiát vette, mert gyorsabb volt (és valljuk meg a 8800GT/GTS árban is jobb, mint a csudaratyi 38xx széria). Év vége felé talán már kiderül egy két piaci jelentésbõl, hogy az AMD aggresszív árpolitikája képes-e kompnezálni a teljesítmény/driver problémákat. Én személy szerint egyik cég új gen kártyáiban sem látom a megváltást, ezért noha új PC-t akartam venni, inkább kivárok, és laptopot veszek, amivel persze nem fogok Crysis-ozni (de úszintén, azt egy csúcs PC-vel sem tudnék).
A mindiggel vitatkoznék. Az FX széria idejében bizony az ATi szétpicsázta az nvidiat, ugyanez vonatkozik az intelre a P4 korszak elején.
Nemrég lett licencelhetõ a frostbite engine, ez az elsõ full DX10-es motor. Nem hivatalos eredmények kiszivárgásával lehet azért látni, hogy nem is olyan ratyi az a HD3800 széria. Persze aki nem nézi át a neten terjengõ architektúra elemzéseket annak ez váratlan eredmény.
Erõsen hasonlít a dolog a HL2 féle FX eredmények szivárgásához.
test drive, igen de sajnos az elmúlt 6-7 év alatt ez a két momentum igen rövid fellángolás volt csak az AMD részérõl. De egyébként a korábbi hsz-em egyikében már írtam az FX kontra ATi 9800-széria viszonyáról, úgyhogy nem mondasz ellent bármennyire is szeretnél...:-D A jelen helyzetben sem az ATi sem az nVidia nem készít értékelhetõ videokártyát. Szerintem az AMD is sokat fogyaszt, nézzétek meg, idleban majd 40W-tal többet, mint a GTX280. És ez az igazán fontos, mert a nap leghosszabb szakaszát idle-ban tölti a gép, ha netezel, vagy ott hagyod letölteni. Illetve a mai napig ez meg lehetett csinálni, de ilyen fogyasztási értékek mellett jobb venni egy régebbi laptopot és azzal torrentezni (halk és nem fogyaszt)...:-)
abu, a dologgal csak az a baj, hogy lassan kiderül, minek a DX10, ha meg lehet oldani mindent DX9-cel is (lásd pl konzolok) és látványos különbség nincs is (ezidáig nem volt olyan játék, ami szebb vagy gyorsabb lett). Mire esetleg elterjed (fõként ha nem, hanem mondjuk jön a DX11), addigra a mostani kártyák is megfizethetõek, amik gyorsabbak, mint a 38xx...szóval igazán semmi sem szól a HD3800 mellett. :-D
"és valljuk meg a 8800GT/GTS árban is jobb, mint a csudaratyi 38xx széria"
De nincs is ATI kártyád akkor mit pofázol hülyeségeket? Nem rosszabb lényegesen a 3870 a 8800GT-nél. Fõleg 8.6-os driverrel sokat gyorsult minden.
Elég rossz dolog, hogy nem használjuk a DX10 és DX10.1-es eljárásokat. Alapvetõen Crysis-t ostromló gépigényekre lehet így számítani. Az a baj, hogy egy helyben toporgunk, és hasonló eljárásokat használunk most is, mint 2 éve. Ezen a jelenlegi G80 alapú és feltételezhetõen a G200 architektúra elve sem fog változtatni. Azért alakítják ki a DX10 és fõleg a DX10.1-ben az új eljárásokat, hogy alkalmazkodjanak a grafika fejlõdésének írányához. Ezt úgy kell értelmezni, hogy a háromdimenziós grafika fejlõdése meglehetõsen kötött. Alapvetõen ismertek azok a technikák amik a közeljövõben és a távolabbi jövõben használni fognak, de az alkalmazott eljárások addig megváltozhatnak, mert lehet, hogy valaki talált gyorsabb algoritmust ugyanarra a feladatra. Mondok egy példát, hátha úgy egyszerûbb megérteni. Manapság vagy a nagyon közeli jövõben elterjedt lesz a Parallax Occlusion Mapping (ilyen van a Crysis-ba, az új 3Dmark Vantage-ban) alapú technikák. Alapvetõen a technika leképzésére már a DX9 is kínált megoldást, de az akkori karik lassúak voltak hozzá. Ugyan még a mostani VGA-ak sem szerepelnek valami fényesen ennél az effektnél, de már érdemes erõltetni a POM leképzéséhez, így terjed a technika (SLI, CF tulajok örülnek). A csavar ott jön be, hogy a DX10.1 tálal a POM leképzésére egy, az eddigieknél, jóval gyorsabb megvalósítást a LOD utasítások segítségével. Ha az nV támogatná a DX10.1-et akkor a POM vélhetõleg mindenhol LOD utasításokkal lenne létrehozva a jövõben. Ezzel jól járnának a fejlesztõk, mert a LOD utasításokkal egyénileg definiált szûréseket lehet alkotni, így a POM nem akasztja majd össze a bajszát az AF szûrésekkel, jó lenne a felhasználóknak, mert a látvány gyakorlatilag ugyanaz, de a sebesség az ésszerû és átgondolt algoritmusnak hála gyorsabb. Hogy ne csak egy példa legyen ott van még a leképzési fázisok esete. Például a Quake 3-nél úgy volt a renderelés, hogy volt egy fényszámítási fázis, majd egy árnyaló és utána még egy fényszámítási. Nem meglepõ a dolog, hogy ez eléggé erõforráspazarló, hiszen kétszer végzünk minden modellen fényszámítást. Ez a példa a Quake 3 utáni években még bonyolultabb lett. Ám a Shader modell segítségével van megoldás a problémára: Deferred Rendering, ez is elterjedt lesz nagyon. A lényege egyszerû, üssük ki a felesleges munkavégzést. Le kell számolni a képet megvilágítás és árnyalás nélkül, majd a kimaradt munkát utólagosan feldolozni több Render Target-be. A Shader Modell elég komplex ahhoz, hogy jó eredményeket lehessen elérni. A probléma az AA-val és a Deferred Rendering fázisokkal van. Az AA már sokszor volt tárgyalva ez az MS sara bele kellett volna tenni a megoldást a DX10-be. A Deferred fázisoknál viszont továbbra is gáz, hogy a GPU nem dolgozhat rajtuk párhuzamosan. A DX10.1-ben ezt emgoldották, így a Deferred Rendering technika leképzéséhez redukálva lett a fázis igények száma, így nõtt a sebesség. Megint jó a fejlesztõnek és a felhasználónak a dolog, mert a programozónak egyszerûbb dolga lesz az optimalizálással és az AA gondok megoldásával, míg a felhasználó örülhet, hogy gyorsabba megkapja ugyanazt az eredményt. Persze az elméletet folytathatnánk tovább a Cube Map tömbökre is. Egész érdekes dolgokat lehet a technikával leképezni. Természetesen itt is elõnyt élvez a DX10.1-es megvalósítás, mert a DX10-ben minden Cube MAP tömböt külön fázisban keleltt számolni, mí a DX10.1-ben párhuzamosan is elvégezhetõ a feladat a GPU erõforrás kapacítására optimalizálva. Az eredmény ugye megint jó a fejlesztõnek és a felhasználónak, az okok hasonlóak a fentiekhez. Az, hogy az nV nem támogatja a DX10.1-et és akadályozza az új algoritmusok terjedését csak rossz a fejlesztõknek és a felhasználóknak is. A fejlesztõ továbbra is eszeveszetten fog optimalizálni... De minek ugye? Ki jön a program (Crysis) és mindenki leszarozza, hogy egy optimalizálatlan szutyok, a kor szégyene. Pedig jól van optimalizálva, mert amit ki lehetet, kihozták belõle. A felhasználó extra rosszul jár, mert minden évben VGA-t kell vennie. Egy valaki jár jól, az nV. El tudja adni az új cuccait, az egyre gyengébb PC-s játékipart látva is.
A DX10.1 támogatásra az nv-tõl nem számíthatunk soha. Egy korszerû DX10.1-es megvalósítás gyökeresen más elvû architektúrát igényelne (kb. olyat, mint az R600-ra építkezõ rendszerek). Persze nem korszerûen is meg lehet oldani, ezesetben az nV TPC féle felépítése is jó. Alapvetõen szükség lenne a Gather 4 támogatásra, ehhez a chipben elõforduló mintavételezõk számát meg kellene négyszerezni (ez elég sok plusz tranyó). Kisebb változások kellenének a ROP blokk-ok terén, a Blending hatékonyabb hassználatához. Plusz a Multisample Buffer használata mellett nem árt egy optimalizált vezérlés a hatékony AA-hoz. A G200 igazából egyetlen dolgot épít be, a GPGPU-nál hasznos double-precision-t amit a G200 elméletben 1/8-ad sebességgel végez. Ez tulajdonképpen elég lassú, mert az RV670 1/2-ed sebeséggel csinálja ami jóval hatékonyabb. Itt jön ki az a tervezési irány ami az RV670 alapú chipeket nagyon magas precizítású számításnál iszonyat hatékonnyá teszi.
Üzletileg sem érné meg a DX10.1 támogatás az nV-nek. Egyrészt nem egy esetben olyan face-to-face összehasonlítást eredményezne az új API támogatása a HD Radeonokkal ami kihozná a GF architektúrák gyengeségeit. Nagy adatmennyiséggel dolgozó GS feladatok esetén még az HD3650 is szépen elpicsázzná a régi G80/G92-re épülõ chipeket. Másrészt a DX10.1 számtalan helyen egyszerûbb és gyorsabb algoritmusokra ad lehetõséget a fejlesztõknek. Nyilván ezzel a módszerrel csökkenne a játékok gépigénye és az nem tesz jót a jelenleg jól tejelõ üzletnek.
Azt már régebben megmondtam, hogy a GF architektúrája nem tudja hosszú távon tartani a lépést a HD Radeonnal. Most jönnek azok a programok ahol magasabb ALU:Tex arányt használnak a fejlesztõk, mert a memóriasávszélesség nem elég a Fill-Rate értékek kielégítésére, így elmennek az ALU teljesítmény használata felé. Ezek után lesznek használva masszívan a PipeGS eljárások ahol az nV technikája le van maradva. Bár a G200 ezen sokat javult, nyilván látta az nV is, hogy pár fejlesztõt nem hat meg a G80/G92 képessége, így meg kellett növelni a teljesítményt, még akkor is ha az eléggé pazarló a chip tranzisztorszámára nézve. Jelenleg Emil Persson GI demójában alig teljesít 5 FPS-t a teljes GF8-9 paletta, míg a HD Radeonokból még a 2600 széria is hozza a 20-25FPS-t. Látható, hogy a Frostbite engine-ben is mérföldekkel van lemaradva a 8800GT és a 9600GT a HD3870 mögött a PipeGS teljesítményben. A G200 ezen a területen nagyon sokat javult, a GI demóban 35-40FPS-re képes, ami már R600 szint.
Nem tudja valaki, hogy idén vagy a közeljövõben tervez az nvidia még egy csúcskártyát kiadni? Nem merem még megvenni a gtx280at mert lehet hogy pár hónap múlva kiad annál sokkalta jobbat, erre példa a karácsonykor megjelent 8800gt
Az ID Tech 4 nagyon messze van a mostani motoroktól... Hiába Carmack zsenialítása a Doom 3 alapja elég nehezen kezelhetõ motor, nem is nagy utána az érdeklõdés. A Frostbite-ot sokan figyelik, mert ez az elsõ csak DX10-re készített motor. Ráadásul iszonyat komoly újításokat vezet be. Az xBox360-as Battlifield: Bad Companyt már ez mûködteti.
"De nincs is ATI kártyád akkor mit pofázol hülyeségeket?" Korábban írtam, hogy 3 PC van a családban, és az egyikben ATi kártya. Sõt korábban is volt ATi-m.
"Ne égesd már magad tovább. 4850 meg a 4870 az mi? Hulladék?" Szerintem te égeted magad ezzel a stílussal. Az ATi is kb ugyan azt a teljesítményt tudja, mint az nVidia, és azonos fogyasztás mellett (és a Crysis mindkettõvel játszhatalan full HD-ban, ha minden sehr hoch). Sok teszt van, én most mondjuk az Anadtechbõl indulok ki. Idleban sokkal rosszabb a 4870, mint a GTX280. És akkor még nem beszéltünk az X2-es verzióról. Szóval nekem ez semmi pénzt nem ér meg, legyen ATi 60-ért vagy nVidia 100-ért (mondjuk én eddig szinte mindent az usa-ból rendeltem, ahol azért jóval olcsóbb, de még így sem gondolok most PC vásárlásra). Ha lesz olyan ATi,.ami egyértelmû gyõztesnek minõsíthetõ, én nem fogok habozni, azt veszem meg az új PC-be, de ez egyelõre nem pálya (inkább egy SLi-s laptop). Amúgy ha ezeket a komolyabb grafikájú játékokat akarja az ember nagyon nagy felbontásban élvezni, akkor sajnos egyelõre a konzol a megfelelõ választás (ízlés szerint PS3 vagy X360). A PC-s fejlesztések amúgy is háttérbe szorulnak lassan, mert a többség utál a winfos miatt szívni, meg gondolkodni, csak beteszi a lemezt és már nyomná is...Mi meg a PC-n kapjuk a sok portolt szart, vagy a játszhatalanul magas hardverigényû darabokat (DX9-ben leprogramozva a DX10-es tartalmat, csak kár, hogy ehhez a konzolokban van hardver is, a PC-ken még évekig nem lesz).
Sajnos fogalmad sincs az architektúrák mûködésérõl, így nagyon rosszul látod a dolgokat... Ha érdekel ez a vonal akkor olvass sokat ebben a témakörben és idõvel megérted, miért mondta ezt.
"Sajnos fogalmad sincs az architektúrák mûködésérõl, így nagyon rosszul látod a dolgokat..." Valamennyi fogalmam van, de nem ragad el az AMDs ömlengési hév, mert az elmúlt 10 év bõségesen bebizonyította, hogy a maradi technológia sokkal sikeresebb és eladhatóbb, mert egyszerûen a forradalom nem jut el a megfelelõ helyre, a programozói környeztbe (minimális támogatás, driverek rosszul optimalizálva).
"Ha érdekel ez a vonal akkor olvass sokat ebben a témakörben és idõvel megérted, miért mondta ezt." Én érdeklõdve olvastam azt is, amit te írtál, nem is akarok vitatkozni. De felesleges egy olyan jövõképre alapozni az AMD sikerességének a megjóslását, ami nem is biztos, hogy bekövetkezik (ráadásul azok puffognak nekem elég alpári stílusban, akik végtelenül elfogultak, tehát az objektivitásuk az AMD legendás Thunderbirdjeinek olvadáspontja alatt van mélyen). Sok olyan grafikai motor volt már, ami nagyon jó, még sem licenszelte senki, mert az nvidia lobbi más irányba terelte a technikát. Ha szigorúan a játékokat nézzük, akkor a PC-k úgy ahogy vannak vesztésre állnak, mert szánalmas teljesítményt nyújtanak, és jóval többe kerülnek, mint egy konzol (és ebbõl kiderül az is, hogy tök fölösleges a grafikus gyorsítók architektúráján pörögni, mikor a siker kulcsa - csak - nem abban van). Egyelõre. Más. Hivatalos, hogy az nVidia is csökkenteni fogja a GTX2xx árakat, és ezzel megint veszít az AMD a feltételezett potenciáljából...
Oregem te remenytelen vagy. Miert kell alandoan ez a konzol dolgot meglovagolni ??? Minden konzolos kiadasban ugyan ott van mit az aki PC-t hasznal. Mar csak azert is mert minden haztartasban ott figyel egy PC , laptop etc. vagy egy camcorder , fenykepezogep had ne soroljam . Mit csinal a konzoljaval amikor egy DV TYPE-rol le kell szedni a cuccot ... nyalogatja ???? Hadjuk mar ezt az informatikus melle szovegelest es olyan szavak hasznalatat amt 1000 emberbol 5 ert. Beszeljunk a tenyekrol ... a PC multifunkcionalis , mig a konzol csak jatszani valo es kesz.
Árban az nvidia nem fog tudni lejjebb menni, ugyanis így is nagy veszteséggel tudja gyártatni a TSMC-vel ezt az õskövület, bazinagy GPU-t:
Max. kiszórja a maradék G92 készleteit haszon nélkül, de a 4k Ati széria fényében épeszû ember nem veszi meg õket, talán csak a hozzád hasonló nvidia-csõlátásúak.
ÚÚÚÚÚÚ ember te nagyon el vagy tévedve:) 1. ha nemérdemas a PC-ket játékokhoz igazítani akkor megmondanád ki fogja a Drága konzolotkba kitalálni az ujjab és ujjab trchnológiát stb ha ne lenne PC-s játékk nem lennének ekkora teljesítményû gépek nem lenének ijen VGA-k és akkor ki fejleszt?? ja hohy a sony?? na az meg fejleszt ha el is kezdenek fejleszteni a a konzolgyártók akkkor vehetsz havonta uj konzolt mert nem oylan jók benne hogy rögtön menyen nekik ezért szedik a PC-iparból a cucoat most is. Sóvalvehesz havonta konzolt de õk nem aarják hogy havonta vagyél mert nem vennél és ezért ugy csinálják hogy bõvíthetõ legyen aztán egyre jobban bõvítheõ és viszaérünk a PC-hez:):)
Valoszinu ... azert gyart monsterseket. Miert van akkor a 200-as szeria ??? Biztos elterelo hadmuvelet .... Viccet felre teve valamit nagyon elneztek szerintem nVidia-ek ...........
Az 55nm-es G200 Novemberre reálisan kihozható. Az a fõ probléma, hogy egy RV770 is megvalósítható az év végére 40nm-en. Elvileg az RV730 is jönni fog amivel az alsó kategória is le lesz rendezve az AMD-nek. Ezzel a chippel viszont semmi esélye az nV-nek, mert az 55nm-es G92 csak átmenetileg jó, hiszen év végére, már komolyabb DX10-es programokat ígérnek amik már jobban futnak egy HD3850-en is, mint bármelyik GF8-9-en.
Annyi a parti, hogy jövõ ilyenkorra ki kell hozni egy új architektúrát, mert a G80 alapjai nagyon tranzisztor pazarlóak lettek.
A Beyond3D-n írta az egyik srác, hogy az G200-ban 300millió tranyóba került a Geometry Shader sebességének a megtöbbszörözése. Az nV már vélhetõleg tudja, hogy év végére szükség lesz erre a teljesítményre, különben nem pazarolt volne annyi tranyót egy olyan eljárásra ami nem lesz kihasználva.
Nem kell Full DX10-nek lenni, attól, hogy valami használ Geometry Shadert lehet még DX9-es render path-ja is. A DX10.1-et ebben az évben még csak az AA támogatására használják majd.