Pfff.... LOL! :))))))))))))))))) Ennyit a 6800U-ról :)
De még mindig azt mondom, hogy a túl sok csillogás miatt nem realisztikus, inkább egy porcelánbolthoz hasonlít a game. Szerintem ha FarCry, akkor csakis COLD RENDER MODE...
Ha gyorsabb és nem gyengébb, akkor miért van implementálva a lassabb megoldás is ugyanazokban a termékekben? Nem logikus. Algoritmust nem lehet levédeni, ahogy tudom.
És akkor az nVidia AA-jának az a baja, hogy speckó? :)
Valószínûleg nem véletlenül van egy gyengébb és egy jobb algoritmus. Ha nem járna minõségromlással a gyengébb alkalmazása, akkor minden gyártó azt alkalmazná.
Nem unjátok még? Lassan bezárom az egész hülye topicot...
Ez mindig is így volt: ha a 3D Mark-ban az ATi jobb volt, akkor az nVIDIások azt mondták: a tesztek semmit sem érnek. Amikor az nVIDIA lett jobb, mert csalt, akkor sorban kirõhõgték az ATi-t, hogy: 3D Mark-ban is gyorsabb az nV. Amikor kiderült, hogy csalt az nV, akkor persze nagy kuss volt, de azért halkan megjegyezték, hogy: a tesztek semmit sem érnek...
Pff.. Neked sok sikert a GeForce 6800-hoz DirectX9 a-val... És itt kb. be is fejeztem...
Még csak annyit, hogy aki nagyon kételkedik az nVidia optimalizációjában, az nézze meg EZT A FÓRUMOT!
Jó olvasgatást!
Na látod ez pontosan így van, ahogy leírtad, nem tudom, hogy akkor min is vitatkozunk. TUDOM, hogy ha SM3.0-t használ majd egy játék, akkor 6800-ason bõven gyorsabb lehet, mint X800-ason.
Csakhogy és de:
Gondoljunk csak vissza az elsõ GeForce kártyákra és a T&L esetére... Mikorra kijöttek a játékok, amik ki is használták, már másfél generációval frissebb videokártyákat lehetett kapni.
Tehát én csak annyit mondok, hogy szerintem nem lesz SOK játék, amiben az elkövetkezõ fél évben lesz sm3.0 támogatás (mondjuk a FarCry-ban pont lesz :). Utána meg úgyis jön újabb generáció mind2 cégtõl, akkor meg már tökmindegy.
Ráadásul az sm2.0 és sm3.0 jóformán csak SEBESSÉGBEN tér el. Tehát látványban nincs olyan, amit a 3-assal meg lehet valósítani, a 2-essel meg nem. Csupán a 3-as gyorsabban teszi majd.
De mondom: ahol lesz 3.0 támogatás, ott a 6800 valószínû, hogy elhúz majd az atitól.
És asszem legyen ez a végszó, nem akarok vitatkozni hülyeségeken, az idõ majd mindenre választ ad.
PEACE! :)
De annyival, nézd meg a képeket, vagy ha ezen nem látszik, akkor keress rá. Sok 6800-as "hátán" eleve dupla fémlemez van (2 slot-nyi).
LOL, te mekkora láma vagy kisfiam. Én DX9 verzókról beszéltem barátom, nem a shader modellekrõl, olvasd el még egyszer, hátha leesik...
A másik meg: FX-ek meg a DX9 támogatás? Hát ez kurvára jó, hogy flehoztad! Eddig az FX kártyák DX9 alatt olyan szinten fostalicskák voltak, hogy azt elmondani nem lehet, ez TÉNY ba*meg, mindenki tudja. El lehet olvasni mondjuk a FarCry fórumokat, az ÖSSZESBEN csak a sok nVidiás lúzer nyafogásait lehet hallani, hogy miért ocsmány a játék, meg miért lassú. Na kb. ennyit az FX-rõl, meg a DX9-rõl. ESETLEG a 6800-as majd változtat ezen, AMENNYIBEN ki lesz használva a shader model 3.0 ...
"Ha nem tudnád a hûtõ a kártya szerves része, semmi értelme arról beszélni, hogy mi lenne ha levenném és egy másikat raknék rá vagy ilyesmi."
Ez eddig a legnagyobb baromság. Fõleg a kioktató "Ha nem tudnád..." szavak.
Nekem pl. IGENIS számít, hogy elfolgal-e a hûtõ még egy slotot. Ha viszont elfoglal, akkor maximum ZALMAN hûtõ lehet. Ami passzívan képes hûteni egy 9800XT-t is, tehát egy X800PRO-val simán, de szerintem még egy X800XT-vel is képes majd megbírkózni. VENTI nélkül, 0db zajjal! Szerintem EZ pl. fontos! Ezért CSERÉLTEM LE pl. a 9800PRO-m eredeti hûtését egy ZALMAN bordára.
Igen tom mikor bejott az FX a kutya se akart olyat, mert szar volt. Melegedett, hangos volt, 2slotot fogalat el, lassu is volt viszonylat stb. Azota kicsit mar alakitottak rajta az nvidiasok.
Ez így ok is lenne, de ez szvsz egyáltalán nem olyan biztos...
Mert ha a patch miatt rondább (tehát amiatt kell kevesebbet számolnia a GPU-nak megjelenítéskor), akkor ez azt fogja jelenteni, hogy a következõ patch kiadásakor - amivel már normális esz a képminõség - megint igencsak vissza fognak esni a 6800-asok a FarCry alatti sebességtesztkben...
Hacsak nem nyomják bele az SM 3.0 támogatást, mert úgy el is húzhatnak az ATi-tól. Majd meglátjuk... :)
"Ez mar nem fejlodes amit csinalnak. (Kulon tapellatas a kartyesznak, mer az AGP mar nembirja, 2kilos hutes, satobbi.)"
Namost ez PONTOSAN az FX-ekre igaz.
Basszus: a radeonok elmennek PASSZÍV hûtéssel... Ok, külön táp annak is kell, de NEM 2 CSATLAKOZÓ! (Mellesleg külön táp már elég régóta kell az izmosabb kártyáknak, ami várható is volt...)
Bocs, de tartok tõle, hogy 6800-ast NEM láttál, sem pedig X800-ast. Ha neked a képrõl nem süt le, hogy az nVIDIA kártyáján a borda kb. tripla olyan magas (így a ventillátor is, ugye) és a felülete is legalább 2,5-szer nagyobb, mint az ATi kártyáján lévõ bordának, akkor talán keress fel egy szemorvost, csak ne írj baromságokat.
Ember figyussz, en nem vagyok nVidia párti, ugyanugy ahogy Ati párti sem vagyok.( Az Ati Rage kartyit imadtam Anno, ugyanugy ahogy a nVidianak riva128at.) En csak azt mondom amit tapassztaltam. Lattam fx-et meg uj atit is mukodes kozbe. A lenyeg: mind a 2 tipus szar! Mind a Radeonok, mind az Fxek. Ez mar nem fejlodes amit csinalnak. (Kulon tapellatas a kartyesznak, mer az AGP mar nembirja, 2kilos hutes, satobbi.) A keprol: hat nemtom te hogy tod megallapitani a zajszintet keprol. :P En ugylatom a Radeon ventie a nagyobb. :P
Öregem, te tényleg ekkora seggfej vagy, vagy csak most nem tudsz mit mondani és tetteted magad?? Miért égeted magadat le még ennél is jobban?
Kb. 10x akkora borda van a magon ba*meg!!!!!!!!! Nincs szemed??? Meg a ventillátor is dupla olyan magas. Szerinted akkor nem egyértelmû, hogy a BORDA hûvösebb? De ettõl még a graf. chip sokkal jobban melegszik - pontosan emiatt van szükség ilyen hûtésre...
Komolyan, nem tudom miért vitatkozom ilyen nagyon okos, hozzáértõ gyerekekkel...
Nem mondom hogy ez számít egy kártyánál, de tárgyilagosan nézve is SZEBB az alsó, pedig még nincs is rajta semmi díszfestés vagy nyomtatott fólia. (a legtöbb gyártó csak kifényezi majd a nevével meg a logójával)
Én meg valami olyasmit hogy egy 6800Ultrát egy 200W-os mercuri táppal nyomattak.
Egymás mellett a 2 kártya a 2 hûtõvel:
MUHHAHHHAHHHAAA! :)))))))))))))))))))))))) nVidia megint rakéta-hajtómûvet épített (kb. a fogyasztása is annyi) :))
Mellesleg az X800 XT-t az ATi egy 300W táppal ellátott gépben mutatta be (pedig volt még pakolva bele proci, meg ram is bõven...), az nVidia meg 450W-osat ajánl minimum a kártyához - LOL! :))))))))))))))))
Ja, igen: még az elsõ linkhez...
Ügyesen lettek fotózva a kártyák, mert nem látszik a hûtés közti különbség, de ha ugyanezeket a referenciakártyákat megnézzük másik szemszögbõl...
ATi X800
nVidia GeForce 6800
Kb. akkor itt be is fejezhetjük a vitát a melegedésrõl, meg a hûtésrõl (meg a lámáskodásról)...
Na akkor lássuk:
(Bejött a link (mind2), csak az elsõ chello-val nem akart, nemtom miért, mindegy...)
Az elsõ linkhez és a hõmérsékletekhez:
GRATULÁLOK!!! NÉZD MÁR MEG, HOGY HOL MÉRTÉK A HÕMÉRSÉKLETEKET... Megmérték KÖRBEN A KÁRTYÁN A NYÁK, ELLENÁLLÁSOK és MEMÓRIÁK hõmérsékletét... Gyáááá! De a grafikus chiprõl volt szó, nem a nyákról meg a memóriákról. A memória chipek hûtés nélkül még jó, hogy melegebbek az ATi-n...
De ha pontosan ugyanolyan (mondjuk ZALMAN) hûtõt teszel a 2 kártyára, és a GPU/VPU-nak a hõmérsékletét nézed, akkor az nvidia SOKKAL forróbb, mint az ATi. Nézd már meg az idle fogyasztási adatokat a 2. táblázatban: 6800-as ultra-extreme annyit fogyaszt IDLE állapotban, mint az X800PRO kb. 60%-os terheléssel... Akkor meg mirõl beszélünk? Ne mondd már, hogy nem melegszik jobban!!
Ebbõl kifolyólag jobban is kell hûteni, ami a dolgok ismerete alapján több zajjal jár (jó, persze, van vízhûtés...)
A másik dolgoban igazad volt: valóban nem az X800 XT, hanem az X800 PRO van a 9800XT alatt fogyasztásban (én tévesztettem el), de szerintem ha az X800 XT-t nézed, az a 6W full terhelésnél nem túl sok, pedig a kártya egyes tesztekben enyhén szólva állva hagyja a 9800XT-t...
De ha már itt tartunk: nézd már meg a 2 chip specifikációit, hogy melyiknek mennyi a hõtermelése / fogyasztása. Attól még, hogy ráraksz egy kurva nagy hûtõszekrényt, a kártya melegszik.
Az X800 XT-rõl pedig annyit, hogy kisebb a fogyasztása és ezáltal a hõtermelése, mint a 9800XT-nek.
Na igen, én is valami ilyesmire gondoltam, mert én az égvilágon semmit nem vettem észre. Ha ez optimalizáció akkor nagyon is jó, mivel különbség nincs csak gyorsabb fps! :D
Najó, mégis megteszem és elmagyarázom neked, bár szerintem feleslegesen koptatom a pofám...
Az ATi-k DX9-esek, egészen pontosan DX9 "b" verziót tudnak (de ezt tudja már egy sima 9600-as kártya is...)
Az nVidia 6800-as kártyája szintén DX9-es (végre...), csak õ már a "c" változattal is elboldogul, ami tartalmazza a shader model 3.0-t. Ami gyakorlatilag nagyon jó, de EFFEKTEKBEN SZINTE SEMMI ÚJAT NEM HOZ, inkább csak sebességben, meglátjuk, hogy hány olyan alkalmazás van, ami sm 3.0-t használ majd az elkövetkezõ 6-7 hónapban (utána úgyis jön az új ATi is...) meg, hogy a 6800-as ezekkel hogy boldogul :)))
Ha Photoshop-pal ügyeskedsz, akkor valóban vannak olyan pixelek, amik más színûek. De mondjuk a GF FX-ekhez képest (ahol szabad szemmel okádék volt a cheatelt driverrel készített kép) hát ez nem valami nagy különbség :)
Pyrex: Te nagyon gyoker vagy ember. Egy vmit ne felejts el, az fxek dx9esek, az atik meg csak dx8.1esek. A fx eleve tobb effektet tesz a game amvel szebb lesz es lassabb is. Megvalami: Haggyad amr azokata kurva teszteket! Semmi ertelme. Vegyel ket kartyat es TE MAGAD teszteld le, mibol gondolod h nem csalnak a teszteknel ??
Alap órajelen nem pár FPS-sel, hanem akár 5-10%-kal is rosszabbul teljesít, ha AA+AF be van kapcsolva... A cikkedet nem látom sehol, valami nem stimmel a linkkel, nekem a fõoldal jön be.
OK, de most nem is ez a lényeg, hanem az, hogy elõbb-utóbb minden játék DX9-es lesz. És a FarCry sebességtesztjei mutatják, hogy - egyelõre - az nvidia kártyája még mindig nem igazán jeleskedik DX9 alatt...
Az ATi tudtommal EGYSZER csinált HASONLÓ optimalizációt, mint az nvidia. Ez pedig a 3D MARK 2003 volt: a drivert õk is optimalizálták, de ez NEM MENT A KÉPMINÕSÉG ROVÁSÁRA és mindösszesen 3%-ot gyorsított a teszten (ez valóban csak optimalizáció volt) és a legújabb 3D MARK verzióval már természetesen nem müsik.
A Te logikádat követve viszont akkor ennek egyenes következménye, hogy elõbb-utóbb (amikor már jó sokat eladtak belõle) azzal fognak játszani. (Mellesleg én szoktam multizni és hát van jópár szerver a világon, szóval szerintem nincs igazad. Ráadásul rengetegen még csak a single-t nyomják...)
Ja igen. Ez valószínû: ha az nvidia drivereirõl van szó, akkor persze "új architektúra, stb." Ellenben az ATi driverei... Jajj ne máár... Azután is ezzel jöttök, hogy anno az utragagyi GeForce FX elsõ szériájánál is PONTOSAN EZT MONDTÁK AZ NVIDIA FANATIKUSOK.... Aztán kiderült, hogy a sebességnövekedést csak a képminõség lebutításával érhették el, de még azzal sem érték el az ATirivális kártyáinak a sebességét. Azóta volt már 3D MARK csalás, meg kisebb-nagyobb driver manipulálások, stb... Kezd ez rohadt unalmas lenni...
Nem linkeli be a képet - mindegy. Érdemes megnézni azt az oldalt, mert szvsz pont az alapórajelen járatott ATi alázza szinte mindenhol még a húzott nVidiát is :))))))))
Mellesleg igencsak furcsa, hogy egy drivertõl 50-80%-ot gyorsul egy game... Ez megint nagyon "optimalizáció-szagú" :) Kíváncsian várom a 61.11-es driverrel készített képminõségteszteket :) LOL :))))
A 6800, ami kurvára melegszik, drágább, nagyobb táp kell neki, hangosabb 1600x1200-ban egy DX9-es játék alatt HÚZVA 1 FPS-t rá tudott verni az alapórajelen mûködõ csendes, hûvösebb, olcsóbb, ATi-ra :) LOL :))))))))))))))))))))
Vajon mi történne, ha kuijönne az ATi-nak is rendes drivere az X800-hoz, meg húznánk azt is? :))
Azért a FarCry-t mutattam, mert SZVSZ ez az a game, amelyik per pillanat a legjobban megizzasztja a kártyákat meg ugye DX9, stb...
Elég sokat kísérletezgettem a beállításokkal és a TextQuality az egyetlen ami LÁTÁNYOS különbséget jelent... és sebességben meg alig érezhetõ:-))
Én ha szép grafikát akarok akkor vagy elõre renderelt grafikájú játékkal játszok (Syberia) vagy Kézzel rajzolt-al (Runaway):-))) Na ezek tényleg szépek:-))
Ha tudni akarod 1024x768-as felbontásban szoktam játszani... 85Hz... és a Textóra részletessék: MAX!!! Objektum Részletesség: Medium, a többi szarság min... azért egy UT2K3-ban baromira nem érdekelnek a szuper árnyékok, meg az AF, AA... az már rég rossz ha játék közben valaki arra figyel:-PPP És valóban nem kell az AF és AA.. mert nekem olyan sz@r a szemem, hogy nem veszek észre különbséget, miközben az ellenfeleket bámulom:-PPP Meg biztos az is a bajom, hogy én anno C64-en edzõdtem és nekem valamiért nem a grafika az elsõdleges hanem maga a játék:-PPP Szal mint mondtam biztos én vagyok ilyen igénytelen... de az is lehet, hogy én jót akarok játszani és nem a grafikában gyönyörködni:-PPP
Bocsika de hamar ittvagyok mekkerdem. (aztan lehet anyazni) :D A Thief 3 nak eleg fx5200as ? Mer gef2gts-t most nyugdijaznam mer Thief3 nemmegy csak pixel shaderes kartyesszal. :(
LOLLER Mi a fasznak a felbontast 800 fole vinni ? FSAA meg ilyen hulyeseg. Ha jatszok akko ne a grafika erdekeljen mar hanem maga a jatek. Ezert szarok a mostani jatekra, mer mar a fejlesztok csak a grafikara teszik a hangsujt mer igy konnyen eladhato.
Igazából engem se foglalkoztat, hogy milyen eredményeket mutatnak a tesztek... két dolog alapján választok kártyát: (1) Ár (ez a legfontosabb tényezõ) (2) Haveri kör tapasztalatai Én leginkább azt hiszem el amit látok... tehát ha az egyik havernál azt látom, hogy a kártya jó, akkor nekem megfelel:-)))
Valamint a legtöbb ember csak annyit mond, hogy 'neked 7500-as Radeon-od van? Mit akarsz te azzal a régi vacakkal?'... mire én: Végülis semmit... csak játszok Painkiller-el, UT2K3-al, UT2K4-el, Sacred, BeyondGoodAndEvil-el... szal tényleg semmire se elég:-PPP
Valamit elfelejtettem: Ezeknek a sux teszteknek sosem hiszek. En ha veszek egy uj boardot, mindig letesztelem, es (még szuz windows alatt is) sokkal szarabb eredmenyeket produkal a kartya mint a teszetkben.
Uu vazze, sose ertettem mire ez a versenges. Ki a francot erdekel 5-6fps eltetes?! Egy arkategoriaba tartozo kartyaknak kozel azonos a teljesitmenyuk. A High-End kartyakat meg magasrol ejtem le, ugyse fogok olyat venni soha! Asszem sokan vagyunk aki olcsobb-kozepkategorias kartyak kozott valogatnak, mert erre tellik. Mindenki vegyen azt ami jobban teccik neki azt kesz, nem kell itt fikazni a masik kartyat. Bocs ez csak egy velemenyvolt.
Játékeladási lista, Május 25: 1 City Of Heroes - NCsoft $46 2 Far Cry - Ubisoft $39 3 Rise Of Nations: Thrones & Patriots Expansion Pack - Microsoft $28 4 Battlefield Vietnam - Electronic Arts $39 5 Unreal Tournament 2004 - Atari $38 6 Rise Of Nations - Microsoft $34 7 MS Age Of Mythology - Microsoft $33 8 Counter Strike: Condition Zero - Vivendi Universal Publishing $34 9 The Sims Deluxe - Electronic Arts $26 10 Drop JC - eGames $10
És az FarCry esetén megkérdõjlezhetetlen az ATI elõnye sebesség és képminõség terén is. Annak ellenére érdekes, hogy a program nvidia techdemonak indult anno ...
Tisztára 2002es választási hangulat megy itt...
Nem értem mi a gondod. Ha az ATI kijelenti egy reklámszövegében amit tud a kártyája, az negatív kampány? Picit el vagy te tévedve... Nem kell mindenáron versenyt csinálni ám a pampogásból itt. Nem kell bizonyítani senkinek semmit.
Azért sztem az nem idézet volt, hogy az ATI KÉPTELEN implementálni az SM3-at... és azért sztem badarség lenne feltételezni, hogy valóban az az oka az SM3 hiányának, hogy nem tudták implementálni:-PP
Az nVidia ezt is megmeri tenni. Ez nem kis dolog. (igen, tudom hogy hülye vagyok, ezt élvezem!) És látjátok milyen jó hogy megtette, megvan 2 hétre a kifogyhatatlan téma, a marakodás, veszekedés, lehet pattogatni a kukoricát aztán olvasni és röhögni (kinek mi tetszik innen), vagy ha elég bátrak vagyunk megragadni a billentyûzetet és írni pár kedves szót a többiekhez, leírni véleményünket, gyûlik az SG statistikában a beérkezett hozzászólások száma. Nem unatkozunk. Ja és az elvakult versenypolitikaajnározóknak meg fõleg jó, hisz ezzel még tovább nõ a versengés a két gyártó közt: Ki tud több indulatot szítani. Lehet hogy hülye vagyok de nekem tetszik ez a veszekedés, és tetszik hogy ilyet ír az nVidid, a háttérben õk is röhögnek ám rajta, és büszkék hogy milyen kemények hogy megtetteék, pedig nem is, de hát ez van. (Na mára ennyi elég is ha nem törlik ki)
Csatlakozok hozzád... még nem döntöttem el, hogy Bozar-t vagy Turbo_Plasma_Rifle-t viszek-e magammal... de lehet, hogy mindkettõt:-))
Attól függetlenül, hogy ki is csinálja (Ati/NVidia) én teljes mértékben elítélem az efajta stratégiát.. miért nem képes a saját termékét isteníteni az egekik, ahelyett hogy a másikat ocsmárolná?? Ebbõl leginkább csak arra tudok következtetni, hogy valóban úgy érzi az NVidia, hogy most vége, mert leginkább a sarokba szorított vad az aki így viselkedik:-PPP
Mindenki dobálózik itt 5900-asokkal meg X800-asokkal... én hoznéák egy egyszerûbb példát... nekem 7500-as Radeonom van, a szobatársamnak meg GeForce 4200-asa... és hát a tapasztalat fura dolgokat mutat... én vígan játszok akár az UT2K3-al és medium beállításokkal... ami szerintem szép teljesítmény... és ha akad is egy picit az érezhetõ, hogy a Processzor miatt van (850Duron) és nem pedig a kártya miatt:-(( Még az UT2K4 is ragyogóan fut (kivéve az extranagy pályák) ami megintcsak meglepett:-)) Aztán érnek a meglepetések... a szobatársam GeForce-a elég fura teljesítményt mutat... volt már jópár olyan játék aminek az elejénn ott volt az a 'ragyogó' NVidia logo és hát a játék elég csúnyán szaggatott... (nálam meg 'tûrhetõen' futott).. (neki 2100+-os procija van szal nem hinném, hogy az a gond):-PPP A másik ilyen dolog a Painkiller... nálam szépen futott (helyenként azért beszaggatott) míg nála ugyanazon beállítások mellett szintén nem egyszer megakadt:-???? Persze lehet, hogy csak õ fogott ki valami félresikerült kártyát, de igencsak kezdi megbánni, hogy ezt vette:-((( Amúgy a kártyámat vagy 1,5 éve vettem kemény 14k huf-ért... szerintem ÁR/TELJESÍTMÉNY-t tekintve igencsak jó választás volt:-)) Én egyik kártya oldalára se akarok állni... csak reménykedni tudok, hogy a verseny továbbra is fennáll és nem fogják egymást tönkretenni az ehhez hasonló hülyeségekkel:-(( Amúgy a TV kimenete tökéletes a kártyámnak... semmi gond nem volt vele:-)) Míg annak idején a TNT2-õvel elég sokat szenvedtem:-(( De gondolom azóta változott a helyzet és mindkét kártya megfelelõ színvonalat nyújt:-)) Engem nem nagyon érdekel, hogy míg nálam egy játék 30FPS-el fut addig a 4200-ason meg megy vagy 80-al... nem hinném, hogy olyan látványos lenne a különbség:-((
Valszeg nekem is rossz a szemem, mert én se veszek észre semmi különbséget a képminõségek között...:-)) Bár ha ez ember elég sokáig gyõzködi magát akkor elõbb-utóbb biztos felfedez némi különbésget... csak akarni kell:-PP