ajaj.. ebben a modban nv40-el 25 atlag fps 2xAA-val es AF nelkul 1280-ban..
a displacement mapping nagyon hatasosan nez ki a koveken, de az meg sm2-vel is megy (nv3x-et leszamitva). szoval nem tudom.. ennek meg nincs itt az ideje.
Most nyomják ezt az X800pro-->xt moddingot. Ilyen elképzelhetõ sima 6800-ról utrára?
Egy igazi gyöngyszem a Beyond3D fórumról :D Ez nagyon lol :) A best az utolsó mondat:)
Amit az nVIDIA mondott És amit valójában gondolt:)
Quote: - Margins to improve throughout the year, far beyond NV3x levels we need to lower margins again to bead ATI... Hopefully not as badly as last year.
Quote: - Profits to be flat to slightly up next quarter, with XBox finally rising after 2 declining quarters in a row Hopefully that fucking Xbox will finally produce some profits...
Quote: - NV4x biggest leap NV have ever taken We've never been so desperate.
Quote: - Shader 3.0 "dramatically extends programmability" Developers will have to program for yet another codepath...
Quote: - A dozen games and big engines are going to support 3.0 They don't yet... but we want them to!
Quote: - 6800U designed specifically for enthusiasts, has lots of "frequency headroom", and comes with an optional second power connector, required only for overclocking Shit... we're running at way lower frequency, and require much more power.... How to sell that to the public?
Quote: - The GPU is affected heavily by the compiler, which is shipping at 1.0 and is very early. They expect big performance boosts in later drivers We haven't had enough time yet to fully implement cheats for every benchmark game.
Quote: - Quadro FX4000 is showing 38x performance in a specific app (didn't pick up which one) Notepad is running blindingly fast! -> nah ez tipikusan NV LOL:D
Quote: - Shader 3.0, Superscaler, and programmable video processor made up the transistor count over and above ATi. Can't say ATI's design is more efficient...
Quote: - 40% more transistors, yet only 9% bigger die. Costs 10-15% lower, with better process capacity. Nobody know cost and capacity, so we can please our shareholders here.
Quote: - Redundancy and re-configurability in the NV4x, and "immunity from defects", to achieve great yields moving forward. We have big problems in using such a big die.
Quote: - Multiple NV4x chips taped out, a couple of them are back from an unspecified fab, and by Q4 everything will be based on NV4x. They refused to be any more specific than "by the end of the year". Our yields suck. We need to find a new lab, but haven't yet. We'll call it unspecified for now. The NV3x stinks, X800 is out, so we desperately need to get the NV4x out. Hopefully we have a handfull at the end of the year.
Quote: - Talked about R420 being effectively a 3 year old architecture, and customers will pick the NV4x over that based on features such as Shader 3.0, since theirs is the only true next gen GPU The R420 is way faster, so we desperately need to focus on our features, even though they are useless for the first three years.
Quote: - Game Developers "clamouring" for their Shader 3.0 and FP Filtering tech, building lots of boards specifically for devs. Easier to write, with better performance. Conditional branches are heavily touted. That's what they should do.
Quote: - ATi have hand picked boards to be sent to reviewers, each at a different speed (?), potentially confusing consumers. NVIDIA don't do this, and their boards are much better overclockers that the XT (due to the hand picking mentioned previously, apparently). Yeah, we know it's the other way around.
Quote: - PS2.0 vs PS3.0 will be a "glaring" difference, but HSI vs. native PCI-E is identical (including bi-directional bandwidth). Competitors are doing much the same, so it's costing them money as well. Whoops... we missed a feature. Quick, downplay it's importance
Quote: - Competitors are going to hurt badly with PCI-E, since they'll have to build 4 or 5 extra boards. They have better performance, hopefully it will be more costly for them.
Quote: - Started arguing with one caller, who pushed them about whether PS3.0 will actually make any difference NOW. They went back and forth several times, and it got reasonably heated and amusing. They said they'd call the guy back after the conference call
Shit... someone discouverd PS3.0 won't mean shit for the consumer... PANIC!! Make him shut up... don't let it get out. Get his adress, and send a hitman after him!
Éljenek a cseppfojósított, élõlényekre ártalmatlan olcsó gázok. Azokat próbálták már kézileg fentebbtuszkolni?
Noemeg vannak akik szeretnek cseppfojós gázokat ráengedni a cuccra amíg lefut mondjuk egy 3DMark, úgy érdekes lehet az NV40 mert csak a léghûtés végessége szab neki határt. Nade nem reklámozok már többet, na.
Az nVidia hivatalosan csökkentette a GeForce 6800Ultra tápajánlását. Az eddigi 480W-ról "kellõen robosztus" tápegység esetén csökkentette az ajánlását 350W-ra. Az indoklás szerint a referencia 400/550Mhz esetén a legtöbb esetben elég a 350W, és a 480W, illetve a két tápcsatlakozó csak a tuningpotenciál miatt szükséges. A különféle kártyagyártók pedig maguk fogják meghatározni, hogy kártyáikhoz milyen tápegységet ajánlanak.
Eddig a hír. A magam részérõl fentartással kezelem ezt, mivel az eddigi tesztek szerint olyan mérvû tuningpotenciál nincs a kártyában, ami ezt indokolná. A másik fele pedig az, hogy vajon mennyire biztonságos ez a megoldás. Mert a hardcore gamerek, akik ugye a GeForce 6800Ultra célközönsége, nem arról híresek, hogy egy sima alapon járatott géppel rendelkeznének....
Kifejezetten grafikai munkaállomásokba szánt videókártya, CAD/CAM alkalmazások, 3D grafikus alkalmazások (3D Studio MAX, Maya, Lightwave, stb.) és hasonlók...
Az Albatron még májusban elérhetõvé teszi a nép számára a GeForce 6800-as kártyáit.Õk az elsõk:) Nem is tudom, asszem inkább megvárom amig az ASUS is összekalapálja a sajátját. GeForce-ból mindig ASUS-t vettem és sosem bántam meg, bár most radeonom van:) Úgy érzem az E3 alkalmával az Unreal3 engine-nel való frigy megalapozza a GeForce támogatottságát:)
Másrészt ez NEM GeForceFX topic, kéretik a #608/609 jellegûeket oda írni. (és a válaszokat is)
Ne vedd sértésnek, de teljesen mindegy, hogy húzod vagysem, mert olyan siralmas teljesítménye van:)
pl tizesevel emelgesd az ertekeket, ha elkezd hibazni/fagyni akkor ugorj vissza az elozore. aztan megnezheted, hogy a ram vagy a gpu a szuk keresztmetszet, es amelyik meg birja, emelgethetsz szinten hibakig megjeleneseig es vissza 10-et.
Nem erdemes jobban kicentizni, mert idonkent fagyhat..
/ram hibak fill rate teszt alatt jonnek jol elo, gpu hibak vertex shader teszt alatt.. bar speciel 5200 eseteben inkabb a fagyasok jelezhetik ezt, ha jol tudom nincs vertex shadere)
Ssiasztok! Egy Abit/FX5200(64mb)-ot gyari hutessel mennyire lehet felhuzni maradando serules nelkul(GPU/RAM)?
Olvasgattam ez a topicot. Nagyon tanulságos volt, egy igazi ati vs nvidia flame :) Tegnap vettem meg az új kártyám. Nem ATI-t, pedig nagyon sokat gondolkoztam. Egy asus V9950SE lett belõle. Simán megy a gyári hûtéssel 450/800-on(5900-es gpu van rajta). Nagyon sokat gondolkoztam 9600XT és ez között. Mikor megláttam a 9600 hûtését akkor dõlt el a kérdés bennem. Nem csalódtam az Nvidiában akárki akármit ír róla, hogy milyen rossz, meg elrontották. Gyönyörû képe van a kártyának a monitoron és a TV-n is. Játékban nem nagyon próbáltam, csak egy kis far cry full beállításon :) 3dmark 03-ban 6000 valamennyi pontot ért el tuningolva. Úgyhogy szerintem nem olyan rossz választás az NV. Jah és az ára 41000-Ft volt 3 év garival...
Király lesz!
Kerül vagy 4 ilyen a boltokba majd, amibõl kettõt meg is vesznek, és asszem sokat is mondtam.
Az NV40 kihozatala már alapbol is szar, nemhogy azokból, amelyek még 450-en is képesek futni stabilan, a 220milla tranzisztorukkal együtt.
A Gainward éppen az ATI Radeon X800 bemutatójának napján jelentette be gyárilag túlhajtott videokártyáit. A gyártó csúcsmodellje a nem szokatlan módon kilométeres nevû Gainward CoolFX PowerPack! Ultra/2600 "Golden Sample", amelyen vízhûtés gondoskodik a tuningolt GPU és memórialapkák hidegre tételérõl. A kártyán a GeForce 6800 Ultra grafikus processzor 50 MHz-cel a referenciaérték felett, 450 MHz-en üzemel, míg a 256 MB GDDR3 memória sebessége 1,2 GHz. A ritkasági versenyben a fehér holló mögött a második helyre jó eséllyel pályázó kártyáért nem kevesebb, mint 899 eurót (alapból olyan 230.000Ft!!! - Cifu) kér a gyártó.
A vízhûtéses megoldás mellett piacra kerül egy ventilátoros modell is, a Gainward PowerPack! Model Ultra/2600 "Golden Sample". Ezen "nagy teljesítményû" léghûtés biztosítja a 430 MHz-es grafikus processzor és az 1150 MHz-es memóriák hûtését. E modellt 599 euróért (alapból ~150.000Ft - Cifu) kínálja a Gainward.
A hardveres MPEG4 encode-ról van valami teszt? Hogy mûködik egyáltalán? A vide-in képet minimális processzorhasználat mellett realtime betömöríti felvétel közben a szokványos xvid/divx DVD minõségre? Vagy munkára lehet fogatni már vinchesteren lévõ adatokkal is?
Nem azon izgulok hogy melyik jobb hanem melyik lesz olcsobb!Úgyis egyszinten van a kártya!
Bocsi nem teljesen ide tartozik, de azért lééci help Me! Quadro-n hogy a fracba lehet akármilyen Direktx-es gamát eliniditani? mert nem igazán jön össze. Vagy nem is fog?
Bocsássátok meg ezt a kis poént. Természetesen, ha nagyon zavaró az Ati tulajdonosoknak, akkor töröljétek…
Nos egyik másik nV-s techdemo ATi-n is fut, némi segítséggel - a Dawn még mindig fent van valahol a gépemen - és ugye itt is nagyon szépek... (míg úgye az ATi-s techdemok elvileg probléma és ügyeskedés nélkül is mennek nV kártyákon :))
Montam már, hogy ne keverd szezont a fa*zonnal, semmi köze nincs d3dhez a Doom3-nak. Mongy GL1.5-öt ha már szakérteni akarod. Aki meg képminõséget akar dobja el a ratyi direktikszét, toljon be egy nv-t, és bámuljon nvtechdemókat. Utánna lehet sírni. (Ill még utánna se, mertugye a sebesség számít :)
Most nem azért, de pont itt az SG-n láttam már a Far Cry topicban nvidiások által beszúrt screenshotokat, és pont úgy neztek ki, mint a tomshw-rõl Borg által beszúrt kép. Amúgy meg a tomshw nvidia párti magazinként ismert, szóval furcsa lenne, ha pont õk állítanának valótlant.
Speciel nekem fx 5900 xt-m van, szal mindent elvisz szépen... Egyébként pedig a farcry-hoz nem videokártya kell elsösorban(persze kell egy jo) hanem sok és gyors memoria(1024 ajánlott),meg egy brutál proci,ha ez megvan akkor megnézem azt a 20-30 fps-t... Sokan azt hiszik,megveszik a 98xt-t és hude klafa milyen fasza lesz,holott ha nincsen alatta vas akkor nem sokat ér...
Ha nem haragszol én az ilyen képeknek semmit nem hiszek el,akkor és ugy hamisitom meg öket ahogy és amikor akarom. Lehetett egy egyedi hiba,akármi... A másik példa viszont jo,lényeg az nem tudjuk kihasználni igy sem ugy sem szal hiába csinálják meg a legjobb kareszt,sok értelme nincsen...
igen, sajna az fx fele "precizitas" itt is befigyel. helyenkent eleg ocsmany az eredmeny.
K Andras: "ezeket a teljesitményeket még 3 év mulva sem fogják kihasználni a játékok"
Farcry mar megjelent, es jolesik neki ez a cucc. hl2 iden, szinten nem art. es meg mindig fel even belul vagyunk, hol van itt 3 ev.. Stalker is iden v. max jovo ev elso fele. (persze lehet mondani: 9800 is szepen viszi pl farcry-t 60-70-el de jon 5-6 ember a kepernyon, elkezdenek lovoldozni es maris lentvan 20-30-n...)
"amit most erre elkezdenek késziteni,az 2-éven belül megjelenne" szinte minden esetben meg joval a szukseges hw megjelenese elott elkezdik a jatek fejleszteset. emlithetnek parszaz peldat, de szerintem te is tudsz.
"kivéve talán doom3-at,ami használ majd minden szir-szart" a doom3 speciel tulnyomoresz dx8.1 -es featureoket hasznal, nem a dx9-re epit.
csak azert kotekszem mert ez a "minek az uj hardware-ek, folosleges, a regi gf4-em is mindent elvisz" szoveg elegge idejetmult mar. A vga-k 2 evig stagnaltak, a jatekok igenyei tenylegesen elkezdtek elhuzni, szukseg van az ujra.
"Fx féle optimalizáció" alatt mit értesz? Az adaptív AF-et nem értheted, mert azt az nem tudja még. Akkor viszont ezt érted "ahol nem látszik ott nem számol" optimalizációnak?:
(Szimplán ugyanúgy butít a szinmélységen a 6800U mint az FX-ek, és a különbség látható. Na ez nem optimalizáció, max az nVidia nyelvén.)
Vegyük inkább a videókártyát az útnak (ne magyar utakból induljunk ki:), és akkor jobban szemléltethetõ a helyzet. Hiába építenek nagy hévvel olyan autópályát amin 400kmh-val lehet menni, ha nincs olyan autó, ami akár csak 250-el is birna rajta. Illetve az ember reakcióképessége folytán ez az elméleti 250kmh megintcsak nem tud kb 230 fölé menni, ami kb megyezik a CPU limitáltsággal a videokártyák körében.
Értem,de legyél öszinte,ugyanerröl szolt a fx féle optimalizácio is,ahol nem látszik ott nem számol... Mind1 ezen ne lovagoljunk,az igazság az, hogy akármi is jön atitol rossz biztos nem lesz,igazábol ezeket a teljesitményeket még 3 év mulva sem fogják kihasználni a játékok,nemhogy egy év mulva,szal ilyen szempontbol teljesen mind1 hogy 100-200-500fps-t csinál a játékban... Most azon van a hangsuly,hogy tudják e tartani a szoftver terén ezt a haladást,mert kétlem ,hogy amit most erre elkezdenek késziteni,az 2-éven belül megjelenne,kivéve talán doom3-at,ami használ majd minden szir-szart,meg aztán az erre a motorra épülö játékok,gondolom méregdréga lesz igy nem hiszem, hogy sokan kapkodnának érte.Szal hiába van 98xt valakinek,hiába veszi majd meg a legujabb legzoralabb kártyát,legyen az nvidia vagy ati,nem fogja tudni kihasználni,mintha egy 400km/h teljesitményü autot megvenne, miközben a legjobb uton sem tud 220-nál többet menni...
Nem egy szón kell lovagolni (szokásod szerint). Mert az adaptív AF egyátalán nem csalás, hanem valóban optimalizáció, és ha jól tudom a kutya nem szólta meg GF6 kapcsán sem. Szimplán olyan helyekre nem rak AF-et, ahova nem feltétlen kell / nem látszik. És ez csak az egyik olyan technológia, amit az nvidia újként harangoz be most, holott az ATI kártyákban régóta ottvan már (HDM, Centroid Sampling, RGMSAA stb). Kiváncsi leszek pl hogy a gamma korrekciós AA-t mikor vezeti be végre az nvidia, mint saját találmányát...
Egyszerûen arról van szó, hogy valóban sajnálatos lesz, HA az ATI cucca nem támogatja majd a PS3.0-t, mert nem arról volt híres eddig, hogy fontos fejlesztéseket kihagyott volna, de legalább annyira nem fogja hiányolni senki még egy évig, mint az FX-bõl eddig a HDM-et. Magyarán egyátalán nem biztos, hogy fontos, és pont erre kellene gyúrni most.
1. Az 1-2-3 tesztnek semmi köze a DX9-hez. Egyedül a Mother Nature használja, az is csak részben épül rá. Egyébként igazad van, csak nem kapcsolódik a dologhoz. 3. Természetesen nem fog elindulni, de nem azért mert technikai oldalról kell a DX9 (még mindig az elsõ 3 tesztrõl van szó), hanem mert egyszerûen azzal együtt tesztelték. Mint te is bizonyára tudod, minden játék az aktuálisan kint lévõ DX verzióhoz van optimalizálva, de ettõl még sok esetben semmit sem használ ki grafika fronton. Mint látható ez az 1-2-3 teszt esetében is. Mellesleg nem csak a grafika miatt kellhet neki DX9, ugye van annak még pár összetevõje a D3D-n kívül. 4. Valahol lemaradhattam, nem találom a 2.-es pontot.:)
1: nem nezett ki volna hulyen ha azt mondom szabvany dx8-9? 2: attol mert egy progi dx9-es meg nem vonja maga utan a ps2/vs2 hasznalatat. 3: probald meg elinditani a programot egy gepen dx9 nelkul es olvasd el mit ir az arcodba. 4: olvass vissza ha lemaradtal.
Csak nehogy aztan az ATI is beszalljon a kepminoseg rongalo versenybe hogy sebessegben lepest tarthasson az nvidiaval. Ezek tuti 700 evre vallalnak csatornaepitest...
Én is kíváncsi vagyok már!
Ez eleg bunteto, kivancsi leszek mit tud felmutatni az r420, es hogy mindezt mennyiert (az nv40 is).
" you will see that the RGB image shows major differences between the Referance image and the 6800Ultra image. "
legtobben szeretjuk ugy latni a jatekokat, ahogy a keszito kitalalta, nem ahogy az nvidia kiugyeskedi, hogy gyorsabban fusson a cuccukon. egy szabvany dx9 tesztnel ilyet csinalni pedig minimum a nem fair de inkabb a parasztsag kategoria.
To sum up, NVIDIA GeForce 6800 Ultra is the world’s fastest graphics card with plethora of “beyond-DirectX 9.0” capabilities that is able to satisfy your needs today and tomorrow. Probably one of the best things around money can buy!
We are now looking forward for games to deploy all the spectacular features the new graphics processors have...
Ja, ez a zöld sárga színezés elsõ ránézésre mindenkinek sokat mond. Az a lényeg amit viszontlátsz a monitoron ha rángatod az egeret játék közben. Az vagy tetszik vagy nem, akár jobb is lehet ami szarabbnak tûnik.