Bocsi nem teljesen ide tartozik, de azért lééci help Me! Quadro-n hogy a fracba lehet akármilyen Direktx-es gamát eliniditani? mert nem igazán jön össze. Vagy nem is fog?
A hardveres MPEG4 encode-ról van valami teszt? Hogy mûködik egyáltalán? A vide-in képet minimális processzorhasználat mellett realtime betömöríti felvétel közben a szokványos xvid/divx DVD minõségre? Vagy munkára lehet fogatni már vinchesteren lévõ adatokkal is?
A Gainward éppen az ATI Radeon X800 bemutatójának napján jelentette be gyárilag túlhajtott videokártyáit. A gyártó csúcsmodellje a nem szokatlan módon kilométeres nevû Gainward CoolFX PowerPack! Ultra/2600 "Golden Sample", amelyen vízhûtés gondoskodik a tuningolt GPU és memórialapkák hidegre tételérõl. A kártyán a GeForce 6800 Ultra grafikus processzor 50 MHz-cel a referenciaérték felett, 450 MHz-en üzemel, míg a 256 MB GDDR3 memória sebessége 1,2 GHz. A ritkasági versenyben a fehér holló mögött a második helyre jó eséllyel pályázó kártyáért nem kevesebb, mint 899 eurót (alapból olyan 230.000Ft!!! - Cifu) kér a gyártó.
A vízhûtéses megoldás mellett piacra kerül egy ventilátoros modell is, a Gainward PowerPack! Model Ultra/2600 "Golden Sample". Ezen "nagy teljesítményû" léghûtés biztosítja a 430 MHz-es grafikus processzor és az 1150 MHz-es memóriák hûtését. E modellt 599 euróért (alapból ~150.000Ft - Cifu) kínálja a Gainward.
Olvasgattam ez a topicot. Nagyon tanulságos volt, egy igazi ati vs nvidia flame :) Tegnap vettem meg az új kártyám. Nem ATI-t, pedig nagyon sokat gondolkoztam. Egy asus V9950SE lett belõle. Simán megy a gyári hûtéssel 450/800-on(5900-es gpu van rajta). Nagyon sokat gondolkoztam 9600XT és ez között. Mikor megláttam a 9600 hûtését akkor dõlt el a kérdés bennem. Nem csalódtam az Nvidiában akárki akármit ír róla, hogy milyen rossz, meg elrontották. Gyönyörû képe van a kártyának a monitoron és a TV-n is. Játékban nem nagyon próbáltam, csak egy kis far cry full beállításon :) 3dmark 03-ban 6000 valamennyi pontot ért el tuningolva. Úgyhogy szerintem nem olyan rossz választás az NV. Jah és az ára 41000-Ft volt 3 év garival...
Ssiasztok! Egy Abit/FX5200(64mb)-ot gyari hutessel mennyire lehet felhuzni maradando serules nelkul(GPU/RAM)?
pl tizesevel emelgesd az ertekeket, ha elkezd hibazni/fagyni akkor ugorj vissza az elozore. aztan megnezheted, hogy a ram vagy a gpu a szuk keresztmetszet, es amelyik meg birja, emelgethetsz szinten hibakig megjeleneseig es vissza 10-et.
Nem erdemes jobban kicentizni, mert idonkent fagyhat..
/ram hibak fill rate teszt alatt jonnek jol elo, gpu hibak vertex shader teszt alatt.. bar speciel 5200 eseteben inkabb a fagyasok jelezhetik ezt, ha jol tudom nincs vertex shadere)
Ne vedd sértésnek, de teljesen mindegy, hogy húzod vagysem, mert olyan siralmas teljesítménye van:)
Másrészt ez NEM GeForceFX topic, kéretik a #608/609 jellegûeket oda írni. (és a válaszokat is)
Az Albatron még májusban elérhetõvé teszi a nép számára a GeForce 6800-as kártyáit.Õk az elsõk:) Nem is tudom, asszem inkább megvárom amig az ASUS is összekalapálja a sajátját. GeForce-ból mindig ASUS-t vettem és sosem bántam meg, bár most radeonom van:) Úgy érzem az E3 alkalmával az Unreal3 engine-nel való frigy megalapozza a GeForce támogatottságát:)
Nálunk egy grafikusnak quadroja van, gond nélkül mentek rajta a DirectX-es gamák. Hûû de még milyen gyorsan!
Kifejezetten grafikai munkaállomásokba szánt videókártya, CAD/CAM alkalmazások, 3D grafikus alkalmazások (3D Studio MAX, Maya, Lightwave, stb.) és hasonlók...
Az nVidia hivatalosan csökkentette a GeForce 6800Ultra tápajánlását. Az eddigi 480W-ról "kellõen robosztus" tápegység esetén csökkentette az ajánlását 350W-ra. Az indoklás szerint a referencia 400/550Mhz esetén a legtöbb esetben elég a 350W, és a 480W, illetve a két tápcsatlakozó csak a tuningpotenciál miatt szükséges. A különféle kártyagyártók pedig maguk fogják meghatározni, hogy kártyáikhoz milyen tápegységet ajánlanak.
Eddig a hír. A magam részérõl fentartással kezelem ezt, mivel az eddigi tesztek szerint olyan mérvû tuningpotenciál nincs a kártyában, ami ezt indokolná. A másik fele pedig az, hogy vajon mennyire biztonságos ez a megoldás. Mert a hardcore gamerek, akik ugye a GeForce 6800Ultra célközönsége, nem arról híresek, hogy egy sima alapon járatott géppel rendelkeznének....
De nem is arról hogy 250W-os mercury táppal csaoatják neki. Szerintem nekik eddig is volt 400W+
Noemeg vannak akik szeretnek cseppfojós gázokat ráengedni a cuccra amíg lefut mondjuk egy 3DMark, úgy érdekes lehet az NV40 mert csak a léghûtés végessége szab neki határt. Nade nem reklámozok már többet, na.
Egy igazi gyöngyszem a Beyond3D fórumról :D Ez nagyon lol :) A best az utolsó mondat:)
Amit az nVIDIA mondott És amit valójában gondolt:)
Quote: - Margins to improve throughout the year, far beyond NV3x levels we need to lower margins again to bead ATI... Hopefully not as badly as last year.
Quote: - Profits to be flat to slightly up next quarter, with XBox finally rising after 2 declining quarters in a row Hopefully that fucking Xbox will finally produce some profits...
Quote: - NV4x biggest leap NV have ever taken We've never been so desperate.
Quote: - Shader 3.0 "dramatically extends programmability" Developers will have to program for yet another codepath...
Quote: - A dozen games and big engines are going to support 3.0 They don't yet... but we want them to!
Quote: - 6800U designed specifically for enthusiasts, has lots of "frequency headroom", and comes with an optional second power connector, required only for overclocking Shit... we're running at way lower frequency, and require much more power.... How to sell that to the public?
Quote: - The GPU is affected heavily by the compiler, which is shipping at 1.0 and is very early. They expect big performance boosts in later drivers We haven't had enough time yet to fully implement cheats for every benchmark game.
Quote: - Quadro FX4000 is showing 38x performance in a specific app (didn't pick up which one) Notepad is running blindingly fast! -> nah ez tipikusan NV LOL:D
Quote: - Shader 3.0, Superscaler, and programmable video processor made up the transistor count over and above ATi. Can't say ATI's design is more efficient...
Quote: - 40% more transistors, yet only 9% bigger die. Costs 10-15% lower, with better process capacity. Nobody know cost and capacity, so we can please our shareholders here.
Quote: - Redundancy and re-configurability in the NV4x, and "immunity from defects", to achieve great yields moving forward. We have big problems in using such a big die.
Quote: - Multiple NV4x chips taped out, a couple of them are back from an unspecified fab, and by Q4 everything will be based on NV4x. They refused to be any more specific than "by the end of the year". Our yields suck. We need to find a new lab, but haven't yet. We'll call it unspecified for now. The NV3x stinks, X800 is out, so we desperately need to get the NV4x out. Hopefully we have a handfull at the end of the year.
Quote: - Talked about R420 being effectively a 3 year old architecture, and customers will pick the NV4x over that based on features such as Shader 3.0, since theirs is the only true next gen GPU The R420 is way faster, so we desperately need to focus on our features, even though they are useless for the first three years.
Quote: - Game Developers "clamouring" for their Shader 3.0 and FP Filtering tech, building lots of boards specifically for devs. Easier to write, with better performance. Conditional branches are heavily touted. That's what they should do.
Quote: - ATi have hand picked boards to be sent to reviewers, each at a different speed (?), potentially confusing consumers. NVIDIA don't do this, and their boards are much better overclockers that the XT (due to the hand picking mentioned previously, apparently). Yeah, we know it's the other way around.
Quote: - PS2.0 vs PS3.0 will be a "glaring" difference, but HSI vs. native PCI-E is identical (including bi-directional bandwidth). Competitors are doing much the same, so it's costing them money as well. Whoops... we missed a feature. Quick, downplay it's importance
Quote: - Competitors are going to hurt badly with PCI-E, since they'll have to build 4 or 5 extra boards. They have better performance, hopefully it will be more costly for them.
Quote: - Started arguing with one caller, who pushed them about whether PS3.0 will actually make any difference NOW. They went back and forth several times, and it got reasonably heated and amusing. They said they'd call the guy back after the conference call
Shit... someone discouverd PS3.0 won't mean shit for the consumer... PANIC!! Make him shut up... don't let it get out. Get his adress, and send a hitman after him!
Most nyomják ezt az X800pro-->xt moddingot. Ilyen elképzelhetõ sima 6800-ról utrára?
ajaj.. ebben a modban nv40-el 25 atlag fps 2xAA-val es AF nelkul 1280-ban..
a displacement mapping nagyon hatasosan nez ki a koveken, de az meg sm2-vel is megy (nv3x-et leszamitva). szoval nem tudom.. ennek meg nincs itt az ideje.
De ha úgy nézzük a Far Cry-hoz elég a 25 átlag FPS (ugye Borg?) vagyis lehet hogy úgy írták a PS3 petchet hogy még pont elvigye a kártya. Szomorú hogy sokszor egy pici képjavuláshoz a teljesítményigény a négyzeten(netán a köbön) nõ.
Dehogy, az nvidia driverek a legjobbak a vilagon dehisz ezt mindenki tudja. (kiveve az elmult 3 evet, es az utolso ket generaciot, de egy kis botlas mindenkinek megengedheto nem?)
Egy kis botlás persze, hogy megengedhetõ.Na de úgy elesni, hogy ne maradjon egy ép porcikád és fel se tudj állni, az már gázos.Nem tudom mi lesz szegény nVidia-val, úgy a szivemhez nõtt a sok hosszú év alatt, mindig GeForce-om volt, de kénytelen voltam Radeont venni, mert egyszerûen jobb.És a tendencia folytatódni látszik...
Zene füleimnek! Viszont emlékezz csak, mi volt pár éve! Már régen az nVidia volt a király amikor megvetted a Voodoo3 -mat, mert megint nem bíztál benne, hogy lehet jobb valaki mint a 3Dfx... Ha jól tudom, akkor meg csak egy Geforce 2 GTS -ed volt meg a Geforce4 4200...
Nekem Riva 128, TNT1, TNT2, Geforce MX, Geforce 2 Titanium és mégis úgy vágtam ki a kukába az éppen aktuális kártyát amikor jött jobb (most éppen Radeon) hogy a lába nem érte a földet. Nem vagyok saját magam ellensége, addig amíg én fizetek azt veszem ami a jobb!
Figyi..ne dobd ki..tartsd meg tartaléknak, illetve soha nem tudod mikor fog még kelleni. Mivan ha az éppen a legujjabb karesz kifekszik és gariba vissza kell vinned? Ilyenkor jól jön a régi kártyesz. Illetve mindig akad olyan ismerös akinek sokkal gyengébb kártyája van és megvenné tölled. Sose halgass olyanra aki azt mondja hogy dobd el, mert mindig mindennek megvan a helye és értéke...szal, soha semmit, senkinek ingyen mert megdolgoztál érte, föleg a kukának nem.
Eh. Na egy ilyet nem kene megint elkezdeni. Ahhoz senkinek semmi koze nincsen. Akar karacsonyra kapta, akar banyaban dolgozott erte 2 evig, egyedul az o dolga.
hirtelen ugy ereztem, vki miatt(#644) igeny van ra
Duál GeForce 6800 - a megvalósítás Írta: roadside Idõpont: 2004. június 28., hétfõ 15:15
Egy héttel ezelõtt már bemutattuk azokat a teszteket, melyben az Alienware új ALX nevû rendszere 2 összekapcsolt GeForce 6800-at mûködtetett, és ért el kimagasló teljesítményt. A mai napon pedig kiderült, hogy az NVIDIA többet akar.
Többet annyival, hogy már nincs szükségünk az Alienware saját fejlesztésû rendszerére (hír itt), hanem csakúgy, mint az 1996-ban debütált Voodoo2-nél, csak egy kábelra van szükségünk. Ez volt az SLI rendszer (Scan Line Interleave), melynek segítségével egy videokártya csak minden második sort számolt ki, így növelve a teljesítményt.
Az akkori megoldástól eltérõen, most "csak" egy duál PCI-Express alaplapra van szükségünk, melybe a két videokártyát helyezve a felsõ részükön egy kis panellal összekapcsoljuk õket. A megoldás neve szintén SLI (Scalable Link Interface), és az NVIDIA szerint jelentõsen megemeli a teljesítményt (megközelítheti a 90 %-ot is), így akinek nem számít a pénz az a leggyorsabb grafikai állomást tudhatja magáénak. A MIO port minden PCI-Express csatolású GeForce 6800-as kártyán megtalálható. Az SLI és némi régi Voodoo érzés pedig visszatért.
a 6800 elég jó hõfokokat tud magáénak, jóval hidegebb, mint az X800, szóval lehet jól megvannak egymás mellett... persze sebességben alul marad az X800 -nál de az más tészta :)