The graphics card has been overclocked to 2650 MHz (boost). Cooling: Stock
Brutál mi maradt ezekben a kártyákban... Eleresztik a 6900XT-t az nv sírva menekül majd...Félelmetes. Ha ezen a vonalon mennek tovább a következő széria már ultimate 4k 60 fps killer lesz mindenben IS és nem 800 ezerért
Én ezt úgy látom, hogy NV-nél minden kategória eggyel feljebb csúszott az előző genekhez képest. Szal ami pár éve 1060 szint volt, arra még nincs új kártya (sztem valami 1660Ti utód lesz, vagy 3050Ti), ami 1070 szint volt arra jön a 3060, a 1080 szintre jött a 3070... stb. Most hirtelen nem tudom az árakat, de asszem a 1070 is 3-400 dollár között startolt, és a 3060 is ott fog. És valszeg a 3060, de még a 1660 utód is/3050Ti bőven, bőven elég teljesítményt fog nyújtani a casual gamereknek. Szal sztem 100e Ftt körül (a sz@r forint ellenére is) ugyanúgy lesz GPU amivel casual gamerek (@1080p nem ultra) köszönik szépen ellesznek. Utoljára szerkesztette: disorder14, 2020.11.20. 08:54:23
ÉS te észreveszed az a 10FPS különbséget? Füleg ha bekapcsolod a Vsynket, hogy a fix 60 FPS meglegyen a kijelzön ? akkor olyan mindegy, hogy 90 vagy 80 FPS-en megy a 4k. viszont a 300k-t sztem jobban megérzed és észre is veszed. És ugyan ez látszik a 6800 vs 3070 esetében is. és itt is láttam, hogy irták, hogy 70k plusz felár van a 6800ason a 3070hez képes, de azt nem nézik, hogy a teljesitménye meg a 3080ashoz közelebb van és ahhoz képest meg már olcsobb.
És igen a legtöbben ezt felejtik el összeméréskor, mert a hasonlo kategoriát mérik össze, holott itt most két különbözö kategüria hozza ugyan azt a szintet különbözö ársávban. Arról nem is beszélve, hogy esetleg egy év mulva ha jobban elterjednek azok a technologiák amiket az AMD belepakolt a cuccaiba és a smart memori is hasznosul, akkor még talán ez a 10 fps is eltünik. vagy akár át is fordulhat AMD javára.
Azt hiszem ugyetlenul kommunikaltam a szarkazmust.. :)
En mindig ar/teljesitmenyt maxolok es gyakran valtok. Altalaban jobb egy friss kozepfelso cucc, mint egy (1-2 ev utan) kioregedett csucskazan egy csomo penzert.
Amugy off, de 1000 evvel ezelott cs-ztem, mikor meg 90hz-hez is overclockolni kellett a CRT monitort.. ha lement a framerate 80-ra (a fust miatt elofordult) az mar tenyleg "szaggatott" es kompetitiv hatrany volt.
Ráadásul az összes olyan játék, ami érdemi teljesítménnyel futtatható 4K-ban 6800XT/3080-on, nem kér többet még 4K-ban sem 8GB-nál. Ami meg nem produkál élvezhető 60 fölötti FPS-t 4K-ban, ott teljesen mindegy a vram használat is...
Amíg a Crysis Remastered eszik 8K-ban 10-11GB-ot addig nem kell tartani attól, hogy 4K-hoz ne lenne elég a 8-10GB. Mire kevés lesz már nem ezt a kártyát fogjuk használni. Illetve ott a DLSS /SR mint alternatíva. De ahogy Borg is írta, ma még nem létezik játék ami 8-nál többet enne. Ha mégis, leveszed ultráról high-ra a texture resolution-t vagy valamelyik memóriaéhes effektetet.
Én meg 1440p-ben játszom így engem abszolút nem érint, 6-6,5GB-nál eddig semmi sem evett többet. Utoljára szerkesztette: MerlinW, 2020.12.08. 11:23:01
Látszik nem játszotok komoly játékokkal. A fs 2020 12 gb ot megeszik a 6800 xtm memóriájából wqhdn. A resident evil 3 is mindent maxon 12 gb ram foglalást mutat. A red dead redemption sam onnal 15 gb!!! memóriát befoglal a vramból. Utoljára szerkesztette: AmpereRyzen, 2020.12.08. 11:40:53
Ne keverd a memóriahasználatot az allokációval. 3080-on 4K-ban az FS 2020 9,5GB-ot foglal le, 3090-en 12GB-ot. Minden alkalmazás betol mindent amit tud, hogy időt spóroljon az írás/olvasással. A valós memóriahasználat az FS2020-nál 4K ultrán kb 6-8GB. Utoljára szerkesztette: MerlinW, 2020.12.08. 11:49:25
Call of duty warzone fps benchmark death match multiplayer 6800 xt vga karival meg 5800x procival. 6800 xt warzone
Talán ha a 3080 előtt jött volna ki, vagy előbb elérhető, akkor most ilyenem lenne. De a meglévő FTW3 Ultráról nem érzem úgy, hogy váltanom kéne rá. A jelenlegi driverekkel és játékokkal elég lagymatag lett a teljesítménye, sokszor a 3080-at sem tudja megelőzni, nemhogy a 3090-et. Viszont cserébe kevesebbet fogyaszt, és halkabban hűt (főleg egy AIB majd). Ahhoz, hogy egyértelmű előnye legyen meg alá kell tolni a legdrágább AMD platformot, a legdrágább ramokkal. Azért ez így kombinálva az ezer eurós msrp-vel, már annyira nem attraktív.
palit 3080 karim is van a szekrényben és nem mostanában fogom újra a gépbe rakni! SAM-al nem egy helyen veri a 6800 xt a 3080-at. Utoljára szerkesztette: AmpereRyzen, 2020.12.08. 20:08:13
Jó hát ha engem is felvetne annyira a pénz, hogy még a szekrényben is pihen egy 800 eurós kártya talonban, akkor valszeg én is költenék X570 lapra, valami méregdrága 4000-res ram kittel, meg 5950X-szel, hogy a SAM is hozzon valamit a 6900XT-men :) De egyik sincs, és nem is tervezek ennyit költeni gépre.
Se az x570es lapnak nincs értelme az aktiv zajos hutés miatt, se a 4000-res ram kitnek, mikor telepakolva 4 modullal a 4 slotot jobban gyorsul 3200 mhz-es ramokkal is a ryzen platform. Az 5950 x nek gamingre meg végképp semmi értelme mert a 8 magos 5800x-et se lehet rendesen kihasználni játékok alatt. Ennyikeh
"Van pár játék, amiben elképesztően gyors az RX 6700 XT. Az RTX 3070-nál 14-20%-kal gyorsabb. Ilyen például a Dirt 5, a WoW: Shadowslands, a Fortnite, az AC Odyssey és az AC Valhalla. Mindemellett az Assassin's Creed Odyssey-ben az RX 6700 XT nemhogy a 3070-et, de még a 3080-at is elkapja. Az eddigi adatok alapján egyébként a legnagyobb előnye a kártyának a Fortnite-ban van. Majdnem 40 fps. Ebben a játékban valószínűleg a 3090 is megvan neki. De ez inkább kivétel mint szabály, az új Fortnite frissítés nagyon fekszik az RDNA2-nek."
Jól hangzik
"Mindemellett az Assassin's Creed Odyssey-ben az RX 6700 XT nemhogy a 3070-et, de még a 3080-at is elkapja."
3070 12%-al gyorsabb Odyssey-ben, 3080 meg 30%-al.1440p alatt meg nem a VGA-tól függ a sebesség, hanem a CPU-tól. Utoljára szerkesztette: MerlinW, 2021.03.11. 01:54:55
"Fake. Két dologból lehet tudni. Az első driver, ami elérhetővé vált az későbbi, mint a videó publikálásának dátuma." Utoljára szerkesztette: hunbalee, 2021.03.11. 20:28:06
Ez észveszejtő lesz... most a 6900 XT-ben van most 80CU. Fogyasztás meg az ár elég drasztikus lesz majd. Mondjuk a bányászoknak tökmindegy visszatermeli majd
Majd a bányászok ezt is lerabolják, és ember nem lesz aki meg tudná venni . Meg addigra már HDD és SSD sem lesz elérhető vagy horror áron, ugyhogy csak olvasni tudunk rola hireket meg YT-on megnézhetjuk, hogy mit tud, kb ennyi lesz.
HDD nem izgat az van 10+Terra ha kell a hely letörlök a kb 2500 filmből párat.. SSD-t meg 2 éve nem tudok venni mert lecövekelt az ára egy helyben. 2Tbosat szeretnék 40K-t kiadnék érte de azt már nem biztos hogy megélen, pedig szeretném..
Köszi! Akkor elkezdek egy ilyennel szemezni. Márkából mit éri meg jobban beszerezni? Lehetőleg halk legyen, a hossza nem számít. És lehetőleg minőségi.
900k - 1 millió Ft-ért mennek, szerintem ne szemezz vele xD A 6800 a gamer kártya, de az is 600k körül fut most. Emellett 850W-os táp az ajánlott hozzájuk. Utoljára szerkesztette: MerlinW, 2021.05.22. 13:29:28
Ennyiért tényleg nem szemezek vele. Még a 600k-t is sokallom. És a tápom is csak 750W. Egyelőre marad a 980 Ti. És a bizakodás, hogy vége lesz már egyszer ennek a korszaknak is.
Hát ez az, hogy most vettem új lapot, procit, de küszöbön a ddr5 és ezek a nagyon okosak most kitalálták a 12VO tápot. Vagyis csak 12V jön ki belőle. Még annyira új, hogy csak pár alaplap tudja kezelni. Viszont 2-3 W-al kevesebbet fogyaszt és ebben a nagy környezetkímélési lázban esélyes, hogy előbb vagy utóbb átállás lesz. A youtuber pedzegette, hogy készre szerelt PC-kben nagyon esélyes, hogy hamar elterjed. Példának a Medion-t hozta fel. Az egyéb feszültségeket a lap fogja előállítani, ami helyet foglal rajta.
Nyilván érti mindenki de a mostani csúcsokhoz képest amikor valami 30-40-el jobb csak mint az előző ez rohadt nagy előrelépés lenne még ha csak simán 2x is. Mondjuk mindegy mert olyan ára lesz ,hogy max netes teszteken nézzük majd ezeket is
Azt azért engedjétek el hogy rasterban 4k-n mondjuk 2x gyorsabb, Ja RT-vel biztos lesz 2x gyorsabb.
RT egy opcionális dolog. FSR/DLSS 2.2 RT-vel már most is 2x gyorsabb, így lehet 4x is az új kártyákon. Az Intelligens upscaling a jövő, natív a múlt, így felesleges a jövőben azzal dobálózni hogy lassú valami natívban, mert egyre kevésbé foglalkozik ezzel bárki is a szakmában. Natív felbontás a jelenlegi technológiákkal - a jövőbelivel még inkább - felesleges erőforráspazarlás. Utoljára szerkesztette: MerlinW, 2021.07.25. 14:39:23
Ez szerintem is így van, valahol el kell érni a közvetkező lépést és a csíkszélesség csökkentés, tranzisztorszám növelés régi recept egyre inkább fizikai korlátokba ütközik ezért egy jó megoldás lesz az upscaling, AI stb hogy meglegyen a következő fejlődés beli ugrás ahonnan majd már megint lehet reszelgetni szoftveresen, tenzor magokban stb az egészet előröl és akkor nem fog feltűnni hogy magában a grafikus chipben már egyre lassuló fejlődést lehet csak felmutatni.
És így hardvert sem kell fejleszteni :D Egyet értek hogy ez lesz csak nevetséges hogy parasztosan nem erősebb lesz a gPU hanem lejjebb veszek a felbontást és a 4k matrica alól kilóg a QHD.. következő gen alól meg a FullHD :D :D :D
Kérlek helyezz el 300 millió tranzisztort egy négyzet milliméteren, vagy csak gondolj bele miről beszélsz. Konkrétan a fizika korlátait feszegetjük mikor 4-2nm-es technológiáról beszélünk. Így is, a GPU/CPU-k minden évben 10-20%-al gyorsulnak. Semmi baj a hardverrel - 2.5 milliárd utasítás elvégzésére képesek másodpercenként. A szoftverrel van a gond.
Hülye példával: - 3-5 év alatt elkészül egy játék, a magas szintű programozási nyelvekkel, 100+ különböző cég ezer különböző eszközével = 4K@30fps. - 15-20 év alatt elkészül egy játék alacsony szintű nyelvvel, minden 3rd party eszközzel együtt = 4K@500fps
Ehhez gondold hozzá a szobán kívüli nagy világot, hogy a szoftver és a hardveripar sem szól másról, csak pénzről és határidőkről (= sosem kerül ki olyan termék senki kezéből, mint amilyet megálmodott / meg tudott volna valósítani).
Értem én az álomvilágot amiben éltek, de a valóság teljesen más játék. Utoljára szerkesztette: MerlinW, 2021.07.26. 13:50:17
Ha nekem jött :) Azért álljon már meg a nászmenet:) Akkor majd azért veszünk új hardvert(jóval drágábban) hogy lejjebb vegyük a felbontást és úgyan azon az FPS-en játszunk :D :D :D Fantasztikus jövőkép :) Remélem azért okossággal és pl mcm desingel megoldják a problémát... Vagy vesszek a PC gaming és marad a konzol, de arra emg csak agyhalál ostoba cuccok vannak így marad a más hobby keresése.
Ha jol tudom akkor ott vannak az alacsony eléréső API-k , (Vulkán, mantle, DX12) mindegyikre azt igérték, hogy sokkal jobban kihasználja a hardvert és már alacsonyabb teljesitményü harveren is sokkal gyorsabb lesz az adott program és a CPU-kat is jobban terheli minden magot és szálat.
Ehelyett mi történt, alig emelkedett a softveres kornyezet miatt a játékok teljesitménye, a CPU magszámok még mindig csak max 4 magot terhelnek jobb esetben a többi csak alapon ketyeg.
mi a helyzet a drawcall számokkal, azt igérték, hogy a dx11 100k drawcall helyett már akát millios drawcall is lehet . és , hogy már nem kell a gyártoknak drivereket gyártani,mert az a programfejlesztők dolga lesz ok ismerik a saját termékeiket. ehelyett még mindig maradt, hogy ahvonta jonnek a gyártoi driverek a játékok patcheivel .
ugyhogy igen nem csak a hardver a gond, de a softverrek se akarnak szintet lépni , csak a PR duma megy minden alkalommal.