"Parja a spdif, amibol ugyancsak letezik 8, 16 es 24 bites valtozat is (48 bit/csatornapar). Ezek egyesitett es masolasvedelemmel kiegeszitett formatuma a hdmi."
Ez egy hülyeség, felejtsd el. Az SPDIF-nek semmi köze a HDMI-hez. Utóbbinál egész más adatcsomag-formátum van, melyekben a kép és a hang (együtt) utazik, egy közös csatornán.
"Alapvetoen ha jo kepet akarunk egy jatekban, akkor kell egy hdr kepes videokartya es rajta futo hdr-es jatek, dvi, hdmi vagy ttl (lasd: laptopok) kapcsolattal a monitorhoz."
A kapcsolat szempontjából tök mindegy, hogy HDR vagy sem, mivel 24 bites a mai videokártyák képkimenete. (Amúgy is csak dual-link DVI-nél lehetséges a 16bpp.)
"Aki ilyet akar osszerakni, annak boven eleg ha a ket generacioval regebbi hardvereket veszi, pl. egy gf7900-as videokartyat, ami ugyan elavult, de a ps/3-ban is az van, tehat a multiplatformos jatekok nem fogjak kihasznalni az ujabb hardvereket."
PS3 bashing egy hsz-edbõl sem hiányozhat... Kár, hogy az általad kultivált Xbox360-ban sincs sokkal jobb grafika, és ott még a CPU is gyenge, hogy túl sokat segíthessen rajta a késõbbiekben. Arról már nem is beszélek, hogy a Cell a Physix kártát is pótolja, és akkor még közel sincs is teljesen kihasználva. (Mellesleg a fix hw által jobban lehet optimalizálni, mint PC-n egy újabb cuccra.)
"(a pc exkluzivok igen, de az mar mas kerdes)"
Azok sem, mert az átlag-pécé az alap, a többi csak ráaggatott opció.
"Es az elavult gf7900-asnak koszonhetoen meg dolgozni es jatszani is lehet rajta. Ha ennel jobbat veszunk, akkor meg azok a jatekok sem fognak szaggatni, amiknek a konzolos verzioja szaggat. A teljesen digitalis adatutaknak koszonhetoen jo kep es hangminolegrol nem is beszelve."
Ez is egy hülyeség, mert pl. PC-n szép idõt rabol el a DirectX, ami ugyebár megoldja a rengeteg különféle szóba jöhetõ grafikus kártyával való kompatibilitást. És amúgy sincs minden egyes típushoz külön optimalizálva.
"Ezt nem egészen értem, hogy jön az alfa channel az OLED-hez?" Átlátszó kijelzõ esetén (pl. két üveglap között, vagy áttetszõ e-papírnál) már értelmet nyer, hogy opacity értéket is kapjon egy adott képpont, hiszen nincs háttér, ami miatt feketének kellene lennie. Hogy miként kapcsolódik mindez az OLED-hez, az gondolom nem szorul magyarázatra.
A regi vga mara nagyon elavult, lcd-k eseten a digtalis-analog-digitalis konverzio nagyon sokat ront a kepen, amit aztan a pixel orajel hianya miatti pixelhatar csuszas meg el is ken (lasd: blur). Az olcso tn paneles monitorok keves szint ismernek, amit az ido/hely alapu dithering meg tovabb ront, foleg kis felbontas eseten (1200p alatt).
A dvi egy digitalis formatum, ami jelenleg akar csatornankent 16 bitet is kepes kezelni (48 bit/pixel). Parja a spdif, amibol ugyancsak letezik 8, 16 es 24 bites valtozat is (48 bit/csatornapar). Ezek egyesitett es masolasvedelemmel kiegeszitett formatuma a hdmi.
A display port egy ujfajta megkozelites, csak semmivel nem kompatibilis. Egy monitor/tv/erosito lehet dvi es spdif kompatibilis es igy szinte modositas nelkul ismeri a hdmi-t is. A displayporthoz meg kulon hardver kell, ami meg nem is szabvanyos...
A 8 bites szinmelyseg alapvetoen eleg szokott lenni, mind jatekok, mind valodi kepek eseten is. A jatekoknal az a nagyobb gond, hogy a szamitasok soran a precizitas nagy resze elveszik a kerekitesek miatt. Ez ellen talaltak ki a hdr technologiat, ahol a kep csatornankent 16/32/64 bitesen keszul, majd megjeleniteskor lesz belole 8 bites adat. Fontos megjegyezni, hogy a ccd szenzorok tobbezres tulmintavetelezest hasznalnak (anizo+antialias) mivel egy pixelt tobb ezer foton er el. Az uj kis cmos szenzorok kepe is azert olyen ronda, mivel a merettel lecsokkent a pixelenkenti fotonok szama. Ha 1 foton/pixeles cmos szenzort hasznalunk, akkor az pont olyan ronda kepet ad mint egy jatek, csak a fizika torvenyei miatt sokkal zajosabbat.
Alapvetoen ha jo kepet akarunk egy jatekban, akkor kell egy hdr kepes videokartya es rajta futo hdr-es jatek, dvi, hdmi vagy ttl (lasd: laptopok) kapcsolattal a monitorhoz. Kell egy digitalis monitor ami lehet egy jo lcd, plazma led, oled, lezeres vagy egy true hd crt is. A lenyeg, hogy trukkozes (dithering) nelkul tudjon legalabb 8 bitet csatornankent es eleg kicsik legyenek a pixelek a monitoron, hogy ne lassuk az rgb foltokat.
Aki ilyet akar osszerakni, annak boven eleg ha a ket generacioval regebbi hardvereket veszi, pl. egy gf7900-as videokartyat, ami ugyan elavult, de a ps/3-ban is az van, tehat a multiplatformos jatekok nem fogjak kihasznalni az ujabb hardvereket. (a pc exkluzivok igen, de az mar mas kerdes) Monitornak eleg egy jobb samsung is es eleg ha 1200p-t tud (wuxga), ezen menni fognak a full hd filmek is es a feliratnak meg mindig marad hely a kep _alatt_ igy nem takarja a szoveg a filmet. (felteve, hogy a 53 centi eleg a filnezeshez) Az egesz kijon viszonylag olcson, legalabbis egy hd ready (nem full hd-s, csak 720p-s) tv es egy rendes konzol arabol. Es az elavult gf7900-asnak koszonhetoen meg dolgozni es jatszani is lehet rajta. Ha ennel jobbat veszunk, akkor meg azok a jatekok sem fognak szaggatni, amiknek a konzolos verzioja szaggat. A teljesen digitalis adatutaknak koszonhetoen jo kep es hangminolegrol nem is beszelve.
Attól függ, hogy nézzük. A 32 bites pixel-módok (RGBA, és tsi.) alfa channeljét textúráknál használhatják különbözõ súlyozású színkeverésre két v. több textúra között, de mint adott képernyõtartalom megjeleníte nem nagyon van szerepe (az overlay pl. egy kiválasztható színnél 100%-osan látszik, a többinél egyátalán nem).
Illetve egyes spéci videokártyák tudnak genlock módban mûködni (rászinkronizálódnak egy külsõ videoforrásra), és olyankor lehet szerepe az alfa channelnek (az alfa channel által megadott arányban látszódik az eredeti kép az adott pixelen).
"Na de komolyra fordítva: Küszöbön az átlátszó OLED kijelzõk hada. Ezentúl lesz értelme használni."
Ezt nem egészen értem, hogy jön az alfa channel az OLED-hez? Vagy a 10+ bpp-s megjelenítésre gondolsz?
"A belsõ színfeldolgozás meg 16bit/ch."
Valóban, viszont ki tudja miért, a legjobbak is csak 24 bites képet fogadnak. (Valószínû majd újabb rókabõr lesz a fogadási bitmélység növelése.)
Inkább png-nek, és bmp-nek szokták hívni nálam. A digitális fényképezõvel készített képeknél amiket jpg-be ment(és egyáltalán nem rosszak a színek), kisebb színmélységen nem látni a színátmenetes csíkokat, egy játékból png-be, vagy bmp-be mentett screenshoton meg nagyon, és azt jpg-be mentve mégjobban. Szóval fényképhez látszólag kevesebb szín kell, mint a gép által generált képhez (játékok pl).
"Egyébként a HDMI 1.3 már támogatja a DeepColor-t, ami 30, 36, vagy 48 bites képet jelentene." Mint ahogy a DisplayPort is támogatja a 10, 12, 16 bitet csatornánként.
"32 bites módban sincs átlátszóság, nincs kihasználva." Most nincs, vagy nincs kihasználva? :o)Na de komolyra fordítva: Küszöbön az átlátszó OLED kijelzõk hada. Ezentúl lesz értelme használni.
"Az Eizo monitorai ma is 36 bites színpalettából jelenítenek meg" A belsõ színfeldolgozás meg 16bit/ch.
"...magasabb bitrátát is támogat (v1.2-tõl, asszem)" v1.3-tól.
HDMI vs. Display Port: a vetélkedés lényege a hatalmi/presztizs harc. A HDMI-t a HDMI Group hozta létre, ami néhány multi (Sony, Samsung, stb.) érdekeltsége, a Display Portot meg a Video Electronics Standards Association (VESA).
Na jó, de mennyibe fáj egy szinhelyes, grafikus melóra való TFT? :) A legújabb/legkisebb Eizo 20"-os monitor 160K.
A valós felvételeken általában dithering van, ami valamennyire kompenzálja a hiányzó színmélységet (azért nem 100%-osan). De ez inkább a régebbi felvételekre igaz, fõleg hogy pár rendezõ szereti a szemcsés képet (mert az olyan álomszerûbb, mint ahogy a 24fps is a 60(+)-hoz képest). De egyre több filmet nagyon jó minõségû digitális kamerával vesznek fel, dither v. mesterséges szemcsézés nélkül, ott nagyon is számít a megjelenítési színmélység.
"HDMI valószínûleg megmarad a házimozizás berkeiben, bár kitudja."
Már nem maradhat ott, mivel már régen megjelent a videokártyáknál és monitoroknál is. Korábban is hoztak ki HDMI-s kártyákat, és a mostani generációnál mind magasabb kategóriás Nvidia, mind az ATI kártyák támogatják egy kis adapter segítésével, amit a DVI portokra kell dugni, és a másik fele HDMI. A kettõ bizonyos mértékig eleve kompatibilis egymással, adatcsomag és elektromos jellemzõk szintjén, kiv. hogy a HDMI hangcsomagokat is ismer, viszont nem támogatja a dual-channelt, ezzel szemben magasabb bitrátát is támogat (v1.2-tõl, asszem), így tudja a nagyobb felbontásokat. (Az említett kártyák hangot is képesek rajta keresztül szolgáltatni.)
Talán mert nem csak 18 (6+6+6) bit + FRC-s TN monitorok vannak a világon? Az Eizo monitorai ma is 36 bites színpalettából jelenítenek meg 24 bitnyit, de nem úgy, hogy egyszerûen eldobják az alsó biteket (hanem PWM-es szabályzással), és képesek lennének full 36 bites megjelenítésre is. Valószínû õk lesznek az elsõk, akik elõször ilyen monitorokat kihoznak.
Azért jó idõbe telik, mire egy átlagpécé (amit figyelembe vesznek a játékfejlesztõk, hogy minnél többen megyvegyék a játékot, és amihez képest a nagyobb gépen már csak opcionális extrákat lehet aktiválni, ill. nagyobb felbontást) lekõrözi a konzolokat. Különösen a PS3 esetén, a Cell chip miatt (ami pl. fizikai gyorsítóként is szolgál, illetve késõbb ha kell, a grafikába is be tud segíteni, stb.).
"a mostani csúcskategóriás TFT monitorok kontrasztrációján már elég gusztustalan tud lenni még a truecolor dithering is"
Micsoda egyveleg... :P A gusztustalan dithering eleve kizárja, hogy csúcskategóriás. Te 18 bit + FRC-s TN+Film paneles monitorokról beszélsz, amik nem éppen a csúcskategóriát testesítik meg.
De azzal egyetértek, hogy a 24 (8+8+8) bites színábrázolást felbõvíthetnék már mondjuk 30 bitesre (10+10+10), mert igazi csúcskategóriás monitorokon 24 bites képnél is észrevehetõek a színlépcsõk. (Persze elég halványan, szóval nem a 6+6+6 + FRC-s monitorokról beszélek. Szóval a te problémád nem ez.)
Láttam olyan megoldást is, hogy volt a kártyán a DP mellett HDMI is, azt használja a user, ameliyket akarja. De továbbra se látom be, hogy a HDMI "hatalmas" liszenc költségei a drágább VGA kártyák, monitorok és pláne TV-k esetében miért is korlátozó tényezõ? És lesz egy fogadásom, hogy a kártyák DP-s verziója nem lesz sokkal olcsóbb, sõt.
Mint már említették: jogdíj.
Persze vannak más okok is... De egyik sem a Te javadat szolgálja...
Lehet, hogy hülye kérdés, de miért nem HDMI?? Miért kell millió "szabványt" gyártani. Ha a házi mozihoz jó akkor miért nem jó a Pc-s világban,
"Ezeknél simán látszik 16 és 32 bit közötti különbség, viszont egy digitális fényképnél, videonál egyáltalán nem, viszont egy játékból mentett screenshoton megint csak meglátszik. De hogy miért? "
Az okot jpeg-nek és mpeg-nek hívják. Mindkettõ erõsen veszteséges tömörítés.
Ha készítessz egy profi géppel egy fotót valami színekben gazdag témáról, a RAW formátumban még többmillió színárnyalat is lehet, de ha konvertálod jpeg-gé, még a legjobb minõsére állítva is csak néhányszázezer színárnyalat marad... Az mpeg még ennél is sokkal nagyobb mértékben csökkenti a színek számát...
Tájékozott vagy... egy geforce 7800gtx, és x1950xt nem igazán nagyságrendekkel jobb egy mainál, hanem rosszabb.
Egyébként én azt vettem észre nagy színmélység csak játékoknál kell, meg minden számítógép által generált nem természetes színes dolgoknál. Ezeknél simán látszik 16 és 32 bit közötti különbség, viszont egy digitális fényképnél, videonál egyáltalán nem, viszont egy játékból mentett screenshoton megint csak meglátszik. De hogy miért?
Tudtommal a DisplayPort free szabvány, vagyis nem licenc díj köteles, ezzel pár dollárral olcsóbb is lehet a kártya, mert nem kell kifizetni a DisplayPort alkalmazási jog díját. HDMI valószínûleg megmarad a házimozizás berkeiben, bár kitudja. Szerintem a DisplayPort fog PC-s fronton gyõzni.
Lenne is egy kérdésem egybõl, mennyiben tér el a HDMI-tõl tulajdonságban. Úgy tudom hangot is tud szállítani a DP, ha igen akkor elég erõs konkurencia lehet.
Pont két hónapja vettem egy új monitort ami már végre DVI csatlakozós. Most akkor dobhatom ki :-)
willard: "...szóval feleslegesen mérgelõdök." Márcsak ezért is:
"The Video signal is not compatible with DVI or HDMI, but the specification will allow pass-through of these signals." (DisplayPort)
Ja, nem kötelezõ megvenni, csak a PC mint tudjuk olyan, mint a LEGO, állandóan rakosgatni kell bele az alkatrészeket, és sokszor árukapcsolással kényszerítenek olyan alkatrészek lecserélésére, amiket még nem akarnál kidobni. Bár a fotón lévõ kártyán van DVI is, szóval feleslegesen mérgelõdök.
"Ha tényleg nagy elõrelépést akarnának, akkor miért nem inkább a 36/48 bites színmélységet (12 bites RGB(A)) vezetik be új szabványként, mikor a mostani csúcskategóriás TFT monitorok kontrasztrációján már elég gusztustalan tud lenni még a truecolor dithering is. Mért nem látják be, hogy zsákutcába haladnak?"
Mi értelme is lenne a jelenlegi "csodás" 6 bites TN és 8 bites egyébb TFT panelek mellett ilyet használni? Amúgy a Matrox Parhelia az nem 48 bites?
"Ezzel minden akadály elhárult a HDMI riválisa elõl, amely megkezdheti a térhódítást a személyi számítógépek szegmensében, ..."
Persze, hogyne. Dunát lehet rekeszteni a DP csatlakozós monitorokkal, hogy a "rengeteg" ilyen csatolós TV-t és egyébb házimozis komponenst ne is említsem.
"veszek egy konzolt aminek mindig egy nagyságrenddel (és nem egy fokkal) erõsebb bivalylórugás erõs grafikás csipjei vannak"
Muahahaha! Álmodban talán!
willard: Attól, hogy kitalálnak valamit, még nem kell feltétlenül költened a pénzed.
JTBM:"A 24 bit az 3*8 bit szín és 1*8 bit fényerõ, tehát nem 256 átmenet van pl. zöld színbõl, hanem 65 536..."
Már megint vak vezet világtalant. Truecolor esetén komponensenként 8 bitet használnak a színek leírására, ami 256 árnyalatot jelent. A +8 bit az alpha csatorna, ami az átlátszóság mértékét hivatott tárolni.
Itt van a kezemben 42e +áfa. Má egy hete kapni a bótba.
A Display port-nak a legnagyobb elõnye szvsz. a nagyobb sávszélesség mellett az, hogy sokkal egyszerûbbnek látszik a kezelése, kb. olyan lehet, mint egy USB.
Nekem a laptopomat beüzemelni és szétszerelni azért 3-4 perc. Ha a DVI-t nem kellene csavarozni, akkor azért gyorsabb lenne... (Dokkoló nincs a laptopomhoz és soha nem is volt olyan laptopom, amihez lett volna...)
A 24 bit az 3*8 bit szín és 1*8 bit fényerõ, tehát nem 256 átmenet van pl. zöld színbõl, hanem 65 536...
Ha a te monitorodon az átmenetet kockásnak látod, az nem a szabvány, hanem az olcsó monitor hibája.
Nekem egy Samsung 225BW van, 22"-es WS, 5ms-os képernyõvel. Nekem tökéletesen megfelelõ minõségû képet produkál, pedig csak egy TN képernyõ. Monition blur nincs rajta, szabad szemmel biztosan nem látható.
Ennél ráadásul vannak sokkal szebb képpel rendelkezõ monitorok is...
A rohadt életbe, hogy mindig kitalálnak valami szarságot, hogy költsd a pénzed. Nekem tökéletes a DVI. A PC-ipar évek óta egy helyben topog, semmi érdemleges elõrelépés nem történik. Ezt próbálják elalibizni ilyen fasságokkal.
Mire alapozod, hogy displayporttal fevértezett 9600GT hamarabb került a piacra, mint 780G chipsetes alaplap (szintén dp.-tal)?
"A VESA áldását adta a PC-piacon elsõként megjelenõ grafikus kártyák és chipkészletek megjelenésére, így a szabvány elsõként az AMD termékein jelenhet meg."
arrakistor: Csak remélni merem, hogy nem egy 100e HUF alatti, kalibrálatlan, magas dinamikus kontrasztúként feltüntetett, TN paneles csoda alapján alkotsz véleményt és tisztában vagy a megjeleníthetõ színek és a kontraszt jelentés beli különbségével, valamint a paneltípusok elõnyeivel/hátrányaival, ugyanis a hozzászólásaid erõs kétséget ébresztettek bennem. Kiváncsivá tettél, pontosan milyen monitorokra is alapozod a véleményed? Illetve nevezz már kérlek 2-3 'mostani csúcskategóriás TFT'-t, melyeket volt alkalmad élõben is (mûködés közben :) ) szemügyre venni, csak hogy lássuk, nem a levegõbe beszélsz. Mégis csak hitelesebb lenne. A lényeg egy mondatba sûrítve: Vacak TFT-n a 36/48 bites kép is ugyanolyan vacak lesz. Azért, mert eddig csak ilyet láttál, még nem kéne általánosítani.
"ha játszani akarok akkor majd ugyis inkább veszek egy konzolt aminek mindig egy nagyságrenddel (és nem egy fokkal) erõsebb bivalylórugás erõs grafikás csipjei vannak" A konzol kiadásától számított ~1-1,5 évig ez többé-kevésbé még igaz is, ezután a konzolok és a PC-hez megvásárolható hardverek teljesítménye között egyre nõ a szakadék az utóbbi javára, egészen a következõ generáció megjelenéséig. A konzol fix hardvere ugyan elõnyt és egyben kényszert jelent a programok optimalizálásra, de mire megjelenik az elsõ olyan játék, amely tényleg nagy mértékben kihasználja a 'vas' lehetõségeit, a PC nyers ereje már többre képes, optimalizáció ide vagy oda. Így lukadunk ki ismét az anyagiakhoz, lévén ez marad a legfõbb elõny a konzolok javára, azokat 4-5 évig nem kell fejleszteni. Természetesen ezzel nem azt mondom, hogy egyik vagy másik a "jobb", mert ilyen cimkét akasztani rá óriási butaság és jellemzõen azok szokták, akik szûklátókörûek, s fekete-fehérben látják a világot. Vegye mindenki azt, ami az igényeinek és pénztárcájának jobban megfelel.
"nem elsõsorban anyagi jellegû volt a hozzászólásom" Legalább magadhoz legyél õszinte...
nekem nem a felbontással van bajom, hanem azzal, hogy egy jó kontrasztarányú TFT monitoron , a truecolor már kevés. Ugyanis nem kell annyira jó szemûnek lenni ahhoz, hogy látni lehessen a színek hiányait és az a színátmeneket közti durva csíkokat. Akármilyen soknak is tûnt 10 éve még a 256 színtû színátmenet RGB komponensenként ma már ez kevés, különösen az általad említett felbontásonokon lehet észrevenni, igaz egy CRT monitor "ápol s eltakar" a "beépített" blurjával :D és ahelyett hogy a gyártók a 36bitet tolnák, jönnek mindenféle hülyébbnél hülyébb ötlettel, meg csatlakozókkal, meg sinekkel (PCI-E)
Pedig a mai processzorok és a mai hodály videoramok már bõvel elbírnák a 36 bites üzemmódokat is, nem is beszélve arról , hogy nég a PNG szabványt is felkészítették már jó elõre (úgy 12 éve) a 48 bites képek leképzésére is.
Hawaii: nem elsõsorban anyagi jellegû volt a hozzászólásom, ha megfigyelted volna, azt írtam: hogy ha érdekelne a 3D gyorsítás, akkor vennék egy konzolt, de hogy már az alaplapokat is külön a 3D gyorsítókártyákhoz igazítják , azt már enyhe túlzásnak tartom.
Te maradjál ennél a felbontásnál: 1024x768x24 bit De állítom, hogy nagyobb felbontást még életedben nem láttál vagy csak messzirõl. Én maradok a 2560x1600-on, és bíztosan állíthatom, hogy élvezem. azt is elmondhatom hogy egy nagy monitor kontrasztja sem olyan szar mint azt te hiszed. CRT-t nem üti de bõven elég. Sajnálom, hogy ennyire negatívan állsz a fejlõdéshez. A DVI-nek van értelme. Szebb kép, fõleg LCD-n. Egyszer talán majd te is megtapasztalod!
Lol a nagykerben most szétnéztem és minden gyártónál kb fele már DVI-s az új moncsiknak.
Most egy Acer 22" Wide AL2216W moncsim van. DVI-nél meg a kép sokkal élesebb, és szebb is. Igaz ez elõtt a 19"-os moncsim én is anyagi okok miatt még nem DVI-s volt, de láttam hogy mûködik, és inkább maradok.
A mai napig porig aláz minden 3D gyorsítócsippet a Half Life 1 (!) ismétlem : az EGY . az 1997-ben kiadott Half Life . Ami 0 3D gyorsítón is minden idõk legjobb játéka máig, és egy Pentium 1 166-on elfut.
ha játszani akarok akkor majd ugyis inkább veszek egy konzolt aminek mindig egy nagyságrenddel (és nem egy fokkal) erõsebb bivalylórugás erõs grafikás csipjei vannak, vagy ha látni akarom a hangya f*tyijén a pattanást miközbe lövöldözök a vietkongokra.
miért nem elég az 1024x768x24 bit 4 mega rammal ???? VESA local bussal , mint anno 10 éve... kit érdekelnek ezek a sz*r 3D gyorsítócsippes vackok, meg a 25 féle csatlakozós inkompatibilis trutyik.. PCI és S3 rulez ! Ha tényleg nagy elõrelépést akarnának, akkor miért nem inkább a 36/48 bites színmélységet (12 bites RGB(A)) vezetik be új szabványként, mikor a mostani csúcskategóriás TFT monitorok kontrasztrációján már elég gusztustalan tud lenni még a truecolor dithering is. Mért nem látják be, hogy zsákutcába haladnak? A Processzor dolga a számítás, nem a grafikás csippeké. A grafikás csippeké pedig az lenne, hogy szép képet aggyanak.
De én nem értem, önállóan ez a displayport nem nagyon fogja megállni a helyét. Miért kell most ez a teljesen más protokollt használó displayportra? Ha olyan a monitor/HDTV, hogy szükség van erre a felbontásra akkor HDMI szinte biztos lesz rajta, illetve DVI is. Most kiadják azt a kártyát amin szintén van DVI de displayport van HDMI helyett, ami nem biztos, hogy lesz minden hdtv-n vagy monitoron... (egyelõre tudtommal nincs is még). Lesz olyan monitor ami ilyen nagy sávszélessûgü csatlakozót igényel, de nem lesz HDMI bemenete? Hülyeség lenne szerintem.
Ez az egész annyira logikátlan számomra.
Nekem egyébként 19 colos monitorom van, DVI és RGB is van rajta, nem sok különbséget látok a kettõ között. (mondjuk nem egy túlságosan jóminõségû montir, 700:1-es kontrasztarányu HannsG, bár nekem elég) :)