lee a pincsi, te minek örülsz?jó be szót biró mi?xarrá alázott.Közbe meg nyaltad a pici makkját? :D:D:D:D
"és mennyivel lesz igy gyorsabb akármi, ha 1általán?" biró and lee a két idióta :D:D:D szakadok, lee te szoktál lenni a lány igaz? eme, felettéb magasan kvalifikált mondatod után, el tudom képzelni mekkora nagy sztár lehetsz.
"Többprocesszor felállás" -ra én azt hittem a multiCPU-s rendszereket értik, és ezért is volt fura, hogy ezt most hardveresen támogatják, mer eddig akkor mi volt? :)
De ha a több magos GPU-kra vonatkozik akkor ezek szerint, a crossfire egész idáig szoftveresen mûködött, és van ennek bármilyen teljesitménynövelõ haszna hogy ez most megváltozik
Szerintem nem csak errõl van szó. Azt hiszem, korábban a CrossFire-támogatás nem volt beépítve a chipekbe (ellentétben az SLI-vel), de most már be lesz.
Nem sikerült tûl értelmezhetõre a kérdésed, de megpróbálok válaszolni.
A "többprocesszoros felállás" azt jelenti, hogy egy kártyán több GPU van. Ilyen pl. a 7950GX2. Természetesen RAM is külön van minden GPU-nak. Ez majdnem olyan, mint az SLI, csak a proci felé van kisebb sávszélesség. Cserébe viszont sokkal olcsóbb, mint két külön kártya. Hogy mennyit gyorsul, az sokmindentõl függ. Ha jól rémlik, olyan 30-50 százalékos gyorsulást lehet elérni.
"...mindkettõ esetében hardveresen támogatják a többprocesszoros felállásokat,..."
hmm, ez most akkor mit is jelent, ezekszerint akkor a régebbi dx9 kártyák (talán még a 8800 család is?) nem igy van ezzel?, és mennyivel lesz igy gyorsabb akármi, ha 1általán? (phu, nehéz mondat és korán van):)
és a 64bites oprendszerekrõl még nem is beszéltünk.....
MÁR MOST is VAN program és driver is...BiróANDRÁS szerint.... Egyébként meg nincs :D de aki a seggét is pénzel törli annak pont jó a 8800GTX > sokat fogyaszt,qva nagy,nem lehet kihasználni dx10-re még stb...tipikus kockáknak meg idiótáknak van.AKinek van esze megvárja még kijön az r600 és lenyomja kicsit az árakat + kijön felsõközép is
CSökkenteni fogják, csak gondolom nem akartak egyszerre küzdeni egy teljesen új felépítésû kártyával, és az új gyártástechnológiára való átállással is. Jobb azt két lépésben megcsinálni, vagyis elõbb kijön a 90nm-es 8800, aztán ha nincs semmi gond, pár hónappal késõbb kezdhetik 80-on nyomni.
Nem tudom ez mikori hír, de elmúlt 1,5 hétben volt a hír, hogy FS X DX10 patchet eltolták, a Crysis utolsó megjelenési dátuma meg már 3-4 hete 2007 szeptember közepe ...
Megjegyzem nem is nagyon lenne min futattni, mivel az egyettlen kapható DX10 kártyához jelenleg NINCS mûködõ képes DX10 driver. Ma jelentette be az NVidia, hogy a Decemberre(!) kitüzött driver január végén jön ki. Már ha el nem szúrják ...
"In fact, a lot of DX10 games are delayed. Crysis and Flight Simulator X have both pushed off their release dates to at least late Q1 07, if not Q2 or Q3. The main reason behind this is the lack of DX10 hardware support for these games, and we will be lucky if there is a DX10 beta of Flight Simulator X on the launch day of Windows Vista."
Inquisitor:
"Nem mellékesen elvileg DX10 ugyan azt tudja, mint DX9, csak egyszerübben, gyorsabban és észerübben renderel a drivermpdell és a DX10 vasak felépítésének hála ...) "
Én ezt nagyon jól tudom, de szerinted mellékesen ez kizárja azt, hogy ezáltal részletesebb , tehát a végfelhasználó szemével nézve szebb grafikát tudnak elõállítani.. ?!
Hát én kíváncsiságból letöltöttem tegnap ennek a Flight Simulator X-nek a demoját, de csúnya is a grafikája, meg akad is mint az állat. Szóval így DX9-es állapotában eléggé... szar.
"flight simulator nemsokára itt van és iszonyatos grafikája van dx10-zel, " Te ezt honnan tudod, csak mert internetten pár darab photshopolt "concept" képnél több sose jelent meg a DX10-es verzióról. A vicc az, hogy sose állította senki azok ingame képek, még is bekajálták sokan. (Nem mellékesen elvileg DX10 ugyan azt tudja, mint DX9, csak egyszerübben, gyorsabban és észerübben renderel a drivermpdell és a DX10 vasak felépítésének hála ...)
"flight simulator x beta? (nemvagyok benne biztos)" És milyen jól teszed, hogy nem vagy benne biztos. Nemrég jelentették be, hogy a "DX10 patch"-et bizonytalan idõre elhalasztották ...
szerintem ez az ATI marketing kampányának része!!! Miért is? - Az ismertebb hardware oldalak Magyar és külföldi egyaránt tesztjeikben 8800GTX min40% max 80% verte az ati X1950XTX Crossizéjét. Itt néha még ki is kap, ahol megelõzi ott is alig-alig??????? No ettõl kezdve röhejes az egész. Prohardver idézet:
"Radeon X1950 XTX és a GeForce 7950 GX2 eddig közösen osztozott a VGA-s trónon, ugyanis a 7950 GX2 két processzorának nyers ereje nem minden esetben érvényesült a számolásban – eddig – verhetetlen Radeonnal szemben. Nos, a GeForce 8800 GTX mindkét kártyára átlagosan 50%-ot, komolyabb shaderes játékokban még többet vert, így toronymagasan új bajnokot avathatunk."
Egyébként tökmindegy ugysem veszem meg egyiket sem, majd ha lesz belõle középszintû cirka 30 000 ft. -os verzió. Csak ezeket a megbízhatatlan preteszteket nem szeretem.
Szerintem hülyeség volt megvenni a 8800-at rögtön (úgy ahogy én vettem meg hülye módon az 1900xt-t az elsõ héten...:( ), mert tényleg nem tudni hogy melyik kártya lesz a durvább, és borzalmas ára van még mindig.. jelenleg 100körül buknék ha eladnám az r580am...
Igen Tinman, a flight simulator nemsokára itt van és iszonyatos grafikája van dx10-zel, de a fene tudja, akinek van rá pénze megveszi, aki meg okos, vagy nincs rá pénze az várni fog. Én úgy érzem várni kéne, mert a driverek is kiforratlanok még a dx10 kezeléséhez, az ár is lejjebb megy stb, stb..
De nagyon kiváncsi vagyok milyen lesz az r600 hûtése, mert az r580 borzalmasan fût, és nagyon hangos a gyári venti.
Amúgy nem tudja valaki milyen arányban van a 2 cég? ATi-AMD, %-osan?
1. akkor mi vonzotta eddig vajon a 8800GTX és GTS vásárlókat :)
Majd ha lesz egy komoly teszt, akkor lesz érdemes foglalkozni olyasmivel, hogy mennyit is fogyaszt valójában. A GF6800Ultra-hoz is eredetileg 55W-os táp volt az ajánlott, a GF8800GTX esetén voltak hírek 400W körüli GPU fogyasztásról...
Nemcsak kisebb fogyasztás, hanem nagyobb élettartam is jön, mind a procinak, mind az alaplap bizonyos alkatrészeinek. Egyébként ilyen "inkább kisebb fogyasztás, és kisebb hõtermelés a teljesítmény árán" ilyerõl sohasem volt szó, és sohasem így csinálták. A mobil processzoroknál volt a kisebb fogyasztás, kisebb hõtermelés, azonos teljesítmény, nagyobb ár. ennyi
Idézet a cikkbõl, ami a Level505 (hallott már errõl valaki?) cikkére támaszkodik: "...valamint természetesen a DirectX 10 támogatásával érkezik, még a hónap vége elõtt." -- Na persze. Most jelentette be az ATI/AMD, hogy jövõ nyárra hozzák ki. Kb. ennyire lehet megbízható az egész teszt is...
3 év?! Te azt hiszem tényleg nem láttad a Flight Simulator X-et...
És játékprogram is lesz hozzá 3 év múlva ami kihasználja?
Ez így nem jöhet ki, mert ez a nagy fogyasztás az AMD "inkább kisebb fogyasztás, és kisebb hõtermelés a teljesítmény árán" elveibe ütközne, szóval az AMD ezt nem fogja hagyni kijönni. Óriásit szívott az ATi, hogy eladták magukat az AMD-nek... Lehet, hogy így sokkal stabilabb lett a cég gazdasági helyzete, nem kell féni csõdtõl, és hasonlóktól, de az AMD nagyon bele fog szólni a dolgokba...
Na jó, ez azért kicsit túlzás, de akkor is bele fog szólni még ebbe az AMD...
Ha ettõl lemegy a 8800GTX/GTS ára akkor hajrá Ati-Amd!:D:D
Szerinted érdekelni fogja azt az embert az x wattal több fogyasztás, aki 170 ezer ft-ért vesz videókártyát? (meg mellette a 3-400 ezres konfig) :-) mert sztem nem.
Ránéztem a Level505 oldlára, csak 230W-ot fogyaszt az R600. Nem vészes, fõleg, hogy soká lesz még olyanom...
Tényleg idegesítõ, de most inkább maga az ATI/AMD miatt. 50%-kal többet fogyaszt, mint a G80, miközben nem lesz ennyivel gyorsabb, drága is, és állítólag még vagy fél évig meg sem jelenik... Nem lesz jó vége, ha az Nvidia túlzottan elhúz.
"A várható árat 630 dollárra becsülik, ami az öreg kontinensen természetesen kicsit emelkedni fog." Tehát egy beszállító és egy forgalmazó minimum itt nálunk (hacsak nem egybe a kettõ ) amin átfut a kártya, tehát lesz ez a duplája is...ismét érdemes hozatni ismerõssel amcsiból vagy mégjobb esetben ázsiából
Gabeeinek igaza van, nem eszik 300W-ot a 8800GTX. Az általa említett teszt nagyszerüen bizonyítja. Ott vannak a speckók is: PCI-E csatiból max.75W+2*75W a hátsó tápcsatikból. És ez a max, erõsen túlbiztosítva (idióta tuningosoknak).Szóval ez az ATI kártya egy szörnyszülött. Ha majd átállnak a 23nm-re, akkor majd nem eszik csak 250W-ot (alap órajelen). Addig is indulhat az új blokk Pakson...
Az Nvidia 8800GTX 300W körül zabál full teljesítmény körül... egyébként aki ilyeneket vásárol annak nem gond a nagy táp meg a villanyszámla és nem a gázártámogatásért áll sorba...