"A grafikus kártya piac felét akarja az AMD" Azt még talán,mert a proci piacon,ahoz hogy elsõ legyen kell neki vagy 20 év... Mellesleg amennyire elszurta az NV az utobbi 9 honapabban meg is értem az AMD álláspontját.
Nem a több "mag" volt ott a gáz, hanem hogy egy idõ után nem újítottak rajtuk, csak a számukat növelték.
Nvidia - Physix... Talán hallottál róla. ATI kártyákon is megy, de nem hivatalosan, így Xbox360-on sem. Amúgy is erõsen terheli a CPU-t is a GPU-s megoldásban (Cellen viszont szépen megy).
Az AMD az Intellel együtt inkább a Havok Physics-et támogatja, ami alapvetõen CPU-ra alapozott cucc (*), nem csoda, hogy az Intel inkább ezt újította be a Larrabee-hez (ami egy CPU tömb, adott esetben GPU szerepben). Az AMD meg vélhetõen a performance szegmensû Fusion, ill. a késõbbi SSE5-ös CPU-ikhoz szánja. Hogy a GPU-ikon hogy megy, az kérdéses. Az meg fõleg, hogy a Xenos-on.
* Nem keverendõ a Havok FX-szel, ami direkt GPU-s gyorsítású volt, azonban erõsen butított változatban. Egy ideje nincs is róla semmi hír.
Nem is olyan régen talán az sg.hu-n fórumoztak sokan arról , hogy az amd csõdbe megy és minden az nvidiáé lesz és minden drága lesz , nagy szerencsénkre nem így lett ( ezt az üzenetet amd csipszettes amd procis amd vga segítségével gépeltem :D )
A többmagost a Voodoo kezdte el erõltetni, majd halálakor szõröstül-bõröstül felvásárolta az nVidia. A T-buffer technológiákat is, amelyek az elsõ moziélményszerû lehetõségeket biztosították az asztali szegmensben. Mégsem hozakodtak elõ vele egyhamar, csak mikor már az ATi is hozta a saját változatait.
Az elfelejtettek és nincs idejük két külön fogalom. Gyakorlatilag a szoftverfejlesztés is már csak egy termelési iparág. Relative gyorsan kell elkészülj, optimalizációra egyszerûen nincs projekt keret sem idõ, sem pénz tekintetében.
"ATI-ra váltottam: joggal! Az NVIDIA kezd voodoosodni. Leáldozóban csillaguk." Valamilyen szinten igazad van!De ha csip félépítését nézed akkor tévedsz bandee1 mert a többmagos GPU az AMD-ATI kezdte el erõltetni de õk jól csinálják ez a különbség a két cég között én is egy ideig Nvidiás voltam de már a második kártyám hûtésével sz***k t***m kivan velük.Én csak az elhízott disznó effektus ként jellemzem ha már megszedtük magunkat nem kel gondolkodni tegyünk bele mindenbõl többet és agyuk el vadi új fejlesztés ként pedig csak a régit dupláztuk....Remélem lentebb engednek az arc bol! Nvidia
akarni a vécén kell, a valóvilágban, tenni is kellene valamit érte... :S
Mindig is NVIDIA párti voltam, szinte az összes szériához volt szerencsém. Azonban Geforce 7 széria után már nem 8-ra, hanem ATI-ra váltottam: joggal! Az NVIDIA kezd voodoosodni. Leáldozóban csillaguk.
ebbõl a notis gpu halálból (g84,g86) lesz még cirkusz.. bármennyire is tagadja az nvidia de ebbõl komoly anyagi és presztizsveszteséget lesz kénytelen elkönyvelni..
Most nem azért de kitörölte ki a hozzászólásomat? Nah ennyit az sg.hu-n ról én égetem magam itt hogy egyáltalán beirok a forumba.
Most már tudom eddig csak körül belülre tudtam de már tom 100% mi van a boxban:D
Szerinted már 3 éve kész volt az R700 (55nm-en ráadásul), ami csak most jött ki? Elvileg R500 a kódja, ami az R600 elõdje (sokkal inkább, mint az R520, ami akkoriban PC-s vonalra jött).
Mint írtam, a PS3 RSX nevû GPU-jának alapja a 7900GT (G71@550MHz). (7800 = G70, ami még nagyobb csíkszélességgel készült, stb.)
ha jól tom az X360 ban R700 alapu GPU van(az meg a 48xx sorozatú ati VGA alapú) PS 3 meg tényleg egy 7800 GTX van de azt is nézni kell hogy nem PC VGA van a konzolokban:D
Az nem hozzá, sokkal gyorsabb is. Az x2xxx-es szériások is.
Ott van a kb. jel elõtte. De a lényeg, hogy egy ma már középkategóriásnak számító kártya (már egy HD3870-es is csak 25 ropi) hozza ezeknek a teljesítményét.
PS3 esetén meg 7900GT. Nem olyan rossz azért ez sem, pár paraméterét a mai középkategória sem éri el.
Egy sima 2-magoson meg csak azok a játékok mennek, amik nem használják ki a Cellt.
Igaz, a multiplatformosok ilyenek -- legalábbis amíg el nem kezdik használni a Physix-et v. a Havokos fizikát, amik portolva vannak PS3-ra is. (Akkor az Xbox360 bajban is lesz.)
Bár a Physix most már megy GPU-s gyorsítással is, de a hírek szerint csak részben számol a GPU, a CPU-t is alaposan beterheli.
Ennél jobb már csak az lenne ,ha az AMD-nek sikerülni ugyanilyen meglepetést okoznia a cpu piacon is. Össze tudna ütni jobb áramkört 45 nm en mint a nahelem, akkor megint egyenesbe jöhetne a cég. A cég mindig pulzált az életútján, idõközönként mindig sikerül nagyot alkotnia, de már csak akkor ha halálfélelmei vannak a mérnökeinek,hogy meg fog szûnni a munkahelyük, akkor kapcsolnak rá csak. :(( Aztán évekig döglõdnek :(
Hát ha megnézzük, hogy milyen idõtávra választotta ezt a kártyát akkor jó döntés volt, mert a Dynamic Branching miatt az x1600 már hozza a GF7900 teljesítményét is az új programokban (fõleg Unreal Engine 3). Persze az tény, hogy ma már ez is kevés.
Optimalizálnak õk, csak a next-gen konzolos vasra:) Szal ha van olyan vidkarid, ami x360-ba ill. PS3-ba van (ati ~HD 3650 ill. nv 7800GTX), meg min. 2 magos procid, akkor simán mennek a játékok:)
Hát ami a gép fejlesztést illeti kb 3-5 évente nem probléma ,szerintem a nagy átlagnak.Kb ennyi idõ kel egy gép le amortizálódásának.Ezért aki a fejlesztést ésszel csinálja az egy sokáig használható gépet kap.
nem felejtettek el optimalizálni csak éppen szerintük felesleges.. elkezdik megcsinálni x hardverre, mondván majd fél év és addigra lesz hozzá gép is
de sajnos kötelezõ, mert a csúnya programozó bácsik elfelejtettek az elmúlt években optimalizálni. minek, amikor úgyis pár hónap alatt elavul a legdurvább csúcskártya is?
nem kötelezõ kártyát cserélni csak azért, mert elérhetõ nagyobb teljesítmény!
visszafelé azért ezek viszonylag kompatibilisek...szóval elvileg még egy jó darabig mindent elfuttathatsz rajta. egyébként az x1600 már akkor is gyenge kártyának számított amikor kijött. az hogy akkoriban nem 6600gt v 7300gt(ddr3) - t vettél, ugyanannyi pénzen csak magadra vethetsz :)
waaaaghhh, ne ijesztgess ilyenekkel, hogy gyorsabb legyen a fejlõdés... örülök, hogy még a két éves x1600pro épp hozza a minimumot-mediumot közepesen, a fene akar olyan gyorsan kártyát cserélni.
Nvidia elpuhult röfi ami jól megszedte magát és ellustult. Remélem az AMD-ATI jó oda sóz neki hogy gyorsabb legyen a fejlõdés! Meg persze kevesebbéért adja a kártyáit! Amúgy nvidiával nagyon elszaladt a ló!!Ez mutatja az árazása is... Ellen példa az AMD-ATI ott viszonylag olcsón legalább olyan erõs kártyákat gyártanak fele annyiért!!
a helyesírásod megmutatja, mennyire mérvadó a véleményed.