OFF Ha readswift-et valaki az elején kitiltotta volna, nem lenne így teleszemetelve a topik, hamarabb végigolvastam volna... :) No ezért is baj, hogy itt tart a magyar foci, az emberek szurkolási hajlamukat olyan hétköznapi dolgokon élik ki, mint egy HW gyártó (ez nagyon gáz). ON Ebbe az nvidia vagy belebukik, vagy nagyot fog kaszálni! OFF
Nem komplett a kérdés... nem létezik olyan, hogy "melyik a jobb?" csak olyan létezik, hogy "adott feladatra adott feltételek melett melyik a jobb?"
Az ami nekem jobban megfelel az fCPU + cGPU :) persze a jelenlegi esetben az i7+Fermi lenne az amivel nagyon meg lennék elégedve vagy akár az i9+Fermi (nemsokára), de ez túl sok pénz ezért amit én magam célzok most egy Fermi-- (nem a top hanem a középkategória mint pl. a 9600GT a 9 soroyatnál vagy a GT260 a 200-as sorozatnál) ehhez a Core2 Quad-hoz ami van, amikor meg majd kijön a Sandy Bridge akkor majd lesz teljes gép csere addig nem mert nem sok értelme van... (újat venni egy dolog, meglévõ hardvert cserélni már más dolog). Ami viszont a Larrabee-t illeti szerintem szép általános megoldás lesz ezen a területen amelyiken most az nVidia lépett elsõnek de nem hiszem, hogy a felsõ kategóriában az nVidia megoldásaival versenyezni fog. Tehát az inkább majd az integrált olcsobb megoldásknál lesz a bomba, és az jó lesz, de nem fogja kiszolgálni majd az igazán igényes felhasználókat. Ami az AMD/ATI-t illeti majd meglátjuk hiszen õk is ebben az irányban gondolkodnak csak esetleg lépéshátrányban vannak... ahogy mondtam én azt szeretném ha mindnek jól sikerülne mert a jövõ gyorsabban jön ha a fejlesztéseket többen végzik és sok mindent megosztanak mint ha csak egy valakitõl kell mindent várni. Kár, hogy nincs még néhány cég amely ezen a területen nagyot alkot. Tehát mégegyszer én nem vagyok egyik megoldás ellensége sem, csak éppen azt gondolom, hogy az nVidia volt az aki elsõnek meglépte azt a lépést ami ugyan elsõ látásra kockázatosnak látszik, de az igazán kockázatos lépés a már meglévõ továbbhúzása... ideje volt lépni és az nVidia ezt megtette, hiszen már a CUDA sikerével õ volt a legjobb helyzetben... persze koránt sem biztos, hogy a jövõben õ fogja a legjobb megoldást szállítani, (az mp3 lejátszót sem az Apple lépte meg elõször, de most ugye urajla a piacot) de mindenesetre jó úton van, hogy a jövõben viszonylag magas és valós elvárásaink legyenek a fejlesztéseik iránt. Röviden, bizonyították, hogy jelenleg tudják hol is lesz a közel és középjövõben a tûz.
Na miután másodszor is elolvastam a magyarázatot, rájöttem mire érted azt az fCPU-t. De nem helyes, a Larabee egy új arhitektúra, amit elsõdlegesen HPC szegmensbe tervez az Intel (leginkább x86 utasitáskészlettel rendelkezõ GPGPU-nak mondanám), CPU-nak valószinûleg nagyon sokáig nem lesz alkalmas. Az AMD Fusion ezzel szemben egy AMD CPU (Bulldozer) és egy GPU egy lapkán. Õk tudtommal egyelõre nem terveznek Larabee-hez hasonló terméket. Nem is lenne rá kapacitásuk, Intel is valószinûleg nagyon sokat fog a Larabeen bukni amig az valóban használható lesz.
A felsorolt lehetõségeket nem teljesen értem. Hogyha általános számitásra kell gép és nem számit a pénz, akkor valószinûleg i7+Fermi lesz a nyerõ egyelõre, játékra viszont Phenom+58xx.
Kicsit más, de böki a csõrömet:
Nem tudjuk, hogy játékok alatt fog muzsikálni az 5800-as széria Phenom procival (nem láttam még olyan tesztet), mert mindenhol i7-tel tesztelték, pedig régebbi tesztekben magasabb felbontáson legtöbb helyen a Phenom gyorsabb volt.
Nekem valahol sántit az, hogy a 4GHz-es i7 nem tudja kihajtani rendesen az 5870-et. Legtöbb helyen ezt mondják, de szerintem valami driver dolog lehet a háttérben. Érdekes módon egy 4890CF vagy 4870X2 CFX rendszernél (ami gyorsabb) magasabb felbontásnál alig lehet CPU limitrõl hallani, 5870-nél viszont valahogy elõjött. Tesztet akarok más CPU-val és újabb driverrel, addig nem tudom elfogadni ezt a NEMHAJTYAKI maszlagot.
"azt hiszem ez egyértelmûen azt mutatja, hogy ebben a pillanatban az nVidia az aki jobb lépést tett"
Ez koránt sem biztos. Az ATI 5xxx valóság, az nVidia GT300 meg papírtermék, ami nagy valószínûség szerint idén az is marad. Ha meg 2010-et nézzük, akkor még csak körvonalakban sem igaz az állításod. Ugyanis pár hónapnyi elõny nem elõny.
Szerinted melyik a jobb kombináció? 1. CPU + GPU (pl. Intel i7 + ATI 5xxx) 2. CPU + cGPU (pl. ATI Phenom + nVidia GT300) 3. fGPU + GPU (pl. AMD Fusion + nVidia GTX 295)
Magyarázat: CPU: "hagyományos" CPU fCPU: CPU Fusion: AMD Fusion vagy Intel Larabee GPU: klasszikus GPU + "lassabb" GPGPU cGPU: compute GPU (nVidia terminológia a Fermi-re)
Szánékosan nem írom az fCPU + cGPU párost mert az egyértelmûen jobb mindnél.
nekem nvidia kártyám van, tök jó meg minden, de már szégyellem lassan, mert az nv vérfanboyoknál mocskosabb genny nem létezik a földön
"...sok kártyát elad még az ATi, nem kell félteni ! "
basszus, nkmedve, ha hajlandó lenne fogadni akkor most elnyerhettem volna a vidkártyáját, nem lenne ilyen 10 percenként fagyós szar 4850-em amit lusta vagyok visszaküldeni gariba
"Természetesen igazad van, mindenki azt használ amit akar. Neked a GPGPU szerep elsõdleges, azon a téren nyilvánvalóan NV jobb. Nálam még elsõdlegesen játékra kell a GPU, azért van AMD kártyám és azért mert szerintem az RV770 sokkal nagyobb mérnöki bravúr volt, "
tomcsa4, akkor te meg legyél punk.
Ez a readswift egy idióta.
Természetesen igazad van, mindenki azt használ amit akar. Neked a GPGPU szerep elsõdleges, azon a téren nyilvánvalóan NV jobb. Nálam még elsõdlegesen játékra kell a GPU, azért van AMD kártyám és azért mert szerintem az RV770 sokkal nagyobb mérnöki bravúr volt, mint a GT200. Ha a Fermirõl eddig hallott infók igazak és tényleg jó teljesitménye lesz, akkor azt fogom mondani, hogy nagyon szépen elvégezték a házi feladatukat NV-nél, AMD oldalon viszont az RV870-tõl eddig nem estem hanyat (ez új driverekkel, vagy új játékoknál mondjuk változhat)
Abból amit linkeltél, a cimmel nem értek egyet, hogy a DX10 az utolsó releváns DX (régebbi cikk mondjuk) másképp viszont Sweeney eléggé igazat beszél.
Szerintem pont a DX11 lesz az utolsó lényeges API, mert az tényleges újitásokat hoz (sebesség, könnyû fejlesztés, visszafele kompatibilitás, tesszellátor, többszálúség, compute shader) ezután viszont már nem lesz értelme tovább bonyolitani a fix funkciós arhitektúrákat. DX11 lehet az ami még néhány évig, a software render beköszöntéig itt lehet velünk, és ezért most még akinek grafikára kell a GPU, az nyugodtan befektethet egy jó DX11-es GPU-ba ami jelenleg csak AMD-nek van, de meglátjuk, hogy az NV karik hogy fognak muzsikálni, én azelõtt úgyse tervezek újitást.
Kicsit furcsa ez a jövõbe való tekintgetés. AMD eddig azt igérte, hogy valós DX10-DX10.1 alatt ki fog jönni az RV770 ereje, ami igaznak is bizonyult (csak sajnos kevés olyan dolog van ami kihasználná). Az RV870-nél megint ez van, csak most a DX11-rõl van szó és valószinû megint igazuk lesz (itt úgy tûnik hamarabb jönnek a támogatott játékok). NV kártyája viszont nehéz eset. Ha grafikában gondolkozik az ember, akkor nem tûnik túl jónak az új arhitektúra, sõt látszólag egyáltalán nem jó. DX11 alatt valószinûleg nem lesz gyorsabb az RV870-nél, de viszont többe kerül elõállitani, tehát az árverseny NV-nek megint nem lesz elõnyös. Mondhatnánk azt is, hogy 5 év mulva esetleg ez lesz a jobb a két arhitektúra közül, ha bejön a software render, de addig viszont már a teljesitménye lesz nagyon kevés. Szerintem egyelõre még mindig igaz az, hogy grafikára inkább AMD a jobb, mig GPGPU-ra NV, mindkettõt ott kell használni ahova tervezték. Persze nagyon várom a teszteket, lehet hogy Fermi megjelenése után megváltozik a véleményem. Ha az NV lesz a jobb játékokban is (jó áron) akkor azt veszem majd.
Játékos nem vagyok (bár nem nagy), és szerintem (vagyis nekem) többet ér a GPU számítási képessége (ezért van nVidiám - CUDA), de nem vagyok nVidia bolond és ami azt illeti az AMD/ATI ellen sincs semmi kifogásom... mondjuk úgy, hogy mindenki azt használ ami az adott pillanatban az adott feladatra alkalmasabb, de egy valamit azért érdemes lenne elolvasni mielõtt valami komolyabb "háborúba" indul az ember...
...azt hiszem ez egyértelmûen azt mutatja, hogy ebben a pillanatban az nVidia az aki jobb lépést tett, õ az aki megalkotta a Purple Cow-t (Seth Godin), õ az aki megalkotott egy olyan terméket amelyre felfigyel az igazán igényes piac, ha tetszik ha nem ez a termék az amit Seth Godin FIGYELEMRE MÉLTÓNAK nevez vagy inkább RENDKIVÜLINEK... ez az a termék amely majd lépésrõl lépésre piacot hasít magának és lehet, hogy grafikai teljesítményben még az ATI alatt marad (persze ez sem biztos), de ez nem egy olyan kártya ami csak egy kicsit gyorsabb mint az elõd (az ATI viszont igen), ez az a termék amely olyan utakat nyit amelyeken eddig nem jártunk, szóval ez egy gyõztes termék lesz... mondom még akkor is ha gamer teljesítményben az ATI mögött lenne. És nem holnap kell ezt a kártyát nézni sõt nem is 2010-ben azok az alkalmazások amelyek majd ez miatt jönnek nem nagyon fognak látszani 2-3 évig és valószínûleg majd a "Fermi 2"-vel ütnek nagyot, de ez az a termék amely ezt az ösvényt kezdi taposni és remélem a jövõben az nVidia az AMD/ATI az Intel és ha lehet még valaki más is ebbõl az ösvénybõl igazi szélet útat fog csinálni. A jövõ szépen néz ki :) az a fontos, az apróságok meg egyáltalán nem kell zavarjanak senkit.
Na emiatt az ocsmány flameelés meg szítkozódás miatt kezd egyre jobban elmenni a kedvem az sg-tõl, Nem hiszem el, hogy nem lehet valamit értelmesen megbeszélni, annélkül, hogy nekiállna mindenki hülyézni. ON: Remélem valami kellemesen combos mobilváltozattal fognak majd megjelenni nyárra, vagy tényleg leküldik a mostani top-ok árait, ideje lenne valami korrekt lapit beújítanom :)
Figyelem: a képen nem egy GT300 látható, hanem egy fejlesztés alatt levõ GF100 - ami egy új generációs Tesla prototípus. Ennek megfelelõen nem egy DVI/HDMI vagy DisplayPort csatlakozó látható rajta, hanem egy külsõ PCI Express csatlakozó. Ezért is van belõle csak egy.
Sajnos ez a cikk is áldozatul esett a nagy kavarodásban, lényegében alig 1-2 célzás látott napvilágot a GT300 kapcsán, és az nVidia valójában a Tesla utód Fermi architektúrát demózta. Hogy a játékra szánt kártya mennyire lesz lebutítva a HPC és szuperszámítógépekhez szánt Fermi/Tesla kártyákhoz képest az még szupertitkos.
Árnyékok még döcögnek, arcok bábusak ... egyszóval csak erre képes ez a cucc? hát ez gyenge :D
Az a baj Veled, hogyha Atiról van szó, akkor tényeket akarsz, amiket mellesleg rögtön leszarsz. Ha meg nVidia-ról, akkor megelégszel a feltételezésekkel."Ha ez jön, ha az jön ki,majd ilyen jó lesz, majd olyan jó lesz...". Innentõl Veled vitatkozni, számodra érveket felhozni felesleges.
'Gyönyörü érvelést olvashattunk ismét, ha már a témához nem tudunk hozzászólni' - csak ismételni tudlak.
Ha nVidia nemjön ki tavaszig a kártyájával, addig az AMD szabadon garázdálkodhat az árakkal. Márpedig TE vagy az barátom aki benyalta az nVidia marketinget, egy fake demo kártyával, ráadásul még hazudnak is. (A játéklefizetõs dolog, meg átnevezõsdirõl - konkrétan azt sem tudom melyik GeForce melyik - ne is beszéljünk)
Bár lenne igazad, már holnap kijönne a Fermi... Te örülnél mert igazad lett, én meg bolgod lennék az árcsökkentett 5850-esemmel.
szitu van, állítólag fake az a kártya és chip amit mutogattak. Lehet rá keresni guglin, van egy pár oldal
igy jár az aki benyalja a marketinget, dõl belõle a vegytiszta bullshit!
"Ez is igaz, viszont vedd számításba az AMD, processzorokban szerzett több éves tapasztalatát,licenszek stb... és oly szándékát, hogy nemsokára jön a Fusion. Addig meg AMD esetleges monopol helyzetben (sajnos) szarrá gazgagszik rajtunk. Bárcsak ne így lenne! :)"
a dolgok jelenlegi állása szerint a fusion nem más mint vaporware. Mutass timelinet.
gyönyörü érvelést olvashattunk ismét, ha már a témához nem tudunk hozzászólni egy kis személyeskedés még bármikor belefér igaz? Medve, bármiben fogadok hoyg még ismerõsöd sincs aki bármi hasznos dolgo müvelne gpuval.
Hagyjad, ezeknek az égvilágon semmit nem érdemes magyarázni. Ha majd esetleg betöltik a 18at és ragad rájuk egy kevés technikai tudás, akkor lehet hallhatunk majd tõlük az ökörségeken kivül mást is (ez még eddig nem jött össze nekik).
Sajnálom, hogy az ilyen hozzászólóktól süllyed egyre inkább az SG szinvonala, lassan már nem érdemes a hszeket olvasni, mert az ember csak felhúzza magát, hogy milyen nagy az Isten állatkertje.
kurvára nem vagy képben, gyakorlatilag minden tudományos célú, orvosi alkalmazást Fermire fognak fejleszteni, mert az architektúra lehetõvé teszi. Iszonyatos mennyiségü GPGPU eladásaik lesznek. Boritékolható. AMD , amd , sajna túl szorosra füzte microsoftal. Az openCL-t is az apple tolja nem az ms , FYI.
Még jóhogy megéri! Egy meló ahol 100 órát kell mennie a gépednek FULL teljesítményen hogy kirenderelje/konvertálja az anyagokat vs. egy olyan gép, ahol van a CPU ereje plusz még egy Core i7-nél jobb teljesítményû GPU! Melllette még játszani is tudok, ha akarok, abban az 50 órában amit megspórolt nekem.
Végre egy konstruktív hsz is, a dedikált Stewee Blood írások mellett :)Teljesen egyetértek veled. A szoftver render a jövõ.
"...addig az nV már a második generációs cgpu-t hozza ki, tehát igencsak elõnyben lesznek. Támogatottság, driverek és tapasztalat terén is."
Ez is igaz, viszont vedd számításba az AMD, processzorokban szerzett több éves tapasztalatát,licenszek stb... és oly szándékát, hogy nemsokára jön a Fusion. Addig meg AMD esetleges monopol helyzetben (sajnos) szarrá gazgagszik rajtunk. Bárcsak ne így lenne! :)
"aki ph cikkekbõl, googlebõl, meg teszelátor utáni vágyakozásból akar véleményt formálni az úgy jár mint ...Ahoy... signal to noise ratio 3%"
Mondja ezt az, aki egy jelenleg nemlétezõ VGA miatt kb emberéletet oltana ki :) Mégis milyen hamis infókra gondolsz? Tesszellációval mi is a bajod? Tán nem létezik natívan Dx11-ben Radeonok alatt?
"Hogy lehet elkölteni egy gépet? Ha arra utalsz hogy melózni nem éri meg drága VGA-val... hát de, próbálj csak a megrendelõnek egy 12 órás HD videóanyagot megvágni és eljuttatni DVD formátumban, AVCHD-ben, meg egy kicsi preview formátumban. Ez jelen esetben nekem örömteli. Végre valahára könnyen párhuzamosítható mûveleteknél bevethetõ az VGA ereje, és milyen durván! Ha ezt lepipálja az nVidia jó áron, DX11-es teljesítménnyel, akkor azt veszem meg. Ilyen egyszerû."
ezt nem értem. akkor szerinted megéri a drága VGA, vagy nem? mert szerintem nem. és azt írtad, hogy te nem vennél drágán VGA-t. akkor mire gondolsz? amúgy igazad van, nem értek hozzá, de akinek kell a kraft, az miért nem használ 2/3/4/5 VGA-t egyszerre?
*sarcasm on* Megmondom a frankót és mindenkinek kuss utána! :D *sarcasm off* Se ATI/AMD, se nV drukker nem vagyok.
Az nV úgy döntött, hogy most ezt a csatát megnyeri az ATI/AMD. Õk inkább most váltanak technológiát. Az ATI/AMD-nek úgyis váltania kellesz, mert ez a jövõ, csakhogy amikor õk váltanak, addig az nV már a második generációs cgpu-t hozza ki, tehát igencsak elõnyben lesznek. Támogatottság, driverek és tapasztalat terén is. Véleményem szerint az nV okosan csinálja. Kibirták az FX bukást is, ez sem fog gondot okozni. Szerintem ráadásul nyerni fognak vele, nagyon jó a vas, csak a gyártástechnológiát kell még javitani.
aki ph cikkekbõl, googlebõl, meg teszelátor utáni vágyakozásból akar véleményt formálni az úgy jár mint ...Ahoy... signal to noise ratio 3%
"A GF100 felépítése jelentõsen eltér a nemrég megjelent Cypress lapkától. Az AMD a rendszerét láthatóan a DirectX 11-re szabta, míg az NVIDIA egy korlátok nélküli architektúrát alkotott, kifejezetten a jól párhuzamosítható számításokhoz."
Kérdés: Tudod mit jelent a párhuzamosítás, a mai szoftverek világában? Tudod mik a könnyen párhuzamosítható mûveletek? Emellett olvass utána, hogy miért nem mûködhet a GPU CPU-ként. Másrészt Szerinted a mai (és jövõbeli) programok hány %-a CUDA kompatibilis? Keress rá google-ben... Jelen állás úgynéz ki sajnos nem sok. Mivel nem vagyok elvakult, ÉN IS PONT EZT SZERETNÉM! Bárcsak tényleg többszöröse lenne sebességre dupla pontosságú mûveletekben, és használható lenne bármilyen általános mûveletre... Bárcsak lenne minél több felület, lenne választék, árverseny, új fejlesztések! EZ a lényeg! Nem hogy kinek a terméke jobb. Ááá
"nagyjából támogatja a dx11-et, szinte csak a tesszellátort nem..."
Nagyjából fingunk nincs róla, mivel NEM jött még ki a kártya, nem tudjuk mikor jön ki, teszteredmények SEHOL nincsenek, még csak találgatás szintjén sem. Én sem tudom. Az viszont tény, hogy az emuláció sohasem lesz energiahatékony, ezért kell bele 3 milla tranyó, meg ennyi tápcsatlakozó. Tesszelláció nem fontos... ha-ha. kapcsódki, minek is... Az is tény, hogy AMD megoldása legalább már itt van a polcokon.
"akik dolgoznak a géppel, azok általában szeretnének vele keresni. és sokat. ha elköltik a gépüket drága videókártyákra, akkor nem fognak."
Hogy lehet elkölteni egy gépet? Ha arra utalsz hogy melózni nem éri meg drága VGA-val... hát de, próbálj csak a megrendelõnek egy 12 órás HD videóanyagot megvágni és eljuttatni DVD formátumban, AVCHD-ben, meg egy kicsi preview formátumban. Ez jelen esetben nekem örömteli. Végre valahára könnyen párhuzamosítható mûveleteknél bevethetõ az VGA ereje, és milyen durván! Ha ezt lepipálja az nVidia jó áron, DX11-es teljesítménnyel, akkor azt veszem meg. Ilyen egyszerû.
Ez meg kb egy 14 éves lázadó kisfiú stílusára vall:
"te nem fizetett ati drukker vagy, hanem szimplán hülye."
Aki indoklás nélkül lehülyézi a másikat, annak indoklás nélkül le szokás b***ni egy nagy pofont. Sajnos a virtualitás ezt nem teszi lehetõvé. Na de majd a CsUDA , az csinál nekünk virtuális valóságot :P
nem errõl van szó, irányvonalakról van szó, az nV többet igér mint a dx11. Ha lesz álleejtõs demó akkor majd ki fog derülni hogy kinek áll a zászló. Miért ne mondhatnám azt hogy aki kiforratlan technóligiájú 5870et vesz , az hülyegyerek? Szerinted nem az ?
-Én nem játszom, vidkártyát sem veszek jövõ tavaszig:D
Leszarom a Dx11et az atit és nvidiat is itt nem erröl van szó, de látom kiragadtad a lényeget. Itt a lényeg hogy "juj atit/nvidiat veszel de ciki vagy". Szóval nem tudom, de valami elgurult. De, ha gyerek vagy még megértem. Peace
Üdv. És ha komolyan gondolom akkor mivan? Nem tudod hova tenni ?? Álljál sorba DX11-ért akkor, nekedvaló .
Üdv. Sose értettem ezt az Nvidia vs Ati tábort. Mégha mind2 magyar cég lenne, de 2 multi-céget ami jól lehuzza a vásárlókat itt Isteniti, hol az egyik, hol a másik és mint az ovodások probáltok kiállni a cég melett. Ez szánalmas valahol. És beirkáltok ilyeneket, hogy "Azért az alant emlitett hülyegyerekeknek még sok kártyát elad majd az ATi". ezt te komolyan is gondolod? Csak az nvidiasok ilyen idióták vagy mind2 fél?
ezt az egy hozzászólásodat találtam, ahol mondtál is valamit. a többiben csak sértegetted az embereket. Olvasd vissza egy kicsit a HSZ-eid... Mindenkit leoltasz, gyanusítgatsz, belemagyarázol... Na ez a színvonal! és észre sem veszed. és akkor még te jössz nekem, hogy bizonyítsam, hogy hülye vagy.
"Szóval kinek is fog jóljönni ez a kártya? Annak a rétegnek, akinek kell a kraft a számításigényes mûveletekhez."
hmmm. kinek is kell a kraft? mindenkinek?
"Filmvágás, utómunka, PS, 3D... Ez a réteg nem túlságosan nagy - másrészt meg el kell hinteniük a CUDA magjait az ilyen professzionális szoftverekben, ami még idõ, és pénz az nVidiának. "
jaja, mert a CUDA kifejlesztése nem volt sem idõ, sem pénz. az könnyen ment, és a nagy dolog az, hogy le kell nyomkodni az emberek torkán. (habár ebben nem túl erõs az nVidia. az AMD-sek azt hiszik, hogy az AMD a szõke herceg, az intel meg az nVidiaa csúnya gonosz boszorkányok, akik nem csinálnak semmit, csak lefizetgetik az embereket. ( ez pont olyan, mint a firefox, a felhasználók nem azért használják, mert az jó, hanem azért, mert a többi szar. ) )
"Játékbeli teljesítményrõl egyelõre nem nagyon esik szó, valószínüleg az emuláció miatt gyengébben (vagy sokkal rosszabb energiahatásfokkal) fog mûködni mint az AMD dx11-es chipjei. Már most látszik a 6-8 tûs csatiból mennyit fog zabálni, és a nagy monolitikus chipet sem egyszerû elõállítani. "
nagyjából támogatja a dx11-et, szinte csak a tesszellátort nem. nem hiszem, hogy az olyan égetõen fontos lenne. és ha a felhasználó kikapcsolja, akkor máris a sok sok kraft, amit emlegettél, az már mind a játék futtatására fog irányulni.
"Az már most látszik, hogy nem a játékokra szakosodott usereknek készül, hanem sokkal általánosabb célokra, ahol kell a kakaó. " pl.: óvoda.
"Más kérdés, hogy végülis kinek kell ez? Professzionális felhasználóknak, akik dolgoznak a géppel. "
akik dolgoznak a géppel, azok általában szeretnének vele keresni. és sokat. ha elköltik a gépüket drága videókártyákra, akkor nem fognak.
"Játékosoknak ott lesz a Radeon sokkal jobb hatásfokkal. " hmmm. hogy erre is mondjak valamit: najó nemállok le egy vérpistikével vitatkozni... védd csak az ájemdét. Ezek után igazán leírhatnád, melyik nagynevû cég fõmérnöke vagy, vagy melyik egyetemen vagy mérnök professzor, esetleg milyen kutatásokban veszel részt így mérnökként? No offense, csak megkérdeztem ha már hardware tudásról beszélünk..
Sok birka mifaszt akartok még megse jelent. Ha kijön és jobb lesz mint az ATI akkor az ATI húz majd bele, mennek le majd az árak, ha xar lesz akkor is mennek le az árak és belehúz az NV...kinem xarja le melyik a jobb nyomingerek ? A lényeg hogy olcsó legyen baze, részvényes vagy ? akkor mit vered a nyálad hogy melyik a jobb, mint valami gettóovi baszki
Igen, nekem is feltûnt :d hiába ez még csak egy makett :)
Mé csak egy dugaj van a végén? Már az X800-ra is két monitort tudtam dugni.
Mondhatnál érveket nem? Milyen pontos tényeket tudsz a Fermirõl? Meg sem jelent, minden idõpont csak találgatás. Semmit nem tudunk róla, csak ezeket az infókat az architektúráról.
Érveket illik megcáfolni, nem? Lehülyézni mindg könnyebb a másikat ;) Blood Steven-ek szokása már bocs.
nem kell. ebben a témában te már hétszer megindokoltad helyettem.
Esetleg indokolnád is? Hihetetlen hogy egyesek más emberek életét is kioltanák csak azért bebizonyítsák hogy az õ hárdverük jobb :D:D:D:DD hihetetlen....
De részemrõl nem OFF-olok tovább, próbáltam leírni a véleményemet, teljesen objektíven. Az egész Fermi dolog szinte találgatás szintjén van. Kb ennyit is ér vitatkozni róla. Majd az eredmények beszélnek ha kijön.
Olvasd vissza egy kicsit a HSZ-eid... Mindenkit leoltasz, gyanusítgatsz, belemagyarázol... Na ez a színvonal!
Ezek után igazán leírhatnád, melyik nagynevû cég fõmérnöke vagy, vagy melyik egyetemen vagy mérnök professzor, esetleg milyen kutatásokban veszel részt így mérnökként? No offense, csak megkérdeztem ha már hardware tudásról beszélünk..
:)) najó nemállok le egy vérpistikével vitatkozni... vedd csak meg az envidijátad, tõlem azt teszel amit akarsz. Nem írtam támadóan hogy más normális ember sem, de te mindenki véleményére úgy reagálsz, mintha az életed múlna rajta - támadóan.
Azért a te hárdveres tudásodra igen kíváncsi lennék, fõleg hogy milyen egyetem keretei között szeded/szedted össze... Mondjuk egy BME-VIK? Bár ezt erõsen kétlem, mivel nemlenne nagyon idõt játékokkal dedózni, meg VGA huligánként kukákat gyújtogatni egy hallucinált AMD-nVidia mérközés után ;)
Itt lezártam részemrõl, mivel sajnos nekem nincs idõm ilyenekre :)
De azért érzed a különbséget 1 doktori disszertáció és a te áttömöritgetéseid közt? Nem? Na nem baj, hardwarehez meg mégannyira sem értesz mint amennyire beállitod magad.
Te olvastad mit írtam egyáltalán? Le kéne venni a zöld szemüveged, és elolvasni újra ;) Nem kéne belemagyarázni mások véleményébe a hülyeségedet...Másrészt én nem vagyok olyan elvakult vérpistike mint te, én csak örülnék ha nvidia kiadna egy jó kártyát, és árverseny alakulna ki! Ha õd ad jobb kártyát amivel dolgozni is lehet + még játszani is, akkor miért ne?
Egyelõre viszont lófaszsincs nekik, csak egy mûanyag szardarab, különben mûködõ rendszert mutattak volna.Szerintem lesz itt semmi jövõ tavaszig.
Mivel úgyis meggyanusítasz hogy fizetett ATI "drukker" vagyok, ezért elõrelátóan azt mondom:
"Nekünk" már van egy boltok polcain lévõ (szerintem baráti kezdõáron) kijött sorozatunk, ami a tesztek alapján odapirítja videó transcodingban a CUDA-s GeForce-okat, sõt még egy tuningolt i7-et is. Játékban meg, tesztek magukért beszélnek. Idle fogyasztás 27 Watt terhelten is 4890 szintje...Ez a valóság!
"Nekünk" tavaszig: árcsökkentés, zsír driverek, spec hûtõk, EE modellek, 57xx sorozat, 5870 X2, 5890, DX11-s gémek kijönenek. Mikor nVidia kiadja ezt a 6 + 8 csatis kombájnt... Hát nem is tudom :/
Drágább lesz a hasonló tudású Atiknál jóóóval,és a GagyiX is megkapta az újabb koporsószeget!
nem leszólni akartad csak kitaláltad hogy az nV gyártja a larrabeet nem pedig az intel. Fasság, mert nV-nek van köze játékfejlesztéshez, az intelnek meg nicns. Az ATinak meg a zikszbokszhoz van köze :D
Ezzel nem leszólni akartam, mivel nekem is inkább filmezés + 3d terén kellene valami brutál VGA. Viszont ahogy (CUDA/ATI Stream) video transcoding tesztekbõl láttam az új Radeonok ATI Stream ereje is igen durva!
Szóval kinek is fog jóljönni ez a kártya? Annak a rétegnek, akinek kell a kraft a számításigényes mûveletekhez. Filmvágás, utómunka, PS, 3D... Ez a réteg nem túlságosan nagy - másrészt meg el kell hinteniük a CUDA magjait az ilyen professzionális szoftverekben, ami még idõ, és pénz az nVidiának.
Játékbeli teljesítményrõl egyelõre nem nagyon esik szó, valószínüleg az emuláció miatt gyengébben (vagy sokkal rosszabb energiahatásfokkal) fog mûködni mint az AMD dx11-es chipjei. Már most látszik a 6-8 tûs csatiból mennyit fog zabálni, és a nagy monolitikus chipet sem egyszerû elõállítani.
Az már most látszik, hogy nem a játékokra szakosodott usereknek készül, hanem sokkal általánosabb célokra, ahol kell a kakaó.
Más kérdés, hogy végülis kinek kell ez? Professzionális felhasználóknak, akik dolgoznak a géppel. Játékosoknak ott lesz a Radeon sokkal jobb hatásfokkal.
ha szerinted releváns, nem ismered a szó jelentését sem.
Nem célom eldönteni az ATI vs. NVIDIA vitát de az biztos hogy a két tábor között a logikus érvelés és a inteligens viselkedés terén az ATI tábora több szinttel magasabban van mint az NVIDIA tábora. Azért kiváncsi leszek hogy amikor kijönnek az elsõ játék tesztek (mert ugye nekünk úgy is ez a lényeg) akkor mi fog töténni.
neked meg lesz directsound API zikszbokszon , lényeg hogy ráköthesd a müanyag hangfalszetedet : DDD