B-spline meg 1 görbe (flashben 2D), mi köze van annak a textúrákhoz? Azt meg hogy egyszerûek lennének a mûveletek (metszéspont, meg hasonlók) B-splineokon azt támaszd alá mondjuk valami konkrét algoritmussal, ne ilyen nyilazós bla-blával. Bár akár az is elég lehet, ha fel tudsz írni egy függvényt ami kirajzol egy B-spline-t akár csak 2D-ben.
Nem 20x nagyításban játszik, hanem 1 grafika 20x méretre nagyul. Ilyen meg simán lehet. A lényeg azonban az elsõ mondaton van: Ha már adott egy szabvány, amit a jelenlegi flashek kihasználhatnak, akkor nem csinálhat az Adobe olyan playert, ami nem teljesíti a saját jelenlegi szabványát.
ja mindenhol cudás appok vannak. Olyanok hogy mindenkinek annyira hiányoznak... hogy ati kártyát vesznek... Biztos csinált az nv sok cudás demót de demókat nézegetni egy idõ után uncsi. (egyébként az ati is csinált, keressél. Sõt video kódoló is van rá ;))
sok kis hülye aira biztos jó, mert sok párhuzamos. De bonyolult okos ai-ra bizony nem. Vagy hirtelen csodatörtént és a gpuk jók lettek feltételes, elágazásos végrehajtásnál? Nemhiszem... Egyébként az nv-nek ezt sikerült csak összehozni a fantasztikus cuda-val? Az ati szintén 4000+ békával is megcsinálta ezt, ráadásul az grafikailag is fejlettebb volt.
TÉNYEK: az amd által endorzolt bullet pisixet nV kártyán fejlesztették. A compute shader demó OCEAN stuffost ugyancsak nV kártyán fejlesztették. 10000+1 appot fejlesztettek az utóbbi idõben CUDA-val, de titeket az bánt hogy hogy az ATI stream cuccal nem demóznak semmit (há persze hogy nem :D ).
ok próbálom szondázni hogy a te elmédben mit jelent a dx11 szó, Szerinted az egy okos runtime enviroment. Jó legyen. Ahhoz mit szólsz hogy a Fermi olyannyira okos , hogy nincs szüksége kiterjedt szofvteres okositásra már. A többi hardware hülye, nekik szükségük van dx11-re. Szóval a dx11 szerintem is jó arra ami :D
végülis a használata nyílt :D ha a belsõ mûködését nyilvánossá tennék, az olyan lenne az m$-nek mint egy öngyilkosság. A wint közvetlenül, és közvetetten is a játék tartja el (mert a "nyílt" dx miatt ezen futnak, és mert a leendõ profi felhasználók nagy része is játékos pistike volt egyszer, oszt más os-t nem képesek használni).
"A 0.05 pixel 20x nagyításban már csak 1 pixel pontosság, tehát egyáltalán nem felesleges."
Hát azért 20x-os nagyításban ki játszik?
Mondjuk B-spline/Besier-approxymációval létrehozott felületekkel lehet ütközni elég egyszerûen, még GPU-val számolva is tessiláció nélkül (B-spline Adatok -> textúrák, program.local[0]=kezdõpont program.local[1]=írány-> pixel shader -> ütközési poziciók és százalék). Na mindegy.
Flash nem csak megjelenít, hanem pl alakzat ütközés is számol. A 0.05 pixel 20x nagyításban már csak 1 pixel pontosság, tehát egyáltalán nem felesleges. Egyébként is azon vitatkozni hogy mi fölösleges mi nem értelmetlen, ha van egy szabvány - jelenlegi flash player - amivel felülrõl kell kompatibilisnek lennie.
Az Adobe jelenleg nem képes olyan flash playert írni, ami directxre alapulna, és gyorsabb lenne általános esetben mint a jelenlegi szoftver renderer. Amit csináltak directxes dolog az kizárólag video lejátszásnál gyorsabb, emellett minden másban lassabb, és kompatibilisnek sem kompatibilis, mivel legfölülre kerül, így html dropdown menük szépen a flash alá fognak nyílni. Éppen ezért kell az a wmode kapcsoló a html oldalba való beágyazásnál amit csak akkor kapcsol be az ember, ha akar.
"DX11 vagy opencl. Mindketto nyilt es ingyenes szabvany."
hát ja. annyira nyílt a directx, hogy annál nyíltabb már nem is lehetne. és még véletlen sem a microsoft csinálja, és ezért linux alatt is tökéletesen fut.
Na de a tessilaló shader per alakzat fut, szóval a tessilálóban is lehet transofmálni így, na de mindegy továbbra is úgy gondolom, hogy ekkor pontossság megjelenítéshez felesleges és akkár milyen Flashes multi player játékban senki nem fog 1 pixel alá kattintani az fix.
A videó egyszerû textúra és azzal már minden le van rendezve.
"Ha ez nem megy - márpedig az Adobenak nem megy, ..."
A 0.05 pontosság azért fontos, mert egy alakzatot végtelen sokszor lehet effektelni. Effektek kb ugyanazok mint photoshopban, a különbözõ színezésektõl kezdve (alpha is sima szín csatorna, használják is bõszen), alakra vonatkozó effektek (rotation, size, sketch), meg vannak árnyék, glow, meg mittomén - vagy 100 féle. Ebbõl egy alakzaton elég sok lehet, 255 biztos, de lehet 32767 a korlát. És akkor 1 alakzatról beszéltünk, amik ugye átfedik egymást részlegesen, lehetnek egymás maszkjai, vagy éppen egy video maszkjai. Videokról jut eszembe, hogy ugyanezeket az effekteket videon is tudnia kell a playernek, ha a jelenlegivel kompatibilis akar maradni.
Nem az a cél, hogy egy olyan playert írj, ami egy piros kört k.rva gyorsan ki tud rajzolni, hanem ami kompatibilis a jelenlegivel, vagyis mindent amit meg lehet csinálni flashben ki tudjon rajzolni. Ráadásul a pontosság is maradjon ugyanaz, mert alakzatok ütközését nem árt ha ugyanúgy számolja mondjuk almás gépen meg PCn, mivel ha 1 multiplayer játék erre alapoz akkor nem vicces ha A oldalon visszapattan a golyó, B oldalon meg nem.
Ha ez nem megy - márpedig az Adobenak nem megy, de te is próbálkozhatsz, az swf formátuma nyílt - akkor jön az a rész, amirõl lejjebb írtam. Részleges megoldások, ezt-azt belerakjuk, de kicserélni nem fogják a teljes flasht csak azért hogy directx is képes legyen renderelni.
Egyrészt mondtam, hogy a kritikus oldalait kell csak a háromszögnek ~1 pixel méretûvé tenni, ami meg a közepén van azt felesleges annyíra lebontani, hiszen nem látszik, ha nagyon kell (árnyalás/színátmenet miatt), pixel shaderrel rá lehet segíteni.
"ha a flash szoftverbõl 0.05 pixel pontossággal dolgozik ezekkel?"
Ekkora pontosság felesleges és ez az adat honnan jött? Amúgy meg DX10.1-es kártyáktól van "ingyen" 4xFSAA. Ami éppen a határoló vonalon kell. Ja és szerinted prociból ekkora pontossággal számolni mekkora erõforrást vesz el? (Feltéve ha nem csak valami fixpontos/lebegõpontos válzó pontosságával villognak csak amit tessilálásnál használnak, hanem AA-ra fordítják.)
És szerinted gyorsabb lenne a B-splineok által konvertált alakzatokat átkonvertálnia a videokártyának pixel méretû háromszögekre és úgy renderelni, mint ahogy most csinálja,szoftver rendererbõl? Alpha, textura, minden frankó lesz akkor is, ha a flash szoftverbõl 0.05 pixel pontossággal dolgozik ezekkel? Vagy majd renderelsz 20x akkorában, és lekicsinyíted? Az Adobenál nem matt hülyék ülnek. Õk is látják, hogy ha képernyõn jelenítenek meg dolgokat, és van a gépben erre gyorsító kártya, akkor lehet használni kéne. Gondolom kiszámolták, hogy túl sok energiába kerülne, és a megoldás se lenne valami jó. Video esetén más a helyzet, de arra léptek is a 10.1-es playerben.
felénk ezt még curve fttingnek hivják. 100ezerszámféleképp meg lehe oldani. A teszeláció grafikában már mindent jelent egyszerre , he?
A Görbét (Görbébõl összerakott felületet) lehet úgy tessilálni, hogy háromszögekrebontva, pontosan úgyan olyan görbének nézzen ki (minden féle torzulásnélkül), egy adott felbontásban, mint az úgy rajzolt görbe/felület. (A trükk nyítja, egy háromszög kritikus oldala legyen ~1 pixel).
A tessilation az kb annyi, hogy picit görbíti az egyenest, valahogy. Itt meg arról van szó, hogy rajzoljál egy sok (mittomén 1000) kontrollpontú B-spline-t, ahol a kontrollpontokat tetszõlegesen határozod meg hogy hol legyenek. Görbe-görbe mindkettõ, ahogy a szekér meg a forma1-es autó kereke is kerék.
Egyszerûen a directx api az primitív alakzatokból rengeteg, ezeken sokféle textúrázás, egyéb mûveletek. Flash api meg bonyolult alakzatokból kevés, ezeken relativel kevés féle mûvelet. Alma vs körte esete - nehéz összehozni õket.
"Adok 1 flash statikus képet, rendereld le ugyanolyanra directx-el. Nem fog menni. Egyszerûen amikor kitalálták a rajzolás alapjait (splineok, alpha channel, nincsen semmire se korlát, stb), akkor még directxrõl szó se nagyon volt."
Tessilálás, nem de? Véletlenûl nem ilyet csínál a DX11-es GPU-k egyik új shader típusa, de.
Adok 1 flash statikus képet, rendereld le ugyanolyanra directx-el. Nem fog menni. Egyszerûen amikor kitalálták a rajzolás alapjait (splineok, alpha channel, nincsen semmire se korlát, stb), akkor még directxrõl szó se nagyon volt. Most vagy azt tennék, hogy innen kezdve flashben is minden háromszög, és kuka minden eddigi flash fejlesztés, de akkor az már nem is flash lenne, hanem valami más. Vagy pedig folytatják tovább a szoftveres renderelést, és a jelenlegi rendszer részeit megpróbálják hardveresen gyorsítani. Pl video lejátszás, de ha csinálnának 1 3D libraryt is az actionscript nyelvbe, ami minden fölött megy, akkor 3D-t is lehetne támogatni.
A flash apija alapvetõen eltér a directx/opengl apitól, így minden flasht nem fog gyorsítani a 10.1-es player. Megjegyzem az egész miskulancia csak akkor mûködik, ha egy új wmode taget használsz htmlben, mivel egyrészt kompatibilitást veszítünk a directx/opengl használatával (pl overlaying menük), másrészt jóformán csak a video lejátszáson fog gyorsítani.
Mert aranyos hogy lehet C++-ban programozni. De ki lesz az az elmerokkant aki a töbszáz vagy több ezer szál programozása közben nem fog hibázni..meg egyáltalán nekiállnak-e?
az, hogy a kiállításon pont nem a tényleges hardvert mutatták föl, a mai világban nem csodálkozom.
Figy.Bemutatták. Innentõl fogva muszáj lesz villantaniuk. Ha nem akkor bukta.
"A c++ tamogatas a jatekokhoz kell, mert igy a mesterseges intelligenciat es fizikat szamito kodot siman le lehet forditani gpu-ra, ujrairas nelkul."
Erõforrászabálóan... Atin is fut ai, még hd3xxx-en is, bár gondolom újra kell írni. De írják is, ne optimalizálatlan nem oda való kódokat futtatgassanak, mint amit a fermin lehet majd. Legalább ati-nél kényszerítve vannak az optimális kódra.
"Egyebkent jelenleg maximum a 8-adara eshet vissza a szamitasi teljesitmeny ha tul sok az elagazas."
Éppen ezért nincs értelme cézni. Max gányolásnak lehet hívni az ilyet és az nv még támogatja is a gányolást...
Egyébként is az ai pont az a dolog, amire pont nemjó a gpu, hanem arra cpu a legjobb megoldás(hiszen egy ai végülis egy nagy rakás if-bõl áll). Techdemónak elmegy, de értelme nincsen. Grafika, fizika, (akár hang is) mehet gpu-ra, mert abban jó(és ez már meg van oldva szoftveres támogatással vagy a közeljövõben meg lesz oldva mind2 gyártó gpuira(opengl, directx, opencl)). De az ai nem mert abban pont hogy nem jó.
"Nem vágom annyira ezt a flash témát, szerinted akkor az új flash player gyakorlatilag minden jobb 3d-s kártyán gyorsulni fog?"
Ha nem tiltjak le kulon valamilyen szerzodes miatt, akkor igen.
"C++ fortran támogatás? Hagyjuk már, mindenre meg lehetne írni ezt... csak éppen olyan gyök2 sebességgel futtatna egy normál általános kódot mint ahogy fog is, mert a gpu nem erre való. Korlátozott utasításkészlettel, és megszabott kódformával meg olyan mint a kakinak egy pofon. A cpu való általános programozásra, gpu éppen azért gyorsabb mert specializált."
A c++ tamogatas a jatekokhoz kell, mert igy a mesterseges intelligenciat es fizikat szamito kodot siman le lehet forditani gpu-ra, ujrairas nelkul. Egyebkent a gf8800-ota tudjak a kartyak csak fordito nem volt hozza. Ezzel szemben pl. a ps3-ban talalhato cell spe-k nem tudnak rendes c++-os kodot futtatni, mert nincs egyseges cimteruk. Az nvidia kartyaknak viszont mindig is az volt, csak nem tettek szoftverbol elerhetove, csak a gf8-as csalad ota. Most mar fordito is lesz hozza, igy nem kell assembly-ben vacakolni. (mondjuk ez akkor lenne hasznalhato ha az opencl szabvany resze lenne es nem cuda extension-kent jonne) Egyebkent jelenleg maximum a 8-adara eshet vissza a szamitasi teljesitmeny ha tul sok az elagazas. Ugyanez ati kartyakon csak a 4-ede. Ha az nvidia rakna branch egyseget minden magba, akkor viszont nem esne a teljesitmeny. (mondjuk kb. haromszorosara none tole a gpu azonos magszam mellett, tehat ketszer annyi maghoz hatszor tobb tranzisztor kellene, tehat olyan 8-9 millio tranzisztoros lenne)
A fortran hasonlo okokbol kell a tudosoknak, ott a kod jo resze meg mindig abban van. Mondjuk a fortrannal sok gond nem lehetett, jellemzoen szereti a buta de gyors vektorprocesszor tomboket, mivel a legtobb regi szuperszamitogep gyakorlatilag haz meretu, de a mai gpu-kkal megegyezo architekturaju rendszer volt.
Errõl most nekem valahogy az jut eszembe, mint amikor az XBox 360 elsõ bemutatóján 2 Mac Pro-n futott a Gears of War.
Ja mekkora szar az ati, kicsivel kevesebb tranzisztorral mégis 30%-al gyorsabb az "nvidia meant to be played" játékokban (persze amire nem tette rá az nvidia a mocskos lefizetõs mancsát abban még nagyobb a különbség)...
Cuda? Kit érdekel, fizetõs, platformfüggõ gáz. Pisix? Elvileg már jópár játékba volt, mégis semmit sem mutatott csak azt hogy geforcen gyorsabb (ami nem biztos hogy a phisiksz miatt van, hanem inkább azért mert az nv csak úgy fizetett hogy gyorsabbnak KELL lennie :) ), a havok motoros játékok több éve jobban villantottak a képességekben mint a mai pisixes játékok. Szerencsére az nvidia nevû "bankon" kívül, senki sem támogatja, mert zárt (és gagyi). C++ fortran támogatás? Hagyjuk már, mindenre meg lehetne írni ezt... csak éppen olyan gyök2 sebességgel futtatna egy normál általános kódot mint ahogy fog is, mert a gpu nem erre való. Korlátozott utasításkészlettel, és megszabott kódformával meg olyan mint a kakinak egy pofon. A cpu való általános programozásra, gpu éppen azért gyorsabb mert specializált. Egyedül az ECC nevezhetõ újításnak, de az is csak a profi tudományos felhasználásban, otthonra olyan mint babakocsira a spoiler.
De a legviccesebb az, hogy egyelõre csak az nv mérnökök álmaiban létezik a chip :D A tesztadatokhoz meg énis oda tudom írni hogy 534535345 tflops :D
Nem vágom annyira ezt a flash témát, szerinted akkor az új flash player gyakorlatilag minden jobb 3d-s kártyán gyorsulni fog? Nagyrészt szerintem sem a motorral, hanem a grafikával szarakodik, gyakorlatilag megváltás lenne itt a GPU. Szóval menni fog minden 3d-s kártyán, vagypedig csak a CUDA-t és Ati Stream-et támogatókon? Gyakorlatilag a hír hogy az NV kártyái flash gyorsítók, akkor gyakorlatilag jelentéktelen, mert mondjuk egy ATI-n is ugyanúgy tud számolódni?
Az tök jó, hogy tényleges technikai adatok, tesztek és árak nélkül olyan jól össze tudtok veszni ATI vs NVIDIA vonalon, ahogy csak a politikusok képesek.
"És ami a konkrét kérdés lesz a PC-s játékot érintõen, az, hogy DX11"
DX11 vagy opencl. Mindketto nyilt es ingyenes szabvany.
"Jelenleg ugyanis teljesen szoftverbol rajzolnak mindent, ami csigalassu. Nagyon sokan keverik a szoftver-hardver fogalmakat."
Szoftveres rendereles amikor a program a cpu-val rajzolja meg a grafikat. Ezzel szemben van a szabvany 2d/3d api hasznalata, amire mar a winnt4.0-ben is volt lehetoseg, az adobe azota nem birta ezt meglepni, pedig rengeteget javitana a flash teljesitmenyen. Az, hogy az api mogott mi van mar nem lenyeges. Egy intel integralt videokartyan tobbnyire ugyanugy a cpu, de barmilyen rendes 3d-s kartya eseten mar a gpu vegezne a grafika eloallitasat. Persze a javascript alapu (actionscript nevu) script motoruk ettol nem lesz gyorsabb, de legalabb a grafikaval nem kellene a cpu-nak szorakoznia. A 3d api-k hasznalatanak egyik problemaja, hogy jopar regebbi driver nem tud rendesen tobb 3d-s context-et kezelni, ami egy tobb flash-t tartalmazo oldalnal es tobb nyitott bongeszo ablaknal elengedhetetlen. Vista ota ez megoldott, de jo lenne ha winxp alatt is menne a gyorsitas.
Azért nem teljesít rosszul a 5870. Igen az ára az túlzás fõleg a 4870/90es szériához képest, de a PH-s fórum is bizonyítja vannak akik megveszik (ha megtehetik miért ne) ez az ár nekik szól, aztán mehet lejjebb. De nagyon jó teljesítménye van fõleg ha a fogyasztást is meglessük mellé. (És a többi kariét)
Itt sok egyéb tényezõn is fog múlni a Fermi jövõje is. Kíváncsi milyen nagy lesz az új chip. Errõl már több pletykát is hallottam, van ahol a GT200-nál nem sokkal nagyobb verzióról írtak, van ahol eléri a 600 négyzetmilliméter-es nagyságot is. Ott van a 384bites nyák is, ami jót tesz a sebességnek biztosan, de az árat szintúgy tornázza felfelé nem beszélve az eddigi gyenge kihozatali arányról. (Ami persze változhat idõvel) És ami a konkrét kérdés lesz a PC-s játékot érintõen, az, hogy DX11 (ATI) vagy PhisyX (Nvidia).
Az átlagot kell nézni nem a maximumot, egyébként maga a meghajtó képes 30% gyorsítást adott játéknál (nézd csak meg az nVidia meghajtó readme-ban), az igazság, hogy az új ATI majdnem annyi tranzisztort tart magában mint az a 2 GPU-s 295-ös és mégis csak max esetben 30%al áll elõtte de nem sokkal jobb a majdnem fele annyi tranzisztoros 285-ösnél amely ugye levonulóban lévõ technológia. Na most nem tudom mit fog a Fermi produkálni de szerintem a megjelent adatok alapján legalább annyit fog elérni DX grafikában mint az ATI és ez mellé kapunk egy piszokul gyors és fejlett CUDA architektúrát amit a Physix (és nem csak az jól tud használni)... szóval nem tudom, néhány nappal ezelõtt még azt hittem én is, hogy kopasz grafikában az ATI egy picit jobb lesz, de most már inkább azt hiszem, hogy az nVidia itt is elébbe jön... a számítási kapacitásban meg össze sem hasonlíthatók, fõleg mert az nVidia már két éve igen jó alkalmazási elõrehaladást tudott elérni és most meg még fejlesztõi környezetet is (még debuggert) is be tudtak mutatni amely a Visual Studióba integrálódik... ezek a dolgok azt szokták jelenteni, hogy az alkalmazások területén exponenciális boom jöhet és ami egy technológia térhódítását illeti az alkalmazások azok amelyek számítanak. Szép és jó az ATI dumája az OpenCL-rõl ami egyébként csak egy majdnem papíron való specifikáció (persze az nVidia volt az elsõ aki ezt is demonstrálta és támogatja is) de CUDA alkalmazások már léteznek és nem is kis számban, ugyanakkor ott van az ECC és a C++ támogatás is, mit gondolsz a C++ a HPC-knek jött, nem hinném ugyanis a HPC-ket inkább a Fortran érdekli (persze ezt is támogatja), a C++ majd olyan GPU alkalmzások elterjedésének gyorsulásához vezet amelyeket C-ben sokkal kisebb produktivitás mellet tudunk csak elérni... szóval minden területen magasabb rendû megoldást hoz a Fermi... sajnálom csak, hogy nem támogatja a LISP-et, akkor lehetne tényleg igazi Geek módra játszani rajta :)))
de nem fog roszabbul teljesíteni semmiben az szinte 100%.
Erre ne fogadj, az ördög a részletekben lakozik. Hatalmas mumus a GPU programozásnál a címzés és a load/store (a 4 szintû memória miatt), viszont a Fermi képes univerzális mutató kezelésére (lásd C++/egyesített címtér rész), amirõl még nem sokat tudni. Valami hasonló dolog lesz, mint CPU-nál a virtuális/fizikai címfordítás, aminek a költsége 0 (zéró) órajel. Ha az nVidia mágusai alacsonyan tudják tartani az órajel költséget, akkor a kernel kód lényegesen rövidülhet a fél-koherens L1/L2-nek köszönhetõen. Azaz kisebb és gyorsabb lehet a kód mint az ATI kártyáknál komplex, dinamikus vagy nehezebben párhuzamosítható algoritmusok esetén. Ha meg magas (>20), akkor csak egy kirakat funkció lesz, a következõ generáció demózása. Újabb gyorsulás lenne, ha meg az L2-k (grid-ek) között lehetne közvetlen adatcsere, nem kellene annyit feleslegesen szinkronizálni. Viszont a Fermi sok adatintenzív és aszietrikusan párhuzamos (pl. vágás) DirectX funkciót nem fix áramkörrel old meg, nem véletlenül nyilatkoznak rettenetesen óvatosan a teljesítményrõl.
Ja de eddig double pontosságnál gyengusok voltak a GPU-k, ezért CPU-nak így kerek-perec nem alkalmasak. Erre ver rá a 2010-ben kijövõ Fermi 'elvileg' 8x gyorsabb double pontosságnál.
Amúgy igen, a már sokszor emlegetett video encode teljesítményben is sokszorta gyorsabban mint a CPU. Ezért sem értem, mi a fenéért nem rohadtul elterjedtek az ilyen programok? Dürhõ paraszt flashnek is már rég kellett volna támogatnia a hw gyorsítást.
Azért szeretem az Nvidiát, mert állandóan csinálják a cirkuszt. Minden hétre megvan a betevõ bulvár adagom. :D
Jelenleg ugyanis teljesen szoftverbol rajzolnak mindent, ami csigalassu.
Nagyon sokan keverik a szoftver-hardver fogalmakat. Egy szoftveres megvalósítás az, amikor egy adott funkció egy programkódnak köszönhetõen speciális és általános képességû hardveren fut (pl. a Flash a CPU-n). Hardveres egy megvalósítás ha fix célhardveren fut és lényegében nincs algoritmikus programkód, csak végrehajtási sor. Azaz hardveres GPU az nVidia TNT sorozat, és szoftveres az új Fermi alapú GT300, mivel a DirectX és OpenGL funkciókat 90-95%-ban általános feldolgozó egységek (shader-ek) valósítják meg. Tehát ha a Flash nagy része az új GPU-n (cGPU-n) fut, akkor is szoftveres marad.
A flash gyorsitashoz egy dolog kell, az hogy az adobe vegre hasznalja vagy a directx vagy az opengl technologiat. Jelenleg ugyanis teljesen szoftverbol rajzolnak mindent, ami csigalassu.
Az nvidia pedig tenyleg osszeszedhetne magat, a marketingesei ossze-vissza beszelnek. Egyszer azt mondjak, hogy nem kell dx11, aztan azt, hogy lesz es itt a hardver. Aztan kiderul, hogy nem is arrol van szo. Inkabb mutatnanak egy barkacsolt, osszedrotozott, de mukodo peldanyt. Sokkal hitelesebb lenne. A mernokeikkel nem lesz gond, azok meg tudjak csinalni csak a vezetesuk nagyon gyenge.
Mekkora köpködés lenne itt ha az AMD-ATI csinálta volna ezt a húzást. Az nV fanok ilyenkor meg legyintenek és elintézik azzal, hogy más is csinál ilyet. Nekem mindegy mivel villog a két tábor, ugyis a legjobb ár/érték arányos kártyát veszem meg.
PH!-ról
"Érdemes megemlíteni, hogy az NVIDIA termékei rövidesen képesek lesznek a Flash animációk gyorsítására, amennyiben a felhasználó telepíti majd az Adobe Flash Player 10.1 verziójú alkalmazást. Ezzel a lépéssel a vállalat az Ion és a Tegra alapú termékeknek kedvez, melyek a megfelelõ processzorerõ hiányában eddig nem voltak képesek futtatni a komolyabb Flash programokat."
Errõl hallott valaki, csak a Ferminél lesz szerintetek? Ez azért nemrossz! Remélem Youtube HD-t is megtolja... Flash játékok nagyon fingatnak néha :) Mellesleg remélem AMD is beveti az ATI Stream-ot ilyenre.
és ezeket az adatokat melyik mesekönyvbõl szedted? mert én néhány különbözõ testet láttam már és mindenütt viszonylag kicsi a különbség...
Ez így igaz, ahogy leírod. Nem is azt mondtam, hogy teljesen alkalmatlan lesz játékok futtatására, hiszen arra találták ki egyszerû megfogalmazásban, hogy mindenre alkalmas legyen. Csak írjanak alá megfelelõ szoftvereket. Nyilván az Nvidiának a legnagyobb érdeke, hogy ez minél elõbb elterjedjen és sikeres legyen, azért mert nem áll rendelkezésre neki x86. Hiszen ha az Intel meg AMD is elkezdi a CPU-ba integrálni az alap GPU-kat az hatalmas csapás lenne az Nvidiának, hiszen a belépõ szint és alsó-közép kategória igen nagy piac. Úgyhogy nem tehetett mást, csak azt, hogy elõremenekült, és hiába akármekkora tõkeerõs cég nincs ahhoz azért elegendõ erõforrása, hogy egyszerre fejlessze a népszerûsítse a Fermit meg a CUDA-t és közbe meg párhuzamosan GPU-kat is fejlesszen hardwares DX támogatással. DX9-be simán lazán erõsebb is lehet a Fermi mint a HD 5870. Itt az a kérdés, hogy mekkora GPU-val állnak elõ, a specifikációk alapján nemcsak, hogy erõs hanem drága is lesz. Ez lesz még egy sorsdöntõ kérdés, és természetesen az, hogy a játékfejlesztõk melyik oldalt részesítik elõnybe. DX11-el fog versenyezni az ATI az Nvidia meg Physx-el.
Ez egy annyira szuper fejlesztés, hogy féltek netán ellopják (szó szerint, véletlenül eltûnhet a kártya az asztalról mûsor közben). Így hát nem az eredetit, hanem egy hasonmást gyártottak kamuként, azt meg vihetik...
kettõnk közül te spekulálsz , és azt sem tudod vegyiteni azzal hogy hány és milyen játék készülhet dx11-re, szóval totál alaptalan.
Ebben igazad van ( minden általad felhozottra volt, van és lesz is példa), de azért volt már olyan cég, aki csúsztatott pont emiatt. Tehát nem csak egyfelé tud elsülni a dolog.
Ez nagyon nagyon sok cég nagyon sokféle módon már eljátszotta ám!
PhysX elsõ játéka úgy volt megírva, hogy ha nem tettél bele ilyen karit csak a registry kulcsod írtad át a játék sebessége látványosan javult. (proci kapta meg ezeket a feladatokat és végezte a munkáját nem is rosszul)
PS2 elsõ bemutatóján egy tök üres doboz volt kiállítva, az asztal alatt két MAC-en futott a cucc.
Sok telefon gyártó kamu telefonokat mutogat a bamutatókon..mint amiket a kirakatba szoktak rakni.
Nem olyan meglepõek ezek a húzások.
Hát akkor fogd be a csõröd pár hónapra.:) A physX nevü átverés show mindenesetre bukik,az nvidia egyetlen reménye ha normális áron fogják adni a kártyájukat vagy hatalmasat rávernek az atira,de egyenlõre egyik sem áll fenn,drágább lesz a biztos,de vajon mennyiel lesz gyorsab?+20-30% pénzért 1-2%-al mint a jelenlegi generáció?
"ATI legujabb kártyái nem olyan sokat vernek a GT200-as sorozatra" Átlag 40-50 fps játékonként nem olyan sok valóban a legkeményebb 1magos nvidiához képest...
Ha tetszik ha nem a Fermi a játékpiacon is jobb mint a GT200 sorozat és ahogy a weben nézem jelenleg az ATI legujabb kártyái nem olyan sokat vernek a GT200-as sorozatra (persze ez még inkább driver fejletlenség miatt van mint maga a hardwer miatt), szóval miért ne lenne a Fermi jó a játékpiacra is? Az nVidia soha nem mondta ezt, csak azt mondták, hogy a DX11 már nem annyira fontos (ettõl függetlenül támogatják azt is). Szóval tévedés lenne azt hinni, hogy az nVidia most távolodik majd a grafikától mert véletlenül sem, csak éppen õk indultak el leghamarább annak az architektúrának a fejlesztésében amely majd software renderingel fog mûködni, mert mindenki (az ATI is) egyetért, hogy ott van a jövõ nem pedig a fix hardware mogoldásokban... a legroszabb esetben a Fermi egy picit drágább lesz mint az ATI, de nem fog roszabbul teljesíteni semmiben az szinte 100%. (itt azt étem, hogy +/-5% lesz majd valószínõleg az átlag különbség DX grafikában és könnyen lehet, hogy DX9-ben az nVidia gyorsabb lesz.
Ahova szánják ott még sikereket is érhet el. De az nem a PC-s játékpiac, ezt õk maguk is elmondták. Az Nvidia most már nem az AMD-ATI ellen akarja felvenni a harcot, hanem az Intel ellen.
A bemutatott kártya nem volt kész, de a bemutatón valós chip demonstrálta a Fermi tudományát, ugyan az is egy kicsit alá volt forgatva (alacsonyabb órajelen mint amivel majd kijön) de még úgy is simán verte a Teslát... an nVidia honlapon az egész keynote megtekinthetõ... szóval decemberben lehet, hogy piacon lesz ha más nem papíron, de a legroszabb esetben is januárban már a polcokon lehet... majd meglátjuk nem is ez a lényeg, a lényeg, hogy nem megszokott darab vasról van szó, vagy rühelni fogják vagy szeretni... közép út nincs.
na megnéztem már ott se , ráadásul a hangulatfelelõs charliet is kirúgták. Desajnálom. Mindenesetre az sg-t minõsiti a dolog azé.
hangulatcsinálás ez az egész cikk, normális helyen nem hoznak le ilyet max az inquireren
Szombi nem, engem is meglepett például hogy pédául a seti homos wu-k töbségét gpu val jóval gyorsabban lehet futattni alacsonyabb fogyasztás mellet.
Magyarán szólva a gpuk számítási kapacitása jelentõs vagy még túl is lépi a cpu számítási kapacitását, azért írom ezt mert ilyen tekintetben személyes tapasztalataim nincsenek. A lényeg viszont elvégre hogy akármilyen gpu-d van azt a cpu fogja meghalytani így ez sem egy mellékes szempont.
Hmm hát most mit mondjak, kezdjek el én is idegeskedni hogy a parasztvakításnak szánt tesztkártya tényleg csak parasztvakítás volt és nem volt a belselyében semmi ?
Hát engem az sem zavart volna igazság szerint ha van benne valami, hûûû de rossz ez az nvidia, biztos azonnal szaladni fogok amár rég csõdbe ment ati szoknyája alá
Nem akarom megidézni a rálátásodat, de pont Te mondtad ezt, amikor jöttek az elsõ hírek a makett kártyáról...
Reméljük kijön idõben és valamire jó is lesz, éljen a verseny!