Elképesztõen izgalmas lesz a grafikus kártyák piaca az elkövetkezendõ egy hónap során. Az AMD és az NVIDIA mellett az S3 is beköszön egy új termékkel, mely a multi-GPU-s megoldások felhozatalát színesíti. Az utóbbi kártyát a VIA a következõ héten megrendezendõ Digital Signage Expo 2010 kiállításon mutatja be. A termék a S3 Chrome 5400E x2 nevet fogja viselni, és az új PanoChrome technológiának köszönhetõen akár 8 monitor kezelése sem okoz neki gondot. Az elgondolást természetesen az ATI EyeFinity megoldása ellen vetik be. A VIA ezen a ponton jól gondolkodik, hiszen a vártnál nagyobb igény mutatkozik a több monitort kezelõ eljárásokra, ami kedvezhet a cég eladásainak. Természetesen a kártya támogatja a HD videók gyorsítását, továbbá az energiaigénye sem lesz magas. Sajnos a vállalat nem árult el többet az új modellrõl, de kellõképpen felcsigázta az érdeklõdõket, ami jó eséllyel növeli a bemutató sikerét.
info: Prohardver
Egyszer már igazán elmehetnének a teljesítmény irányába is és akkor 3 oldal közül lehetne csemegézni árak is jók lenének!
Hat miutan befuccsolt a Larrabee, en elgondolkodnek a helyukben gyorsan egy grafikus reszlegrol (ami most van, azt nem neveznem annak :)), kulonben a Fusion nagyon be fog nekik b***ni, az nV meg a Fermivel megcsinalta ami nekik nem ment. Most eleg borusak ezen a teren a kilatasaik szerintem, de meg is erdemlik az utobbi evekben elkovetett gusztustalansagaikert :)
Nincs forrás :( A VIA is nagyon gyengélkedik... Pedig technikailag úgyahogy tartják a lépést, de nincs erõforrás a teljesítményt is hajkurászni. Amúgy úgy tudom a kínai piacból élnek (vegetálnak) fõként. Az intel helyében inkább lepaktáltam volna velük, a GMA-kat ígyis verik :D
Basszus hihetetlen hogy ezek még mindig fennmaradtak!De miért csak alsó kategoriába nem értem!
Ati rajongó vagyok, de minden tisztelet a VIA-é. Anyira kicsi cég és milyen jó termékeket tud piacra dobni. Le a kalappal. Tuti megveszem ezt a S3 Chrome 540 GTX a másik gépemre.
hat ez keves lesz... talan valahol a notik vilagaban latom ertelmet eme remek kis(teljesitmenyu) kartyanak :| monnyuk nekem a notimban 2400 XT kari van... nekem eleg... :D
uigy mulik el a vilag dicsosege :C
"Az, hogy az nV nem támogatja a DX10.1-et és akadályozza az új algoritmusok terjedését csak rossz a fejlesztõknek és a felhasználóknak is."
Nyomorult cég, ezért is utálom õket.
Szerinted az nV nem tudna önmagától DX10.1-es VGAt tervezni?
Elég rossz dolog, hogy nem használjuk a DX10 és DX10.1-es eljárásokat. De ennek oka van. Az nV-nek az a jó, ha Crysis-t ostromló gépigények vannak a játékoknál. Az a baj, hogy egy helyben toporgunk, és hasonló eljárásokat használunk most is, mint 2 éve. Ezen a jelenlegi G80 alapú és feltételezhetõen a GT200 architektúra elve sem fog változtatni. Azért alakítják ki a DX10 és fõleg a DX10.1-ben az új eljárásokat, hogy alkalmazkodjanak a grafika fejlõdésének írányához. Ezt úgy kell értelmezni, hogy a háromdimenziós grafika fejlõdése meglehetõsen kötött. Alapvetõen ismertek azok a technikák amik a közeljövõben és a távolabbi jövõben használni fognak, de az alkalmazott eljárások addig megváltozhatnak, mert lehet, hogy valaki talált gyorsabb algoritmust ugyanarra a feladatra. Mondok egy példát, hátha úgy egyszerûbb megérteni. Manapság vagy a nagyon közeli jövõben elterjedt lesz a Parallax Occlusion Mapping (ilyen van a Crysis-ba, az új 3Dmark Vantage-ban) alapú technikák. Alapvetõen a technika leképzésére már a DX9 is kínált megoldást, de az akkori karik lassúak voltak hozzá. Ugyan még a mostani VGA-ak sem szerepelnek valami fényesen ennél az effektnél, de már érdemes erõltetni a POM leképzéséhez, így terjed a technika (SLI, CF tulajok örülnek). A csavar ott jön be, hogy a DX10.1 tálal a POM leképzésére egy, az eddigieknél, jóval gyorsabb megvalósítást a LOD utasítások segítségével. Ha az nV támogatná a DX10.1-et akkor a POM vélhetõleg mindenhol LOD utasításokkal lenne létrehozva a jövõben. Ezzel jól járnának a fejlesztõk, mert a LOD utasításokkal egyénileg definiált szûréseket lehet alkotni, így a POM nem akasztja majd össze a bajszát a szögfüggõ AF szûrésekkel, jó lenne a felhasználóknak, mert a látvány gyakorlatilag ugyanaz, de a sebesség az ésszerû és átgondolt algoritmusnak hála gyorsabb. Hogy ne csak egy példa legyen ott van még a leképzési fázisok esete. Például a Quake 3-nél úgy volt a renderelés, hogy volt egy fényszámítási fázis, majd egy árnyaló és utána még egy fényszámítási. Nem meglepõ a dolog, hogy ez eléggé erõforráspazarló, hiszen kétszer végzünk minden modellen fényszámítást. Ez a példa a Quake 3 utáni években még bonyolultabb lett. Ám a Shader modell segítségével van megoldás a problémára: Deferred Rendering, ez is elterjedt lesz nagyon. A lényege egyszerû, üssük ki a felesleges munkavégzést. Le kell számolni a képet megvilágítás és árnyalás nélkül, majd a kimaradt munkát utólagosan feldolozni több Render Target-be. A Shader Modell elég komplex ahhoz, hogy jó eredményeket lehessen elérni. A probléma az AA-val és a Deferred Rendering fázisokkal van. Az AA már sokszor volt tárgyalva ez az MS sara bele kellett volna tenni a megoldást a DX10-be. A Deferred fázisoknál viszont továbbra is gáz, hogy a GPU nem dolgozhat rajtuk párhuzamosan. A DX10.1-ben ezt emgoldották, így a Deferred Rendering technika leképzéséhez redukálva lett a fázis igények száma, így nõtt a sebesség. Megint jó a fejlesztõnek és a felhasználónak a dolog, mert a programozónak egyszerûbb dolga lesz az optimalizálással és az AA gondok megoldásával, míg a felhasználó örülhet, hogy gyorsabba megkapja ugyanazt az eredményt. Persze az elméletet folytathatnánk tovább a Cube Map tömbökre is. Egész érdekes dolgokat lehet a technikával leképezni. Természetesen itt is elõnyt élvez a DX10.1-es megvalósítás, mert a DX10-ben minden Cube MAP tömböt külön fázisban keleltt számolni, mí a DX10.1-ben párhuzamosan is elvégezhetõ a feladat a GPU erõforrás kapacítására optimalizálva. Az eredmény ugye megint jó a fejlesztõnek és a felhasználónak, az okok hasonlóak a fentiekhez. Az, hogy az nV nem támogatja a DX10.1-et és akadályozza az új algoritmusok terjedését csak rossz a fejlesztõknek és a felhasználóknak is. A fejlesztõ továbbra is eszeveszetten fog optimalizálni... De minek ugye? Ki jön a program (Crysis) és mindenki leszarozza, hogy egy optimalizálatlan szutyok, a kor szégyene. Pedig jól van optimalizálva, mert amit ki lehetet kihozták belõle. A felhasználó extra rosszul jár, mert minden évben VGA-t kell vennie. Egy valaki jár jól, az nV. El tudja adni az új cuccait, az egyre gyengébb PC-s játékipart látva is.
A DX10.1 támogatásra az nv-tõl nem számíthatunk soha. Egy korszerû DX10.1-es megvalósítás gyökeresen más elvû architektúrát igényelne (kb. olyat, mint az R600-ra építkezõ rendszerek). Persze nem korszerûen is meg lehet oldani, ezesetben az nV TPC féle felépítése is jó. Alapvetõen szükség lenne a Gather 4 támogatásra, ehhez a chipben elõforduló mintavételezõk számát meg kellene négyszerezni (ez elég sok plusz tranyó). Kisebb változások kellenének a ROP blokk-ok terén, a Blending hatékonyabb hassználatához. Plusz a Multisample Buffer használata mellett nem árt egy optimalizált vezérlés a hatékony AA-hoz. A GT200 igazából egyetlen dolgot épít be, a GPGPU-nál hasznos double-precision-t amit a GT200 elméletben 1/8-ad sebességgel végez. Ez tulajdonképpen elég lassú, mert az RV670 1/2-ed sebeséggel csinálja ami jóval hatékonyabb. Itt jön ki az a tervezési irány ami az RV670 alapú chipeket nagyon magas precizítású számításnál iszonyat hatékonnyá teszi.
Üzletileg sem érné meg a DX10.1 támogatás az nV-nek. Egyrészt nem egy esetben olyan face-to-face összehasonlítást eredményezne az új API támogatása a HD Radeonokkal ami kihozná a GF architektúrák gyengeségeit. Nagy adatmennyiséggel dolgozó GS feladatok esetén még az HD3650 is szépen elpicsázná a GT200-akat. Másrészt a DX10.1 számtalan helyen egyszerûbb és gyorsabb algoritmusokra ad lehetõséget a fejlesztõknek. Nyilván ezzel a módszerrel csökkenne a játékok gépigénye és az nem tesz jót a jelenleg jól tejelõ üzletnek.
Mire ??Én nemértek ezekhez a dolgokhoz de már ha ott az S3 által megalkaotott DX10.1 akkor nekik nem kell vele foglalkozni csak aköré építeni a maguk erõs gépezetét és kész is a DX10.1-es nvidia VGA. Vayg ez nem ilyen egyszerû?
Nemlepödnék me az sem ha nvidia felvásárolná ezeket is.Mert ugye itt is tudják már a dx10.1-et!
Teljesítménnyel eddig sem volt probléma (mármint ami video/2D meg azért játékokban is elvolt, mikor épp nem bugzott) de a beszerezhetöség, na az már más kérdés. Mikor a Deltát hónapok telefonálgatása és utánajárása után itthon is megtaláltam, akkor azt hittem ennél rosszabb nem lehet :D Pedig de :)
nalam erik egy kis ultracsendes vekony kis htpc szeruseg... (HDmozi lcdn, net meg ilyen gagyiag dolgok ) szal nalam elsodleges szempont a 2D kepminoseg^^
szal varjuk-varjuk^^
most gondolj bele nem lett volna ATi és nvidia most õk lennének a legjobb gyártók
Jah tudjuk, már megint megelõzte korát Nembaj, legalább megint jókat lehet majd röhögni, hogy az old DX9 gammék, hogy "szakítanak" és mennyire bugosan jeleníti meg. dx10.1-rõl nem is beszélve. Megint egy deltakrómszánalom S3 sziríz.
De tuképp igaza van :) amilyen sebességgel frissül mondjuk pl a honlapjuk, állhat a cég vagy két részmunkaidõs egyetemistából :) De a szomorú, hogy ez gyakorlatilag az egész VIA-ra jellemzõ, se chipset, se processzor, se hangkártya fejlesztés. Valamiért a "sokat akar(t) a szarka..." mondás jutott az eszembe :D
Attól tartok ebbõl már semmi nem lesz, pedig most, hogy relatíve gyengék a dx10-es középkat kártyák, lehetne esély, de ez sem lesz erõs, sõõõõt. Idõ lett volna megtervezni, de úgy érzem manapság VIA-nál semmire sincs pénz :(
http://www.s3graphics.com/en/products/chrome_s27/
ne feledd, hogy jóval kevesebb tranzisztor van bennük. a 700MHz-es S27-es hûtése sem okoz problémát. De sokkal kevésbé tartom életképesnek. Ránézésre max 2xS27 teljesítmény, ami most is épp csak elég lenne a középkategóriába, nemhogy 1 év múlva. Szóval szerintem azt el kellene felejteni, kár beleõlni a pénzt, inkább az XE1-re költeni. Na az már ígéretesebb, de szerintem abból sem lesz semmi, 2-3 évre elõre tervezni ilyen pontosan, ilyen kis cégnél...
1GHz Corespeed 90nm-en? Lol. A G80-ra atomhûtés kell 700MHz közelében, pedig "csak" 80nm-es. Amúgy nem voltak rosszak a Deltachrome kártyák, csak árában 2x gyorsabb GeForce vagy Radeon kapható.
Kutyát se...
régen hallottunk már felõlük (már ha még érdekel valakit)
nagyszabású tervek. Ha ebbõl csak az utolsó megvalósulna, már több eséllyel indulnának
Teljesítménye gondolom megint a béka segge alatt :D
érdekes. végre valamivel idõben elkészülnek? bár ahhoz kellene, hogy hozza az új generáció középkártyáinak teljestményét, de a hûtés rajta nem ezt sejteti :S nekem inkább tûnik egy átszerkesztett, hdmi-s S20-asnak, de annak meg nem lenne sok értelme
S3 Chrome: készen a DirectX 10-re "HOC" "........csendben elkészítették az új generációs Chrome-ot, mely már a DirectX 10-et és a Pixel Shaderek 4. generációját is támogatja........."
Azért a_n_d_r_e_w Te se vagy jobb a Deákné vásznánál!
Az XGI topikban Te is sokat fikáztál!Jött egy új hír egybõl valami negatív hozzászólás mégsem támadott senki!
Sajnos hogy a két kis gyártó nem tud fejlõdni ez van..... Ez egy fórum vélemények pro és kontra vannak nem kell magára venni az embernek! Most már eléggé személyeskedésbe ment át!
Béke!
Gyerekek fejezzetek mar be ezt az ertelmetlen harcot... plzzzzzzzz Btw sokan elfeljtik azt a tenyt, hogy kivalo kepminosegevel es 2ds ficsorjeivel eleg hizelgo sok embernek a kartya... sokan nem azert vesznek MAtroxot sem, mert 3dmarkban sokezer pontot dob a kartya, hanem a 2ds kepminoseg kell(Van par CADes ismerosom aki meg mindig meg van elegedve a MG400al... gyonyoru kepe van analogon)... nekem is a kis gepembe kene egy ilyen... de azert az arral en is haragban0 vagyok tovabbra is... majd ha kicsit lejebb megy...(nomeg ugylatom nincs AGPs belole)
plzzz a veszekedest meg tegyetek kispadra... okes?
AMD fele a versenyt a VIA latvanyosan elvesztette, arra nem tud nyitni. Az Nvidia elsoporte az utbol, raadasul mar megjelent a integralt 6200as megoldasaval. Az Ati is az Xpress 200-al utjat allja. Sot ha igy folytatja elkesik az Intelnel is, hiszen mind a ket VGA gyarto ceg kezd betorni az Intel altal birtokolt piacra, hiszen itt eddig szinte csak az Intel GMA megoldasa volt a piacon, most pedig mar az elobb emlitett Nvidia es Ati megoldasok ide is kezdenek beszivarogni.
Ami neked sem jutott eddig az eszedbe, a laptop szegmens, ahol az olcsosag jegyeben a SiS elkezdett nyomulni a "crap" termekeivel. Itt hasonlo aron oriasi piaci reszesedest tudna rovid ido alatt elerni a VIA, na persze kellene egy alternativ megoldas, egy megbizhato es kevesett fogyaszto, viszonylag gyors termekre. Itt talan meg nagy eselye lenne, "bedolgoznia" magat, de ahhoz jobban osszekell szedniuk magukat. De az tisztan es vilagosan latszodik, hogy az aranyok kezdenek elbillenni a hordozhato gepek piaca fele. En a helyukben titokban arra kezdenek koncentralni, ugy hogy eltitkolnam ebbeli szandekaimat a konkurensekkel szemben.
De a VIA az utóbbi számomra teljesen rossz döntéseket hoz. Saját termékeik támogatása a béka segge alatt (Envy24 driverek pl borzasztóak), fejlesztések elmaradnak (az új déli hídjuk is jó 1 év késéssel jött), stb.
Abban egyetértünk, hogy integált megoldások fele kellene nézegetnie (érdekes, mert elvileg a Chrome család pont erre lett kitalálva, és mégse erre használják). De amiben szerintem nem értünk egyet (és abbõl jött a múltkori vitánk is) hogy szerintem nem az intel féle fronton kellene támadnia (ott túl nagy a befolyása az intelnek), inkább az AMD fele kellene nyitnia. Feltörekvõ, talán nemsokára egyenlõ versenyzõ, folyamatosan bõvülõ piac, viszonylagos kaotizmus a chipsetek terén, stb. Szerintem nem véletlen hogy az nV és az Ati is pont arra próbálkozik.
Ha lenne esze a VIAnak akkor, nem ezen a szegmensben probalkozna. Bar az Intellel szemben nem sok eselye van, de velemenyem szerint eltudna happolni tole egy ilyen teljesitmenyu integralt megoldassal toluk kozel 10%-ot azon a piacon. Elkellene mar felejteniuk a desktop fejleszteseket es teljes erovel arra a reszre koncentralni.
nemnem, engem nem csaptak be. én csak reménykedtem. 8 pipe+700MHz elég lett volna. de sajnos valami bibi van a szériával (valószínûleg az alacsony tranzisztorszám, amit a shadereken spóroltak meg), ezért várható volt hogy csak jobb esetben hozza a teljesítményét (#1247)
"Az S3 elozetes tesztjei az utobbi evekben mindig legalabb 50%-osan tulzoknak bizonyultak, szerintem ez most sem lesz maskent." (Válasz 'Lammer' üzenetére (#1250))
ez bizony így volt. Deltachrometól mindenki csodát várt (legalábbis aki akart), de végül egy 9600pro lett belõle. épp azt próbálom mondnai hogy most nem így lett. a már idézett #1277-es PR anyag nem hogy nem 50%-kal, de szerintem semmivel sem volt túlzó
Én most nem csalódtam. Deltában csalódtam. aki abban csalódott megértem. aki ebben azt viszont nem :)
"te érezted úgy hogy becsaptak mikor nem ezt ígérték. pedig nem mondtak ennél soha többet"
Na ne mar. Teged csaptak be egyedul baratom, hiszen te hitted el azt, hogy lehetseges hogy az S3 kihoz egy 6600GT-vel elbano kartyat.
Nos de nezzuk meg en mit irtam realisan, nem elfogultan a dolgokrol:
[Jakuza] 2005. szept. 04. 18:50 | #1251 Az S3 elozetes tesztjei az utobbi evekben mindig legalabb 50%-osan tulzoknak bizonyultak, szerintem ez most sem lesz maskent.
Nos ugyerzem ezek utan inkabb nekem volt igazam mint neked, a tenyek legalabbis ezt tamasztjak ala. Raadasul ez volt a reakcio a te irasodra, tehat en mar akkor is is inkabb realisan lattam a helyzetet.
Megy ez személyeskedés nékül is ugye? Egyezünk meg hogy legközelebb ilyen hangnemben folytatjuk. Én majd visszafogom magam. És te?
józan érv: nem én kezdtem a flémet, te írtál be valamit, ami minden alapot nélkülöz, ezt próbáltam megmagyarázni, alátámasztani
negatívumok: persze, minddel egyetértek. te érezted úgy hogy becsaptak mikor nem ezt ígérték. pedig nem mondtak ennél soha többet
"gondolom több mint nektek" ezt inkább hagyjuk
"bocs, ha vérig sértettelek, számomra a képminõség nem screenshotokon látszik, hanem valamilyen fajta benyomásként ér." szerintem igen. baj? én enm láttam meg akkor se a különbséget, mikor az nV-t szidták a képminõség terén, és az Atit istenítették. viszont éreztem. lehet hogy csak sugallták belém, de én nem esek neki nagyítóval elemzni minden pixelt. lehet én vagyok a hülye, de én akkor is így gondolom
"Egy ilyen termeknek nincs helye 2006-ban a piacon." de van. a piac attól jó, hogy van választék. még ha senki sem veszi.
"a_n_d_r_e_w 2005. szept. 03. 22:45 | #1243 Infok: ChromeS2x család: 8 pipe, 0.09µm, kb 700MHz várható az S27 esetében, a verziók csak órajelükben különböznek. Sajnos úgy érzem ez még mindig nagyon kevés lesz, mondjuk ha jól meg van csinálva, akkor a magas órajellel elbánhat egy 6600GT-vel."
Ezt én mondtam, S3 nem. vagy te az én ígéreteimnek (ami ráadásul nem is ígéret, hanem tipp) hiszel?
"De erdekes a varakozasnak nalad megfelelt a kartya, ami megint azt bizonyitja, hogy kisse S3-ban latod a vilagot." Nem, nem felelt meg. Nem is használom. De nem szidom amiért nem váltotta be a hozzá fûzött reményeket, amik csakis belõlem fakadtak. senki sem akarta belémverni, hogy ez a kártya bizony üti a 6600GT-t.
"de nem õket kell szidni, ha nem tetszik, ne vedd. félreértés ne essék, nem a negatív kritikával van gondom, az van nekem is bõven, de minden egyes alkalommal jössz, hogy milyen szemetek meg hülyék hogy nem csinálnak jobbat"
Grebber jópárszor (gyakorlatilag minden új hírnél beírta, hogy ez neki mennyire nem testzik, meg hogy mennyire hülyék hogy nem csinálnak jobbat. Szerintem elsõre is tudomásul vette mindenki, és a topic sem pörög annyira, hogy ezt mindig be kelljen írni.
A kártya minden teszten megbukott, csak meg kell nézni a kûlfõldi nagy szaksajtó által írt véleményeket. Ezért a pénzért ez a mostani legrosszab ár/telljesítményarányú kari, de ez csak az én szubjektív véleményem.
vicc kártya.... 10 éve szenvednek, de nem tudnak érdemben ugrani
Milyen erveket hoztal fel ? Jozan erveket ?
Leirja, valaki, hogy ez a termek ez csalodas, tenyekkel alatamasztva, aztan azzal josz, hogy azert mert en nem veszem meg es a supersamplingje megeszi a teljesitmenyt, attol meg jo ?
Nos felsorolok egypar negativumot.
Elsimitassal kartya hasznalhatatlan. Nagyfelbontasban a kartya hasznalhatatlan. Ara magas vetekedik egy 6600GT-vel. Fogyasztasa magas.
Mi szol mellette ?
Allitolag szep a kepe. Mondjuk nekem volt egy par S3 kartyam (gondolom tobb mint nektek) sose voltam elajulva toluk, de legyen nektek mondva.
Mondjuk ez a szekmai dilettantizmus kicsit gaz, ahogy megmagyaraztad, miert is szebb a kepe, hagy idezzem ide:
"bocs, ha vérig sértettelek, számomra a képminõség nem screenshotokon látszik, hanem valamilyen fajta benyomásként ér." ROTFL
Ezek a tenyek , nem az ujjambol szopva, hanem amit a kartyarol megallapitottak. Egy ilyen termeknek nincs helye 2006-ban a piacon. Talan lett volna vagy 3 evvel ezelott, de ma nincs letjogosultsaga, ha tetszik ez neked, ha nem.
Raadasul meg egy adalek, kicsit ellentmondasz magadnak idezzelek:
"a_n_d_r_e_w 2005. szept. 03. 22:45 | #1243 Infok: ChromeS2x család: 8 pipe, 0.09µm, kb 700MHz várható az S27 esetében, a verziók csak órajelükben különböznek. Sajnos úgy érzem ez még mindig nagyon kevés lesz, mondjuk ha jól meg van csinálva, akkor a magas órajellel elbánhat egy 6600GT-vel.
Ennyit arrol, hogy mit mondtal valojaban. De erdekes a varakozasnak nalad megfelelt a kartya, ami megint azt bizonyitja, hogy kisse S3-ban latod a vilagot.
Amugy De Javu-m van csak idezve Grebbernek irt valaszodat:
"de nem õket kell szidni, ha nem tetszik, ne vedd. félreértés ne essék, nem a negatív kritikával van gondom, az van nekem is bõven, de minden egyes alkalommal jössz, hogy milyen szemetek meg hülyék hogy nem csinálnak jobbat"
Én mindent megpróbáltam, lehiggadtam, magamba néztem, józan érveket hoztam fel, de te még mindig az élsimításon és az árán lovagolsz. néha nem csak a másikban kellene a hibát keresned. azt hiszem itt hagyom abba, hogy hozzád szóljak.
Ami az élsimítást illeti: kb 7 éve tudjuk, hogy az S3 supersamplinget használ, ami rendkívül megeszi a teljesítményt. milliószor ki lett tárgyalva, hogy ez bizony egy jelentõs és nagy hiba, de nem mindekit érint, sokan egyáltalán nem használnak élsimítást.
Ami az árat illeti: túl van lõve. egyértelmû. megveszed? nem. kapható egyáltalán itthon? nem. Megveszik a japók drágán? miért zavar?
És kérlek, hogy ne másokkal példálózz, mert velük vagy megtárgyaltam késõbb a problémákat, vagy nem zavarja õket, vagy még nem akartak szólni. Szerintem ha bajuk lesz, majd õk szólnak. Te viszont nem vagy képes túllépni magadon.
Kit kell megvedeni ? Ne haragudj, de te beteg vagy ?
Eskuszom ezt is beteszem az alairasomba. :P
"tényleg csak azért védem az S3-at, mert mindenki ott rúg bele ahol tud. Ugye ezt te is érzed?"
A valos helyzet volt leirva, valos tesztekkel, ahol meg egy 6200as gyenge VGA-val sem allta a versenyt. Akkor most mirol is beszelunk ? Vagy megakarod nekem magyarazni, hogy az a valos teszt ha egy kartya produkal egy kozel azonos tesztet egy alsokategorias kartyaval egy 3DMark tesztben es nagy felbontasban es elsimitasnal egy 6evvel ezelotti VGAk teljesitmenyet sem eri el ? Raadasul az ara egy kabare a tobbihez kepest. Vagy te erre vartal ? Es azert akarod megvedeni az S3at ? Olyanoknak ugrottal neki, akik minannyian elotte azt irtak, hogy de jo lenne egy eros S3 a piaci korulmenyeket a felhasznalok szamara baratibba teve, annyira rugtak bele az S3-ba.
Biztos elõfordult hogy valakinek esetleg ok nélkül nekiugrottam, ezért elnézést is kérek, de sokan ezt hál' Istennek nem úgy reagálták le mint te. De sokkal többször volt a kirohanásom oka egy fals kijelentés, mint most is a #1363, és tényleg csak azért védem az S3-at, mert mindenki ott rúg bele ahol tud. Ugye ezt te is érzed? De hogy lásd, hogy te is tévedhetsz, és jelen esetben ez áll fent: #1277 hivatalos PR anyag. sehol sem szerepel benne a 6600GT, és azt viszont remélem te is elismered, hogy a 6600-nál (vagy ami ott van go6600u) viszont jobban teljesít. Így szerintem nem hazudott az S3
Oreg erdekes neked van itt problemad mindenkivel aki beirja, hogy ez a teljesitmeny edeskeves. Soroljam a neveket ?
Digital,Lammer,Izb,Jakuza
Raadasul senki nem ugy jott ide, hogy elkezdte egybol nyomdafesteket nem turo szavakkal az S3at, es erdekes modon mindenkinek nekiugrottal, aki nem istenitette az S3at. Szerintem magadba kellene nezni kicsit.
ismerõs a szitu. Miután az illetõnek nem tetszettek a hozzászólásaim az adott témában, elkezdett fikázni,majd az aranypofa tovább szórakoztatott priviben. érv semmi,csak a mellébeszélés...
OK, kezdjük elõlrõl, tiszta lappal: reális kijelentésed: "Hat ez szanalmasan gyenge ismet az igeretekhez kepest." Erre cáfoltam rá azzal, hogy senki nem ígért ennél a teljesítménynél jobbat. remélem ezzel egyetértesz.
"Megint egy minden alapot nélkülözõ, flémsazgú kijelentés..." ebbõl adódóan a reális kijelentésedet flémként értékelni gondolom nem nagy bûn, mire te személyeskedéssel válaszoltál.
Oreg te kezdtel flamelni, amikor egy teljesen realis hozzaszolas szuletett, hogy az S3nak a kozolt adatai megint csak igeretek maradtak.Mint mar szamtalanszor
"Hat ez szanalmasan gyenge ismet az igeretekhez kepest."
Csak idezlek:
"Megint egy minden alapot nélkülözõ, flémsazgú kijelentés..."
Ennyit arrol, hogy mennyire veded a nem letezo munder becsuletet. De ha mar itt vagyunk, hagy kerdezzem mar meg. Te nem vagy veletlenul valami S3 teruleti kepviselo ?
Hagyd hiszen nekem azzal jott, hogy nem az Intel a legnagyobb VGA chipsetgyarto, amikor meg belinkeltem neki, egy piaci reszesedesi adatot a kozel 50%-s Intel piaci reszesedesbol, akkor jott a megmagyarazom, hogy a piros azert nem piros, mert en keknek lattam a masik szogbol. Utana en voltam a hulye, mert o keknek latta a pirost. :PPPPP
Örülök, hogy te is élvezed. Csak megpróbáltam megelõzni a flémet, aztán ez lett belõle.... Nem tehetek róla, hogy egyesek nem képesek fikázás nélkül hozzászólni ehheza témához
Hogy gaz lenne elsimitassal ? Ugyanmar, amelyik kartya ilyen eredmenyeket er el vele, az szanalom. Talan meg egy sima 8500al is produkal az ember ilyen eredmenyeket.