" az egesz vilagegyetem is algoritmusok es a koztes viszonyaik alapjan mukodik." Aha kezdem érteni mit akarsz, és nincs is ellentmondás a te állításod és az enyém között ugyanis: A számítógép is hierarhikus rétegek szerint épûl fel. Nézzük a következõt, nagyon leegyszerûsítve: bitek szintje utasítások szintje és az alacsonyabb és magasabb szintû nyelvek Akkor azt állapítjuk meg hogy algoritmus már igen alacsony szinten is van (Pl.:logikai kapuk elõre meghatározott válaszokat produkálnak a a meghatározott bemenetekre) A számítógépnél a legfelsõ szintig jelen kell legyen algoritmusnak! Az embernél is hasonlóan van, az alacsony szinteken biztos hogy algoritmusnak kell legyen, de pl.:az emberi öntudat már a jelenlegi számítógépek legmagasabb szervezettségi fokánál magasabb, és lehet hogy nem is csak ez az egy szint van! ezeken a szinteken attól függetlenül, hogy az alatta lévõ szinteken milyen algoritmus van úgyan-úgy lényegtelen mint a számítógépnél (a fordító a lényeg csak). Tehát elképzelhetõ hogy az emberi gondolkozás magasabb szintjén már nem csak algoritmikus gondolkozás létezzen, annak ellenére, hogy a neuronok csak arra képesek. A világegyetemet említetted, az én általam ismert legmagasab szintû szervezõdése a létezésnek az pont az emberi tudat, gondolkozás. Minden szinten valamilyen minõségi ugrás van (attól más szint) ezért lehet hogy pont ez a minõségi ugrás...
annyi, hogy beleviszed a meglepetés faktort is.
Egyszóval, minden megoldható algoritmussal, mert a randomizálás is az.
Ez is megoldható if case 1 if case 2 .... otherwise
ággal. Randomizálod a döntéseket, véletlen számokat csak tudunk generálni. Vagyis, ha a véletlen szám páratlan, akkor megy az algoritmus logikája, ha nem, akkor bedob egy tetszõleges variációt, de nézi a hatást, vagyis a felhasználó tud finomítani a rendszeren.
No, csak azért kérdeztem mert a jelnlegi partnerkeresõ helyek mind lenyúlások.
Régen gondolkodtam, hogy csinálok én egy jobbat, amelybe mindenki kitölt CSELES teszteket, majd a gép kiguglizza neki az ideált. Nincs rá idõm, pénzem, így magányosan búslakodom én is, mint sokan mások. Pedig a boldogság alkotmányos nem egyéni, páros, sõt kollektív jog kellene legyen. De ki törõdik már itt alkotmányossággal, jogokkal is.
Nos az algoritmus ember által alkotott fogalom! Így van egy definiciója, abban szerepel: "utasítások sorozata" ez azt jelenti hogy milyen esetben mit kell tenned az teljesen meghatározott. Tehát ha az algoritmust felrúgod akkor az a definiciója miatt nem az többé! Ha nem úgy teszel ahogy az algoritmus utsításában szerepel akkor nem az algoritmus szerint cselekszel, ez a gondolkozásra is igaz. Ha nem csak az algoritmus szerint gondolkozol akkor fedezel fel pédául új dolgokat (ezt hívják intuiciónak). Mind a két féle gondolkozásra szükség van! Ha az egyik hiányzik akkor az elmebetegség! Nézd meg az Esõember címû filmet! Elég képszerû mirõl beszélek, ha valaki csak bizonyos szabályok (utasítások tehát algoritmus) szerint gondolkozik akkor arra az esetre amire nincs utasítás készlet nem tud normálisan reagálni (vagy nem is reagál rá) Ez tipikusan az autistákra jellemzõ. Ha valakinek nagyon jó az algoritmikus gondolkozása az azt jelenti hogy a reális valóságot nagyon jól tudja megitélni, de csak az ismeretei szintjén, ezért csak az lesz zseni aki a jó algoritmikus képessége mellet intuitív, tehát az algoritmikustól eltérõ "hibás" gondolkozása is erõteljes, ezért az átlag emberek nehezen kûlömböztetik meg az õrültõl, akinek viszont már sérült az algoritmikus képessége (nem lehet kiszámítani a viselkedését) Dióhéjban... Tehát azt belátod aki nem az algoritmus szerint viselkedik annak nem lehet a viselkedését kiszámítani, ilyen ember létezik... Akkor az átmenek is létezhetnek... tehát csak gondold végig...
" Ebbõl az következik, hogy térfogati jellegû a lokális minimum megtalálásához bejárt tér, tehát exponenciálisan skálázódik a dimenziókban a szükséges lépésszám"
Nos ebbõl (az "exponenciálisan"-ból) következik bizonyos feladatokra nem lenne elég az ember neuronjainak száma, (mert nem milliárdos, hanem annál jóval nagyobb nagyságendû is lehetne a szükséges). Az asszociációt igénylõ problémák lehetnek ilyenek. Az asszociáció pont az általam írt "hibás" gondolkozásban rejlik, ugyanis pl.: Amikor egy festményrõl eldöntjük hogy az mit ábrázol akkor nem a valóságot fogjuk eredményként kapni (tudnilik hogy színes foltok) hanem mondjuk egy tájat. Ebbõl kitûnik hogy amikor asszociálunk a képrõl a tájra akkor az általam "hibás" gondolkozásnak nevezet dolgot mûvel az agyunk. Ezt a "hibás" gondolkozást kellene vizsgálni, mert ennélkül maximum csak "autista" gépeket fogunk alkotni a legtökéletesebb algoritmusokkal is...(mindegy mekkora lesz a futásidõ, milyen kapacitású lesz a gépünk akkor is) Tehát lehet képfelismerõ szoftvereket írni, de ha nem képes az elvonatkoztatásra semmi kép nem MI...
toto, az egesz vilagegyetem is algoritmusok es a koztes viszonyaik alapjan mukodik. Az amit nem algoritmikusnak nevezunk legfeljebb abbol fakad, hogy az adott "hibat" amit emlitettel milyen melysegig analizalod. Pl. ha nem csak a neuronhalo hibas tagjait elemzed, hanem a hibasnak itelt neuronokba is beletekintessz, lemessz biokemiai, vagy akar szubatomi reszekig, akkor elobb utobb ra fogsz jonni, hogy maga a hiba is algoritmikus.
Tehat attol meg, hogy valamit elmeleti szinten altalanos megegyezes alapjan nem algoritmikusnak hivsz, az attol meg az, csak attol fugg, hogy milyen melyen nyulsz bele a problema eredetebe.
Az elobb kerestem a futasi ido meghatarozasahoz a kepletet a jegyzeteim kozott, de elkepzelheto, hogy festeskor felkerult a padlasra. Ha lesz idom es nagyon-nagyon erdekel megkeresem.
> Oké, szóval akkor az összes szomszédon keres. Az ábrán, ha jól látom, pl. épp 12-n. Ebbõl az következik, hogy térfogati jellegû a lokális minimum megtalálásához bejárt tér, tehát exponenciálisan skálázódik a dimenziókban a szükséges lépésszám.
Ez igy van.
> Én pedig megint leírom: *nincs* garancia a globális optimumra! Honnan tudod, hogy ezt az egyszerû eljárást elegendõ a "tér 12 ezrelékén" megismételni?
Kiserletekbol.
> Van valami tétel róla?
Nincs. Ezert irta a gazdaja, hogy ha valaki tudja, hogy miert mukodik akkor "jelentkezzen".
> Vagy csak annyi bizonyíték van, hogy néhány konkrét, kisméretû problémában ennyi elég volt?
Hat azert ez termeszetesen nem ennyire feluletesen lett korbejarva. Ez nem egy kiserleti eszkoz, ez ma mar a gyakorlatban is alkalmazott megoldas. (keress ra a google-lel)
A dimenziok szamaval forditott aranyossagban, a teljes ter nagysagaval pedig egyenes aranyossagban kell novelni az ablakmeretet. En anno erre irtam egy egyenletrendszert is amivel konnyebben meghatarozhato (es nem megbecsulheto!) az algoritmus futasi ideje az ablakmeret, optimumkriterium, dimenziok szama es a dimenziok nagysaga aranyaban. (az egyes dimenziok lehetnek kulonbozo szintuek is)
> A véletlen felvett pontok helyett úgy látom, õk rácsban, sõt, ebben a Tejfalussy-elrendezésben négyzetrácsban vették fel a kezdõpontokat. Ez kétségkívül determinisztikussá teszi az algoritmust, viszont sok dimenziós esetekben nagyon gyengus.
Eppen ellenkezoleg, minel KEVESEBB a dimenzio annal "gyengusabb", annal nagyobb hanyadat kell megmerned a ternek es ugyanannal az ablakmeretnel minel TOBB a dimenziod annal kevesebbet, hiszen itt van lehetoseged minel tobb Fourier-transzformaciot csinalni ami lenyegeben elvezet az optimumhoz. (lasd fentebb az elozo kerdesedre a valaszomat)
A teljes terre 2-12 ezrelek azok alapjan a kiserletek alapjan jott ki amik el lettek vegezve. Globalis optimum keresesnel a dimenziok szamanak/szintjeinek ill. ablakmeret valtoztatasaval ezek az eredmenyek szulettek. Az mindenkeppen elony ha a dimenziok szintjei nem oszthatoak egymassal es itt igazabol ez az ami a 2-12 ezrelek kozott beleszol abba, hogy pontosan mennyit is kell merni.
> Ez egy aranyos heurisztikus algoritmus, de semmiképp sem forradalmi, legalábbis én nem látom, mi lenne benne az. Olyan, amit egy PhD diák józan ésszel gyorsan összedob valami részproblémára, publikálni aligha lehetne.
Mar tul van rajta: http://hup.hu/node/7880 http://hup.hu/node/8900 http://hup.hu/node/22782
Ime egy gyakorlati alkalmazasa: http://64.233.183.104/search?q=cache:nq8saWeuZpAJ:www.chemres.hu/ISCC/dooc/Combinatorial%2520Catalysis/2005.ApplCatA.v285.p65.pdf+xhrs+catalyst&hl=en&ct=clnk&cd=4&gl=uk&client=firefox-a
Van egy elméletem, lehet hogy nem így van, de szerintem jobban leírja az emberi gondolkozást, mint a pusztán algoritmikus elképzelés. Ha pusztán algoritmusokkal gondolkoznánk akkor az azt jelentené hogy eljutunk egy feltételes elágazáshoz akkor úgy kellene döntenünk ahogy az algoritmus elõírja (ha ez akor így, ha nem ez akkor nem így) ellenben az emberi agy hibázik és elõfordul hogy ugyanolyan feltételek között így máskor meg nem így dönt. Tehát az én elképzelésem az hogy az agyunk ugyan használ algoritmusokat, de hibákat vét benne (ekkor az már nem algoritmus annak definiciója következtében). Tehát van egyszer algoritmikus gondolkozás és nevezzük most hibás gondolkodásnak. Namost egy kissé leegyszerûsítem az elgondolásom: Vannak olyan emberek akik csak algoritmikus gondolkozással rendelkeznek, õk az autisták. Azután vannak olyanok akiknél változó arányban elég széles skálán van az algoritmikus és a "hibás" gondolkozás aránya õk az átlag emberek a butától az okosig. Ezután vannak akiknek jelentõs "hibás" gondolkozásuk van õk a zsenik. Akiknél ennél nagyobb arányú a "hibás" gondolkozás aránya õk a mûvészek, és akinél hiányzik az algoritmikus gondolkozás õk õrültek... Ezt elég hosszú kifejteni, itt kevés rá a lehetõség, de elgondolkozni ezen lehet!
Oké, szóval akkor az összes szomszédon keres. Az ábrán, ha jól látom, pl. épp 12-n. Ebbõl az következik, hogy térfogati jellegû a lokális minimum megtalálásához bejárt tér, tehát exponenciálisan skálázódik a dimenziókban a szükséges lépésszám. Ha ez elkerülendõ konstansokkal leszorítod az ablakméretet, egy idõ után meg se találja a lokális minimumot.
Már csak két pont maradt homályos: az egyik, hogy
"Megismetlem megint, ezeket is figyelembe veve mindosszesen a ter 2-12 ezreleket elegendo megmerni, mert legfeljebb 12 ezrelek mar biztosan globalis optimumot ad."
Én pedig megint leírom: *nincs* garancia a globális optimumra! Honnan tudod, hogy ezt az egyszerû eljárást elegendõ a "tér 12 ezrelékén" megismételni? Van valami tétel róla? Vagy csak annyi bizonyíték van, hogy néhány konkrét, kisméretû problémában ennyi elég volt? Az én vakondtúrásos példámban például a tér 100%-át át kellene vizsgálni. Teljesen hibás néhány egyszerû példából arra következtetni, hogy akkor ez akárhány dimenzióban és minden problémában így fog mûködni.
A véletlen felvett pontok helyett úgy látom, õk rácsban, sõt, ebben a Tejfalussy-elrendezésben négyzetrácsban vették fel a kezdõpontokat. Ez kétségkívül determinisztikussá teszi az algoritmust, viszont sok dimenziós esetekben nagyon gyengus. Külön tudománya van annak, hogy lehet ilyen terekbõl adott eloszlás szerint mintavételezni (MCMC, Metropolis-Hastings), és ha rácsban akarsz mintákat felvenni, a négyzetrács egy roppant lyukas dologgá válik nagy dimenziós terekben (egy százdimenziós kocka élhossza 1, de átlója 10!). A legegyenletesebb n-dimenziós rácsokról épp nemrég lapozgattam egy könyvet, a probléma nagyon nehéz és máig nagyrészt nyitott (szinte minden dimenzióban más rács az optimális).
Ez egy aranyos heurisztikus algoritmus, de semmiképp sem forradalmi, legalábbis én nem látom, mi lenne benne az. Olyan, amit egy PhD diák józan ésszel gyorsan összedob valami részproblémára, publikálni aligha lehetne. Neked is azt javaslom, nézz szét az optimalizálás irodalmában, és próbálj jobbat találni a konkrét problémádra. Egész biztosan fogsz találni. A legtöbb klasszikus eljáráshoz ingyen implementációkat is találsz a neten, még programoznod se kell.
Szerintem meg feleslegesen vitatkoztok. Majd 2030-ban találkozunk ugyanitt és jókat nevetünk azon hogy mi barmok azt hittük hogy 2030-ra lesz MI miközben épp most jósolták meg hogy 2060-ra már egészen tuti biztosan kész lesz... :)
Az aszociatív képesség sem algoritmus, mert nem csak végtelen eseménytere van, hanem nem lehet véges számú lépésben meghatározni az eredményt...
> Pl.: gondolj arra hogy léteznek több értelmû szavak, vagy olyan eset amikor ugyan az a mondat teljesen mást jelent, más szövegkörnyezetben. na ezek nem algoritmizálható dolgok...
Amely szavaknak ugye mindegyike szerepel az adatbazisban mindegyik ertelmevel, melyeket ugye ugy valaszt ki, hogy az adott szituacioval es a szavak jelentesevel vegez egy vagy tobb lentihez hasonlo optimumkeresest.
Azon kivûl válassz ki algoritmikusan (keress úgy hogy csak az algoritmust használhatod) alul maradsz a géppel szemben, viszont ha az asszociatív képességet használod simán vered!
"A beszed ertelmezese sem az, a #161-ben leirt formaban a beszed is feldolgozhato/generalhato." Nos akkor nézz utánna: pumpáló lemma ! Tehát még a generativ nyelvek sem mind ismerhetõek fel véges automatával! Azonkivûl az emberi nyelv nem is Chomsky féle! Pl.: gondolj arra hogy léteznek több értelmû szavak, vagy olyan eset amikor ugyan az a mondat teljesen mást jelent, más szövegkörnyezetben. na ezek nem algoritmizálható dolgok...
> Példa az algoritmikus és nem algoritmikus gondolkozásra: Kiválasztási problémák! Az embernek nem kell összehasonlításokat végeznie!
Nem, hogy nem kell osszehasonlithatatlanul sokat kell, csak mert csupan ez nem tudatosul az alanyban ettol meg ez igy van. Fogalmazhatnam ugy is, hogy attol meg, hogy a bicikli nem tudja, hogy halad, attol meg halad.
> Például a beszéd értelmezése az, ha tanultál formális nyelvek és automaták nevû tárgyat akkor ezt tudod.
A beszed ertelmezese sem az, a #161-ben leirt formaban a beszed is feldolgozhato/generalhato.
Mert mi is a beszed? A beszed, egy adatbazisban tarolt mintak meghatarozott osszeallitasabol eloalitott hangalaki forma. Az egyes szavakat, mondatokat szabalyok szerint allitjuk ossze amelyek szetbonthatok egyszeru es osszetett informaciokra.
Pl. Pistike elmegy a boltba.
Ez egy egyszeru informacio, kozol egy alanyt, egy allitmanyt es egy helyhatarozot.
Ugyanakkor pedig egy osszetett is, mert ahhoz ertelmezzuk is mas kapcsolodo ismeretekre is szukseg van. Pl. hogy a bolt fogalmaval tisztaban legyunk, szuksegesek azok azok az algoritmusok, amik a "fogyasztas" fogalmat is definialjak - pl. eszunk, iszunk, ruhat mosunk, ami fogyasztassal jar.
Az "elmegy" szot szinten csak akkor tudjuk ertelmezni, ha a jarulekos informaciokat (helyzetmeghatarozas) is meghatarozzuk algoritmusokkal.
Aztan nezhetunk egy masik mondatot, ami mar osszetettebb feladat:
"Ide a gubat!"
Ez egy ember szamara azonnal sugalja, hogy itt egy rablasrol van szo. De hogyan is lehet ezt egy geppel feldolgoztatni. Ehhez mar joval osszetettebb ismeretekre is szuksege lesz, ami egy ember szamara mar adott, hiszen elt N evet, evtizedet, begyujtott milliardnyi informaciot az adatbazisaba, amelyekbol megfelelo algoritmusok konstellaciojaval kiegeszitve kikeresheto a szukseges hianyzo informacio.
> Sõt algoritmikus gondolkozásban a gép most megveri az agyat!
Tevedes, maga az agy szamitasi teljesitmenye fenyevekre van a szintetikus szamitogepekhez kepest. Az csupan egy teves latszat, hogy numerikus muveleteket egy szamitogep nyagysagrendekkel rovidebb ido alatt vegez el.
Nezzunk ra egy gyakorlati peldat, kihivom egy versenyre a gepem szamologepet:
1735459 + 8475933 = 10211392
Ki mennyi ido alatt vegzett: Szamitogep --> egy villanas muve En --> kb. 10s papiron
Ugye teljesen nyilvanvalo, hogy en vesztettem. De mibol is adodik ez az egbekialto kulonbseg?
A szamitogep proceszora celiranyosan ugy lett tervezve/elkeszitve, hogy kozvetlenul az inputjara adva kifejezetten ilyen jellegu feladatokat oldjon meg. Mig az en hardveremben ilyen processzorok trilliardjai vannak clusterbe kotve, ahol soha az evolucio soran nem volt ra igeny, hogy kozvetlenul egyetlen neuron inputja es outputja legyen a kulvilagra kotve. Ezert amikor en szamoltam, a szamitasban neuronok milliardjai vettek reszt sorba, parhuzamosan vagy haloba kotve, melyekbol monjuk minden 10000-bol csupan egy vegzett pontos szamitast, a tobbi pedig a jo szamitasokat elrontotta. Ezert amikor egy ujabb "jo" neuronba jutott be, az korrigalta, majd jelzett egy masiknak, hogy deritse fel az erre a celfeladatra hibasan mukodo neuronkat. Az eredmenyt tovabbitotta, a klaszter korrekciojaert felelos neuronok pedig lekapcsoltak a halobol nehany erre a feladatra alkalmatlan neuront.
Minel tobbszor vegzem el az ilyen jellegu szamitasokat, varatoan minden alkalommal annal rovidebb ido alatt fogom elvegezni az ilyen jellegu szamitasokat, mert a neuronhalom minden szamitas utan egy arnyalatnyit "tisztul".
Példa az algoritmikus és nem algoritmikus gondolkozásra: Kiválasztási problémák! Az embernek nem kell összehasonlításokat végeznie! Amig a gépnek igen! Ha mégis kell (speciális esetben)akkor a gép gyõz!
Sõt algoritmikus gondolkozásban a gép most megveri az agyat!
No-no! Akkor hogy képes bizonyítottan nem algoritmizálható probléma megoldására? Például a beszéd értelmezése az, ha tanultál formális nyelvek és automaták nevû tárgyat akkor ezt tudod.
Lemaradt egy mondat: Ha noveled, akkor noveled es egyben csokkentheted is a kereses hatekonysagat. Mindossze arra kell torekedni, hogy a vegso keresesek szama, az valahova a teljes ter 2-12 ezreleke koze essen.
Ha a kinalat (jelenlegi hodoloid) mar adottak es nem tudsz kozuluk valasztani akkor igen. Ertekeled a lanyokat egy tetszoleges skalan (monjuk 1-10) minden szamodra lenyeges szempont alapjan, hogy pl. hogyan mosogatnak, hogyan foznek, hogyan takaritanak, mittomen hogyan hamoznak banant, majd az egyes "kategoriakban" elert pontjaik alapjan beadod a HRS-be, ami vegeredmenyul adja, hogy az N szamu lany kozul melyik all legkozelebb a Te optimumkriteriumaidhoz vagyis masszoval ki az a lany aki az eleted parja.
Ehhez pedig ket fontos dolog kell: 1. A lanyok ismert jellemzoi (pontjai a kulonbozo kategoriakban). 2. A Te kriteriumaid/vagyaid (hogy egyaltalan tudjad, hogy mit is akarsz).
Ha ezek adottak, akkor minden meres utan hiteles valaszt kapsz. Minel tobb lany van a kinalatodban, annal kevesebb meres kell ahhoz, hogy optimum maximumot kapjal.
Ha a ketto kozul valamelyik hianyzik, akkor lenyegesen lassabb lesz kereses, mert ketismeretlenes az egyenleted, ehhez pedig valamilyen modon meg kell teremtened a hianyzo informaciot. Pl. ha nem tudod, hogy mik a vagyaid akkor a Zorax az amire meg pluszban szukseged van, ami veletlenfuggvenyeket general a kulonbozo erdeklodesi koreidre, majd azokkal hatarozod meg a HRS szamara az optimumkriteriumokat. Megcsinalod a keresest, majd mittomen egy 1-5-os skalan ertekeled, hogy mely vagyaid teljesulesevel hogyan voltal megelegedve. Ezt az informaciot eltarolod, majd visszatersz az elozo peldaban a hodoloidhoz, es mar az ismert vagyaiddal kereshetsz koztuk. A valosagban pedig - akkor mar mondjuk ki - ez a tanulas, vagy inkabb elettapasztalat gyujtes.
Ez valahogy igy nezne ki a korabban targyalt algoritmusokkal:
ZMI = Zorax + HRS
Egyebkent maga a kreativitas is igy mukodik, csak sokkal tobb veletlen generalas es optimumkereses-t kell elvegezni, majd az eredmenyeket a legkulonbozofelekeppen osszekapcsolni es ujbol keresni, egeszen addig amig el nem jutsz a kivant eredmenyekhez. Ehhez viszont a ket fenti algoritmushoz mar kellene egy kiegeszito sokdimenzios adatbazisrendszer is, ami a tapasztalatokat gyujti, majd neha nemelyiket ujbol felhasznalja a tovabbi finomitasra. Lenyegeben ez mar egy mukodokepes neuronhalo.
Amikor megkérdeztem hogy algoritmizálható problémát megoldhat-e az MI akkor arra szerettem volna utalni, hogy amig csak algoritmusokban gondolkodunk mint MI addig az nem lesz fejlettebb az emberinél... Mivel az ember képes megoldani nem algoritmizálható problémákat is...
> És ezt 4 pontra csinálja csak, nem?
Nem. Mar tisztaztuk, NEM 2D, az CSAKIS es kizarolag a kepernyon valo megjelenites miatt 90 fokban elforditva. Ez a Tejfalussy-elrendezes - amit szinten reszletez - hogy tetszoleges szamu dimenziot meg tud jeleniteni 2D/3D vetuletben - fuggoen attol, hogy kiterited-e vagy nem.
Itt ez a kep. Amit lathatsz rajta, hogy hogyan lettek felveve a kezdeti pontok. Ezen pontok csoportjat hivja "ablaknak". Ha noveled
> Lehet hogy rosszul értettem az oldal szövegét, de az, hogy 4 szomszédon keresgélsz (mondjuk 6 dimenzióban a valódi 12 szomszéd helyett)
Egesz biztosan rosszul ertetted, mert meg 12-nel is tobb szomszedon keres amit szinten inputkent meg lehet hataroznod az optimumkriteriummal egyutt. Megismetlem megint, ezeket is figyelembe veve mindosszesen a ter 2-12 ezreleket elegendo megmerni, mert legfeljebb 12 ezrelek mar biztosan globalis optimumot ad. Egeszen pontosan WxN pontokon keres, ahol W az ablakmeret, N pedig a dimenziok szama.
> A véletlenrõl: ezeket az "elején felvett" pontokat hogy választja? Nem véletlen módon?
Nem, ez az ominozus algoritmus elore meghatarozottan veszi fel. (lasd fenti kep)
Mert az oldal azt írja:
"mérjünk meg néhány tetszõleges pontot a mátrixból"
Ahol a tetszoleges azt jelenti, hogy tokmindegy mely pontokat. Magyarul: ha akarod Te hatarozod meg a kezdopontokat, vagy ha mar ennyire udvarolni akarsz annak a nyavajas veletlenszamgeneratornak, akkor felveheted azzal is a pontokat.
Lehet hogy rosszul értettem az oldal szövegét, de az, hogy 4 szomszédon keresgélsz (mondjuk 6 dimenzióban a valódi 12 szomszéd helyett), az 2D vetületet jelent. Az hogy idõnként egy transzformációval felcseréli a szomszédsági viszonyokat, még nem jelenti, hogy 6D lenne a lokális keresés egy-egy lépése. Ahogy írod is:
"kizarolag az elejen felvett pontok korul csinal csak optimum ellenorzest"
És ezt 4 pontra csinálja csak, nem? Pedig az eredeti térben sokkal több szomszédja van mindegyiknek.
A véletlenrõl: ezeket az "elején felvett" pontokat hogy választja? Nem véletlen módon? Mert az oldal azt írja:
"mérjünk meg néhány tetszõleges pontot a mátrixból"
Ez nekem eléggé random választásnak hangzik...
">> ez szimplán nem igaz.
De igen, a fenti algoritmusra."
Kevered az algoritmust a problémával. Bármilyen folytonossági tulajdonság a problémáé lehet csak, nem az algoritmusé. Egy algoritmus nem tudja garantálni a feltételeket, ha azok nem igazak a problémára.
Egyébként le van ez az algoritmus publikálva valahol? Mert az ám a legjobb módja a zseniálisan új dolgok elterjesztésének... mindenesetre a belinkelt oldalon egy fia publikációra sincs hivatkozás, sem sajátra, sem máséra. Az, hogy egy módszer forradalmi-e, leginkább azzal lehet lemérni, hogy ismert problémákon benchmarkokban megveri a többi ismert algoritmust. Nem szakterületem az optimalizáció, de ezt az eddig látottak alapján eléggé kétlem: az általam ismert eljárások jóval okosabban használják ki a deriváltakat (pl. konjugált gradiens), a véletlen sorsolást (pl. CE) és lokális-globális optimumok viszonyát is (pl. STAGE), mint ez.
Mert ugyanis nem az a legnagyobb kérdés az életben, hogy milyen útvonalon tudok eljutni Bp.-rõl Sopronba, hanem az, hogy kit vigyek az ágyamba, megpályázzam-e azt a másik állást, stb. Ehhez kell intelligencia. Az útvonaltervezés, szövegszerkesztés, nem intelligenciaigényes feladat.
> Olyan ez, amikor végignézek a metrókocsin, mind számomra érdektelen muki, és máris átlagolok és lezárom az ügyet. Közben, az egyik sarokban ott lapul egy szexbomba, aki meg tudná változtatni az egész életem.
Erre mar valaszoltam tobbszor is: folytonos terben keres nem pedig kvazi randomban. Illetve kombinatorikai problemakra ad valaszt. Peldaul, veszel ket tetszoleges halozati eszkozt az interneten, beadod neki a koztuk levo osszes lehetseges csomopontok szamat, azok savszelesseget, (netan a pillanatnyi terheltseget) es megmondja neked, hogy melyik uton a legcelszerubb elindulnod, hogy a ket eszkoz kozott a legnagyobb savszelessegen tudjal adatokat tovabbitani.
Köszi a linket, most nincs idõm elmerülni benne. Csak annyi ütötte meg a szemem, hogy Fourier (és nem furier) transzformációkat használ. Nekem valahogy az az érzésem, hogy ez akkor a kukába dobhat hasznos infókat is. a legöbbször persze bejön a tipp, de mi van, ha épp egy fontos szingularitás esik ki a mintavételbõl. Olyan ez, amikor végignézek a metrókocsin, mind számomra érdektelen muki, és máris átlagolok és lezárom az ügyet. Közben, az egyik sarokban ott lapul egy szexbomba, aki meg tudná változtatni az egész életem.
> Megnéztem a belinkelt oldalt is. Hát, az ott leírtak alapján ez a HRS sima random mintavétel + lokális optimumkeresés
Pont ez az, hogy nem! (na erre felejtettem el reagalni) Egyetlen inci-finci random nincsen benne, hanem egy elore meghatarozott szabaly szerint jatszik es ettol a szabalyol barmilyen meresi tema eseten sem ter el.
A legegyszerubben ugy lehetne fogalmazni, hogy ez egy sokdimenzios rubikkocka, ahol nem kell kiprobalnod az osszes kombinaciot, hogy kirakjad, hanem mindig ugyanazt a szabalyt koveted es - csunyan fogalmazva - a "kocka rakja ki sajat magat". Pont ez adja a determinisztikussagat is, hogy a kereses szabalya soha nem valtozik, mindig csak a bemeno parameterek valtoznak.
Ez kombinatorikai optimumkereses, nem teljesen azonos a Te problemaddal. Most egyebken ertem mire gondoltal korabban es valo igaz, hogy a GA-t nem mindenben valtja ki, csak olyan esetekben ahol nagyon sok dimenzio van, maskulonban valoban nincsen ertelme a gradiensnek.
> Megnéztem a belinkelt oldalt is. Hát, az ott leírtak alapján ez a HRS sima random mintavétel + lokális optimumkeresés, megspékelve azzal, hogy egyszerre csak egy 2D vetületben keresgéli a lokális optimumot, aztán cserél dimenziót.
Ez nem igy van. Nem 2D vetuletet vizsgal hanem nD vetuletet, ill nem cserel dimenziot hanem csinal egy Furier transzformaciot. Erre hivatkozik vektorforgatas cimen. Nem olvastad vegig figyelmesen. Van ott mozaikban elrendezve 4 abra is ahol az elso kepen bemutatja a kereses elso fazisat, inicializalja a kereses kezdopontjait majd a masik harom kepen egy-egy transzformacio utan megfigyelheto, hogy a kezdopontok hogyan szetszorodnak a terben es vegig az optimum centrumok kornyeken "kovalyognak" akarhany transzformaciot is csinalsz. Ezek lathatoak a vekony fekete vonallal hatarolt pontok korul. A kereses pedig ugy zajlik, hogy kizarolag az elejen felvett pontok korul csinal csak optimum ellenorzest es mivel akarhany transzformaciot is csinalsz a pontok az optimum centrumok kornyeken jarnak. Ezert van az, hogy a pesszimum centrumoknak meg csak a kozelebe se megy.
Egyebkent ott csak a megjelenites miatt van a 3D vetulet es nem 2D! 3D alatt ertsd: X, Y es a szinertek. Az optimumcentrumok fele vilagosodik a pesszimumcentrumok fele pedig sotetedik.
> Van még pár érdekes dolog az oldalon, pl. "folytonos oksági térben várható, hogy az okozatok is folytonosan képzõdnek le (Aki tudja miért van ez így, jelentkezzen!)" - régi trükk triviálisnak beállítani egy könnyen kritizálható állítást, pedig ez szimplán nem igaz.
De igen, a fenti algoritmusra. Fogalmazhatnam ugy is, hogy akarhogy is nezzuk, a gyakorlatban mukodik, de elmeletben meg nem tudunk valaszokat adni arra, hogy miert, mert nem tudjuk, hogy az n dimenzios folytonos terben akarhogyan vetitjuk egymasra a dimenziokat miert marad a kereses allandoan az optimumcentrumok korul szorosan. Erre vonatkozott a fenti allitas amit beideztel.
Pusztán gradiensek alapján nem lehet globális optimumot találni. Ha szétnézek, és lokálisan látom, hogy arra emelkedik az út, akkor azon elindulva nincs rá garancia, hogy a Mount Everestre jutok, valószínûbb, hogy csak a Kékesre. Ráadásul a gradiens nincs "listázva" egy keresési problémában sem. Ha az lenne, kár lenne keresgélni, csak integrálni kellene a függvényt. Az én példámnak az felel meg, amikor a sík Alföldön emelek valahol egy vakondtúrást, neked meg ezt kell megtalálnod. Méregetheted a lokális gradienst ahogy akarod, azon kívül, hogy *minden* pontban megméred, azaz random végigkeresed az egész Alföldet, nem tehetsz túl sokat.
Megnéztem a belinkelt oldalt is. Hát, az ott leírtak alapján ez a HRS sima random mintavétel + lokális optimumkeresés, megspékelve azzal, hogy egyszerre csak egy 2D vetületben keresgéli a lokális optimumot, aztán cserél dimenziót. Ez annyira alap technika, hogy még talán szerzõje sincs, mint az összeadásnak. Természetesen a globális optimumra nézve semmilyen garanciája nincs. Az, hogy ebben a konkrét problémában viszonylag gyorsan megtalálta, az a mázliján és a kedvezõ problémán múlt. Nem is írja, hogy hogy generálta ezt a konkrét példát, amit bemutat, pedig épp az lenne lényeges: valahogy a kapcsolós példából (ahol a 6 kapcsoló 2-4 állapotáról beszél) átcsúszik a szépen differenciálható végsõ ábrákra, amelyek nyilván nem a kapcsolós példához tartoznak. A kapcsolós esetben egyetlen pont lenne kék (az az alrendezés, ahol kigyullad a lámpa), míg az összes többi szürke (a lámpa nem ég). Történetesen ez épp egybeesik az én vakondtúrásos példámmal és nem lehet szépen megoldani, akármilyen okos is legyen egy algoritmus. Az algoritmusa a lokális gradienskeresésnél simán lehalna: minden pont - a vakondtúráson kívül - lokális optimum, szóval az egész teret random végig kell keresnie. Másképp: ha random beállítod a kapcsolókat és a lámpa nem ég, honnan tudhatnád, melyik kapcsolót kell átkapcsolni, hogy közelebb juss az "égõ lámpa" állapothoz?
Van még pár érdekes dolog az oldalon, pl. "folytonos oksági térben várható, hogy az okozatok is folytonosan képzõdnek le (Aki tudja miért van ez így, jelentkezzen!)" - régi trükk triviálisnak beállítani egy könnyen kritizálható állítást, pedig ez szimplán nem igaz. Szakadékhoz közelítve folytonosan változik a lábaim helyzete, de a szakadékot elérve a következmények viszont radikálisan megváltoznak.
A valasz egyszeru: nem. Mivel maga az MI algoritmusokra epul, olyan problemakra soha nem fog tudni valaszt adni ami algoritmusokkal nem leirhato, hiszen magat a problemat is algoritmusokkal kellene megfogalmaznia.
> Optimalizálásban nem léteznek mindig jól mûködõ algoritmusok, csak olyanok, amik egy adott problémacsaládon jobban mûködnek, mint az általánosak.
Ezert vannak kikotesek a bemeneti parameterek kozt. Az egyik ilyen az ok-okozati viszony. Enelkul nem is beszelhetunk optimumkeresesrol. Tehat ha egy vallalati koltsegvetes hatekonysagot akarok optimalizalni es imputnak beviszem az osszes szukseges penzugyi adatot + azt amit kezdeni akarok veluk (pl. elore meghatarozott uzleti strategiak) akkor ott optimumok fogsz talalni, mert van koztuk ok-okozati osszefugges. De ha egyik parametercsoportnak megadod amobak szaporodasi ciklusat, a masiknak meg a kedvenc Halasz Judit szamodnak a hangmintajat akkor nyilvanvaloan hulyeseget fog talalni nem optimumot. Vagyis, nem teljesult azon alapkriterium ami az ok-okozatisagot eloirja, igy nem beszelhetunk opimumkeresesrol sem.
> Ezt könnyû belátni: például ha egy tetszõlegesen nagy téren értelmezett függvény mindenhol 0, de egyetlen, random választott, az egész térhez képest elhanyagolható méretû tartományban 1, nincs az az algoritmus, ami a véletlen keresgélésnél jobb hatékonysággal tudná ezt megtalálni.
De igen, meghozza a legroszabb esetben is ez lesz a masodik meresi pontja. A HRS gradiensek alapjan keres, minden bemeno parametert interpolal mielott elkezdene foglalkozni vele es a gradiens kulcsertekei vannak a valos adatokhoz hozzarendelve. Igy a Te konkret esetedben amikor inputnak megadod az egyetlen relevans pontot tartalmazo teret, abbol nem marad mas mint - logikailag mondhatjuk igy - egy "ket bites" ter. Magyarul ket pont. Ebbol ugye mar nem nehez optimumot keresni.
> A teljesítménymutatóinak is csak úgy van értelme, hogy megadod azt a problémát is, amin futtatták.
Reszben igaz, de abba mas is belekerul - konkretan az adott optimum ellenorzese aminek mar semmi koze az eredeti problemahoz.
Optimalizálásban nem léteznek mindig jól mûködõ algoritmusok, csak olyanok, amik egy adott problémacsaládon jobban mûködnek, mint az általánosak. Ezt könnyû belátni: például ha egy tetszõlegesen nagy téren értelmezett függvény mindenhol 0, de egyetlen, random választott, az egész térhez képest elhanyagolható méretû tartományban 1, nincs az az algoritmus, ami a véletlen keresgélésnél jobb hatékonysággal tudná ezt megtalálni. Az általad leírt algoritmus lehet, hogy jobban mûködik mint mondjuk a teljesen általános GA bizonyos problémákon, de egész biztos nem az összesen. A teljesítménymutatóinak is csak úgy van értelme, hogy megadod azt a problémát is, amin futtatták.
Bõvebben a no free lunch tételkör szól errõl, ami formálisan is kimondja, hogy minden optimalizálási algoritmus ekvivalens teljesítmény szempontjából az összes probléma terén:
Mondjuk én azt sem értem, hogy mibõl gondoljuk hogyha létrehozunk egy mesterséges intelligenciát az majd választ fog/tud adni azokra a kérdésekre amikre mi sem tudunk...
Lehet, hogy en fogalmaztam eltulozva, csupan arra akartam kilyukadni, hogy ahova az elmult 30 ev alatt a hardveres technologiaink jutottak, ez a fejlodesi utem az AI szoftvertechnologiakban szinte eszrevehetetlen. Teny, hogy leptunk elobbre algoritmusokban is, de ebben az intervallumban a mai modern hardverek, szoftverfejleszto eszkozok, neurologiai ismeretek mellett ez a fejlodesi utem az AI teruleten - ovatosabban fogalmazva - kisse arcpiritio.
Az az algoritmus amit lentebb irtam, en batran az evtized merfoldkovenek neveznem az AI teruleten. A szegyen viszont az, hogy egyszeruen NINCS erdeklodes iranta! A gazdaja evek ota folyamatosan bombaz vele cegeket, befektetoket, hogy mozduljanak ra, de akkora az erdektelenseg, hogy elkeserito. Ezeket a projekteket komolyan tamogatni kellene, toborozni kore a szakembergardat, de lathatoan nem ez tortenik.
Mesterséges intelligenciát csak úgy lehet létrehozni, ha úgy tudnak létrehozni egy alapintelligenciát, hogy az önfejlesztõ legyen - ez hordozza azt magával, hogy önálló tudattal fog rendelkezni és esetleg beinti a fityiszt:) -, de ez meg már önmagában annyira komplex feladat lenne, hogy szerintem a jelenlegi programozási nyelvek képtelenek lennének leírni, vagyis én tuti nem állnék neki:)
Mindössze furcsának találtam, hogy elég kiterjedt ismerettel rendelkezel AI szakirányon (gondolom ezzel is foglalkozol), és ilyet írsz, hogy az egész AI színvonala a béka segge alatt van.
A probléma az, hogy az intelligencia annyira bonyolult, hogy a felmerülõ kérdéseket emberi aggyal nem lehet megoldani, tehát magát a primitív mesterséges intelligenciát kellene evolúciós pályára állítani. Ez persze a szellem kieresztése a palackból, reszkír.
Jobb egyértelmûen lehetne. Velem gyakran elõfordul - de szerintem másokkal is -, hogy amikor megírok egy programot és tesztelem, akkor állandóan "buzizom" a progit, de aztán rá kell jönnöm, hogy az volt a jobb, mert amikor én agyam már nem bír megbirkózni minden infóbval, addig a progi precízen feldolgozza azokat.
Persze sommásan hangozhat egy ilyen kijelentés, de azon a kicsiny területen, amire fejlesztem valóban jobb, mint az "én agyam úgy álló helyzetbõl".
Hogy oksabb lehet-e, az más kérdés, de miért ne lehetne akár okosabb is? Mi az az "okosság"?
Nincs olyan szerves vagy mesterséges agy a világon, amelyiknek ne lenne szüksége információkra ahhoz, hogy megoldásokat adjon. Na most mivel a gépek kapacitása iszonyatosan nagy, ezért jóval több információt tudnak tarólni és feldolgozni mint a szerves agy.
A megoldás minõsége pedig függ az információ mennyiségétõl illetve azok logikai kapcsolatba való illesztésétõl.
Ha az utóbbit már egy emberi agyhoz közelítõ módon megalkotják, akkor a gép gyõz, mert jóval több infórmációból fog tudni "garázdálkodni", mint én vagy te.
Azért ez az AI kutatás a béka segge alatt van kicsit úgy hangzott, mintha azt mondanád, hogy az egész informatika egy helyben toporog már több, mint 60 éve, mert még mindig a vacak kettes számrendszernél tartanak.
Nem. HRS-nek hivjak, ez egy gyokereiben merve uj dolog.
Vannak ennel elkepesztobb dolgok is amik az algoritmus karakterisztikajat illetik: - NEM kifejezetten celiranyosan keres - determinisztikus (soha nem maszik el a vegtelenbe, mindig garantaltan vegez es ugyanannyi ido alatt) - azonos bemeno parametereknel akarhanyszor vegzi el a keresest mindig ugyanazt adja eredmenyul - a kereses vegen a talalatokbol visszaallithato az eredeti ter - a teljes ternek mindossze a 2-12%-at elegendo megmernie, hogy optimumot talaljon - a dimenziok szamanak novekedesevel exponencialisan csokken a mereshez szukseges ido
En azt gondolom, hogy ami igazan nagy durranas lehetett az elmult par evben az ez. Eredetileg katalizator osszetetel keresesere hasznaltak, de azota a gazdaja egyebkent neuronhalon is dolgozik, az emberi kreativitas, tanulas utanzasara hasznalja. General egy veletlen fugvenyekbol allo teret egy fugvenygeneratorral, majd megvizsgalja a teret, hogy illik-e ra az optimumkriterium. Aztan general egy ujabb teret, es igy tovabb. Amikor meg vannak az optimumok, akkor ezket is ujbol alaveti es egymas viszonyai kozt keresi az optimumot. Ha nem elegseges, akkor ujabb teret general es igy tovabb.
Elkepeszto egy ertelmes urgerol van szo egyebkent. Kiszamolta/megbecsulte egy atlagos neuron teljesitmenyet is. Pongyolan, egy x86-os processzorhoz hasonlitva valahol kb. olyan 800Mhz kornyeke lehet.
En az eredeti algoritmus megvalositasaban talaltam egy megvalositasbol fakado teljesitmeny problemat is. (ez mondjuk ilyenkor mikor prototipusrol van szo elfogadott dolog) A jelenlegi projektemhez ezt az algoritmust fogom hasznalni optimumkeresesre es ha ujrairom az implementacios baki nelkul akkor remenyeim szerint a jelenlegi futasi idejet is min. szazadreszere lehet csokkenteni. (itt most ovatosan fogalmaztam, ennyit garantaltan lehet rajta optimalizalni)
Honnan tudjam? Most linkelhetek neked jó jelölteket, de konkrétan nem tudom, melyik fogja megoldani. Bizonytalan dolgokról beszélgetünk, ki-mit-érez kérdések. Én most akkor kérjem azt cserébe, hogy te meg mondd meg azt a konfigot, amin futni fog? :)
Egyen elgondolkodhatsz: a sakk esetében pl. már ismerjük a konfigot és az algoritmust is. Melyik része akadályozza meg, hogy otthon futtasd: a hardver vagy a szoftver? Melyik megalkotása volt nagyobb teljesítmény?
Vagy csak nézd meg ezt, mekkora gép kell egy egér agyának felét kitevõ neuronháló futtatásához (tavaly áprilisi a hír):
En GA-ra tudok alternativat ami veszett gyors es akar 500% zaj mellett is talal optimum centrumot elkepeszto pontossag mellett. Tavaly szemelyesen is talalkoztam a projekt vezeto kutatojaval es bemutatta nekem eloben is. Hat ulve maradtam amikor a kis mezei asztali PC-je nehany masodperc alatt egy olyan sokdimenzios terben optimumkeresest hajtott vegre ami felett mashol GA-val IBM mainframe-en szoktunk fel delelotton at "kavezgatni". De amitol harom napig eszhez se tertem az az volt amikor lazan rabaszott parszaz szazalekos zajokat a terre es az algoritmus ugyanannyi ido alatt vegzett. Sot, meg 500% szazaleknal is 10-20% pontossag mellett talalt optimumot.
Állítottam valahol olyat, hogy a gépek olyan okosak, mint az emberek? Ismétlem: nincs meg a kapacitás hozzá... asszem Mérõ írta valahol, hogy ha lesz olyan program, ami megver go-ban egy nagymestert, az arra is képes lesz, hogy azt mondja: "unom a go-t, inkább kártyázzunk".
Hogy egy konkrétumot is mondjak, most próbáltam: a quadcore, 4GB ramos gépemen (tehát az egyik létezõ legjobb asztali gépen) egy 2500x2500-as mátrix invertálása optimalizált algoritmusokkal 3.24 másodperc. Konkrétan tudok egy algoritmusról, ami kétmillió neuronnal (tehát az emberi agy 0.002%-ával) néhány tizedmásodperc alatt megadja az inverzét egy 1 millió dimenziós vektornak. Az asztali gépemen emberi idõben legfeljebb párszáz dimenziós vektorra tudom lefuttatni.
> Nagy túlterhelésõ manõverek közben az ember nem dumálgathat és a rádióforgalmazás közben is zavaró lehet.
Na ezen anno magam is ragodtam, hogy radioforgalom vagy egyeb mellekzaj (pl.: turbulencia, over G utan lihego pilota) kozben, hogyan mukodott. Anno ha jol emlekszem meg egy baratomtol kaptam egy konyvet ami ezeknek a tesztelesere is kitert. Na abban voltak olyanok, hogy minden pilotatol kulon hangmintat vettek majd azzal tanittattak be az AI-t minden menupontra. A konyv nem nagyon reklamozta az ezzel kapcsolatos kudarcokat, de az nyilvanvalo volt, hogy nem ment siman. Kesobb aztan oroszok is rakaptak a Mig25-nel. Bar ok nem a berepules kozben hanem mar javaban hadrendben volt amikor a KGB altal kicsempeszett technologiaval felszereltek egy Mig-et.
Egyebkent nem csodalom, hogy nem valt be. A mai napig nincsen megbizhato beszedfelismeres. Nalam is evekig napirenden volt a kerdes es speciel en a mai napig nem tudok olyan gyakorlati alkalmazasarol ahol komplex feladatokra, netan zajos kornyezetben megelegedessel hasznalnak. (Talan meg az Office 2007 SR-je ami elmegy, de kisebb zaj es az idegen hang azt is ugyanugy meghulyiti mint a tobbit.)
A jó mesterséges intelligencia nem jó mesterséges érzést jelent. Nem arra kell megtanítani a gépeket, hogy hogyan érezzenek, hogyan legyenek szomorúak, etc etc. Ez mind baromi nagy vakvágány, és az ilyen utópiák vezetnek a Skynet-jövõképhez is.
A mesterséges intelligencia szerepe az, hogy egy dinamikusan változtatható környezetben képes legyen felfogni a körülötte zajló eseményeket, és megfelelõen reagálni rájuk. Egyébként ehhez meg megvan a számítási kapacitás, csak a jó algoritmusok hiányoznak.
De egyszer jön egy zseni, valahonnan akár Dél-Ázsiából is akár, és onnantól jöhetnek az áttörések.
Valamiért sokan szeretik az érzelmeket emlegetni, mint az AI-hez nélkülözhetetlen és modellezhetetlen folyamatokat, pedig egyszerûen genetikailag determinált preferenciákról van szó (génjeink ezzel orientálják egyébként genetikailag kontrollálatlanul alakuló agyunkat a túlélést és a reprodukciót segítõ irányokba). Ha tetszik, az "algoritmusukat" if-then szabályok bonyolult hálója adja, amit a természet finomhangolt. Minek ezt leutánozni? Miért lenne ez óriási elõrelépés az MI-ben? Nem is feltételük az intelligenciának: egy számítógép lehet intelligens anélkül is, hogy folyton szerelmes vagy épp retteg a csavarhúzótól.
Ahogy írtad, a térlátásra, ütközés-elkerülésre és beszédfelismerésre léteznek mûködõ rendszerek, amelyek egyelõre nem olyan jók, mint az emberé. Ez így van, de csak hogy ennyire is mûködnek a mai - az agyhoz képest gyenge - számítógépeken, már csodálatos. Nem azt állítom, hogy ha agyhoz hasonló teljesítményû gépeken futtatnánk a mai programokat, akkor hirtelen emberi szintû szövegfelismerést kapunk. Viszont ha kombináljuk a létezõ szövegfelismerést a létezõ tárgymanipulációs rendszerekkel, a gépeknek meglesz a megfelelõ tapasztalata a kontextus felismeréséhez.
Az agy trükkje és az MI lényege ezekben a kombinációkban van, és épp ezen a téren történtek komoly áttörések az utóbbi húsz évben, pl. nemlineáris dimenzió-redukciós eljárások (pl. Isomap, ~2000), zajtûrõ klasszifikáció nagydimenziós terekben (pl. SVM, ~1998, boosting, ~1995), klaszterezés (pl. spectral clustering, ~2000), valószínûségi modellezés (aminek az általad említett HMM csak egy gyenge elõfutára volt, pl. Bayes-hálók, 1988-tól folyamatosan), jutalomvezérelt gépi tanulás (pl. RL, 1989-tõl folyamatosan), predikció (pl. ESN, 2003).
Ezek mind totálisan új algoritmuscsaládok, amelyek képesek olyan problémákkal megbirkózni, amiknek a 70-es évek nyelvekre épülõ és ezért totálisan félrevezetõ "klasszikus" AI-ja még csak közelébe se jut. Ráadásul a legtöbb implementálható neurális hálókkal. Régebben még ötletünk se volt arra, hogy képes az agy szétszedni a valóságot apró darabokra, hogy aztán célorientáltan újra összerakja azokat új kombinációkban.
Röviden: forradalmi elméleti felfedezések igenis vannak, csak a gépeink még nem elég erõsek hozzá.
Az ,hogy az áttörések mikor fognak bekövetkezni, azt nagyon nehéz megjósolni,mert sok mindentõl függ,nemcsak a tudomány jelenlegi állásától,vagy a fejlõdés gyorsaságától.Bizonyos tényezõk sürgethetik,némelyikek lassíthatják.Én azt gondolom,talán már holnap bekövetkezik,de minél elõbbre megyünk a jövõbe annál nagyobb a valószínûsége,feltéve ha nem lesz, a sokak által itt a fórumba emlegetett "mad max" :D Egyébként ,akkor már most letöltök valami doc-ot a túlélési szabályokról és kinyomtatom.Ha eljön az idõ akkor elolvasom és máris többet fogok tudni arról ,hogyan kell tüzet gyújtani egy fogpiszkálóval ,mint az akinek nincs nete és nem nézett utána,vagy nem szerezte meg máshonnan.Meg majd megnézem a MacGyver összes részét is és összedobok egy gps helyzetmeghatározót 2 fogpiszkálóból. :D
Akik azt gondolják,hogy az A.I. soha nem lehet okosabb az embernél azok tévednek.Már többször is megmondtam,hogy soha nem mondjuk azt ,hogy soha ,mert elképzelni sem tudjuk most,hogy mi lesz 1 millió vagy mégtöbb idõ múlva itt,ha még lesz emberiség.Meg kell találni a módját a gondolkodási folyamat szimulálásra,gyakorlatilag le kell másolnunk az agyat,ha megtörtént utána szerintem annak a növelése,amit mi intelligenciának nevezünk nem lehet akkora probléma.
Másrészrõl az emberi gondolkodási képesség javítása is nagyban hozzájárulna a fejlõdés exponenciális felgyorsításához,csakúgy mint az A.I..Ennek végkimenetele pedig megjósolhatatlan jelenleg.Tehát ha a gondolkodási folyamatot sikerülne felfejleszteni,az gyakorlatilag szinte minden problémára megoldást találna x idõn belül,mert képes lenne méggyorsabban felgyorsítani a gondolkodási folyamatot... És így tovább.Az ,hogy ez mikor következik -be nem is tippelem meg,inkább megyek ebédelni.
A képhez feliratként: 1. "Ekkora lesz a gépek intelligenciája" 2. "Ennyi választott el attól h ne vállaljam el a felkérést a jövõkutatásra" 3. "Ekkora volt a segge a nõmnek, amikor 30 éve utóljára szexeltem"
Egyébként meg aki hisz az erõs mesterséges intelligenciában, annak ajánlom Roger Penrose A császár új elméje c. könyvét. Részletesen taglalja benne h mi a különbség a látszólagos és tényleges felfogás közt, ami egy elég konkrét veszély az MI alkalmazások területén.
Semmi nem maradt. A HOTAS rendszer feleslegessé tette. Nagy túlterhelésõ manõverek közben az ember nem dumálgathat és a rádióforgalmazás közben is zavaró lehet.
"meg is áll a tomi kristálynál, és a 200forintos ajánlatnál" na így
Ehhez rohadtul nem kell nagy gógyi, h rájöjjön bárki is....Máskérdés, h a média/vezetõk által "nevelt" nép nagyrészének az intelligenciája is megáll a tomo kristálynál, és a 200forintos ajánlatnál...Nem véletlen.
Ezek a jóslatok aztán ... tényleg ma már robotoknak kéne minden háztartásban fõzni, mostni, takarítani, meg beszédfelismerés, kutyafüle ... Más téren viszont olyan fejlõdések mentek végbe, amirõl nem is álmodoznak. Szóval ez a jósolhatás egy nagy butaság.
Az F-15 gepeknek a korai valtozataiban hatarozottan volt ilyen, hogy leroviditsek a bonyolult menukben valo bolyongast es a pilota a figyelmet minel kevesbe kosse le. Az, hogy ma ebbol mennyi maradt meg egy mas kerdes. A megfelelo zajszures es a pilotak eltero hangja, netan tajszolasa akkor is komoly kihivas volt.