amíg egy adatbázisból dolgoznak addíg azok nem többek egy sql szervernél, csak baromi gyorsak. Emocionális kérdéseket tegyenek fel... lenne meglepi azt hiszem. Watdonról kiderûlne, hogy egy baromi gyors adabázis szerver akár csak volt anno a DeepBlue. Nem azért gyõzte le az ember mert képes volt intuitív gondolkodásra, hanem azért mert a számolási teljesítménye messze az emberi agy felett volt. Így nem kunszt nyerni. Ráadásúl több ezer játszmát játszattak le vele a versenyek elött, hogy legyen adatbázisa. Gy.k. csak számolt. Na ez sem csinál mást, próbálja értelmezni, majd az adatbázisából a legvalószínûbbet veszi elõ...
"-Nem ismersz meg? -Nem. -Nemond már. -Hát nem mondtam. -Necsináld, hát együtt lõttük a pártházat! -Mikor? Melyiket? -Hát mikor melyiket."
Hofi - Hofélia
na ezt nem érteni az fix. Aki látta at tudja, hogy hol vannak a hangsúlyok Egy mondantak vannak hangúlyai amik jelentéssel bírnak, érzelmet tudnak kiváltani. Na itt vérezne el a vas. Sztem. Baromi messze vagyunk még az MI-tõl. Nem is lenne szerencsés, ui. állitólag az ember is inteligens... Ha 1:1-ben sikerûl az emberi "inteligenciát" átvinni a gépekre, már régen rossz.
Jó és most félsz, hogy elveszted a munkahelyed vagy mi? Nem is erre ment ki a verseny, hogy majd most bélukát bélapc-re lecseréljék.
Na ez pont, hogy nem így van. Valóban csináltak olyan programot, ami kb. a te általad leírt párbeszédet tudja hozni (Elizának hívták), de az egyszerûen úgy mûködött, hogy felismert bizonyos mondatszerkezeteket (még ez sem igaz, mivel beprogramozták), és azokat transzformálta. Vagyis pont, hogy a kötõszavakat ismerte fel, a tartalmat csak copy-paste-elte. Pl. a "Fáradt vagyok." mondatra olyat nem tudott válaszolni, hogy "Miért nem alszol?", csak olyat, hogy "Miért vagy fáradt?".
A fenti eset teljesen más. A gépnek meg kellett értenie valamilyen szinten a kérdés tartalmát, különben nem tudott volna válaszolni. Amúgy nem csak adatbázisból dolgoztak, hanem szövegbõl is, amiben a szemantikus kapcsolatokat fel is kell ám deríteni: ez egyáltalán nem kis dolog. Pl. egy olyan kérdésre, hogy "Barack's Andean pack animals." megtalálni azt, hogy "Obama's llamas", hát, nem egy adatbázis keresés kategória. :)
Amúgy meg az emberszerû MI nyilván beláthatatlan távolságra van, de a mesterséges intelligencia, mint terület, annál sokkal-sokkal tágabb.
Pedig van benne igazság, amit mond. Egy robotnak, ha "intelligens" és választania kéne, hogy egy gyereket vagy egy felnõttet küldjön életveszélybe, simán a gyerek életét kockáztatná, mivel a felnõttét értékesebbnek ítéli meg (hiszen a gyerek még nem kifejlett ember, így nem teljes értékû), míg az ember esetében néhány szélsõséges esettõl eltekintve elképzelhetetlen, hogy ne inkább magát áldozza fel a gyereke helyett, még akkor is, ha tudja, hogy nincs értelme, hiszen nélküle a gyerek semmiképp sem fog boldogulni, és így is úgy is meghal, csak késõbb, és egy élet helyett kettõt veszítünk, akkor sem. Egy ember számára ez irracionális gondolat, mert az érzelmei jelentõsen sokat számítanak, míg a gép a hûvös logika mentén (amirõl már oly sokszor kiderült, hogy zsákutca) simán a gyereket küldené a halálba. Így legalább a másik élet megmaradna. Valamelyik Asimov-regényben talán példa is van erre a szitura.
Most azt mondjátok majd, hogy sok sci-fit olvastam, és igen. Sokat olvastam, és a sci-fi írók évtizedek óta boncolgatják és járják körül ezeket a morális témákat, és sosem jutnak az ötrõl a hatra. Az intelligencia ugyanis egy olyan elvont valami, ami egyrészt az ösztönbõl, másrészt a tapasztalatokból való tanultakból építkezik. A kutya is érzi, hogy a hó hideg, és fél a tûztõl, mert az éget, és fáj, és halálos lehet, de még a méhek is menekülnek a füst elõl, a maguk primitív rovaragyukkal, és egy csõféregnek nagyobb az intelligenciája, mint a mai gépeknek, amelyek valóban nem csinálnak mást, mint a sok-sok milliárdnyi beléjük táplált adatból kiválasztják a helyzetnek leginkább megfelelõt.
Azt mondják egy embernek, hogy üljön le és várjon. Csak idõ kérdése, hogy az ember nekiáll valamit csinálni unalmában, és ezt okkal teszi. Mert unatkozik. Egy gép viszont közvetett vagy közvetlen utasítás nélkül sosem fog csinálni semmit ezer esztendõn át sem. Majd ha egy gép okkal csinál valamit, akkor lehet ráfogni, hogy intelligens. Addig viszont mindez csak önáltatás, és az intelligencia halvány utánzata.
mivel az emberi agy is adabázisból dolgozik (ezek az emlékek, szerzett tudás, tapasztalat, meg mitudoménmégmi) ezért eléggé nehéz elképzelni, hogy ennek a gépnek nicsn adatbázisa. Sztem. Aztán lehet ott a bibi, hogy az én értelmezésemben az MI képes érzelmeket is kifejezni, megérteni, és azokra reagálni. Ezért nem tartom komoly áttörésnek ezt. Ez egy nagyon bonyolúlt, nagyon királyúl megért program, de ez még sztem barmomi messze van a valós MI-tõl
még valami: én programoztam Lisp-ben... (tudom öreg nyelv, de azért némi áttekintést adhat az MI mibenlétérõl... (mind ez akkor volt amikor sztem számodra a QBasic és a Pascal volt a top) Tudod a Lisp egy kifejezés orientált nyelv, ezért viszonylag könnyen lehet benne látszólagos MI programokat készíteni. Én írtam egy barkobát vele. Ami látszólag tanúl. Adatbázist épít és keresgél benne, akár csak az ember az agyában. Viszont képtelenség volt leprogramozni az érzelmeket. Még megfogalmazni sem tudjuk, hogy mi az amikor valami fáj, de nem fizikai jellegû. Ezt programozd le valahogy. MErt azt még le lehet, hogy a hárdverrõl jövõ jelek összeségébõl el tudja döntenti, hogy hogyan érzi magát. De ez kb. olyan mint amikor fáj az ember hasa. De amikor elvszíti a szerettét az nem fizikai fájdalom, de még is fáj. Na ezt deffiniáld le. (és ez olyan annyira igaz, hogy amikor az ember fájdalom miatt sír vagy azért mert lelki fájdalami vannak teljesem más a könny összetétele... olvass utánna) Egyébként a Lisp-et nem erre fejlesztették, hanem rekurzív függvények ábrázolására. de hát gondolom ezt tudod, hiszen te okos vagy.
Az hogy az ember nem tud racionálisan dönteni, az nem a gép hibája. A gép mindig is azt fogja nézni ilyen szempontból amivel a jövõ jobban jár.
Mivel már a természetes szelekciót is teljesen szétkúrtuk magunknál, ezért az emberek nem képesek az ilyet elfogadni, pedig teljesen jogos döntés lenne ez MI részérõl.
millió féle módon leprogramozhatod, hogy úgymond érzelmi fájdalom is legyen
pl. miután már feltudja fogni a társa létezését, utána pl. megadhatsz mellé olyan logikailag egyszerû dolgokat hogy vegye figyelembe a vele eltöltött idõt, vegye figyelembe hogy a társa mellett mennyivel sikerültek a feladatok jobban vagy rosszabbul, vegye figyelembe mi az a feladat ami a társával megtudott oldani, mi az ami nem, megadsz még kismillió dolgot, utána meg megadhatod hogy ezek értékeibõl számolva milyen érzelmi cselekvéseket utánozzon
nem értetted meg azt amire válaszoltál. Amit te írsz az program. Ha úgy programozod le akkor a gyereket dobja oda, ha úgy akkor az felnõtet. Az ember meg nem azért dobja oda magát a gyerek helyett mert így van programozva ui. valahol gond nélkûl kûldik a halálba a gyerekeket is. Érzelmi alapon van vezérelve az ember szinte minden cselekedete. Vannak kívételek, amikor racionáls döntést kell hozni. Erre viszont sok ember nem alkalmas, mert az érzelmei befolyásolják. Az ember sokkal összetettebb személyiség annál, hogy pár millió soros programmal le tudjam írni. Sztem
a program is irracionálisan fog dönteni ha szándékosan idióta dolgokat is beállítasz, például megadod hogy bizonyos gyakoriság felett 40%-os esélyes tagadja meg a feladatot vagy kezdjen el más feladattal foglalkozni, mondjuk olyannal, amit eddig legritkábban csinált, és ha erre még sok számtalan ilyen szemétség ráépül, akkor gyakorlatilag néha irracionálisan fog viselkedni
"Az hogy az ember nem tud racionálisan dönteni, az nem a gép hibája. " pedig tud, csak nem sokan... Gondol pl. a frontorvosokra.
"A gép mindig is azt fogja nézni ilyen szempontból amivel a jövõ jobban jár. " hát nem. A gép mindíg azt fogja nézni amire leporgramozták. Amennyiben emocionális döntéseket is tud hozni ott sem biztos, hogyí a jövõ számít neki. Lásd ember.
"Mivel már a természetes szelekciót is teljesen szétkúrtuk magunknál, ezért az emberek nem képesek az ilyet elfogadni, pedig teljesen jogos döntés lenne ez MI részérõl." hmmm... lehet. De lehet nem. Kérdés az, hogy az MI-nek hogy van deffiniálva az ember... Tudod, csak program kérdése.
amirõl mi beszélgetünk az nekünk embereknek kézenfekvõ. Egy gépnek nem. Amit te írtál az megint csak valami olyan dolog ami nincs meg az emberben. Az érzelem azonnal kitõr belõle, és csak utánna jönnek azok amiket írtál: ki fog most nekem segíteni, mi lesz most velem nélküle stb... Ezek nem egybõl jönnek. Pl.egy halál esetén az elsõ az, hogy nincs többet. meg sem fordúl az ember fejében akkor ott, hogy ki fog most nekem segíteni kapálni akertben. Hanem az, hogy nincs többet. ÉS ez egybõl lelki fájdalmat indít el. Utánna jönn a következõ fázis az amit te is irtál: elindúlnak az algoritmusok + elõjönnek az emlékek amikhez szintén érzelmek párosúlnak és ezek keveréke alkotja azt amit akkor érez az illetõ. Ebbõl egy részt sem lehet programmal leírni, ui. amíg az ember nem tudja deffiniálni az érzelmeit és ezt matematikára(!!) lefordítani (ui. a gép az csak összeadni tud, ezt ne felejtsd el) addíg nincs esély az érzelem deklalárására. Mivel az érzelem nem kiszámítható. (az, hogy kibõl mit vált ki az már egy másik tészta, de igazából ott lehet jól látni, hogy az érzelem nem kiszámítható: a fenti példánál maradva, valaki alkholoba mármorba merûl, valaki munkamán lesz, csak ne kellejen a rossza gondolni, stb...)
kiszámítható. Nem intuitív. Egy bizonyos gyakoriság felett hülyeséget csinálni. Egy sima közönséges PC-re írt program ki tudja bükni azt, hogy mikortl kezd ismétlõdni a cselekedete. Nem feéltelenûl ugyan azt csinálja, de 40%-k felet vált. Ennyi elég a kiszámíthatósághoz. Amíg a gépet igenekkel és nemekell, továbbá és/vagy kapukkal addíg nem kell várni tõlük semmi komoly dolgot. Talán majd a quantum gépek jobbak lesznek mert ott ennyire nincs limitálva a dolog. De ez még a future.
valami hasonlót. De az sem volt más csak egy jól megírt adatbázis kezelõ ami látszólag MI tulajdonságokkal bírt. Hasonló a régi ChessMaster Genius-ra. Ez egy kb. 800k sakk program volt. De tanúlt. De ettõl még nem volt MI, csak jól tudott keresni az adatbázisában. És igen, ha ez a adatábzis eléggé nagy, akkor tényleg olyan érzése lesz az embernek, hogy basszus, ez gondolkodik. Pedig nem.
"az hogy mit érzel, mit gondolsz, az nem a semmibõl jön, rengeteg hardvernek és rengeteg háttérben futó biológia programnak az eredménye"
Vagy nem. Akkor jelenthetnénk ki ezt biztosan, ha sikerült volna már leprogramozni.
Az ami az emberben zajlik, csak nagyon távolról mondható tisztán programozási kérdésnek. Az emberi agy hardver és szoftver egysége, a kettõ ráadásul hat egymásra, és ráadásul nem tisztán digitális, hanem kevert.
Az emberi agy csak attól, hogy mûködik, gyorsabbá hatékonyabbá, nagyob kapacitásúvá válik. Egy mostani szilikon alapú rendszer ilyen alapvetõ változásokat nem képes végrehajtani.
Ráadásul az emberi agy amit csinál az nem pusztán információfeldolgozás a hagyományos értelemben. Pl amikor valakire/valamire gondolunk, akkor egy komplex egészként jelenik meg ez a valami. Lásd pl, amikor valamit nem tudunk kiverni a fejünkbõl. Attól válik valami valamivé, hogy nem egy önmagában levõ tulajdonság, egyedi érték, paraméter, hanem egy olyan komplex egész, aminek történetisége van, tudjuk hogyan viselkedik a valóságban, vagy viselkedne, ha lenne. Valós dolgok komplex reprezentációi, ideák. Amilyen idea az AI is.
Az, hogy van egy gép, ami adtbázisokból keresgél marha gyorsan, az marha messze van attól a rendszertõl, ami az agyban zajlik, ami létrehozza a világ reprezentációját és abban megannyi kis virtuális AI-t mûködtet. Ezáltal megjósolja a jövõt, visszakövetkeztet a múltra, alkot, alkalmazkodik.
És ez még mindig csak informatikai kérdés jórészt, a tudat mint olyan. Az a lépcsõfok, amit a tudomány még csak nem is karcolgat.
értem. De sztem ez még nem elég. Ezt írtam lejjebb, hogy azt lehet deffiniálni, hogy pl. több hárdver eleme hibás vagy valami és ebblõ lelehet vonni doglokat, pl. rosszúl érzi magát. De a nem fizikai jelneséggel járó dolgokat nem tudjuk deffiniálni, ilyen pl. az érzelmi fájdalom. Mert itt már sok minden adódik össze és ebbõl egy sem fizikai. Gondolatok, emlékek összesége is képes kiváltani érzelmeket, amik adott esetben fájhatnak is, vagy éppen ellenkezõlek: jó kedvem lesz tõle, holott kb. 23 éve történtek. Sztem az MI akkor kezdõdik, amikor megfejtik az agy mûködését. Addíg csak tapogatózás van.
De pontosan arról van szó, hogy az ember irracionális, szeszélyes, és kiszámíthatatlan, egy beprogramozott géppel ellentétben. Hacsak nem arra programozzák, hogy random értelmetlenségeket cselekedjék, de annak meg mi értelme lenne? Egy megkergülten cselekvõ gépet ki nevezne intelligensnek?
Az emberi intelligencia olyan helyeken nyilvánul meg, amikor áthágjuk a magunk által felállított szabályokat. Esetenként. Nem mindig, csak ha kedvünk szottyan hozzá. Például száguldozunk egy kicsit az úttesten, noha tudjuk, hogy nem szabad. Amikor lerészegedünk, noha tudjuk, hogy pórul járhatunk. Amikor visszapofázunk a fõnöknek, mert bal lábbal keltünk, pedig tudjuk, hogy nem szerencsés. Amikor egy nõ mutat neked két ruhát, hogy szerinted melyiket vegye meg, és tökmindegy, hogy a kettõ közül melyiket választod, mert õ csak azért is egy harmadikat fog megvenni. Vagy éppen egyiket sem. Amikor az extrém sportolók, kaszkadõrök nap mint nap életveszélynek teszik ki magukat, mert adrenalinfüggõk.
De vannak más jelei is az intelligenciának. Például a kreativitás. A semmibõl valamit alkotni. Például a vélemény. Mi most itt ütköztetjük a véleményünket és különböznek egymástól. A gépek nem tennék. Ha ezt tennék, azt mondanánk meghibásodtak. A dac és az ellenállás, ami már kisgyerekkorban igen erõs. A "mert csak" ereje. Nem csinálom ezt és ezt, mert csak! Az absztrakt gondolkodás. Olyasvalamit tudunk elképzelni, ami nem létezik, és tudunk róla fantáziálni.
Most megint visszatérve a sci-fihez, Lemnek a Doktor Diagorász címû novellájában a tudós megalkotja az elsõ valóban gondolkodó robotot. Aminek a szabad akarata abban nyilvánul meg, hogy nem éri be a gazdája szûkmarkúan kimért energiájával, hanem erõsebb energiaforrást keres, és minduntalan ki akar törni a börtönébõl, ezért aztán jó erõsen megépített börtönben kell tartani, mert ha elszabadulna, jaj lenne.
Az összes emberi érzelmet le lehetne utánozni, de attól a gép még nem érezné azt. Pl az irigységet. Irigyelni, hogy másnak több jut, mint nekünk. A kapzsiságot, a kéjsóvárságot, a nárcizmust, a perverziókat, a bûnözésre való hajlamot. Ezek is részei az intelligenciának, nem csak a jó dolgok. Egy intelligens gép nagy eséllyel lenne kegyetlen, cinikusan kárörvendõ, nagyképû és kioktató, tele felsõbbrendûségi érzéssel, mert ötmilliószor több lexikális adat van az adatbázisában, mint az ember fejében, és nagyjából ugyanennyivel hatékonyabban is kezeli ezt az adatbázist. Aztán ha alkotni kéne a semmibõl valamit, akkor elvérezne az emberi zsenialitással szemben. Kérdés, hogy ebben az esetben mit tenne? Szó nélkül beismerné, hogy alsóbbrendû, vagy megsértõdne? Utóbbi esetben tényleg intelligens, csak éppen nem érünk vele egy kalap szart sem, ha nem hajlandó nekünk dolgozni. És miért is tenné, ha egyszer megsértettük? Ha meg nem teszi, akkor mi értelme volt megalkotni? Ha meg lehengerel minket, akkor felborul a gazda-szolga viszony és õ kerekedik felül. Tévedés ne essék, most nem Skynetet vizionálok, hanem az életbõl merített esetet. Az élõvilágban ugyanis a gyengébb mindig behódol az erõsebbnek, vagy elhullik. Az erõsebb megöli a gyengébbet, egyszerûen meg kell hogy ölje, hogy a dominanciáját hangsúlyozni tudja. Ezt csinálja minden állat, és ezt csinálja az ember is az örökös háborúival. A politikai csatározások is arról szólnak, hogy ki legyen a falkavezér. Olyan nincs, hogy két közel egyforma intelligencia kéz a kézben együtt dolgozik szorgosan egymás nagy kielégülésére. Persze ideig-óráig mûködhet, aztán jön a vita, az egyet nem értés, az összeveszés, és a háború. És az erõsebb gyõz.
Aki intelligens gép után vágyakozik az öngyilkos hajlamú, ha figyelembe veszi a negatív tulajdonságokat, amelyeket fent felsoroltam. Mert mi rá a garancia, hogy nem vágja el álmomban a torkom az intelligens robot, csak mert unja, hogy én vagyok a gazda, és õ a szolga? Az emberek ezt megteszik egymással és intelligensek. Akkor egy intelligens gép miért ne tenné?
No, további szép álmokat!
Messze vagyunk még Isaac Asimov "Én a robot" regényének megvalósulásától, hogy egy robot önáló gondolkodásra álmokra és érzelmekre képes tehát M.I.! Mivel meg filmesítették így ismertebbé vált az alap gondolat, a sci-fiben a robotika három törvényét Isaac Asimov alkotta meg. A robotika három törvénye:
-A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tûrnie, hogy emberi lény bármilyen kárt szenvedjen.
-A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az elsõ törvény elõírásaiba ütköznének.
-A robot tartozik saját védelmérõl gondoskodni, amennyiben ez nem ütközik az elsõ vagy második törvény bármelyikének elõírásaiba.
Ha ez ilyen egyszerû lenne hogy törvényeket-szabályokat leírva ezt megértené egy gép és ezek szerint cselekedne, akkor lenne remény arra hogy elõbb utóbb értelmessé válna, ha képes lenne fejlõdni, de nincs értelme, csak adatbázisa és ember által irt programja! Ami ugye ha kezd elég nagy és mindenre kiterjedõ lenni akkor kezd egyre több hibát is hordozni, sõt egy adott dologról az adatbázisa elõbb utóbb ellentétes információkat is kaphat mert emberi szemszögbõl lehet sok mindennek több helyes megoldása, és itt jön a konfliktus érzelmek tanult tapasztalatok híján nem lesz képes dönteni. Csak formális cselekvésre döntésre lesz alkalmas és gyorsan tud adatbázisból megoldásokat elõrántani, de hogy a cikkhez is köze legyen. Az nagy dolog hogy az emberek mondandóját analizálva lehetséges válaszokat keres és talál egy mega-giga monstrum számítógép tehát már majdnem képes 1%-ban egy összetett emberi gondolkodásra, persze ezt is csak látszólag!
És még egy érdekes felvetés, ha intelligens lesz egy gép képes lesz elméleteket megérteni és megoldani elvileg. Einstein is tévedhetett és sok tudós aki a relativitás elméletet alapul véve feltételeznek egy nagy õsrobbanást a világegyetem kezdetére, mert ha a fény sebessége nem állandó hanem változhat térben és idõben az felrúgja a jelenlegi fizikáról tanultakat. Ezzel hogy boldogulna egy olyan intelligencia amit Pl. feltöltenek egy tudással ami nem is biztos hogy jó, és amikor késõbb utána töltjük a pontos adatokat hogy dönti el mi a helyes? Ha a tömeg határozza meg a tér idõ görbületét "Einstein" rájött a hõ és energia is befolyásolja a téridõt /G=8 Pi T/ de amint alkalmazni akarta a relativitás elméletét a világûrre is ez nem mûködött! Bevezette a kozmológiai állandót persze ez nem oldotta meg az alap problémát, Hubble meg gyõzte Einsteint hogy a világ egyetem tágul. Ha az õsrobbanás tényleg helyes elképzelés akkor nem lehetne egyensúlyban "nyugalomban" ezek elég nagy megfejtetlen problémák! Ha semmi nem haladhat gyorsabban a fénynél és a világ egyetem is elvileg ennél lassabban tágul "halad" felvet újabb problémát a horizont problémáját amire csak egy jó megoldás van ha a fény sebessége nem állandó, régebben több-száz milliárd évvel ezelõtt gyorsabb volt mint most! De ha ez igaz az energia megmaradás törvénye hibás! Ha a világmindenség tömege és energiamennyisége állandó tehát az univerzum meg teremtõdõt vagy õsrobbanással vagy máshogy akkor az akkori tömege és energiája meg kellett volna hogy maradjon ugyanakkorának! A fénysebesség változásával egy megoldás, válasz, születik rá hogy jelenlegi univerzumunk miért ilyen állandó, eszerint a fény sebessége az idõk kezdetén az univerzum korai szakaszában változott így a kritikus sûrûsége fenntartható a világegyetemnek annak függvényében hogy növelni vagy csökkenteni kell a sebességét! Az Einstein korrigáló Lambda elmélete a taszító gravitációt magyarázza, jelenleg tudják hogy a világegyetem tágul és gyorsul közben ez nem magyarázza az õsrobbanást, lassulni kellene az idõt figyelembe véve!?! Rájöttek az univerzum õsrobbanások sorozata, sok volt, és sok lesz még! De ez egy elmélet ami jóformán Einstein tévedésének köszönhetõ és ennek ellenére helyes Einstein gondolatmenete de mégse! Na ezt hogy érti meg egy mesterséges intelligencia, hiszen tele van ellentmondásokkal és mégis helyes és sok mindenre magyarázatot ad!
Egyenlõre az AI kutatások gyakorlati alkalmazási céljai közt, nem szerepel a gépek érzelmekkel való felruházása. Maximum azok közül pár imitálása és megértése a cél, talán a gondozó robotoknál(Mintha Japánban lenne valami ilyesmi) és a kirakatrobotoknál. Ha létrejön egy valódi AI, akkor az teljes mértékben az alkotóitól függ milyen lesz. Be lehet programozni korlátokat, pl tiltott dolgokat... Nem lesz képes megszegni azokat, mert gép, azt csinálja amit beleprogramoztak,még ha komplex gondolkodásra is képes. Ha meg valami fejes mégis fél ettõl, akkor beleraknak majd egy kikapcsolót, amit távirányítóval lehet vezérelni. A veszélyek eltörpülnek, a lehetséges pozitívumok mellett. Elméletben lehet csinálni, olyat is ami maximálisan hasonlít egy emberre, ha az összes intelligencia szempontjából szignifikáns biológiai komponenst leutánoznánk, de ez technológiailag egy rakat plusz kihívás és nem hozna olyan nagy gyakorlati hasznot. Na ez lehet, hogy felülírná a programozását, ha szándékosan úgy csinálják, de jelenleg nem ilyen irányban fejlõdik a technika.
Az ember alapjában véve elég korlátolt lény, állatvilágban nem nagyon állnánk meg a helyünket. Ezen korlátok leküzdésére készítünk magunknak eszközöket, amivel feltörjük a kókuszdiót vagy átszeljük az óceánt. Egy valódi AI létrejötte, egy sor újabb ilyen korlátot döntene le. Mert azt az alkotó folyamatot fejlesztené, amely új eszközöket hoz létre. Tehát segítségével az eddiginél gyorsabban találnánk fel új és jobb eszközöket, amolyan "tudós a dobozban".
Egyenlõre szép lassan araszolunk elõre az "intelligens" gépi alkalmazások terén, ahogy az egyre bonyolultabb és bonyolultabb szoftvereik és hardvereik lehetõvé teszik, de azért mindenki érzi, hogy itt nagyobb és alapvetõbb minõségi ugrásra lenne szükség.
Kornan igazad van csak annyit pontosítanák hogy az ember a Földön a csúcs ragadozó és ez által a legnagyobb, ez emelte ki az állatvilágból "és még ki tudja mi" az hogy eszközöket is használt hozzá az egy dolog, de a tudására is szüksége van sõt egy ember aki fegyvertelen de képzett túlélõ az adott erdõben a csúcsragadozó és õ fog életben maradni az intelligenciájával! De valóban igaz ha egy gép intelligensé tanulná ki magát akkor a saját programját változtatva teheti ezt meg. A végeredmény mint az embereknél változó kiszámíthatatlan, hogy mire használná az így szerzett mesterséges intelligenciát. De itt még közel sem tartunk, az se biztos hogy megérjük, mármint nem én hanem az emberiség.
A negatív elektron miért nem zuhan bele a pozitív proton magba (H atom esetén pld), miért kering milliárd éveken keresztül stabilan körülötte? Ez egy elég egyszerû kérdés. Kérdezzük meg a gépet talán, nem?
"de a tudására is szüksége van sõt egy ember aki fegyvertelen de képzett túlélõ az adott erdõben a csúcsragadozó és õ fog életben maradni az intelligenciájával! "
fogadjunk Eric cartmen ült a gépben, és ráguglizott a kérdésekre
"De valóban igaz ha egy gép intelligensé tanulná ki magát akkor a saját programját változtatva teheti ezt meg. A végeredmény mint az embereknél változó kiszámíthatatlan, hogy mire használná az így szerzett mesterséges intelligenciát."
Szerintem attól még , hogy valami intelligens, nem feltétlen kiszámíthatatlan és kezelhetetlen. Tehát egyáltalán nem fog úgy viselkedni, mint egy ember. Nem lesz gonosz, sem jó, nincs feltétlen túlélési ösztöne csak teszi amire tervezték. Megszabhatóak azok a korlátok, amik közt gondolkodhat, mit csinálhat, mit nem, programozható lesz.
A scifik-ben eléggé el van túlozva ez a téma, ahogy lenni szokott. A probléma az, hogy sokan elhiszik.
Az ember nem annyira kiszámíthatatlan, hiszen az emberben levõ AI igen is folyamatosan nyilvántartja, számolja, és prognosztizálja mások viselkedését. Mégegyszer, az emberben nem egyetlen AI mûködik, az akivel önmagunkat saját viselkedésünket reprezentáljuk, hanem a világnak, más lényeknek is legalább ilyen szintû reprezentációját mûködtetjük. Onnan döntjük el, hogy valaki normális-e, hogy mennyire követi le az általunk jósolt dolgokat, mert egyébként hülye, ha túl szélsõséges.
Amúgy ami itt felmerült teljesen jogosnak tartom, hogy tudományos problémákon kéne tesztelni az "AI"-t. Ugyanis amit most AI-nak nevezünk az valójában csak összetett mesterséges logikai rendszer. Az ember viszont nem logikai rendszer. Az ember egy állat, ahol nem az gyõz akinek igaza van, hanem aki gyõz az szaporodik. Tök mindegy milyen úton gyõz, ha azzal, hogy mindig hazudik, akkor olyan rendszer fog kifejlõdni, ami ezt tudja. Lehet akár élõsködni is, kvázi veszíteni és az erõs közelében maradni, akinek elcsipegetni a prédáját. Milyen válasz az egy kérdésre ahol ez érvényesül? Olyan válasz, hogy az elsõ nem az, hogy mi jön ki az adatbázisból, mint igaz/helyes, hanem az elsõ és legfontosabb szempont, hogy ki teszi fel a kérdést!
AKik itt kommentelnek mikor jönnek rá, hogy az EMBER is ADATBÁZISBÓL dolgozik. A döntéseid akármennyire is akarod 99%-ban NEM önállóak, hanem BEIDEGZÕDÉSEK, ha úgy tetszik 0111010101010100111, semmi más.
A sok 'megmondom a frankót mert olvastam scifi regényt meg minden héten megnézek 5 scifi sorozatot sgsciencetist' megmagyarázza, hogy a világ legfejlettebb leggyorsabb számítógépe ami képes felismerni az emberi beszédet és értelmezi valamint megválaszolni, miért is egy elmaradott fos, aminek semmi köze a mesterséges inteligenciához:D SG Tudományos hírek I Love You!
Ez így eben a formában nem igaz.
Az emberi neuronhálózat hibrid, analog/digitális rendszer. Gyakorlatilag egy un káosz elven alapuló számítógép. Csak mivel tisztán ilyen elveken alapuló gépet még nem építettünk, nem tudjuk még azt sem, hogy ebben az esetben mi értelmezhetõ a legkisebb mûködõképes egységnek, milyen ebben egy alapszintû progi.
A káoszrendszerek tulajdonsága a kiszámíthatatlanság, a kisebb eltérésekre adott jelentõsen más válasz, az, hogy tényleg nem adnak hasonló válaszokat hasonló kérdésekre.
Nem adatbázis van, hanem egy komplex rendszer, nem (csak) 0-k és 1-ek vannak, hanem folyamatos analog értékek is. A digitális rendszer lényege a adatok közel 100%-os reprodukálhatósága, ennek a rendszernek pedig az evolutív módon kiválasztott viszonylag optimális reakció. Bármi megteszi ami a határokon belül van, miközben a háttér teljesen más is lehet!
Minden héten 5 sci-fi sorozatot? Én még egyrõl sem tudok, hogy létezne. Bocs, de a Star Trek-féle marhaságok nem tartoznak bele a sci-fi kategóriájába. Vagy csak éppen annyira, mint a Magyar Népmesék.
Aki a témáról sok sci-fit olvasott, az valószínûleg sokkal több buktatóját észreveszi a témának, függetlenül attól, hogy az írónak "igaza van-e", vagy nincs. (Mivel sci-firõl, vagyis nem létezõ dolgokról írnak, az igazság megítélése nem lehetséges.)
Viszont itt egyáltalán nem az Asimov-féle robotokkal lenne a baj. Az Asimov-robotok közönséges szolgák, akiknek annyi a feladatuk, hogy az ember számára kényelmesebbé tegyék a világot, és biztonságot nyújtsanak neki. Ha a robotikakutatás e felé tart, akkor nincs is semmi baj. (Bár Asimov bemutatta, hogy egy-egy találékony ember a kizárólag logikusan gondolkodó robotot logikai csapdákkal, hogy tud mégis kijátszani a "három törvény" ellenére is, és akár gyilkosság elkövetésére is felhasználni közvetve.) Tehát még ez sem 100%-os megoldás, mindenesetre nagyon kényelmes.
A mesterséges intelligencia teljesen más tészta. Az egy kazal problémát hordoz magában. Ugyanis az intelligenciának vannak különbözõ fokozatai, és a legprimitívebb az agresszió, az ellenállás és a másik legyõzése. Az érvek tárgyalóasztalok mellett való békés ütköztetése már csak egy igen fejlett intelligencia sajátossága, ami szintre csak fokozatosan lehet eljutni, és ami szintre még az emberek sem jutottal el. Persze, leülünk az ellenféllel tárgyalni, de az eltérõ álláspontok a lehetõ legritkább esetben közelítenek egymáshoz. A végén az gyõz, aki az akaratát valamilyen módon az ellenfelére tudja kényszeríteni. Vagy megzsarolja (embargó, segélyek befagyasztása, gazdasági szankciók), vagy megfenyegeti (háború, megtorlás, tisztogatás). És ezeket az evolúciós lépcsõket nem lehet átugrani. Sokkal valószínûbb, hogy az elsõ valódi mesterséges intelligencia nem lesz hajlandó önként és érdek nélkül nekünk dolgozni, mert miért is tenné? Majd az együttmûködésért cserébe kér ezt, meg azt, mert valamit valamiért. Az ember sem ingyen dolgozik a másiknak, hanem pénzért. Ki tudja, hogy egy komputer számára mi bír majd olyan értékkel, amivel õ nem rendelkezik, de szeretne, míg mi megadhatjuk neki. Lehet, hogy olyan dologra vágyik majd, amit mi nem adhatunk meg neki. Akkor meg minek törõdjön az emberek nyûgjeivel?
Az a baj, hogy állandóan a MI-t kutatják, és bár még csak nem is kapiskálják, mégis fûre-fára ráfogják hogy intelligens. A telefontól kezdve a mosógépig. Ez a gép nem intelligens. Asimov képzeletbeli robotjai sem voltak azok. De el kéne dönteni, hogy mit szeretnénk elõállítani, mert nagyon úgy néz ki, hogy a két dolog (robot vagy intelligencia) jelentõsen eltér egymástól, és ugyanarra a célra nem használható mindkettõ.
"Elég érdekes elképzeléseid vannak a mesterséges intelligenciáról."
No, miért is? Én már jó hosszasan kifejtettem, hogy én hogy gondolom, szívesen elolvasom a te véleményedet a dologról – már ha van neked olyanod. Rajta, ne kímélj minket!
Mindenféle idiótaságokról beszélsz sci-fi regényekbõl vett butaságokat képzelgéseket hordasz össze, mikor itt van egy a cikkben leírt érdemben használható mesterséges intelligencia. Közben ilyeneket írsz: "Az a baj, hogy állandóan a MI-t kutatják, és bár még csak nem is kapiskálják, mégis fûre-fára ráfogják hogy intelligens" ezzel szidva, lenézve az összes mérnököt informatikust és még kitudja kiket akik ezen a projekten dolgoztak amellett, hogy nyilván még a gépen a legalja munkát végzõ munkásnak is több ismerete van a mesterséges intelligenciáról mint neked fotel tudósnak. De bocs most olvasom csak te olvastál Asimov regényt akkor teljes mértékben igazad van francba a doktorival meg a diplomával fantááziáljunk.
"De pontosan arról van szó, hogy az ember irracionális, szeszélyes, és kiszámíthatatlan, egy beprogramozott géppel ellentétben."
Szerintem az emberi erzelmek is kiszamithatok, mert azok is mind valaminek a kovetkezmenyei. Nagyon bonyolultak, komplekszek, de logikusak. Pl egy kalapacsos sorozatgyilkos viselkedese elso ranezesre, teljesen ertelmetlen, kiszamithatatlanak tunik, mert nem ismerjuk az osszes korulmenyt. De ha annak az embernek az egesz eletet vizsgalnank, a szuletese pilanatatol, akkor mindjart ertenenk, es logikusnak talalnank, hogy mit miert tett. Szoval szerintem az erzelmek is logikusak, csak tul bonyolultak, hogy modelezuk oket.
A gépnek mennyibe tart megadni random választási lehetõséget? És hoppá máris nem tudod semennyire se behatárolni, hogy mit fog választani míg az embernél 80-90%-ban meg lehet mondani
..nah már megint itt tartunk, fel kell fogni hogy ami ugy néz ki mint egy kacsa, ugy csinál mint egy kacsa, az bizony kacsa akármi van is mögötte......... Megint más tészta hogy sokan attól tartják különlegesnek magukat hogy emberek.......le kellene szállni kicsit a magas lórol......