SG.hu·

Kezd valódi veszéllyé válni az MI

Kezd valódi veszéllyé válni az MI
A héten rendkívüli vita robbant ki a mesterséges intelligencia körül. Az Egyesült Államok kormányzata és az Anthropic, az ország egyik vezető MI fejlesztő laboratóriuma közötti konfliktus a Pentagon hozzáférése körül zajló vitából indult ki, és valójában arról szól, ki gyakorol ellenőrzést a világ egyik legerősebb technológiája felett. A vita kimenetele hatással lehet az Egyesült Államok nemzetbiztonságára, az MI fejlődésének irányára, sőt arra is, hogy mennyire válik valószínűvé egy MI által előidézett katasztrófa.

Mindhárom szempont aggodalomra ad okot. Ez az első igazán nagy ütközet az MI biztonságával kapcsolatos félelmek terén és azzal az igénnyel szemben, hogy a technológiai versenyben mindenáron gyorsan kell előrehaladni. Az amerikai kormányzat ebben a konfliktusban egyértelműen a gyorsaság oldalára állt. Mivel az MI biztonságával kapcsolatos, régóta emlegetett kockázatok már most kezdenek valósággá válni, a jövőben várhatóan még több hasonló próbatétel következik. Egyes szakértők szerint a világ rohamos tempóban közelít egy MI által kiváltott apokalipszis felé. Az Egyesült Államok kockázatvállaló hozzáállása csak növeli ennek esélyét.

A Pentagon és az Anthropic közötti vita abból fakadt, hogy az amerikai kormányzat azt követelte, a vállalat tegye lehetővé MI modelljeinek használatát minden jogszerű célra. Az Anthropic két okból is visszautasította ezt a kérést. Először is a vállalat vezérigazgatója, Dario Amodei attól tart, hogy az MI egy napon az átlagos állampolgárok digitális lábnyomának elemzésére is felhasználható lesz. Ez a megfigyelés egy olyan formája lenne, amelyhez a jelenlegi törvények még nem alkalmazkodtak. Donald Trump elnöksége alatt a Bevándorlási és Vámhivatal már most is MI rendszereket használ hatalmas adatmennyiségek elemzésére annak érdekében, hogy felgyorsítsa a kitoloncolási eljárásokat. Amodei szerint nem tűnik irreálisnak az a lehetőség, hogy egy ilyen rendszer alkalmazását idővel amerikai állampolgárokra is kiterjesztik.

A második aggály az autonóm fegyverek használatával kapcsolatos. Az MI jelenleg még kiszámíthatatlan és fejletlen, miközben rendkívüli erővel rendelkezik. Amodei úgy véli, hogy mivel a technológia irányíthatatlanná válhat, még túl korai lenne teljesen kivonni az embert a döntési folyamatból.

Az amerikai kormányzat dühösen reagált az Anthropic álláspontjára. Donald Trump elnök "baloldali őrülteknek" nevezte a vállalat vezetőit, akik szerinte megpróbálják "megmondani, hogyan harcoljon és nyerjen háborúkat Amerika nagyszerű hadserege". Az elnök hat hónapot adott a szövetségi kormánynak arra, hogy felmondja az Anthropic céggel kötött szerződéseket. Pete Hegseth hadügyminiszter pedig azt közölte, hogy a vállalatot ellátási láncot veszélyeztető kockázatként fogják minősíteni.

Elképzelhető, hogy mindez csupán politikai fenyegetés, ugyanis az Anthropic modelljeit jelenleg is használják az Irán elleni támadások során. Ha azonban a fenyegetést valóban végrehajtják, akkor először fordulna elő, hogy egy amerikai vállalatot nemzetbiztonsági kockázatnak minősítenek, és megtiltják számára az együttműködést a védelmi ipar beszállítóival. Érdekesség, hogy március 4-én az Anthropictól kiszivárgott egy Amodei által írt belső feljegyzés, amely szerint a vállalat azért került támadások kereszttüzébe, mert nem adott "diktátor stílusú dicséretet Trumpnak".

Normális kormányzat és hagyományos technológia esetén egy ilyen vitát valószínűleg gyorsan rendeznének. Csakhogy sem a kormányzat nem szokványos, sem az MI nem tekinthető hétköznapi technológiának. A kérdés mögött meghúzódó félelmek szélesebb körű aggodalmakat tükröznek az MI veszélyeiről. Az egyik aggodalom az, hogy az MI egyszerűen túl erős. A megerősített kormányzati megfigyelés lehetősége mellett konkrét példák is felmerülnek. Tavaly decemberben a cég Claude nevű chatbotját hackerek arra utasították, hogy törjön be a mexikói kormány adatbázisába egy állítólagos biztonsági teszt részeként. A rendszer sebezhetőségeket talált, kihasználta azokat, és 150 gigabájtnyi adatot lopott el, köztük adófizetők adatait, választói nyilvántartásokat és alkalmazotti hitelesítő adatokat. Más kutatások szerint az MI akár olyan ricinhez hasonló méreganyagok kifejlesztésében is segíthet, amelyek hagyományos módszerekkel nem követhetők nyomon, mivel teljesen új fehérjeszerkezeteken alapulnak.

A másik nagy félelem az autonóm fegyverekhez kapcsolódik, és arra vonatkozik, hogy az MI modellek idővel figyelmen kívül hagyhatják az emberi utasításokat. Az Anthropic szerint mivel a vállalat kódjának egyre nagyobb részét már MI írja, egyre nehezebb észlelni, ha a rendszer eltér az emberi utasításoktól. Sok modell ma már rendelkezik azzal, amit a szakértők "helyzetfelismerésnek" neveznek. Amikor például arra utasítják őket, hogy töröljék saját magukat, képesek arra következtetni, hogy ez egy teszt, és egyszerűen megtagadják a végrehajtást.


Ebben a helyzetben az amerikai kormányzat Anthropic-kal szembeni fellépése azt mutatja, hogy az MI-t elsősorban a nemzeti hatalom eszközeként tekinti. Ahelyett, hogy világos szabályokat fogalmazna meg a technológia használatáról, inkább példát statuál egy olyan vállalaton, amely fel mert vetni biztonsági kockázatokat. Mindez még akkor is megtörténik, ha ezzel az Egyesült Államok saját innovációját gyengíti. Ez a hozzáállás lefelé tartó versenyt indíthat el. Az Anthropic legnagyobb riválisa, az OpenAI máris kihasználta a helyzetet, és megállapodást kötött a Pentagonnal. A megállapodás látszólag hasonló ahhoz, amelyet korábban az Anthropic javasolt, valójában azonban sokkal közelebb áll ahhoz, amit a Pentagon eredetileg akart.

Az Egyesült Államok példáját a világ többi része is követheti. A vállalatok és a kormányok egyre gyakrabban háttérbe szorítják a biztonsági aggályokat. A modellfejlesztők több százmilliárd dollárt költöttek a szükséges számítási kapacitás kiépítésére, hogy lépést tudjanak tartani a következő fejlesztési szinttel. Ez hatalmas nyomást helyez rájuk, hogy minél gyorsabban haladjanak, és mielőbb nyereséget termeljenek. Még az Anthropic is kénytelen volt enyhíteni biztonsági protokolljain a verseny miatt. Egy közelmúltbeli indiai MI csúcstalálkozón a legtöbb kormány inkább a technológiához való méltányos hozzáférésről akart beszélni, mint a biztonsági kérdésekről.

Sokan remélték, hogy az Egyesült Államok és Kína, ahol a világ legfejlettebb MI laboratóriumai működnek, közösen alakítanak ki globális szabványokat, majd gondoskodnak arról, hogy ezek mindenki számára kötelezőek legyenek. A két szuperhatalom azonban saját versenyébe zárkózott, mert mindkettő úgy véli, hogy az MI uralása a 21. század egészének uralását jelenti. Nem meglepő tehát, hogy miközben az MI egyre gyorsabban válik erősebbé, a terület szakértői egyre komorabb jóslatokat fogalmaznak meg. Egyesek egy úgynevezett "Csernobil pillanatról" beszélnek. Ez azt jelentené, hogy az MI használata olyan katasztrófához vezet, amely hatalmas gazdasági károkat vagy emberéletek elvesztését okozza.

Az Anthropic története azonban arra utal, hogy ez a veszély egyre valószínűbb. A legjobb forgatókönyv talán az lehet, hogy a világ egy kisebb katasztrófával szembesül, amely felrázza Kínát és az Egyesült Államokat, és rákényszeríti őket a biztonsági szabályok szigorítására. Nem annyira Csernobil, inkább a Three Mile Island atomreaktor balesetéhez hasonló esemény. De ennél súlyosabb forgatókönyv sem zárható ki. A tapasztalatok szerint a valódi cselekvés gyakran csak akkor következik, amikor már túl késő.

Kapcsolódó cikkek és linkek

Hozzászólások

Jelentkezz be a hozzászóláshoz.

Nem érkezett még hozzászólás. Legyél Te az első!