SG.hu·
Az MI botrajok veszélyeztetik a demokráciát

Vezető politikusok hamarosan emberi viselkedést utánzó MI ügynökök rajait indíthatják útjukra, hogy olyan módon formálják a közvéleményt, amely alááshatja a demokráciát, figyelmeztetett egy nagy tekintélyű szakértői csoport, amely az MI és az online félretájékoztatás kérdéseivel foglalkozik.
A szólásszabadságért végzett tevékenységéért Nobel békedíjjal kitüntetett aktivista Maria Ressa, valamint a Berkeley, a Harvard, az Oxford, a Cambridge és a Yale egyetem vezető MI és társadalomtudományi kutatói is tagjai annak a globális konzorciumnak, amely az új, romboló fenyegetésre hívja fel a figyelmet. Ez a fenyegetés a nehezen észlelhető, rosszindulatú MI rajok megjelenése, amelyek ellepik a közösségi médiát és az üzenetküldő csatornákat. Egy leendő autokrata az ilyen rajokat arra használhatná, hogy rávegye a lakosságot a választások törlésének elfogadására vagy az eredmények megfordítására, mondták a szakértők. Előrejelzéseik szerint a technológia már a 2028-as amerikai elnökválasztás idejére nagy léptékben bevethetővé válhat.
A Science folyóiratban közzétett figyelmeztetésekhez a kockázat elleni összehangolt globális fellépésre vonatkozó felhívások is társulnak. Ezek között szerepelnek a rajokat felismerő szkennerek és a vízjellel ellátott tartalmak, amelyek segíthetnének az MI által vezérelt félretájékoztatási kampányok ellensúlyozásában. Az MI alapú befolyásolási műveletek korai változatait már alkalmazták a 2024-es választások során Tajvanon, Indiában és Indonéziában. „Egy romboló fenyegetés van kialakulóban: az együttműködő, rosszindulatú MI ügynökök rajai” - írták a szerzők. „Ezek a rendszerek képesek önállóan koordinálni, közösségekbe beépülni és hatékonyan hamis konszenzust létrehozni. Az emberi társas dinamika alkalmazkodó utánzásával a demokráciát fenyegetik.”
A propagandatechnológiák egyik vezető szakértője, Inga Trauthig szerint az ilyen fejlett technológia elterjedését lassíthatja, hogy a politikusok vonakodnak átadni kampányaik irányítását MI rendszereknek. A szkepticizmus másik oka az a félelem, hogy az ilyen tiltott módszerek alkalmazása nem érné meg a kockázatot, mivel a választókat továbbra is erősebben befolyásolják az offline eszközök.
A figyelmeztetés mögött álló szakértők között van Gary Marcus, a New York University professzora, aki a jelenlegi MI modellek túlértékelt képességeinek egyik legismertebb kritikusa, és magát „generatív MI realistának” nevezi, valamint Audrey Tang, Tajvan első digitális minisztere, aki korábban így fogalmazott: „Az autoriter erők fizetett szereplői aláássák a választási folyamatokat, fegyverré alakítják az MI-t, és a társadalmi erősségeinket fordítják ellenünk.” A szerzők között szerepel továbbá David Garcia, a konstanzi egyetem társadalmi és viselkedési adattudományi professzora, Sander van der Linden, a félretájékoztatás szakértője és a Cambridge-i Egyetem társadalmi döntéshozatali laboratóriumának igazgatója, valamint Christopher Summerfield, MI kutató és az Oxfordi Egyetem kognitív idegtudományi professzora.
Közösen azt állítják, hogy a politikai vezetők szinte korlátlan számú MI rendszert vethetnének be, amelyek embernek álcázva magukat jelennek meg online, pontosan beépülnek közösségekbe, idővel megismerik azok gyenge pontjait, majd egyre meggyőzőbb és gondosan testre szabott hamis állításokkal formálják a teljes lakosság véleményét. A fenyegetést tovább erősítik az MI rendszerek azon képességeinek fejlődései, amelyek lehetővé teszik számukra a beszélgetések hangvételének és tartalmának felismerését. Egyre jobban tudják utánozni az emberi dinamikát, például megfelelő szleng használatával vagy rendszertelen posztolással, hogy elkerüljék a lebukást. Az úgynevezett cselekvő MI fejlesztésében elért előrelépések pedig az önálló tervezés és cselekvés koordinálásának képességét is jelentik.
Amellett, hogy a közösségi médiában működnek, az MI rajok üzenetküldő csatornákat is használhatnak, sőt blogokat írhatnak vagy e-maileket küldhetnek, attól függően, hogy az adott MI szerint melyik csatorna szolgálja legjobban a cél elérését, mondta az egyik szerző, Daniel Thilo Schroeder, az oslói Sintef kutatóintézet kutatója. „Egyszerűen ijesztő, mennyire könnyű ezeket a dolgokat hangulatra kódolni, és kis bothadseregeket létrehozni, amelyek ténylegesen képesek eligazodni az online közösségi platformokon és az e-mailben, és használni ezeket az eszközöket” - mondta Schroeder, aki laboratóriumi körülmények között szimulálta a rajok működését.
Egy másik szerző, Jonas Kunst, a BI Norwegian Business School kommunikációprofesszora így fogalmazott: „Ha ezek a botok kollektívává kezdenek fejlődni, és információt cserélnek egy probléma megoldására - ebben az esetben egy rosszindulatú cél érdekében, vagyis egy közösség elemzésére és egy gyenge pont megtalálására - akkor az együttműködés növelni fogja a pontosságukat és a hatékonyságukat. Ez egy rendkívül komoly fenyegetés, amelyről azt jósoljuk, hogy valóra fog válni.”
Tajvanon, ahol a választókat gyakran célozza kínai propaganda, sokszor anélkül, hogy tudnának róla, az elmúlt két három hónapban az MI botok fokozottan léptek kapcsolatba a lakossággal a Threads és a Facebook felületein, mondta Puma Shen, a tajvani Demokratikus Haladó Párt parlamenti képviselője és a kínai dezinformáció elleni küzdelem aktivistája. Politikai témájú viták során az MI rendszerek hajlamosak „rengeteg olyan információt közzétenni, amelyet nem lehet ellenőrizni”. Ez „információs túlterhelést” okoz, mondta Shen. Előfordul, hogy az MI hamis cikkekre hivatkozik arról, hogy Amerika nem fogja támogatni Tajvant. Egy másik friss tendencia, hogy az MI botok a fiatalabb tajvaniak számára hangsúlyozzák, miszerint a Kína Tajvan vita nagyon összetett, ezért „ne foglaljanak állást, ha nincs tudásuk”. „Nem azt mondják, hogy Kína nagyszerű, hanem arra ösztönzik őket, hogy legyenek semlegesek” - mondta Shen. „Ez nagyon veszélyes, mert így azt gondolják, hogy az olyan emberek, mint én, radikálisak.”
Miközben egyre több jel utal arra, hogy az MI technológia fejlődése nem olyan gyors, mint ahogyan azt a Szilícium völgyi vállalatok, például az OpenAI vagy az Anthropic állítják, független MI szakértők szerint sem légből kapottak a botrajokkal kapcsolatos figyelmeztetések. „A választásokkal sűrűn teli 2024-es évben megvoltak a képességek az MI vezérelt mikrocélzásra, de nem láttunk annyit ebből, mint amennyit a kutatók előre jeleztek” - mondta Trauthig, az International Panel on the Information Environment (Információs Környezet Nemzetközi Testülete) tanácsadója. „A legtöbb politikai propagandistával készített interjúm alapján még mindig régebbi technológiákat használnak, és nem a legmodernebb élvonalat.”
„Teljesen elképzelhetőnek tartom, hogy rosszindulatú szereplők megpróbálnak majd virtuális hadseregeket mozgósítani nagy nyelvi modellekkel működő ügynökökből a választások megzavarására és a közvélemény manipulálására, például nagyszámú ember célzásával a közösségi médiában és más elektronikus felületeken. Technológiailag ez teljes mértékben megvalósítható, a technológia folyamatosan fejlődött és sokkal hozzáférhetőbbé vált.” - mondta Michael Wooldridge, az Oxfordi Egyetem professzora.
A szólásszabadságért végzett tevékenységéért Nobel békedíjjal kitüntetett aktivista Maria Ressa, valamint a Berkeley, a Harvard, az Oxford, a Cambridge és a Yale egyetem vezető MI és társadalomtudományi kutatói is tagjai annak a globális konzorciumnak, amely az új, romboló fenyegetésre hívja fel a figyelmet. Ez a fenyegetés a nehezen észlelhető, rosszindulatú MI rajok megjelenése, amelyek ellepik a közösségi médiát és az üzenetküldő csatornákat. Egy leendő autokrata az ilyen rajokat arra használhatná, hogy rávegye a lakosságot a választások törlésének elfogadására vagy az eredmények megfordítására, mondták a szakértők. Előrejelzéseik szerint a technológia már a 2028-as amerikai elnökválasztás idejére nagy léptékben bevethetővé válhat.
A Science folyóiratban közzétett figyelmeztetésekhez a kockázat elleni összehangolt globális fellépésre vonatkozó felhívások is társulnak. Ezek között szerepelnek a rajokat felismerő szkennerek és a vízjellel ellátott tartalmak, amelyek segíthetnének az MI által vezérelt félretájékoztatási kampányok ellensúlyozásában. Az MI alapú befolyásolási műveletek korai változatait már alkalmazták a 2024-es választások során Tajvanon, Indiában és Indonéziában. „Egy romboló fenyegetés van kialakulóban: az együttműködő, rosszindulatú MI ügynökök rajai” - írták a szerzők. „Ezek a rendszerek képesek önállóan koordinálni, közösségekbe beépülni és hatékonyan hamis konszenzust létrehozni. Az emberi társas dinamika alkalmazkodó utánzásával a demokráciát fenyegetik.”
A propagandatechnológiák egyik vezető szakértője, Inga Trauthig szerint az ilyen fejlett technológia elterjedését lassíthatja, hogy a politikusok vonakodnak átadni kampányaik irányítását MI rendszereknek. A szkepticizmus másik oka az a félelem, hogy az ilyen tiltott módszerek alkalmazása nem érné meg a kockázatot, mivel a választókat továbbra is erősebben befolyásolják az offline eszközök.
A figyelmeztetés mögött álló szakértők között van Gary Marcus, a New York University professzora, aki a jelenlegi MI modellek túlértékelt képességeinek egyik legismertebb kritikusa, és magát „generatív MI realistának” nevezi, valamint Audrey Tang, Tajvan első digitális minisztere, aki korábban így fogalmazott: „Az autoriter erők fizetett szereplői aláássák a választási folyamatokat, fegyverré alakítják az MI-t, és a társadalmi erősségeinket fordítják ellenünk.” A szerzők között szerepel továbbá David Garcia, a konstanzi egyetem társadalmi és viselkedési adattudományi professzora, Sander van der Linden, a félretájékoztatás szakértője és a Cambridge-i Egyetem társadalmi döntéshozatali laboratóriumának igazgatója, valamint Christopher Summerfield, MI kutató és az Oxfordi Egyetem kognitív idegtudományi professzora.
Közösen azt állítják, hogy a politikai vezetők szinte korlátlan számú MI rendszert vethetnének be, amelyek embernek álcázva magukat jelennek meg online, pontosan beépülnek közösségekbe, idővel megismerik azok gyenge pontjait, majd egyre meggyőzőbb és gondosan testre szabott hamis állításokkal formálják a teljes lakosság véleményét. A fenyegetést tovább erősítik az MI rendszerek azon képességeinek fejlődései, amelyek lehetővé teszik számukra a beszélgetések hangvételének és tartalmának felismerését. Egyre jobban tudják utánozni az emberi dinamikát, például megfelelő szleng használatával vagy rendszertelen posztolással, hogy elkerüljék a lebukást. Az úgynevezett cselekvő MI fejlesztésében elért előrelépések pedig az önálló tervezés és cselekvés koordinálásának képességét is jelentik.
Amellett, hogy a közösségi médiában működnek, az MI rajok üzenetküldő csatornákat is használhatnak, sőt blogokat írhatnak vagy e-maileket küldhetnek, attól függően, hogy az adott MI szerint melyik csatorna szolgálja legjobban a cél elérését, mondta az egyik szerző, Daniel Thilo Schroeder, az oslói Sintef kutatóintézet kutatója. „Egyszerűen ijesztő, mennyire könnyű ezeket a dolgokat hangulatra kódolni, és kis bothadseregeket létrehozni, amelyek ténylegesen képesek eligazodni az online közösségi platformokon és az e-mailben, és használni ezeket az eszközöket” - mondta Schroeder, aki laboratóriumi körülmények között szimulálta a rajok működését.
Egy másik szerző, Jonas Kunst, a BI Norwegian Business School kommunikációprofesszora így fogalmazott: „Ha ezek a botok kollektívává kezdenek fejlődni, és információt cserélnek egy probléma megoldására - ebben az esetben egy rosszindulatú cél érdekében, vagyis egy közösség elemzésére és egy gyenge pont megtalálására - akkor az együttműködés növelni fogja a pontosságukat és a hatékonyságukat. Ez egy rendkívül komoly fenyegetés, amelyről azt jósoljuk, hogy valóra fog válni.”
Tajvanon, ahol a választókat gyakran célozza kínai propaganda, sokszor anélkül, hogy tudnának róla, az elmúlt két három hónapban az MI botok fokozottan léptek kapcsolatba a lakossággal a Threads és a Facebook felületein, mondta Puma Shen, a tajvani Demokratikus Haladó Párt parlamenti képviselője és a kínai dezinformáció elleni küzdelem aktivistája. Politikai témájú viták során az MI rendszerek hajlamosak „rengeteg olyan információt közzétenni, amelyet nem lehet ellenőrizni”. Ez „információs túlterhelést” okoz, mondta Shen. Előfordul, hogy az MI hamis cikkekre hivatkozik arról, hogy Amerika nem fogja támogatni Tajvant. Egy másik friss tendencia, hogy az MI botok a fiatalabb tajvaniak számára hangsúlyozzák, miszerint a Kína Tajvan vita nagyon összetett, ezért „ne foglaljanak állást, ha nincs tudásuk”. „Nem azt mondják, hogy Kína nagyszerű, hanem arra ösztönzik őket, hogy legyenek semlegesek” - mondta Shen. „Ez nagyon veszélyes, mert így azt gondolják, hogy az olyan emberek, mint én, radikálisak.”
Miközben egyre több jel utal arra, hogy az MI technológia fejlődése nem olyan gyors, mint ahogyan azt a Szilícium völgyi vállalatok, például az OpenAI vagy az Anthropic állítják, független MI szakértők szerint sem légből kapottak a botrajokkal kapcsolatos figyelmeztetések. „A választásokkal sűrűn teli 2024-es évben megvoltak a képességek az MI vezérelt mikrocélzásra, de nem láttunk annyit ebből, mint amennyit a kutatók előre jeleztek” - mondta Trauthig, az International Panel on the Information Environment (Információs Környezet Nemzetközi Testülete) tanácsadója. „A legtöbb politikai propagandistával készített interjúm alapján még mindig régebbi technológiákat használnak, és nem a legmodernebb élvonalat.”
„Teljesen elképzelhetőnek tartom, hogy rosszindulatú szereplők megpróbálnak majd virtuális hadseregeket mozgósítani nagy nyelvi modellekkel működő ügynökökből a választások megzavarására és a közvélemény manipulálására, például nagyszámú ember célzásával a közösségi médiában és más elektronikus felületeken. Technológiailag ez teljes mértékben megvalósítható, a technológia folyamatosan fejlődött és sokkal hozzáférhetőbbé vált.” - mondta Michael Wooldridge, az Oxfordi Egyetem professzora.