A Lordok Háza szerint a katasztrófa­forgatókönyv csak szándékos figyelemelterelés az MI-cégek részéről

A Lordok Háza szerint a katasztrófa­forgatókönyv csak szándékos figyelemelterelés az MI-cégek részéről

2024. február 5. 11:47, Hétfő
Egy ma közzétett jelentés szerint inkább a "nyílt" és "zárt" kérdéskörrel kellene foglalkozni.

A Lordok Háza kommunikációs és digitális bizottsága által közzétett jelentés hónapokig tartó bizonyítékgyűjtést követően készült, amelyben az érdekeltek széles skálája - köztük nagy technológiai vállalatok, akadémiai körök, kockázati tőkebefektetők, média és kormányzat - vett részt. A jelentés legfontosabb megállapításai között szerepel, hogy a kormánynak a nagy nyelvi modellek (LLM) által okozott közeljövőbeli biztonsági és társadalmi kockázatokra - például a szerzői jogok megsértésére és a félretájékoztatásra - kellene összpontosítania erőfeszítéseit, ahelyett, hogy túlságosan aggódna az apokaliptikus forgatókönyvek és a feltételezett egzisztenciális fenyegetések miatt, amelyek a jelentés szerint "eltúlzottak".

"A mesterséges intelligencia nagyméretű nyelvi modelljeinek gyors fejlődése valószínűleg az internet bevezetéséhez hasonlóan mélyreható hatással lesz a társadalomra - ezért létfontosságú, hogy a kormány helyesen közelítsen, és ne hagyja ki a lehetőségeket, különösen akkor nem, ha ez a távoli és valószínűtlen kockázatokkal szembeni óvatosságból történik" - mondta Stowell bárónő, a Kommunikációs és Digitális Bizottság elnöke. "Kezelnünk kell a kockázatokat ahhoz, hogy kihasználhassuk a lehetőségeket - de arányosnak és gyakorlatiasnak kell lennünk. El kell kerülnünk, hogy az Egyesült Királyság kimaradjon a mesterséges intelligencia potenciális aranykorából."

Az MI rohama úgy tűnik, hogy át fogja alakítani az ipart és a társadalmat, az OpenAI ChatGPT-je pedig jelképpé vált, és az elmúlt évben mindenkivel megismertette az LLM-eket. Ez a felhajtás egyformán izgalmat és félelmet keltett, és mindenféle vitákat váltott ki az MI irányítása körül - Biden elnök nemrég adott ki végrehajtási rendeletet az MI biztonságára és védelmére vonatkozó szabványok meghatározására, míg az Egyesült Királyság az MI irányításának élvonalába igyekezett kerülni olyan kezdeményezésekkel, mint az AI Safety Summit, amely a Bletchley Parkban egy teremben gyűjtötte össze a világ néhány politikai és vállalati vezetőjét. Ezzel párhuzamosan megosztottság bontakozik ki abban a kérdésben, hogy milyen mértékben kell szabályozni ezt az új technológiát.


Yann LeCun, a Meta vezető mesterséges intelligencia kutatója nemrégiben csatlakozott több tucat aláíróhoz, akik nyílt levélben követeltek nagyobb nyitottságot a mesterséges intelligencia fejlesztésében, és ezzel az olyan technológiai cégek, mint az OpenAI és a Google egyre növekvő nyomulása ellen kívánnak fellépni, amelyek a nyílt mesterséges intelligencia kutatás-fejlesztés elleni lobbizással igyekeznek biztosítani a "mesterséges intelligencia ipar szabályozási átvételét". "A történelem azt mutatja, hogy a rossz szabályozás felé való gyors kapkodás olyan hatalomkoncentrációhoz vezethet, amely árt a versenynek és az innovációnak" - áll a levélben. "A nyílt modellek megmutathatják mik a vitás kérdések és javíthatják a politikai döntéshozatalt. Ha a biztonság, a védelem és az elszámoltathatóság a célunk, akkor a nyitottság és az átláthatóság alapvető összetevők ahhoz, hogy eljussunk idáig."

És ez a feszültség az egyik fő mozgatórugója a Lordok Háza "Nagy nyelvi modellek és generatív mesterséges intelligencia" című jelentésének, amely felszólítja a kormányt, hogy a piaci versenyt tegye "kifejezett MI-politikai céllá", hogy megóvja magát a jelenlegi inkumbensek, például az OpenAI és a Google szabályozási csapdájától. A "zárt" kontra "nyitott" kérdés a jelentés több oldalán is felbukkan, és arra a következtetésre jut, hogy a versenydinamika nem csak abban lesz kulcsfontosságú, hogy végül ki lesz a mesterséges intelligencia / LLM piac vezetője, hanem abban is, hogy végül milyen szabályozási felügyelet működik. A jelentés megjegyzi: "Ez lényegében egy verseny azok között, akik "zárt" ökoszisztémákat működtetnek, és azok között, akik a mögöttes technológiából többet tesznek nyíltan hozzáférhetővé."

A bizottság megvizsgálta, hogy a brit kormánynak kifejezett álláspontot kell-e foglalnia ebben a kérdésben, a nyílt vagy a zárt megközelítést előnyben részesítve, és arra a következtetésre jutott, hogy "árnyalt és iteratív megközelítésre lesz szükség". Az összegyűjtött bizonyítékokat azonban némileg színezték az érdekelt felek érdekei, mondta a bizottság. A Microsoft és a Google például megjegyezte, hogy bár általánosságban támogatják a "nyílt hozzáférésű" technológiákat, úgy vélték, hogy a nyíltan elérhető LLM-ekkel kapcsolatos biztonsági kockázatok túlságosan jelentősek, és ezért több védőkorlátra van szükség. A Microsoft írásos nyilatkozatában például azt állította, hogy "nem minden szereplő rendelkezik jó szándékkal vagy megfelelő felszereltséggel ahhoz, hogy megbirkózzon a nagy teljesítményű nyelvi modellek által jelentett kihívásokkal".

"Egyes szereplők fegyverként, nem pedig eszközként fogják használni a mesterséges intelligenciát, mások pedig alábecsülik az előttük álló biztonsági kihívásokat. A szabályozási kereteknek védelmet kell nyújtaniuk az alkalmas modellek szándékos, károkozásra való visszaélése ellen, például a kiberbiztonsági sebezhetőségek azonosítása és kihasználása vagy biológiailag veszélyes anyagok kifejlesztése révén, valamint a véletlenszerű károkozás veszélye ellen, például ha a mesterséges intelligenciát megfelelő védőkorlátok nélkül alkalmazzák a nagyméretű kritikus infrastruktúrák kezelésére. - írja a Microsoft.

A másik oldalról nézve viszont a nyílt LLM-ek könnyebben hozzáférhetőek, és lehetővé teszik, hogy több ember ellenőrizhesse mi történik a motorháztető alatt. Irene Solaiman, a Hugging Face nevű mesterséges intelligencia platform globális politikai igazgatója a bizonyítékokkal kapcsolatos ülésen elmondta, hogy a kockázatértékelési folyamat alapvető része a hozzáférési lehetőségek megnyitása például a képzési adatokhoz és a műszaki dokumentumokhoz. "A nyitottságban a nyilvánosságra hozatal az igazán fontos. A Hugging Face-nél keményen dolgoztunk az átláthatóság szintjein, hogy a kutatók, a fogyasztók és a szabályozó hatóságok nagyon jól fogyasztható módon megérthessék a rendszerrel együtt kibocsátott különböző komponenseket. Az egyik nehéz dolog a kiadással kapcsolatban az, hogy a folyamatokat gyakran nem teszik közzé, így a telepítők szinte teljes kontrollt gyakorolnak a kiadási módszer felett, és mi nem látunk bele a telepítés előtti megfontolásokba."


Ian Hogarth, az Egyesült Királyság kormánya által nemrégiben létrehozott AI Safety Institute elnöke szintén megjegyezte, hogy ma olyan helyzetben vagyunk, amikor az LLM-ek és a generatív MI határát a magánvállalkozások határozzák meg, amelyek a kockázatértékelés tekintetében gyakorlatilag "saját házi feladatukat" végzik el. Hogarth így fogalmazott: "Ez néhány strukturális problémát vet fel. Az első az, hogy amikor e rendszerek biztonságának értékelésére kerül sor, nem akarunk olyan helyzetbe kerülni, hogy a vállalatokra hagyatkozzunk. Amikor például az OpenAI LLM GPT-4-et kiadták, a mögötte álló csapat komoly erőfeszítéseket tett a rendszerük biztonságának értékelésére, és kiadott egy GPT-4 rendszerkártya nevű dokumentumot. Ez lényegében összefoglalta az általuk elvégzett biztonsági teszteket, és azt, hogy miért érezték úgy, hogy helyénvaló a nyilvánosságra hozatal."

"Amikor a DeepMind kiadta az AlphaFold fehérjemodelljét, hasonló munkát végzett, amelynek során megpróbálta felmérni a technológia lehetséges kettős felhasználású alkalmazásait és a kockázatokat. Ez egy kissé furcsa dinamika, amikor a határokat a magánszektor szervezetei húzzák, és e szervezetek vezetői oldják meg a saját házi feladatukat. Tekintve e technológia erejét és következményeit, ez a helyzet nem tartható fenn." - véli Hogarth.

Számos ilyen probléma középpontjában a szabályozási korlátozás elkerülése vagy az arra való törekvés áll. A vezető LLM-eszközöket és -technológiákat fejlesztő vállalatok szabályozást követelnek, ami sokak szerint valójában a felzárkózásra törekvők kizárását jelenti. Így a jelentés elismeri az iparági lobbizással kapcsolatos aggályokat, illetve azt, hogy a kormánytisztviselők a politika és a szabványok kialakításában túlságosan a "magánszektor szűk körű szakértői körének" technikai know-how-jára támaszkodnak. A bizottság ezért "a Tudományos, Innovációs és Technológiai Minisztérium és a szabályozó hatóságok fokozott irányítási intézkedéseit ajánlja a szándékolatlan szabályozási korlátozás és a csoportgondolkodás kockázatának csökkentése érdekében".

Mindez azonban elvezet a jelentés ajánlásának egyik fő visszatérő pontjához, miszerint a mesterséges intelligencia biztonságáról szóló vitát túlságosan is a katasztrofális kockázatokra összpontosító, szűken vett narratíva uralja, különösen "azok részéről, akik az ilyen modelleket kifejlesztették". A jelentés egyrészt valóban kötelező biztonsági teszteket sürget a "nagy kockázatú, nagy hatású modellek" esetében - olyan teszteket, amelyek túlmutatnak néhány vállalat önkéntes kötelezettségvállalásán. Ugyanakkor azonban azt mondja, hogy az egzisztenciális kockázatokkal kapcsolatos aggodalmak eltúlzottak, és ez a túlzás csupán arra szolgál, hogy elterelje a figyelmet azokról a sürgetőbb problémákról, amelyeket az LLM-ek ma lehetővé tesznek.

"Szinte biztos, hogy egzisztenciális kockázatok nem jelentkeznek három éven belül, és nagy valószínűséggel a következő évtizedben sem fognak" - zárul a jelentés. "Ahogy a technológiával kapcsolatos ismereteink bővülnek és a felelős fejlesztés fokozódik, reméljük, hogy az egzisztenciális kockázatokkal kapcsolatos aggodalmak csökkenni fognak. A kormánynak továbbra is kötelessége minden eshetőséget figyelemmel kísérni - de ez nem vonhatja el a figyelmét a lehetőségek kihasználásától és a korlátozottabb közvetlen kockázatok kezelésétől." A jelentés elismeri, hogy e "lehetőségek" megragadása néhány közvetlenebb kockázat kezelését igényli. Ezek közé tartozik az a könnyedség, amellyel a téves és dezinformációkat ma már létre lehet hozni és terjeszteni, mind szövegalapú médiumokon keresztül, mind audio- és vizuális "mélyhamisításokkal", amelyeket "még a szakértők számára is egyre nehezebb azonosítani" - állapította meg a jelentés.

Ez különösen aktuális, mivel az Egyesült Királyságban közelednek az általános választások. "A Nemzeti Kiberbiztonsági Központ úgy értékeli, hogy a nagyméretű nyelvi modelleket "szinte biztosan felhasználják majd hamisított tartalmak előállítására; hogy a hiperrealisztikus botok megkönnyítik a dezinformáció terjesztését; és hogy a deepfake-kampányok valószínűleg egyre fejlettebbé válnak a következő, 2025 januárjára tervezett országos szavazás előtt" - áll a jelentésben. A bizottság emellett egyértelműen állást foglalt a szerzői jogvédelem alatt álló anyagok LLM-ek képzésére történő felhasználásával kapcsolatban - amit az OpenAI és más nagy technológiai cégek már megtettek, azzal érvelve, hogy a mesterséges intelligencia képzése tisztességes felhasználási forgatókönyv. Éppen ezért művészek és médiavállalatok - például a The New York Times - pereket indítottak azon MI-cégek ellen, amelyek webes tartalmakat használnak fel LLM-ek képzésére.

"A mesterséges intelligencia zavarainak egyik területe, amelyet azonnal kezelni lehet és kell, a szerzői jogvédelem alatt álló anyagok felhasználása az LLM-ek képzésére" - jegyzi meg a jelentés. "Az LLM-ek a megfelelő működéshez hatalmas adathalmazok bevitelére támaszkodnak, de ez nem jelenti azt, hogy bármilyen anyagot felhasználhatnak engedély nélkül. Ez egy olyan kérdés, amelyet a kormány gyorsan kézbe vehet, és ezt meg is kell tennie".

A jelentés továbbá megjegyzi, hogy "hiteles biztonsági kockázatot" jelent a nagy teljesítményű, könnyen visszaélhető vagy meghibásodó MI-modellek hólabdaszerűen növekvő elérhetősége. E felismerések ellenére azonban a bizottság úgy véli, hogy az ilyen modellek teljes betiltása nem jelent megoldást, tekintettel annak valószínűségére, hogy a legrosszabb forgatókönyvek nem valósulnak meg, valamint a betiltásuk puszta nehézségére. És itt látja a kormányzat AI Safety Institute-jának szerepét, amelynek azt javasolja, hogy dolgozzon ki "új módszereket" a modellek azonosítására és nyomon követésére, amint azokat a valós életben alkalmazott forgatókönyvekben alkalmazzák. "Teljes betiltásuk aránytalan és valószínűleg hatástalan lenne" - állapította meg a jelentés. "De összehangolt erőfeszítésekre van szükség a halmozott hatások nyomon követésére és mérséklésére."

A jelentés tehát többnyire nem állítja, hogy az LLM-ek és a szélesebb értelemben vett mesterséges intelligencia mozgalom nem jár valós kockázatokkal. De azt mondja, hogy a kormánynak "át kell alakítania" a stratégiáját, és kevésbé a "sci-fi világvége-forgatókönyvekre" kell összpontosítania, mint inkább arra, hogy az milyen előnyökkel járhat. "A kormánynak egyensúlyt kell teremtenie, különben nem fogja kihasználni az LLM-ben rejlő lehetőségeket, lemarad a nemzetközi versenytársak mögött, és stratégiailag függővé válik a tengerentúli technológiai cégektől egy kritikus technológia tekintetében." - véli a Lordok Háza.

Listázás a fórumban 
Adatvédelmi beállítások