2024. július 7. 13:52, Vasárnap
A ChatGPT készítőjénél tavaly történt biztonsági behatolás során a kutatók és más alkalmazottak közötti belső megbeszélésekre derült fény, de az OpenAI rendszerei mögötti kódra nem.
Tavaly év elején egy hacker hozzáférést szerzett a ChatGPT-t gyártó OpenAI belső üzenetküldő rendszeréhez, és részleteket lopott el a vállalat MI-technológiáinak tervezéséről. A hacker az esetet ismerő két személy szerint egy online fórumon folytatott beszélgetésekhez jutott hozzá, , ahol az alkalmazottak az OpenAI legújabb technológiáiról cseréltek eszmét, de nem jutott be azokba a rendszerekbe, ahol a vállalat a mesterséges intelligenciáját tárolja és építi. Az OpenAI vezetői 2023 áprilisában a vállalat San Franciscó-i irodáiban tartott összdolgozói értekezleten fedték fel az incidenst az alkalmazottaknak és tájékoztatták az igazgatótanácsot is. A vezetők azonban úgy döntöttek, hogy nem osztják meg a hírt nyilvánosan, mivel nem loptak el ügyfelekre vagy partnerekre vonatkozó információkat.
A cég nem tekintette az incidenst nemzetbiztonsági fenyegetésnek, mivel a vezetők úgy vélték, hogy a hacker egy magánszemély volt, akinek nem voltak ismert kapcsolatai külföldi kormányokkal. A vállalat nem értesítette az FBI-t vagy más bűnüldöző szerveket sem. Azonban az OpenAI néhány alkalmazottja számára a hír felvetette a félelmet, hogy külföldi ellenfelek - például Kína - ellophatják az MI technológiát, amely - bár jelenleg leginkább munka- és kutatási eszköz - végül veszélyeztetheti az amerikai nemzetbiztonságot. Kérdéseket vetett fel az is, hogy az OpenAI mennyire veszi komolyan a biztonságot, és a vállalaton belüli törésvonalakat is feltárta a mesterséges intelligencia kockázataival kapcsolatban.
A betörés után Leopold Aschenbrenner - az OpenAI egyik technikai programvezetője, aki arra összpontosított, hogy a jövőbeli mesterséges intelligencia technológiák ne okozzanak komoly károkat - emlékeztetőt küldött az OpenAI igazgatótanácsának, amelyben azzal érvelt, hogy a vállalat nem tesz eleget annak megakadályozására, hogy a kínai kormány és más külföldi ellenfelek ellopják a cég titkait. Aschenbrenner azóta már nem dolgozik a vállalatnál. Egy nemrégiben sugárzott podcastjában utalt a jogsértésre, de az incidens részleteiről korábban nem számolt be. Azt mondta, hogy az OpenAI biztonsága nem volt elég erős ahhoz, hogy megvédje kulcsfontosságú titkok ellopását, ha külföldi szereplők beszivárogtak volna a vállalatba. "Nagyra értékeljük az aggodalmakat, amelyeket Leopold az OpenAI-nál töltött ideje alatt felvetett" - mondta az OpenAI szóvivője, Liz Bourgeois. "Miközben osztjuk a biztonságos általános MI építése iránti elkötelezettségét, nem értünk egyet számos olyan állítással, amelyet azóta a munkánkkal kapcsolatban tett. Ebbe beletartoznak a biztonságunkkal kapcsolatos jellemzései is, nevezetesen ez az incidens, amellyel már azelőtt foglalkoztunk és megosztottuk az igazgatótanácsunkkal, mielőtt ő csatlakozott a vállalathoz."
Nem alaptalanok azok a félelmek, hogy egy amerikai technológiai vállalatot ért hackertámadásnak kínai kapcsolatai lehetnek. A múlt hónapban Brad Smith, a Microsoft elnöke a Capitol Hillen
tanúskodott arról, hogy kínai hackerek a technológiai óriás rendszereit használták fel a szövetségi kormányzati hálózatok elleni széles körű támadáshoz. A szövetségi és kaliforniai törvények értelmében az OpenAI nem akadályozhatja meg, hogy emberek nemzetiségük miatt ne dolgozzanak a vállalatnál, és szakpolitikai kutatók szerint a külföldi tehetségek kizárása az amerikai projektekből jelentősen hátráltathatja az Egyesült Államokban az MI fejlődését. "A legjobb és legokosabb elmékre van szükségünk, akik ezen a technológián dolgoznak" - mondta Matt Knight, az OpenAI biztonsági vezetője. "Ez némi kockázattal jár, de ezeket meg kell oldanunk".
Az OpenAI nem az egyetlen vállalat, amely egyre nagyobb teljesítményű rendszereket épít a gyorsan fejlődő MI technológiára. Néhányan közülük - leginkább a Meta, a Facebook és az Instagram tulajdonosa - nyílt forráskódú szoftverként szabadon megosztják terveiket a világgal. Úgy vélik, hogy a mai MI-technológiák jelentette veszélyek csekélyek, és a kód megosztása lehetővé teszi a mérnökök és kutatók számára, hogy az egész iparágban azonosítsák és javítsák a problémákat. A mai mesterséges intelligencia rendszerek segíthetnek a dezinformáció online terjesztésében, beleértve a hamis állóképeket és egyre inkább a videókat is, emellett kezdenek elvenni néhány munkahelyet is. Az olyan vállalatok, mint az OpenAI és versenytársai, az Anthropic és a Google, az MI-alkalmazásokhoz védőkorlátokat illesztenek, mielőtt magánszemélyeknek és vállalkozásoknak kínálják azokat, remélve, hogy megakadályozzák, hogy az emberek dezinformáció terjesztésére vagy más problémák okozására használják az alkalmazásokat.
De nincs sok bizonyíték arra, hogy a mai MI technológiák jelentős nemzetbiztonsági kockázatot jelentenének. Az OpenAI, az Anthropic és mások által az elmúlt évben végzett tanulmányok azt mutatták, hogy az MI nem lényegesen veszélyesebb, mint a keresőmotorok. Daniela Amodei, az Anthropic társalapítója és a vállalat elnöke szerint a legújabb MI technológia nem jelentene jelentős kockázatot, ha a terveket ellopnák vagy szabadon megosztanák másokkal. "Ha ez valaki más tulajdonába kerülne az hatalmas károkat okozna a társadalom nagy részének? A válaszunk az, hogy "Nem, valószínűleg nem" - mondta. "Felgyorsíthatna valamit egy rossz szereplő számára? Talán. Ez tényleg spekulatív."
A kutatók és a technológiai vezetők mégis régóta aggódnak amiatt, hogy az MI egy napon új biofegyverek létrehozását segítheti elő, vagy segíthet betörni kormányzati számítógépes rendszerekbe. Egyesek szerint akár az emberiséget is elpusztíthatja. Számos vállalat, köztük az OpenAI és az Anthropic, máris lezárta technikai műveleteit. Az OpenAI nemrég létrehozott egy biztonsági és védelmi bizottságot, hogy megvizsgálja, hogyan kezelje a jövőbeli technológiák által jelentett kockázatokat. A bizottság tagja Paul Nakasone, az amerikai hadsereg volt tábornoka, aki a Nemzetbiztonsági Ügynökséget és a Kiberparancsnokságot vezette. Őt az OpenAI igazgatótanácsába is beválasztották.
"Már évekkel a ChatGPT előtt elkezdtünk befektetni a biztonságba" - mondta Knight. "Nemcsak azon dolgozunk, hogy megértsük a kockázatokat és megelőzzük őket, hanem azért is, hogy elmélyítsük ellenálló képességünket." Szövetségi tisztviselők és állami törvényhozók is olyan kormányzati szabályozást szorgalmaznak, amely megtiltaná a vállalatoknak bizonyos MI technológiák kiadását, és milliós bírságokat szabna ki rájuk, ha technológiáik kárt okoznának. Szakértők szerint azonban ezek a veszélyek még évekre, sőt évtizedekre vannak.
A kínai vállalatok saját rendszereket építenek, amelyek közel olyan erősek, mint a vezető amerikai rendszerek. Egyes mérőszámok szerint Kína az Egyesült Államokat háttérbe szorította az MI tehetségek legnagyobb kibocsátójaként: az ország adja a világ legjobb MI kutatóinak majdnem felét. "Nem őrültség azt gondolni, hogy Kína hamarosan megelőzi az Egyesült Államokat" - mondta Clément Delangue, a Hugging Face, a világ számos nyílt forráskódú MI projektjének otthont adó cég vezérigazgatója.
Egyes kutatók és nemzetbiztonsági vezetők azzal érvelnek, hogy a jelenlegi MI-rendszerek középpontjában álló matematikai algoritmusok bár ma még nem veszélyesek, veszélyessé válhatnak, és az MI-laboratóriumok szigorúbb ellenőrzését követelik. "Még ha a legrosszabb forgatókönyvek viszonylag kis valószínűségűek is, ha nagy hatásúak, akkor a mi felelősségünk, hogy komolyan vegyük őket" - mondta Susan Rice, Biden elnök korábbi belpolitikai tanácsadója és Barack Obama elnök korábbi nemzetbiztonsági tanácsadója egy múlt havi szilícium-völgyi rendezvényen. "Nem hiszem, hogy ez tudományos fikció, ahogyan azt sokan szeretik állítani".