Nyíltről zárttá változik az OpenAI

Nyíltről zárttá változik az OpenAI

2023. március 17. 00:44, Péntek
Ugyan a chatbottal híressé vált szervezet a nevében még a nyíltságot hirdeti, de alapítójuk tévedésnek tartja az eddigi gyakorlatot.

Mint arról beszámoltunk, az OpenAI bejelentette a GPT-4-et, a régóta várt következő generációs mesterséges intelligencia nyelvi modellt. A rendszer képességeinek felmérése még folyamatban van, de miközben a kutatók és szakértők a kísérőanyagokat böngészik, sokan csalódottságuknak adtak hangot egy bizonyos tulajdonság miatt: a GPT-4 az anyavállalat neve ellenére nem nyílt AI-modell. Az OpenAI rengeteg teszteredményt osztott meg a GPT-4-ről, valamint néhány érdekes demót, de lényegében semmilyen információt nem adtak meg a rendszer kiképzéséhez használt adatokról, az energiaköltségekről, illetve a létrehozásához használt konkrét hardverről vagy módszerekről.

Az AI közösségben sokan kritizálják ezt a döntést, megjegyezve, hogy ez aláássa az alapításkor lefektetett elveket, mely szerint kutatószervezetként működnek, és megnehezíti mások számára, hogy reprodukálják az eredményt. Talán még ennél is fontosabb, hogy egyesek szerint ez megnehezíti a GPT-4-hez hasonló AI-rendszerek által jelentett fenyegetésekkel szembeni védőintézkedések kidolgozását. "Azt hiszem, itt ért véget a 'nyílt' AI: a GPT-4-et bemutató 98 oldalas dokumentum büszkén kijelenti, hogy nem fednek fel semmit a képzési készletük tartalmáról" - tweetelte Ben Schmidt, a Nomic AI információtervezésért felelős alelnöke.


Schmidt itt a GPT-4 technikai jelentésének egy szakaszára utal, amely a következőképpen hangzik: "Tekintettel mind a versenyhelyzetre, mind a GPT-4-hez hasonló nagyméretű nyelvi modellek biztonsági vonatkozásaira, ez a jelentés nem tartalmaz részleteket az architektúráról (beleértve a modell méretét), a hardverről, az adathalmaz felépítéséről, a képzési módszerről vagy hasonlóról. Ilya Sutskever, az OpenAI vezető tudósa és társalapítója szerint a versenytől való félelem és a biztonsággal kapcsolatos aggodalmak "maguktól értetődőek". "A GPT-4-et nem könnyű fejleszteni. Az egész OpenAI-nak nagyon sokáig kellett azon dolgoznia, hogy ezt a dolgot elkészítsük. És sok-sok cég van, akik ugyanezt akarják csinálni, így a verseny oldaláról nézve ezt a terület érlelődésének tekinthetjük"."

"A biztonsági szempontokról azt mondanám, hogy az ugyan még nem olyan kiemelkedő ok, mint a versenyképességi oldal, de ez változni fog, mert ezek a modellek nagyon erősek és egyre erősebbek lesznek. Egy bizonyos pont után ha valaki akar, akkor elég könnyen károkat tud okozni ezekkel a modellekkel. És ahogy a képességek nőnek, úgy egyre kevésbé akarja azokat az ember nyilvánosságra hozni. Tévedtünk a kutatások nyílt megosztásával. Ha egy bizonyos ponton az AI rendkívül, hihetetlenül erős lesz, akkor egyszerűen nincs értelme a nyílt forráskódnak. Ez egy rossz ötlet. Teljes mértékben arra számítok, hogy néhány éven belül mindenki számára teljesen nyilvánvaló lesz, hogy a mesterséges intelligencia nyílt elérhetősége egyszerűen nem bölcs dolog."

A zárt megközelítés jelentős változást jelent az OpenAI számára, amelyet 2015-ben alapított egy kis csoport, köztük Sam Altman jelenlegi vezérigazgató, Elon Musk, a Tesla vezérigazgatója (aki 2018-ban lemondott az igazgatótanácsból) és Ilya Sutskever. Blogjuk bevezetőjében Sutskever és mások azt írják, hogy a szervezet célja "értéket teremteni mindenki, nem pedig csak a részvényesek számára", és hogy ennek érdekében "szabadon együttműködnek" másokkal a területen. Az OpenAI-t nonprofit szervezetként alapították, de később több milliárd dollárnyi befektetői tőkét kapott a Microsofttól, mely most kizárólagos üzleti licencekkel rendelkezik.


Az OpenAI vezetősége: Sam Altman, Mira Murati, Greg Brockman és Ilya Sutskever

A mesterséges intelligenciával foglalkozó közösségben megoszlanak a vélemények ebben a kérdésben. A GPT-4 elindítása alig néhány héttel azután történt, hogy a Facebook tulajdonosa, a Meta által kifejlesztett LLaMA nevű mesterséges intelligencia nyelvi modell kikerült az internetre, ami hasonló vitákat váltott ki a nyílt forráskódú kutatások veszélyeiről és előnyeiről. A GPT-4 zárt modelljére adott első reakciók többsége azonban negatív. Mivel nem lehet látni, hogy milyen adatokon képezték ki a GPT-4-et, nehéz tudni, hogy a rendszer hol használható biztonságosan, és nehéz javításokat eszközölni.

"Ahhoz, hogy az emberek megalapozott döntéseket hozhassanak arról, hogy hol nem fog működni ez a modell, jobban kell ismerniük, hogy mit csinál, és milyen feltételezések vannak beépítve" - mondta Ben Schmidt, a Nomic AI alelnöke. "Nem bíznék meg egy havas éghajlaton tapasztalat nélkül betanított önvezető autóban; valószínűleg vannak olyan lyukak vagy egyéb problémák, amelyek felszínre kerülhetnek, amikor ezt valós helyzetekben használják." William Falcon, a Lightning AI vezérigazgatója és a PyTorch Lightning nyílt forráskódú eszköz megalkotója a VentureBeatnek elmondta, hogy üzleti szempontból megérti a döntést. "Minden joguk megvan ahhoz, hogy ezt tegyék, de ez a lépés rossz precedenst teremt a szélesebb közösség számára, és káros hatásai lehetnek." - nyilatkozta Falcon. "Hiba esetén - mint az ismert tévedéseknél - hogyan kellene reagálnia a közösségnek? Hogyan tudnának külsős kutatók megoldásokat javasolni?"

Egy másik ok, amiért az OpenAI elrejti a GPT-4 konstrukciójának részleteit, a jogi felelősségvállalás. A mesterséges intelligencia nyelvi modelleket hatalmas szöveges adathalmazokon képzik ki, és sokan (köztük a korábbi GPT-rendszerek is) a világhálóról töltenek le információkat. Tehát a forrás valószínűleg szerzői jogvédelem alatt álló anyagokat is tartalmaz. Az AI képgenerátorok, amelyeket szintén az internetről származó tartalmakkal képeztek ki, pontosan emiatt kerültek jogi kihívások elé. Már több céget is bepereltek független művészek és a Getty Images fotóoldal. Sutskever nem válaszolt arra a kérdésre, hogy az OpenAI határozottan kijelentheti-e, hogy a képzési adatai nem tartalmaznak kalózanyagokat.

A kutatás megosztásáról szóló vita a mesterséges intelligencia világában zajló gigantikus változások idején zajlik, amikor a verseny több fronton is erősödik. A vállalati oldalon az olyan technológiai óriások, mint a Google és a Microsoft sietnek mesterséges intelligencia funkciókat hozzáadni termékeikhez, gyakran háttérbe szorítva a korábbi etikai aggályokat. A kutatási oldalon pedig a technológia olyan rohamosan fejlődik, ami félelmet kelthet, hogy a mesterséges intelligencia komoly és közvetlen társadalmi fenyegetéssé válik.

Jess Whittlestone, egy brit agytröszt AI-vezetője szerint e különböző nyomások egyensúlyban tartása komoly kormányzati kihívást jelent, és szerinte valószínűleg külső szabályozó hatóságokat is be kellene vonni. "Nagyon gyorsan fejlődnek ezek az AI-képességek, és aggódom amiatt, hogy ezek a képességek gyorsabban fejlődnek, mint ahogyan a társadalom alkalmazkodni tud hozzájuk" - mondta Whittlestone. Szerinte az OpenAI indokai, hogy nem oszt meg több részletet a GPT-4-ről, jók, de aggodalmai vannak a hatalom központosításával kapcsolatban. "Ezeknek a döntéseknek nem szabadna az egyes vállalatokon múlnia. Ki kellene találni a helyes gyakorlatokat, és független harmadik feleknek nagyobb szerepet kellene játszaniuk abban, hogy megvizsgálják az egyes modellekkel kapcsolatos kockázatokat, és hogy van-e értelme kiadni őket a világnak."

Listázás a fórumban 
Adatvédelmi beállítások