Ugyanazokat a hibákat követik el a generatív MI-cégek, mint a közösségi platformok

Ugyanazokat a hibákat követik el a generatív MI-cégek, mint a közösségi platformok

2023. december 28. 13:37, Csütörtök
A generatív MI cégek küzdelme a tartalom moderálásával és a dezinformációval azt mutatják, hogy ugyanazokkal a problémákkal küzdenek, amelyek előttük a közösségi platformokat is megbuktatták.

Ha 2022 volt a generatív MI-boom kezdete, akkor 2023 a generatív MI-pánik éve volt. Alig több mint 12 hónappal azután, hogy az OpenAI kiadta a ChatGPT-t, és rekordot állított fel a leggyorsabban növekvő fogyasztói termékként, úgy tűnik, hogy hozzájárult az új technológiába való leggyorsabb kormányzati beavatkozás rekordjának felállításához is. Az Egyesült Államok Szövetségi Választási Bizottsága a megtévesztő kampányhirdetéseket vizsgálja, a Kongresszus azt kéri, hogy vizsgálják meg, hogy a mesterséges intelligenciával foglalkozó vállalatok hogyan fejlesztik és címkézik az algoritmusaikhoz szükséges képzési adatokat, az Európai Unió pedig az utolsó pillanatban fogadta el az új mesterséges intelligenciáról szóló törvényt, amelynél még az utolsó pillanatban is módosították a generatív mesterséges intelligenciára adott válaszlépéseket.

De minden újdonsága és gyorsasága ellenére a generatív mesterséges intelligencia problémái fájdalmasan ismerősek. Az OpenAI és az új MI-modellek bevezetéséért versenyző riválisai olyan problémákkal szembesülnek, amelyek a közösségi platformokat, az egyik korábbi korszakalkotó új technológiát már közel két évtizede sújtják. Az olyan cégek, mint a Meta, soha nem tudtak felülkerekedni a félretájékoztatáson és dezinformáción, vagy a beleegyezés nélküli pornográfián, hogy csak néhányat említsünk a nem kívánt következmények közül. Most ezek a problémák új életre kelnek, méghozzá mesterséges intelligenciával. Egyes esetekben a generatív MI-vállalatok közvetlenül a közösségi médiavállalatok által létrehozott problémás infrastruktúrára épülnek. A Facebook és mások gyengén megfizetett, kiszervezett tartalom-moderátorokra támaszkodtak - gyakran a globális dél országaiban -, hogy távol tartsák a nyugati állampolgároktól az olyan tartalmakat, mint a gyűlöletbeszéd, a meztelenség vagy az erőszakot ábrázoló fotók.

Ugyanezt a munkaerőt veszik igénybe a generatív mesterséges intelligenciamodellek képzéséhez, gyakran hasonlóan alacsony fizetéssel és ugyanúgy nehéz munkakörülmények között. Mivel a kiszervezés révén egy közösségi platform vagy egy mesterséges intelligenciával foglalkozó vállalat kulcsfontosságú funkciói adminisztratív szempontból távol kerülnek a központjától, és gyakran egy másik kontinensen találhatók, a kutatók és a szabályozók nehezen tudnak teljes képet kapni arról, hogyan épül fel és hogyan irányítják a mesterséges intelligencia rendszert vagy a közösségi hálózatot. A kiszervezés azt is elfedheti, hogy hol rejlik valójában a termékben rejlő valódi intelligencia. Amikor egy tartalom eltűnik, vajon egy algoritmus vagy a sok ezer emberi moderátor egyike távolította el? Amikor egy ügyfélszolgálati chatbot segít egy ügyfélnek, mennyi dicséret illeti a mesterséges intelligenciát, és mennyi a kiszervezett egységben dolgozó munkavállalót?


Abban is vannak hasonlóságok, ahogyan a mesterséges intelligenciával foglalkozó vállalatok és a közösségi platformok reagálnak a rossz vagy nem szándékolt hatásaikkal kapcsolatos kritikákra. Az MI-vállalatok arról beszélnek, hogy bizonyos generatív MI-modellekre "biztosítékokat" és "elfogadható felhasználási" irányelveket vezetnek be, ahogyan a platformoknak is vannak szolgáltatási feltételeik arra vonatkozóan, hogy milyen tartalmakat lehet és mit nem. De a közösségi hálózatok szabályaihoz hasonlóan a mesterséges intelligenciára vonatkozó irányelvek és védelmi intézkedések is viszonylag könnyen kijátszhatónak bizonyultak. Nem sokkal azután, hogy a Google idén kiadta Bard chatbotját, kutatók komoly lyukakat találtak az ellenőrzésben; a tesztek során képesek voltak félretájékoztatást generálni a Covid-19-ről és az ukrajnai háborúról. Az e problémáról szóló beszámolókra reagálva a Google szóvivője a Bardot "korai kísérletnek nevezte, amely néha pontatlan vagy nem megfelelő információkat adhat", és azt állította, hogy a vállalat fellép a problémás tartalmak ellen.

Nem világos, hogy a chatbot-szolgáltatók elég megbízhatóvá tudják-e tenni alkotásaikat ahhoz, hogy elkerüljék a közösségi platformoknál megfigyelhető ismétlődő ciklust: folyamatosan, de megbízhatatlanul ellenőrzik az új, problémás tartalmak áradatát. Bár az olyan vállalatok, mint a Google, az Amazon és az OpenAI elkötelezték magukat néhány előremutató megoldás mellett - például digitális vízjeleket raknak az MI által generált videókhoz és fényképekhez -, a szakértők szerint ezek az intézkedések könnyen kijátszhatók, és nem valószínű, hogy hosszú távú megoldásként működnek.

Ahogy a közösségi médiaplatformok felerősítették az egyének erejét az információk előállítására és megosztására - függetlenül attól, hogy azok pontosak vagy jóhiszeműen osztották-e meg őket -, a generatív mesterséges intelligencia ezt a képességet egy másik szintre emeli. A jövőben várhatóan sokkal több dezinformációt fogunk látni, hiszen az emberek már most arra használják az MI-t, hogy fake videókat készítsenek politikusokról, híradósokról és vezérigazgatókról, és olyan dolgokat adjanak a szájukba, amelyeket soha nem mondtak. A generatív mesterséges intelligencia nemcsak gyorsabbá, olcsóbbá és könnyebbé teszi a félretájékoztatás és dezinformáció előállítását, hanem aláássa a valódi média és az információk hitelességét is. Ahogy Orbán Viktor is álhíreknek minősítve igyekszik semlegesíteni a kedvezőtlen tudósításokat, az év elején egy indiai politikus azt állította, hogy a kiszivárgott hangfelvétel, amely őt korrupciós botrányba keverte, hamis (nem volt az).


Azokra az aggodalmakra reagálva, hogy a politikusokról készült hamis videók torzíthatják a 2024-es választási kampányokat, a Meta és a YouTube irányelveket tett közzé, amelyek előírják, hogy a mesterséges intelligenciával generált politikai hirdetéseket egyértelműen meg kell jelölni. A generált képek és videók vízjelezéséhez hasonlóan azonban az irányelv nem terjed ki a hamisított média létrehozásának és megosztásának számos további módjára.

"A romlónak tűnő kilátások ellenére a platformok elkezdték csökkenteni a káros tartalmak felderítéséhez szükséges erőforrásokat és csapatokat" - mondja Sam Gregory, a Witness nevű nonprofit szervezet programigazgatója, aki segít az embereknek abban, hogy a technológiát az emberi jogok előmozdítására használják. A nagy technológiai cégek az elmúlt évben több tízezer dolgozót bocsátottak el. "Sok leépítést láttunk a bizalmi és biztonsági csapatoknál és a tényellenőrző programoknál egyidejűleg, és ezek egy nagyon instabil vadhajtást adnak a keverékhez" - mondja. "Csökken a kapacitás, mind a vállalatokon belül, mind a civil társadalmon belül, hogy képesek legyenek odafigyelni arra, hogyan használják ezt megtévesztően vagy rosszindulatúan."

A közösségi platformok nem szándékolt következménnyel egy olyan szlogennel kerültek kapcsolatba, amely egykor a Facebook vezérigazgatójának, Mark Zuckerbergnek a népszerű mottója volt: "Move fast and break things", azaz "Mozogj gyorsan és törj össze dolgokat". A Facebook később visszavonta ezt a mottót, de ahogy a mesterséges intelligenciával foglalkozó vállalatok generatív algoritmusokkal küzdenek az elsőségért, Gregory most ugyanezt a vakmerő megközelítést látja. "Kiadás jön kiadás után a modelleknél, különösebb megfontolás nélkül" - mondja, megjegyezve, hogy sok nagy platformhoz hasonlóan átláthatatlan, hogy ezeket a termékeket hogyan építik, képzik, tesztelik és telepítik.

Bár világszerte úgy tűnik, hogy a szabályozó hatóságok a generatív mesterséges intelligenciára kevésbé lassan reagálnak, mint a közösségi médiára, a szabályozás messze elmarad a mesterséges intelligencia fejlesztésétől. Ez azt jelenti, hogy semmi nem ösztönzi a vállalatokat arra, hogy a büntetések miatt lassítsanak. "A szabályozóknak fogalmuk sincs, a cégek mit csinálnak, a vállalatok pedig olyan gyorsan mozognak, hogy senki sem tudja, hogyan tartsák a lépést" - mondja Sam Gregory. Ez egy olyan tanulságra utal, amely nem a technológiával, hanem a társadalommal kapcsolatos. "A technológiai cégek rájöttek, hogy sok pénzt kereshetnek, ha a nyereséget privatizálják, a költségeket pedig társadalmasítják. Nem a technológia az ijesztő, hanem a kapitalizmus".

Listázás a fórumban 
Adatvédelmi beállítások