Beszélni kell az algoritmusok szerepéről

Beszélni kell az algoritmusok szerepéről

2018. október 9. 08:35, Kedd
A mindennapi életünk részévé váltak az algoritmusok, amelyek a tőzsdéktől a harcterekig egyre több döntést hoznak meg.

Carla Hustedt politológus a berlini Bertelsmann Alapítványnál az Algoritmusok etikája nevű projekt munkájában vesz részt. A szakember az üzleti logikák növekvő szerepét kutatja. Hustedt nem hiszi, hogy a gépi segítséggel meghozott döntések trendjét fel lehetne tartóztatni, éppen ezért úgy véli, hogy a megoldás a minél szélesebb vita lehet a lehetséges következményekről és a kidolgozandó keretfeltételekről, mert csak így lehet megakadályozni a negatív hatásokat.

A Harvard Business School kutatói megállapították, hogyha személyes tanácsokról van szó, akkor sokan jobban bíznak a számítógépes döntésekben, mint a barátaikban vagy az ismerőseikben. Sőt, már abban a kérdésben is inkább a gépi vélemény a mérvadó, hogy egy személy mennyire vonzó.
"Az algoritmusok nem olyan dolgok, amelyekkel csak a távoli jövőben kellene foglalkoznunk, hiszen már most is minden egyes nap gépek döntenek az emberek életéről, például hogy melyik egyetemen tanulhatnak a diákok tovább, merre járőrözzenek a rendőrök, kik kaphatnak hitelt és az állásinterjúk során kit hívjanak meg egy előzetes beszélgetésre. Ideális esetben ezek a döntések következetesebbek és ezért tisztességesebbek, mint az emberek gyakran átláthatatlan határozatai. Ráadásul az embereket befolyásolják az előítéletek és nem tudják kezelni a nagy adatmennyiségeket. Az algoritmusok ezért nagy esélyt jelentenek az egész társadalom számára, de csak akkor profitálunk azokból, ha megfelelőek a keretfeltételek."

"Miközben az algoritmusok ezredmásodpercek alatt képesek új információkat feldolgozni, azt sem szabad elfelejteni, hogy ugyanilyen gyorsan hibákat is elterjeszthetnek. Az emberek is tévednek, de ha ezt egy gép teszi, az sokkal több személyt érint. Ausztráliában például az adószoftver megvizsgálja, hogy az embereknek milyen összegeket kell visszafizetniük. A rendszer hetente 20 000 felszólítást küld ki. Ugyanerre az illetékes minisztériumnak korábban egy évre volt szüksége. Cserébe viszont sokkal több a hiba. Ez a rendszer hatékonyságának az egyik árnyoldala. Azokon a területeken, ahol az algoritmusok az emberek életéről döntenek, óvintézkedéseket kell tenni, többek között tesztelni kell a megoldásokat még azelőtt, hogy azokat használnák. Emellett tisztában kell lenni azzal is, hogy az elérhető adatok nem teljesek, sőt, hibásak is lehetnek" - jelentette ki Carla Hustedt.


Carla Hustedt

A politológus hozzátette, hogy 2003-ban az automatizált kereskedelem aránya még csak 15 százalék volt, most pedig már körülbelül 90 százalék. Az egyes piaci szereplők egyre inkább össze vannak kötve egymással és a digitális kereskedőhelyek száma az elmúlt években rendkívül nagy mértékben nőtt. Az ellenőrzést végző hatóságok ezekkel a fejleményekkel nem tudnak lépést tartani. Ahhoz, hogy ez megvalósuljon, plusz munkatársak és erőforrások kellenének. De hozzáférésre lenne szükség a kereskedelmi algoritmusok kódjaihoz is, hogy kiderüljön, milyen feltételek alapján hozzák meg a vásárlási döntéseiket.

Ahhoz, hogy az egész ellenőrzés valós időben megvalósulhasson, alapvetően módosítani kell a felhasználók gondolkodását. A politikának meg kell vizsgálnia, hogy a jelenlegi szabályozások megfelelőek-e és hol van szükség új szabályokra. Szerencsére egyre bővebb az a kutatási terület, amely az algoritmusokra épülő rendszerek auditálásával foglalkozik. A Bertelsmann Alapítványnál azzal foglalkoznak, hogy kifejlesszenek egy követelménykatalógust az algoritmusos eljárásokhoz. Olyan dolgokról van szó, mint a következménybecslés, az adatminőség dokumentálása és a kompatibilitási vizsgálatok.

Pont azért, mert nem lehet minden gépi vagy algoritmusos döntést ellenőrizni, bizalmat kell ébreszteni a szoftveres döntéshozatal iránt. Továbbá társadalmi vitát kell kezdeményezni e témákról, például arról, hogy kell-e határok közé szorítani az algoritmusok alkalmazását. Szintén beszélni kell a lehetséges tilalmakról. Az automata fegyverrendszereknél ez már zajlik, más területeken még nem. Felmerülhet akár az is, hogy bizonyos rendszereket szándékosan lebutítanak vagy hogy bizonyos területeken nem használnak öntanuló algoritmusokat.


Milyen logika alapján dől el a sorrend a Facebook profilunkon vagy hogy a Google melyik hírt sorolja az első helyre?

A vállalatok hajlamosak arra, hogy túl bonyolult rendszereket alkalmazzanak, mert a legjobb megoldást akarják, ami elérhető a piacon. Kétséges esetekben viszont a hasonló funkciókat kínáló rendszerek közül azt kell előnyben részesíteni, amely kevésbé összetett és könnyebben érthető. Jó példa erre az észak-rajna-vesztfáliai bűnügyi hivatal döntése egy bűncselekményeket előrejelző rendszer kapcsán. Akkor egy döntési fa algoritmus, valamint egy neurális hálózat közül kellett választani. Mind a két megoldást tesztelték és kiderült, hogy hasonló előrejelzési minőséget produkáltak, de végül a hivatal az előbbit választotta, mert a döntései átláthatóbbak és jobban követhetőbbek voltak.

Katarina Barley német igazságügyi és fogyasztóvédelmi miniszter júniusban jelezte, hogy tájékoztatná a felhasználókat arról, hogy egy adott üzleti logika a világhálón miért sorolja be őket bizonyos kategóriákba. A politikus azt akarja elérni, hogy európai uniós szinten is átláthatóbbak legyenek az internetes algoritmusok, s ezzel kapcsolatban megfelelő szabályozást kell kidolgozni és hatályba léptetni.
"Németországban a bűnözők azonosítására szolgáló arcfelismerő rendszereket eddig csak tesztelték. Ez rövid vitát váltott ki, ami azután gyorsan le is zárult. Ez egy hihetetlenül érzékeny terület, amely mögött olyan veszélyek rejtőznek, amelyekkel nem vagyunk tisztában. Az MIT-n most folyik a Gender Shades nevű projekt, amelynek keretében kiderült, hogy az arcfelismerő rendszerek az afroamerikai férfiak és nők esetében sokkal rosszabbul működnek. Ennek már most is hatásai vannak az emberek életére, hiszen ezeket a megoldásokat használják például a repülőtéri útlevél-ellenőrzések során. Az afroamerikai embereket eleve az átlagosnál gyakrabban választják ki az átfogóbb ellenőrzésekre. Ez a probléma csak súlyosbodhat az arcfelismerő szoftverek alkalmazása miatt."

"Arra kellene összpontosítani, hogy mi a társadalom szempontjából észszerű és nem pedig arra, hogy mi lehetséges műszakilag. A vitát túl gyakran a hollywoodi forgatókönyvek befolyásolják. Ezáltal viszont elfelejtik azt, hogy a valódi veszély nem a technika, hanem a felhasználásának a módja. Végső soron az emberek és nem a törvényhozók azok, akik döntenek arról, hogy a biztonság fontosabb-e a szabadságnál vagy a magánélet védelménél. A külföldi projektek megvizsgálása nem árthat, mert segít abban, hogy emlékezzünk arra, hogy mi az, ami még van nekünk és amivel mások már nem rendelkeznek."

"Jelenleg egyébként nem e rendszerek intelligenciája, hanem butasága jelent problémákat. Ne felejtsük el, hogy olyan emberek készítik el és alkalmazzák azokat, akik maguk sem tökéletesek. Az tisztázatlan, hogy valaha létezni fog-e olyan mesterséges intelligencia, amely annyira intelligens, mint az ember. Sok tudós ezt kétségbe vonja. A vitáknak elsősorban a már most is meglévő kockázatokkal kell foglalkozniuk"- ecsetelte a Bertelsmann Alapítvány munkatársa. A szakember végül hangsúlyozta, hogy a tudás és az adatok is koncentrálódnak. Szükség van arra, hogy számos rendszer, fejlesztő és üzemeltetési modell legyen, különben az emberek szisztematikus diszkriminálása fenyeget. A mesterséges intelligencia területén elért fejlődések elsősorban az erősebb hardvereknek és a hatalmas adatmennyiségeknek köszönhetők.


Az online adatforgalom 75 százaléka a Google és a Facebook használatából adódik. Ezek a cégek hatalmas adatkincseken ülnek és nem osztják meg azokat senkivel. Ez egy olyan pont, amikor közbe kell avatkozni. Amennyiben az emberiség sokszínűségre vágyik, akkor az információkat hozzáférhetővé kell tenni. Ez nem csak a nyilvánosság által generált, hanem a cégek tulajdonában lévő adatokra is vonatkozik. Csak így lehet elősegíteni az innovációt. Emellett az államnak nem csupán szabályoznia kell a területet, hanem például a közjót szolgáló mesterséges intelligencia fejlesztések esetében jó példát is kell mutatnia.

Minden olyan társaság esetében, amely adatokkal sok pénzt keres, világos határokra és szabályokra van szükség. Ebben a kérdésben az első fontos lépés a május 25-én hatályba lépett új európai uniós adatvédelmi irányelv, amely viszont az algoritmusok alkalmazására csak nagyon felületesen tér ki. A rendelet például csak a teljesen automatizált és nem a döntéseket támogató rendszerekre vonatkozik. De mindettől függetlenül bebizonyosodott, hogy igenis lehetségesek az európai megoldások.

Az adatvédelmi kérdésekre már nem lehet nemzeti válaszokat adni. Az új adatvédelmi irányelv az első olyan szabályozás, amely a techvállalatokat a határokon átnyúlva is felügyelet alá helyezi és ezért akár globális szabvánnyá is válhat. A biztonság viszont egy teljesen más kérdés, mert ott jelen van az ilyen rendszereket használó fejlesztők és a szervezetek felelőssége is. Szerencsére egyre több pénzt fektetnek be a kutatásba és egyre több olyan üzleti modellt fejlesztenek ki, amelyeknél az adatbiztonság a működés kulcseleme. Mindez nem csoda, hiszen a vállalkozásoknak is az az érdekük, hogy az adataik és az algoritmusaik védettek legyenek az illegális külső hozzáférésekkel szemben.

Listázás a fórumban 
Adatvédelmi beállítások