Nem támogatja a felhasználók ellenőrzését a Microsoft

Nem támogatja a felhasználók ellenőrzését a Microsoft

2020. április 5. 13:03, Vasárnap
A redmondi konszern leállította az egyik startuppal kapcsolatos befektetését.

A Microsoft jelezte, hogy a jövőben nem akar olyan vállalkozásokba beruházni, amelyek arcfelismerő szoftvert fejlesztenek és azt a polgárok megfigyelésére alkalmazzák. A döntés első áldozata az Anyvision nevű izraeli cég. A bejelentést a két fél közös közleményben tette meg.

Az NBC még tavaly rámutatott, hogy a vállalat arcfelismerő programokat alkotott meg, majd azokat összefüggésbe hozták egy 2019-es ciszjordániai akcióval, amelynek keretében palesztin embereket ellenőriztek egy katonai projekt keretében. Eric Holder ügyvéd később megerősítette, hogy az Anyvision termékeit a Ciszjordánia és Izrael között lévő határellenőrzési pontokon alkalmazzák. Arra ugyanakkor nem volt bizonyíték, hogy a társaság a szoftvereit tömeges ellenőrzési célokra használná. A Microsoft ennek ellenére ki akar szállni ebből az üzletből és nem akar kisebbségi tulajdonrészes lenni egy olyan startupban, amely ilyen érzékeny technikát ad el.

2018 júliusában Brad Smith, a Microsoft elnöke és jogi igazgatója bírálta az arcfelismerő szoftvereket és azok hasznosságát. A menedzser azt írta, hogy az arcfelismerés egy komoly eszköz, amelyet rosszul alkalmaznak és az ilyen megoldások használatát a kormányoknak szabályozniuk kellene. Ráadásul kérdéses, hogy a technológia mennyire használható észszerűen és jogsértések nélkül. Szerinte ebben a folyamatban komoly szerepük van az olyan konszerneknek, mint a Google és az Amazon, amelyek képfelismerő programokat készítenek katonai és politikai célokra. S az arcfelismerés jó példát jelent azokra a mesterséges intelligencia algoritmusokra, amelyek a jövőben számos etikai kérdést vetnek majd fel. Tavaly novemberben Tim O'Brien, a Microsoft mesterséges intelligencia programokért felelős ügyvezető igazgatója és egyúttal az óriáscég etikai vezetője hívta fel a figyelmet az arcfelismerésben rejlő lehetséges kockázatokra.

Kapcsolódó linkek

Listázás a fórumban