New York 110-dik utca környékén autófeltörések legalább 150 elfogott elkövetőinek adatait (kor, nem, rassz, magasság, tanulmányok, család mérete, betegségek, meg még több száz...) feldolgozva az AI megsaccolja a legközelebbi gyanúsítottak elkövetési esélyeit: Ha néger, akkor magas, ha fehér, akkor alacsony.
Ez rasszizmus természetesen, ezért átírták az algoritmust, hogy a rassz adatként-rögzítés ellenére nem lehet olyan válasz, hogy az alapján határozzon esélyt. Így a rendőröknek a fehérekkel szemben ugyanúgy kell eljárni, mint a feketékkel szemben, mégha nagy valószínűséggel sejtik is, hogy a néger a tettes.
Mi a következő? A kor, nem stb? Ha minden különbséget eltörölnek a gép- és az emberrendőr előtt, akkor mi alapján hozhat döntéseket, hogy valószínűsít, szűkíti a kört?