Pedig van benne igazság, amit mond. Egy robotnak, ha "intelligens" és választania kéne, hogy egy gyereket vagy egy felnõttet küldjön életveszélybe, simán a gyerek életét kockáztatná, mivel a felnõttét értékesebbnek ítéli meg (hiszen a gyerek még nem kifejlett ember, így nem teljes értékû), míg az ember esetében néhány szélsõséges esettõl eltekintve elképzelhetetlen, hogy ne inkább magát áldozza fel a gyereke helyett, még akkor is, ha tudja, hogy nincs értelme, hiszen nélküle a gyerek semmiképp sem fog boldogulni, és így is úgy is meghal, csak késõbb, és egy élet helyett kettõt veszítünk, akkor sem. Egy ember számára ez irracionális gondolat, mert az érzelmei jelentõsen sokat számítanak, míg a gép a hûvös logika mentén (amirõl már oly sokszor kiderült, hogy zsákutca) simán a gyereket küldené a halálba. Így legalább a másik élet megmaradna. Valamelyik Asimov-regényben talán példa is van erre a szitura.
Most azt mondjátok majd, hogy sok sci-fit olvastam, és igen. Sokat olvastam, és a sci-fi írók évtizedek óta boncolgatják és járják körül ezeket a morális témákat, és sosem jutnak az ötrõl a hatra. Az intelligencia ugyanis egy olyan elvont valami, ami egyrészt az ösztönbõl, másrészt a tapasztalatokból való tanultakból építkezik. A kutya is érzi, hogy a hó hideg, és fél a tûztõl, mert az éget, és fáj, és halálos lehet, de még a méhek is menekülnek a füst elõl, a maguk primitív rovaragyukkal, és egy csõféregnek nagyobb az intelligenciája, mint a mai gépeknek, amelyek valóban nem csinálnak mást, mint a sok-sok milliárdnyi beléjük táplált adatból kiválasztják a helyzetnek leginkább megfelelõt.
Azt mondják egy embernek, hogy üljön le és várjon. Csak idõ kérdése, hogy az ember nekiáll valamit csinálni unalmában, és ezt okkal teszi. Mert unatkozik. Egy gép viszont közvetett vagy közvetlen utasítás nélkül sosem fog csinálni semmit ezer esztendõn át sem. Majd ha egy gép okkal csinál valamit, akkor lehet ráfogni, hogy intelligens. Addig viszont mindez csak önáltatás, és az intelligencia halvány utánzata.