„Hogy
legyek jó, amikor olyan nagy a drágaság?” (Brecht: A szecsuáni jó lélek, 1940.)
Az elmúlt pár hétben blogíró azokat a dilemmákat foglalta össze,
amelyek (képzelt) robot barátait izgatják. Persze, ezek csak buta kis példák
voltak, de cimborái rengeteg hasonlóan súlyos gonddal küzdenek, és fognak még
sokáig küzdeni az „életük”, a működésük nagyon sok területén. Leginkább azonban
azt kell látnunk, és például a füllentéssel kapcsolatban már láttuk is, hogy a
robotok, az egyre okosabb és hasznosabb mesterséges intelligenciák képzésének a
legjobb, talán egyetlen sikerrel kecsegtető módja kizárólag a példamutatás, szakszóval
a mintakövetés lehet. Ez persze nem csoda, hiszen minden alapfokú
gyermeknevelési tankönyv is azzal kezdődik, hogy amikor a gyerek már látja, mi
zajlik körülötte, amikor már képes önállóan információt gyűjteni és értékelni a
környezetéből, akkor már nem az számít, hogy mit mondunk neki, hanem, hogy mi
magunk miképpen viselkedünk. Nincs ez másképpen, nem lesz ez nagyon másképpen a
robotokkal sem. Erre már napjainkban is jól látható (hallható…) példa, hogy a
mai mesterséges intelligenciák leginkább azt a szlenget beszélik legkönnyebben,
amit a környezetüktől hallanak, és rengeteg „különórába” kerül számukra az
irodalmi angolt, németet, spanyolt megtanítani.
A gond csak az, hogy a mesterséges intelligenciák sokkal alaposabbak,
körültekintőbbek lehetnek, és főleg: sokkal élesebb szeműek. A családban, az
emberi lények családjaiban, az iskolában, az irodában, a politikában úgy
gondoljuk (de rosszul, nagyon rosszul gondoljuk!) még csak-csak elcsúszik a
képmutatás, amikor mást mond a száj és mást a cselekedet. A gyerek sok esetben
csak kamaszkorára, rossz esetben negyven, ötvenéves korára veszi észre, hogy
szülei, tanítói egész életüket képmutatásban élték le. A robotok ezt sokkal, de
sokkal gyorsabban észre fogják venni…
A bevezetőben azt mondtuk, hogy jó lenne abban bízni, hogy ha majd
a robotok betartják azokat a törvényeket, melyeket Asimov megfogalmazott, akkor
talán majd mi, emberek is be fogjuk tartani, és nem okozunk egymásnak
sérüléseket és sérelmeket… Ez bevezetőnek jó volt, de blogíró sem mondta el a
teljes igazságot (pedig nem robot…). A helyzet ennél sokkal nehezebb. Reménykedni
lehet, de mi lesz, ha a robotok mégis kénytelenek lesznek egy kicsit mást
mondani, mint ami a teljes igazság? Mi lesz, ha mégis megtanulnak az emberektől
hazudni? Mi lesz, ha mégis kénytelenek lesznek egy kicsit másképpen dönteni,
mint ami a lokális optimum? Mi lesz, ha mégis megtanulnak az emberektől csalni?
Egyszer már találkoztunk a sorozatocskában ezzel a szóval:
demagógia. Ezekre a kérdésekre ma igen nehéz nem érzelmeken, hanem objektív
kutatásokon, szigorú matematikai levezetéseken, számításokon alapuló
válaszokat, jóslatokat adni. Minden, amit ma erről a témáról mondunk, alighanem
kicsit magában hordozza az elfogultság, a demagógia veszélyét. De azért blogíró
meg meri kockáztatni, hogy azt mondja: ha jól nevelt, a törvényeket betartó
robotokat, helyesen döntő mesterséges intelligenciákat akarunk magunk mellett
tudni, akkor nincs mese, először nekünk magunknak kell betartani a törvényeket.
Ezért búcsúzóul ismételjük meg Asimov első
törvényét, egy egészen kicsit módosítva:
Nobody may injure a human being or, through inaction, allow a
human being to come to harm.
Ennyi lenne a
feladat. Ámbátor… ezt már régen kitalálták, a világ több táján is.