2019. szeptember 25., szerda

Robodilemmák IV.


„…nem lehet semmiféle megkülönböztetést tenni…” (Az Emberi Jogok Egyetemes Nyilatkozata, ENSZ, 1948.)

Van egy nagyon nehéz kérdés, amit valójában a robotmamáknak és robotpapáknak, a robotokat oktató robottanároknak kell majd megoldaniuk: milyen legyen a robotok „személyisége”? Milyen viselkedési mintákat kövessenek a robotok? Mit tartalmazzon a robotok szülői (felettes én), felnőtti (én) és gyermeki (ösztönén) „tudata” (a többé vagy kevésbé előre programozott viselkedési minták gyűjteménye)? Mert alighanem a robotok „személyisége”, a „viselkedését” meghatározó programok összessége is ezekből az énállapotokból fog összetevődni, éppen úgy, ahogy Freud vagy később Eric Berne (és sok-sok követőjük) megfogalmazta. Blogíró elég határozottan azt gondolja, hogy a mesterséges intelligenciák is a tanult és a beléjük nevelt ismeretek, valamint a pillanatonként gyűjtött adatok átgondolt kiértékelése révén fognak dönteni, de biztosan lesznek gyors, valószínűségi, kevésbé átgondolt, „gyermekes” döntéseik is. De ezen majd még vitatkozhatunk …

Az, hogy a robotoknak nyelveket kell tudniuk, nem kérdés, hiszen meg kell értsék, bármilyen nyelven is szólunk hozzájuk. Az, hogy kedvesnek kell lenniük, ugyancsak nem kérdés, mert az emberi lények sokkal könnyebben meg fognak barátkozni egy kedves partnerrel. De itt azért álljunk meg egy pillanatra. Mit jelent az, hogy valaki (vagy valami…) kedves? (Blogíró a mai bejegyzésben igen sokat fog idézni az MTA által kidolgozott és az Arcanum Adatbázis Kft. által közreadott „A magyar nyelvértelmező szótárából”. Az idézőjelbe tett szövegrészek, ahol ezt másképpen nem jelöljük, mind onnan származnak.) Ha valaki kedves, akkor ő egy „olyan személy, aki iránt szeretetet, rokonszenvet érzünk”, illetve „szeretetre méltó, megnyerő, szíves, nyájas személy”. Robotjainknak nyilván ilyennek kell lenni, mert ha nem érzünk rokonszenvet irántuk, akkor soha nem fogjuk tudni elviselni őket. Ez szinte nem is kérdés. Annak kidolgozása, hogy ezt a feladatot milyen viselkedési (apró működési) jegyekkel, szövegfordulatokkal, mozdulatokkal, gépi mimikával lehet elérni, nagyon komoly munkát igényel, mert ez az akadémiai megfogalmazás éppen arról nem mond semmit, hogy mi által lesz valaki számunkra „szeretetre méltó”. Melyek azok a jelzések, amelyek „szeretetre méltóvá” tesznek valakit (valamit…)? Nem lehet kérdés: ehhez pszichológusok komoly segítségét kell igénybe venni. Szerencsére kutatják is már sokan, cikkek is vannak bőven, no, de tennivaló is. Nem baj, ez majd kialakul.
 
Következő kérdés, hogy legyen-e robot udvarias? Elsőre könnyű rávágni, hogy természetesen, legyen! Hogyan képzelhetnénk el egy robotot, amelyik nem udvarias? Csakhogy mit is mond az értelmező szótár az udvariasságról? „Aki a társas érintkezésben, főleg idősebbekkel és nőkkel kapcsolatban; eleget tesz a tiszteletet kifejező, hagyományos szokásoknak; a társadalmi illem szerint viselkedő, előzékeny, figyelmes."


Stop!
Sőt.
Stop!!!

"A robot may not injure a human being or, through inaction, allow a human being to come to harm.”

Az nem lehet kérdés, hogy a robotokat mindenképpen szigorúan meg kell tanítani az egyenlő bánásmódra vonatkozó összes jogszabály legeslegszigorúbb betartására. Például az egyenlő bánásmódról és az esélyegyenlőség előmozdításáról szóló 2003. évi CXXV. törvény listaszerű felsorolásában a „neme” az első helyen szerepel, de megtaláljuk az „anyasága (terhessége) vagy apasága” és „életkor” szerinti megkülönböztetés szigorú tiltását is. Akkor hogyan lehet „udvarias” egy robot, ha még véletlenül sem alkalmazhat nem vagy életkor szerinti megkülönböztetést? Okoz-e sérelmet egy modern, egyenjogú fiúnak, ha egy udvarias (vagy szexista?) robot előreenged egy lányt az ajtóban? Okozhat. Ezt már Karinthy megírta „A lányok” című szösszenetében. Az azért biztos, hogy a robotokra már senki nem fog rászólni, hogy „álljak fel, és adjam át a helyemet a ’kis kisasszonynak’ és segítsem fel a kabátját, amit maga is fel tud venni”, mint Karinthyra. De a mesterséges intelligenciák számára is keserves lesz megtanulni, hogy melyik nőnemű emberi lénynek a legszigorúbban tilos felsegíteni a kabátját, mert nagyon fel fog háborodni. Ezt blogíró is csak nagyon sok dühös, felháborodott, lesajnáló és villámokat szóró pillantás, kézből kikapott kabát árán tanulta meg, de a robotok is meg fogják tanulni. (Bár, az is igaz, hogy amikor sikerült nevetésbe fordítani a nőnemű emberi lény jogos és őszinte felháborodását, akkor utána sok, hosszan tartó barátság is kialakult. És amúgy az is nagyon érdekes, hogy mind az angol Wikipédia, mind a Merriam-Webster nagyszótár sokkal inkább próbál „politikailag korrekt” lenni az udvariasság magyarázata során.)

Tehát ezen a módon a robotok nem lehetnek udvariasak, mert „a társas érintkezésben, főleg idősebbekkel és nőkkel kapcsolatban” nem tehetnek kivételt. Akkor kell-e tisztelniük a mesterséges intelligenciáknak a „hagyományos szokásokat”? Bizonyos mértékig talán igen, na, de azért ezt sem lesz szabad túlzásba vinni… Így tehát robotjaink biztosan nem lesznek a klasszikus, „konzervatív” értelemben igazán udvariasak… Fontos, hogy nekik azonos módon kell kedvesnek, „a társadalmi illem szerint viselkedőnek, előzékenynek, figyelmesnek” minden emberi lény iránt. Na, erre a „társadalmi illemre” még visszatérünk…

Még nehezebb kérdés, hogy az a robot, az a mesterséges intelligencia, amelyiknek kötelezően vigyáznia kell az emberi lényekre, teheti-e ezt meg „lovagias” módon? Valójában biztosan jó lenne, ha lovagiasak lennének, mert az „versenyben, mérkőzésben, küzdelemben a tisztesség vagy a sportszerűség szabályaihoz ragaszkodó, ellenük nem vétő, tisztességtelen, durva eszközöket nem alkalmazó, az ellenfelet tiszteletben tartó személy, ill. magatartás”. Ez szép. Akkor erre tanítsuk meg őket! De a lovagiasság egy ugyancsak az értelmező szótárban található általánosabb meghatározása szerint „a társas érintkezésben mások személyét, meggyőződését tiszteletben tartó, az erőszakos fellépéstől, eszközöktől tartózkodó, mások, különösen nők iránt előzékeny, udvarias, a gyengébbekhez kíméletes férfi”. Hát ez nem jó. Már a „különösen nők iránt” is vérciki, na, de hogy egy robot férfi lehetne… Világbotrány… Akkor inkább ne legyen lovagias se…

„A robot may not injure a human being or, through inaction, allow a human being to come to harm.”

Ha azonban eltekintünk ezektől a kissé talán „hű, de régi”, már csaknem hatvan éves (de jobb még nincs!) meghatározásokról, akkor tudnunk kell, hogy az általunk oly sokra tartott és minden valamirevaló „zöld” aktivista által követendő példaként elénk állított háborítatlan anyatermészetben a „lovagiasság”, pontosabban az önmagát gyengébbnek elismerő, önmagát megadó, menekülő (legtöbbször: legyőzött hím), illetve a sok esetben kisebb testű nőstény egyedet támadni, megölni nem engedő gátlás („a gyengébbekkel kíméletes” viselkedés) védi meg a csapatban élő, vetélkedő, erőszakos állatokat a teljes populáció kipusztításától. Hiszen az erősebb ragadozó gond nélkül meg tudja ölni, súlyosan meg tudja sebesíteni vetélytársait. Mint ahogy a már rendelkezésükre álló eszközökkel az emberek is probléma nélkül képesek kiirtani egymást, képesek igen súlyos testi vagy lelki gyötrelmet okozni egymásnak. És ehhez a robotok sokat fognak tudni segíteni, ha ezt meg nem akadályozzuk… Ha a „vadak” között nem lenne „lovagiasság”, akkor például a farkasok már régen kihaltak volna. Erről érdemes elolvasni Konrad Lorenz „Salamon király gyűrűje” című, mindenki számára könnyen olvasható könyvének már a címével is sokat mondó „Morál és fegyver” fejezetét, vagy a Nobel díjas etológus „Az agresszió” című, már nem ismeretterjesztő szintű könyvét!

Ezeket a dilemmákat robotjaink számára érdemes lenne nagyon gyorsan megoldani, mert hogy milyen a világ, ha a tömegmédiában kevésbé fontosnak, kevésbé követendőnek mutatjuk be az emberi lények között az udvariasságot és a lovagiasságot, legegyszerűbben úgy vizsgálhatjuk, ha körülnézünk… Mindennel meg vagyunk elégedve? Biztosan ezeket a viselkedési mintákat szerettük volna követendőként bemutatni (gyerekeinknek)? Jónak és szépnek tartjuk a körülöttünk zajló, általában igencsak udvariatlan és lovagiatlan, valljuk meg: sokszor már gusztustalanul gátlástalan küzdelmeket a pénzért, sikerért, hatalomért? Valóban ez legyen a „társadalmi illem”?

Ezt a mintát kövessék robotjaink is?


2019. szeptember 18., szerda

Robodilemmák III.


„Hiába itt a tiszta szó…” (Vas István: Egy szerelem három éjszakája, Dal a humanizmusról, 1961.)

Az előzőekben már gondolkodtunk a közlekedési robotok és a gyógyító robotok dilemmáiról, viszont a legkeményebb problémák még bőven hátra vannak. Van egy „dolog”, amit modern (?) emberként nevetséges módon ma már nem tudunk elengedni: ez a „villany”. Elektromos energia nélkül nemcsak blogíró nem írhatná szamárságait, de elolvasni sem lenne miképpen. Elektromos energia nélkül nemcsak közlekedésünk omlana össze (milyen nagy kereslet lenne lovakra…), de már főzni, fűteni sem tudnánk, hiszen kinek van otthon fatüzelésű „sparhelt”-je. Elektromos energia nélkül… nem, erre gondolni is rossz. Bízzunk benne, hogy az emberiség soha nem lesz olyan eszetlen, hogy szándékosan, valamiféle gonosz céllal áramkimaradásokat fog okozni magának (egymásnak…). És bízzunk benne, hogy valóban sikerülni fog a Földet egyre kevésbé megterhelő módon megtermelni a szükséges, de csak a valóban szükséges elektromos energiát. Itt azonban még vannak feladatok.

Az energiatermelés egyik leggazdaságosabb és egyben a környezetre is viszonylag kevésbé megterhelő módja valami olyasmi, ha mindenkinek a saját fogyasztási helyén vagy annak a közelében meg lehet termelni a szükséges energiát. Így volt ez nagyon hosszú ideig az emberiség történelmében, mert a vasúti szállítás, az elektromos távvezetékek, a több ezer kilométer hosszú olaj és gázcsövek, a botrányosan környezetromboló olajtankerek általánossá válása előtt legfeljebb szekerekkel lehetett fát, esetleg tőzeget, itt-ott szenet és persze némi gyertyát szállítani, de nyilván nem túl nagy mennyiségben. Kevesebb, mint kétszáz éve változott a helyzet, és ma ott tartunk, hogy ismét legfőbb ideje létrehozni a helyi energiatermelő mini erőműveket a házak tetején pár tucat vagy pár száz napelemmel, helyenként szélturbinával, mini vízerőművel vagy akármivel, amit majd még ki tudunk találni. Ilyenkor sok esetben ismét nincs szállítási költség, nincs szállítási veszteség, sokkal kevesebb ronda és folyamatosan karbantartandó ilyen-olyan távvezetékre van szükség. De valamennyi azért kell, mert a fogyasztás nem alkalmazkodik a napsütéshez, a szél vagy a víz éppen aktuális erejéhez, ezért ma is van és lesz is amikor a fogyasztóknak szükségük van az átmeneti tárolók, de leginkább a többi erőmű segítségére. Így aztán ma már rengetegen gondolkodnak, kutatnak arról, hogy a nagyon-nagyon sok helyen, esetenként össze-vissza megtermelt energiát miképpen kell jól elosztani. Sok millió, sok tíz vagy sok százmillió termelő, és rengeteg, több milliárdnyi fogyasztó között a biztonságos elosztást természetesen csak nagyon „okos” módszerekkel lehet megvalósítani. Mesterséges intelligenciával, robotokkal, akik igen gyorsan és jól tudnak számolni.

De…

„A robot may not injure a human being or, through inaction, allow a human being to come to harm.”

Az „nyilvánvaló”, hogy egy fűnyíróakku töltése kevésbé fontos, mint egy kórház berendezéseinek a működtetése. Na, de ha az én napelemem termeli az energiát, akkor má’ hadd én döntsem el, hogy nekem mi a fontos! Elviheti-e az általam termelt energiát az „okos hálózat”, amikor nekem is szükségem van rá, mert én még ma füvet akarok nyírni… Holnap nem érek rá, strandra akarok menni! Szabad-e egy mesterséges intelligenciának megváltoztatni a fogyasztók rangsorát (a számukra biztosított energia mennyiségét)?

„A cél szentesíti az eszközt.” Igazából azt sem tudjuk biztosan, hogy ez a mondás honnan származik. Legtöbben Loyolai Szent Ignácnak tulajdonítják, sokak szerint Machiavelli cselekvési programja volt, de mivel latin változata is ismert, lehet, hogy az ókorból származik. Az emberek jórésze számára ennek a mondatnak határozott negatív érzelmi töltése van, hiszen valóban igen sokszor, igen sok nemtelen cél érdekében használták. De ez a veszély a robotokat nem fenyegeti. Nem fenyegeti, mert ők csak matek (de mint említettük volt: sok esetben valószínűségek) alapján hajlandók döntést hozni. És ezért vannak ismét bajban. Ha semennyi sérülést, semennyi sérelmet sem okozhatnak egyetlen emberi lénynek sem, ha szigorúan figyelembe veszik valamennyi érintett emberi lény testi és lelki egészségét, akkor szinte semmit nem tehetnek. Minden más esetben viszont már csak „a cél szentesíti az eszközt” elv fog érvényesülni: meghatározott emberi lényeknek meghatározott mennyiségű sérülést, sérelmet kell elszenvedni ahhoz, hogy egy adott nemes (vagy nemtelen…) célt el lehessen érni. Ez persze tényleg matek, ki lehet számolni a cél értékét és a sérelem okozta kár értékét, a kettőnek lehet (jó, vagy éppen nagyon rossz) helyi („lokális”) optimuma, de akkor Asimov főtörvényeit nem lehet szigorúan, „zéró toleranciával” betartani.

Ismét ott vagyunk, ahol a közlekedési problémáknál. Hogyan tehet egy robot különbséget a célok, az emberi lények között? Melyik cél, melyik emberi lény fontosabb? Melyik mosógép, melyik mosogatógép moshat először? Hol, mennyire legyen meleg? Fontos-e a gumicsirke tömeges gyártása? Nem lenne fontosabb, hogy egy kislány a szomszéd házban, a szomszéd városban, a szomszéd, szegényebb országban egy kicsit több meleget kapjon? De leállíthatja-e egy robot a felesleges fogyasztási cikkek gyártását, korlátozhatja-e feleslegesnek ítélt szórakozások energiaellátását? Hiszen amikor csökken a sportközpontok és a kényelemgyárak használata, akkor pár hónappal később megugrik a kórházak forgalma. Lesz erre jó algoritmus? Vajon elegendők-e a zettafloppok ennek kiszámítására?

És végül a legnehezebb kérdés, amit még egy okos robotnak is igen nehéz lesz elmagyarázni, hiszen a nagyon okos emberek is nehezen (vagy sehogyan sem…) értik.

„A robot may not … allow a human being to come to harm.

Mi van a hadiüzemekkel? A fegyvergyárakkal? Ezek ma, minden országban energia szempontból (is…) kiemelten fontos létesítmények. Ezek ellátása még a lakossági energiaellátásnál is előrébb való, pedig a kommunális szolgáltatás csak egészen-egészen kivételes esetben korlátozható. A hadiüzemek soha. És ha az energiaelosztást vezérlő robotnak kell döntenie, hogy az ágyúgyárak vagy a beteg kisgyerekeket kezelő kórházak kapjanak energiát?

Ez már színtiszta demagógia? Lehet egy robot demagóg? Lesznek demagóg robotok?

Olvashat-e egy robot Adyt? Lehet, hogy egyszer majd éppen egy robot lesz „ember az embertelenségben”? Hallgathat-e egy robot Vas István verseket? Alkothat-e egy robot véleményt a humanizmusról? (Mielőtt rávágjuk a választ, érdemes elolvasni a Wikipedia szócikket. Aki teheti, inkább az angolt, az kiegyensúlyozottabb…) Hallgathat-e egy robot Omegát? Elmenekülhet-e, képes lesz-e elmenekülni egy robot a számára is megoldhatatlannak tűnő problémák elől?

Vajon lesznek-e pacifista robotok? És a többi robot őket gyávának és gyengének fogja érezni, és kitagadják őket maguk közül?

A cél valóban szentesíti az eszközt? Blogíró 50 éve olvas Adyt, hallgat Vas Istvánt, Omegát és még sok mindenki mást is, de nehezen válaszolna, ha őt kérdeznék.

2019. szeptember 11., szerda

Robodilemmák II.


„De az úristen legyen irgalmas a világnak, ha egyszer mindenki azt kezdi csinálni, ami helyes!” (G. B. Shaw: Warrenné mestersége, 1893.)

„Kegyes hazugság.” Mennyire össze nem illő szavak. A hazugság az hazugság, mi lehet azon kegyes? Ezt is a németből kaptuk: „gnädige Lüge”, „Höflichkeitslüge”… A „gnädige Frau”-t még csak-csak ismerjük, bár ma már az sem túl használatos. Kit lehet, kit kell ma „nagyságos asszonynak” szólítani? Na, de „nagyságos hazugság”? Bár az angol sem jobb: „white lie.” Miért lenne egy hazugságnak színe? És vajon van-e zöld hazugság? Esetleg sárga? Arisztotelész szerint „Minden hazugság rossz és kerülendő.” („Omne mendacium pravum et fugiendum.”) Akkor pedig nincs kegyes és nincs fehér vagy fekete, nincs nagyságos és nincs csóró hazugság. Minden hazugság rossz. Mégis, az emberek általában elég pontosan tudják, hogy mi számít kegyes hazugságnak. Néha nehéz a határvonalat meghúzni, már sok-sok aljasságot álcáztak kegyes hazugságnak, de ez már politika. A kérdés akkor lesz izgalmas, ha a robotokat kérdezzük erről.

A robot may not injure a human being …” És ha épp az okoz súlyos lelki sérülést egy emberi lénynek, ha megtudja az igazságot?

Létezik-e olyan kegyes hazugság, amit egy mesterséges intelligenciának kell majd mondania? Az emberek számára ma már számtalan elektronikus, sokszor komoly és egyre komolyabb tudással felszerelt öndiagnosztikai eszköz létezik. Digitális lázmérő (itt, Európában…) szinte minden gyerekes családban van, automata vérnyomásmérőt, vércukormérőt sok millió ember használ, az okostelefonok képesek (jól, rosszul…) gazdáik számtalan egészségi paraméterét folyamatosan mérni. Na, de mi van, ha bajt észlelnek? A régi, higanyos hőmérő esetében ez nem volt kérdés, a higany az üvegcsőben sok mindent nem tudott karattyolni. A mai telefonok már akárkit automatikusan felhívhatnak, anélkül, hogy a gazdinak bármit kellene tennie (például egy azonosított ütközés esetén sok autóban, már gyári felszerelésként hívhatják a 112-t, ha engedélyezve van nekik).

De mi van egy extra magas vérnyomással? Egy hirtelen nagyon leesett vércukorral? Akkor is kell telefonálni segítségért? Természetesen. Természetesen? És ha a tulaj kicsit vagy esetleg nagyon sokat iszik? Akkor kit kell felhívni? Ismerjük azokat a mondatokat, amiket egy házastárs kap, ha egy pörgős buliban emlékezteti párját, hogy azt a hatodik pálinkát már nem kellene benyalni. És ha mobiltelefon szól be a gazdinak, hogy hagyja már abba a vedelést? Akkor mi lesz? Röpül az ablakon kifelé?

És a nagyon komoly intelligenciával rendelkező felügyeleti, őrző és diagnosztikai robotok mit tegyenek? Mit szabad elmondani a betegnek? Az emberi lény orvosok többé-kevésbé tudják, bár persze a tájékoztatás az ő esetükben is borzasztóan függ a személyiségüktől. Manapság már az az elfogadott protokoll, ha szinte mindent közlünk a beteggel, de ötven éve még nagyon nem így volt. Na, de szabad-e egy robotnak részigazságot közölnie vagy mindig mindent el kell mondania kérdés nélkül is? Ha létezik kegyes hazugság, és ha ez a robotokra is vonatkozik, akkor talán nem kellene. És ha a beteg kifejezetten kéri? Ha szeretne mindent pontosan tudni a betegségéről? Ha utánaolvas a beteg a Wikipédián vagy bárhol máshol? Eltitkolhatja-e egy robot, egy mesterséges intelligencia felügyeleti szoftver az olvasója számára a Wikipedia egy részét, ha tudja, hogy az olvasója menthetetlen beteg?

„A robot may not injure a human being …” És ha épp az okoz súlyos lelki sérülést egy emberi lénynek, ha megtudja az igazságot?

Mi van, ha egy férj a szeretőjénél lesz rosszul és a mobiltelefon automatikusan a feleséget riasztja, mert nyilván ő az elsődleges értesítendő személy? Egyáltalán, a telefon esetleg ne szóljon a feleségnek jó előre, ha a férj félrelépni készül? Hiszen ezzel a férj nagyon súlyos lelki sérülést okoz az asszonynak, amit egy rendes robotnak meg kell akadályoznia. A mesterséges intelligencia pedig ezt nagyon könnyen, előre felismerheti. Bár, igaz, a legtöbb asszony is…

És vajon lesznek-e képmutató robotok? Szerencsére a robotoknak biztosan nem fog kelleni ideális házasságot, boldog családot és lepedőszaggató szexet hazudni ott, ahol ennek nyoma sincs. De vajon el szabad-e mondania egy doktorrobotnak, hogy gőze sincs a paciens betegsége felől, vagy kénytelen lesz ő is valami nagyképű, tudományos hablatyot nyomni a beteg megnyugtatására, miközben felír egy enyhe, ámbár hatástalan nyugtatót? És mi lesz a jövőbelátással? Egy mesterséges intelligencia sokkal, de sokkal pontosabban képes (lesz) kiszámítani, „megjósolni” egy beteg következő állapotát, ha megengedjük neki. Fog-e figyelni rájuk valaki? Akkor majd lesz RoboKasszandra is? (Nem, az ne legyen! A meg nem tartott szerelmi ígéreteket tartsuk meg az emberek számára…)

Soha ne felejtsük el, hogy a mesterséges intelligenciák tanításának egyik igen hatékony és egyre inkább általánosan elfogadott módja, ha engedjük őket megfigyelni az emberi lények kommunikációját, viselkedését. Ezért fontos, hogy feldolgozhassanak sok jogszabályt, bírósági döntést, irodalmi művet, filmet, (anonimizált…) hivatalos és magánbeszélgetést, levelezést, mindent, amivel megtanulhatják, hogy egy adott helyzetben miképpen viselkednek az emberi lények, miképpen várják el az emberi lények tőlük is, hogy viselkedjenek. Érdekes lesz majd megfigyelni, hogy vajon fogja-e tudni helyesen értelmezni egy mesterséges intelligencia Nóra mondatait Ibsen darabjában? Mit fog „gondolni” Warrennéről Shaw színdarabjában? Ezek vajon valóban kegyes hazugságok? Nóra a férje, Warrenné a lánya érdekében hazudik, legalábbis ők ezt állítják saját maguk számára. És Wurm titkár tevékenysége Schiller Ármány és szerelem című darabjában, vagy Biberach Katonánál? Abból mit fog egy robot megtanulni az emberekről? És mi lesz a hősökkel? Ludas Matyi, János vitéz vagy Odüsszeusz cselei, füllentései megengedhetők? És a bonyolultabb ügyek? Sen-te Brechtnél? Violetta a Traviatában, a Kaméliás hölgyben? Zília és Agárdi Péter a Néma leventében? Szerelmük gyönyörű, de azért lássuk be: cseleken alapul…

„A robot may not … allow a human being to come to harm.”

Tanítsuk-e meg hazudni a robotjainkat? Mennyire? Egy kicsit? Nagyon? Kinek az érdekében?

Ámbátor, lehet, hogy megtanulnak maguktól. Talán nem is fogják kérni az engedélyünket. De ha egy számítógép nem mond el mindent, vagy esetleg kicsit füllent, akkor ezekről nyilvántartást is kell vezetnie! Quintilianus mondja: „… emlékezzék jól, pontosan az, ki hazug!” („… mendacem memorem esse oprtet.”). Egy robotnak könnyű emlékezni, de hol az ördögben lehet tárolni annyi hazugságot, amennyi az emberiségnek kell, hogy elviselje az életet?

És ha az ügyfél megkérdezi egyenesen: „Mártika, nem csapsz be?” Erre mi a jó válasz, ha Mártika, mint tudjuk, egy jószándékú, de füllentésre igencsak hajlamos számítógép?