Egység, 2018 (28-29. évfolyam, 102-113. szám)
2018-06-01 / 107. szám
2018 JÚNIUS | egység 21 TUDOMÁNY | KILE zonyos területeiről, mint például a munka, a család, a gyereknevelés, gyerekvállalás területe. Sokan úgy gondolkodnak, hogy nincs miért. Az erkölcsi felelősséghez való viszony egy kérdőjel, amit a nyugati ember próbál magáról ledobni. Az pedig veszélyes, hogyha a mesterséges intelligenciát megpróbáljuk erre felhasználni. – Hallhatnánk erre egy példát? – Volt szó a Brain Baron tartott kerekasztal-beszélgetésen egy olyan szoftverről, ami kvázi a HR-est helyettesítve az önéletrajzokon található fotók alapján (a beprogramozott jellemzőkből kiszűrt algoritmusok segítségével) szelektálja a jelentkezőket, hogy alkalmasak-e a meghirdetett pozícióra vagy sem. Így azonban nem a HR-esre hárul a döntés kényszere és felelőssége, hogy felveszi-e az adott jelentkezőt vagy sem. Nyilván egy személyes beszélgetés során a HR-es megnézi az objektív adatokat és beszélget az álláskeresővel. Ebből leszűr valamit tudatosan és tudat alatt is. Ugyanezt megcsinálja a mesterséges intelligencia is, az arcvonásokból osz tályoz, mert „megtanulta”, hogy ilyen-olyan arcvonásokhoz milyen sze mélyiségjegyek tartoznak. Ami na gyon sok esetben abszolút helytálló. Felmerül a kérdés, hogy akkor mi a különbség. A probléma a döntés körül van. Amikor rábízunk egy ilyen elhatározást egy gépre, akkor azzal kivesz szük a felelősséget a rendszerből. Ha mi hozunk egy ilyen döntést, akkor abban a mi emberi felelősségünk is benne van, akkor az is egy elem a mérlegen, hogy nekünk kell döntenünk, ez a mi felelősségünk, hogy jó vagy rossz döntést hozunk a cégnek. Illetve a munkavállalóval szemben is felelősség. Mindez pedig a tudatunkhoz és lelkiismeretünkhöz kapcsolódik, amivel egy gép nem rendelkezik. A gépnek nincs felelőssége, őt nem fogják megbüntetni, ha rossz döntést hozott és ha igen, akkor mi van? Kikapcsolják, de ez neki nem fáj, ez az ő „életét” nem érinti, nem befolyásolja. Nem fog fájni neki... És itt jutunk vissza a Brain Baron is felvetett kérdéshez: lesznek-e valaha robot rabbik? A válasz az, hogy nem volna helyénvaló, ha lennének. A Talmud azt tanítja, hogy az ókori Szánhedrin, a valamikori legfelsőbb rabbi bíróság, a 71 tagú rabbitanács tagja csakis az lehetett, aki egészen különleges tudással bírt: tórai ismeretek mellett sok nyelvet kellett beszéljen és a természettudományokhoz is kellett hogy értsen. Mindez azonban nem volt elegendő. Nem lehetett a szánhderin tagja, akinek nem volt családja, nem voltak gyerekei. Az ilyen emberből ugyanis hiányzik a könyörület attribútuma. Egy erkölcsi kérdésben nem csupán a száraz kognitív értékelés, a kognitív algoritmus a szükséges. Fontos, hogy legyen személyes, érzelmi azonosulás is.