Egység, 2018 (28-29. évfolyam, 102-113. szám)

2018-06-01 / 107. szám

2018 JÚNIUS | egység 21 TUDOMÁNY | KILE zonyos területeiről, mint például a munka, a család, a gyereknevelés, gyerekvállalás területe. Sokan úgy gondolkodnak, hogy nincs miért. Az erkölcsi felelősséghez való vi­szony egy kérdőjel, amit a nyugati ember próbál magáról ledobni. Az pedig veszélyes, hogyha a mester­séges intelligenciát megpróbáljuk erre felhasználni. – Hallhatnánk erre egy példát? – Volt szó a Brain Baron tartott ke­rekasztal-beszélgetésen egy olyan szoftverről, ami kvázi a HR-est helyettesítve az önéletrajzokon ta­lálható fotók alapján (a beprogra­mozott jellemzőkből kiszűrt algo­ritmusok segítségével) szelektálja a jelentkezőket, hogy alkalmasak-e a meghirdetett pozícióra vagy sem. Így azonban nem a HR-esre hárul a döntés kényszere és felelőssége, hogy felveszi-e az adott jelentkezőt vagy sem. Nyilván egy személyes beszélgetés során a HR-es megnézi az objektív adatokat és beszélget az álláskeresővel. Ebből leszűr valamit tudatosan és tudat alatt is. Ugyan­ezt megcsinálja a mesterséges in­telligencia is, az arcvonásokból osz tályoz, mert „megtanulta”, hogy ilyen-olyan arcvonásokhoz milyen sze mélyiségjegyek tartoznak. Ami na gyon sok esetben abszolút helyt­álló. Felmerül a kérdés, hogy akkor mi a különbség. A probléma a döntés körül van. Amikor rábízunk egy ilyen elhatá­rozást egy gépre, akkor azzal kivesz ­szük a felelősséget a rendszerből. Ha mi hozunk egy ilyen döntést, akkor abban a mi emberi felelőssé­günk is benne van, akkor az is egy elem a mérlegen, hogy nekünk kell döntenünk, ez a mi felelősségünk, hogy jó vagy rossz döntést hozunk a cégnek. Illetve a munkavállaló­val szemben is felelősség. Mindez pedig a tudatunkhoz és lelkiisme­retünkhöz kapcsolódik, amivel egy gép nem rendelkezik. A gépnek nincs felelőssége, őt nem fogják megbüntetni, ha rossz döntést ho­zott és ha igen, akkor mi van? Ki­kapcsolják, de ez neki nem fáj, ez az ő „életét” nem érinti, nem befolyá­solja. Nem fog fájni neki... És itt jutunk vissza a Brain Ba­ron is felvetett kérdéshez: lesznek-e valaha robot rabbik? A válasz az, hogy nem volna helyénvaló, ha lennének. A Talmud azt tanítja, hogy az ókori Szánhedrin, a vala­mikori legfelsőbb rabbi bíróság, a 71 tagú rabbitanács tagja csakis az lehetett, aki egészen különleges tudással bírt: tórai ismeretek mel­lett sok nyelvet kellett beszéljen és a természettudományokhoz is kel­lett hogy értsen. Mindez azonban nem volt elegendő. Nem lehetett a szánhderin tagja, akinek nem volt családja, nem voltak gyerekei. Az ilyen emberből ugyanis hiányzik a könyörület attribútuma. Egy erköl­csi kérdésben nem csupán a száraz kognitív értékelés, a kognitív algo­ritmus a szükséges. Fontos, hogy legyen személyes, érzelmi azonosu­lás is.

Next

/
Thumbnails
Contents