Diakonia - Evangélikus Szemle, 1981

1981 / 1. szám - Veöreös Imre: Interjú Szentágothai Jánossal

INTERJÜ SZENTAGOTHAI JÁNOSSAL létezik. Ugyanazt az információt számtalan anyagi rendszer hordozhatja (közvetítheti), mint pl. Morse-jelek a sürgönydrótban, fény- és hangjelek (ez a biológiában is általános), elektromágneses hullámok, idegingerület stb.; tudományosabban fogalmazva az információ hordozójára nézve invariáns. Ezért teljesen értelmetlen is lenne az információ fizikai fogalmakkal való definícióját megkísérelni. Mindezzel azonban a tudomány nem sokat tudott elkezdeni, míg C. E. Shannon amerikai kutató 1948-ban meg nem tudta ad­ni az információ mennyiségi mértékét és ezzel meg nem vetette az informá­cióelmélet alapjait. Azt, hogy az információ mennyiségi mértékét kifejező Shannon-féle egyenletek nagyon hasonlítanak a hőenergiának mechanikai energiává való transzformációját leíró Clausius-féle (1864) és a klasszikus termodinamikát megalapozó egyenletekre, és mind a kettő a bizonytalanság vagy rendezetlenség mértékét kifejező „entrópia” fogalmat használja —, sokáig pusztán formai hasonlóságnak vélték. Bizonyos mértékig joggal, hi­szen míg a Clausius tételnek alapja reális fizikai jelenség, Shannon egyenle­tei kezdetben minden fizikai alapot nélkülöző, eléggé önkényes (bár hasz­nos) gondolati konstrukciók voltak. Pedig az, hogy információ és entrópia közt valami kapcsolat lehet, már James Clark Maxwell (1871) híres gondolat- kísérlete (az eléggé közismert Maxwell-féle démon vagy paradoxon) jelezte, amely szerint tökéletes információ birtokában ki lehetne játszani a fizika egyik legfontosabb alaptörvényét, a termodinamika második főtételét. No, azóta a tudomány Maxwell „démonját”, és annak néhány rafináltabb utód­ját is sikeresen „exorcizálta”, mégis ez az „ördögűzés” nem járt olyan si­kerrel, hogy ne maradt volna vissza egy kis tüske természettudományunk húsában. Nevezetesen megmaradt az a felismerés, hogy az entrópia termo­dinamikai és információelméleti fogalma között mégis kell legyen valami lényegi összefüggés: Brillouin fogalmazásában az „információ negentrópia (negentrópia az entrópia reciprokja) elve”, amely szerint negentrópia árán (jelentős veszteséggel) információ nyerhető (ez még eléggé triviális), de in­formációból újra veszteséges folyamattal egy rendszer negentrópiája növel­hető. Alig pár évvel Shannon információelméletének megfogalmazása után egyes kutatók már megpróbálták elsősorban „értelmes” műtárgyak (pl. robotok), de ugyanúgy élőlények „elme”-jellegű, sőt tudattal is egybekötött tevékeny­ségeit a külvilág és a robot (vagy élőlény) közötti zárt körben folyó infor­mációáramlás, úgynevezett áramlási (ez esetben információs áramlási) dia­grammok segítségével modellezni és őket lényegében erre visszavezetni (pl. Donald M. MacKay, 1951—1966). Bármilyen szellemesek is az ilyen analó­giák, mégis az elvontság olyan fokát jelentik, hogy a természettudósok ért­hetően idegenkedtek ezek valós jelentőségét elfogadni az általuk épp ez időben oly sikerrel vizsgált reális természetes agy működései értelmezésé­ben. Természetesen sokáig én is így gondolkodtam. — Fordulatnak éreztem D. I. Dubrovszkij-nak az 1978-as Düsseldorfi Nemzetközi Filozófiai Kong­resszus elé szánt ama tézisét, hogy „önorganizáló rendszer” által hordozott információ más — passzív — hordozó által közvetítettel szemben minőségi­leg eltérő tulajdonságokkal, pl. a hordozóra való visszahatás lehetőségé­vel bír. Ez lehetővé teszi, hogy a MacKay-féle absztrakt információáramlási sé­mák helyére valóságos idegsejt hálózatokat helyettesítsünk, és ezzel az ad­dig absztrakt modelleket valóságos és a műszaki fejlődés nyelvén „második generációs”, az eddigieknél sokkal realisztikusabb modellekké fejlesszük. 11

Next

/
Thumbnails
Contents