Diakonia - Evangélikus Szemle, 1981
1981 / 1. szám - Veöreös Imre: Interjú Szentágothai Jánossal
INTERJÜ SZENTAGOTHAI JÁNOSSAL létezik. Ugyanazt az információt számtalan anyagi rendszer hordozhatja (közvetítheti), mint pl. Morse-jelek a sürgönydrótban, fény- és hangjelek (ez a biológiában is általános), elektromágneses hullámok, idegingerület stb.; tudományosabban fogalmazva az információ hordozójára nézve invariáns. Ezért teljesen értelmetlen is lenne az információ fizikai fogalmakkal való definícióját megkísérelni. Mindezzel azonban a tudomány nem sokat tudott elkezdeni, míg C. E. Shannon amerikai kutató 1948-ban meg nem tudta adni az információ mennyiségi mértékét és ezzel meg nem vetette az információelmélet alapjait. Azt, hogy az információ mennyiségi mértékét kifejező Shannon-féle egyenletek nagyon hasonlítanak a hőenergiának mechanikai energiává való transzformációját leíró Clausius-féle (1864) és a klasszikus termodinamikát megalapozó egyenletekre, és mind a kettő a bizonytalanság vagy rendezetlenség mértékét kifejező „entrópia” fogalmat használja —, sokáig pusztán formai hasonlóságnak vélték. Bizonyos mértékig joggal, hiszen míg a Clausius tételnek alapja reális fizikai jelenség, Shannon egyenletei kezdetben minden fizikai alapot nélkülöző, eléggé önkényes (bár hasznos) gondolati konstrukciók voltak. Pedig az, hogy információ és entrópia közt valami kapcsolat lehet, már James Clark Maxwell (1871) híres gondolat- kísérlete (az eléggé közismert Maxwell-féle démon vagy paradoxon) jelezte, amely szerint tökéletes információ birtokában ki lehetne játszani a fizika egyik legfontosabb alaptörvényét, a termodinamika második főtételét. No, azóta a tudomány Maxwell „démonját”, és annak néhány rafináltabb utódját is sikeresen „exorcizálta”, mégis ez az „ördögűzés” nem járt olyan sikerrel, hogy ne maradt volna vissza egy kis tüske természettudományunk húsában. Nevezetesen megmaradt az a felismerés, hogy az entrópia termodinamikai és információelméleti fogalma között mégis kell legyen valami lényegi összefüggés: Brillouin fogalmazásában az „információ negentrópia (negentrópia az entrópia reciprokja) elve”, amely szerint negentrópia árán (jelentős veszteséggel) információ nyerhető (ez még eléggé triviális), de információból újra veszteséges folyamattal egy rendszer negentrópiája növelhető. Alig pár évvel Shannon információelméletének megfogalmazása után egyes kutatók már megpróbálták elsősorban „értelmes” műtárgyak (pl. robotok), de ugyanúgy élőlények „elme”-jellegű, sőt tudattal is egybekötött tevékenységeit a külvilág és a robot (vagy élőlény) közötti zárt körben folyó információáramlás, úgynevezett áramlási (ez esetben információs áramlási) diagrammok segítségével modellezni és őket lényegében erre visszavezetni (pl. Donald M. MacKay, 1951—1966). Bármilyen szellemesek is az ilyen analógiák, mégis az elvontság olyan fokát jelentik, hogy a természettudósok érthetően idegenkedtek ezek valós jelentőségét elfogadni az általuk épp ez időben oly sikerrel vizsgált reális természetes agy működései értelmezésében. Természetesen sokáig én is így gondolkodtam. — Fordulatnak éreztem D. I. Dubrovszkij-nak az 1978-as Düsseldorfi Nemzetközi Filozófiai Kongresszus elé szánt ama tézisét, hogy „önorganizáló rendszer” által hordozott információ más — passzív — hordozó által közvetítettel szemben minőségileg eltérő tulajdonságokkal, pl. a hordozóra való visszahatás lehetőségével bír. Ez lehetővé teszi, hogy a MacKay-féle absztrakt információáramlási sémák helyére valóságos idegsejt hálózatokat helyettesítsünk, és ezzel az addig absztrakt modelleket valóságos és a műszaki fejlődés nyelvén „második generációs”, az eddigieknél sokkal realisztikusabb modellekké fejlesszük. 11