Hidrológiai Közlöny 1993 (73. évfolyam)

2. szám - V. Nagy Imre: Az információelmélet hidrológiai értelmezésének és alkalmazásának lehetőségei. II. rész

72 HIDROLÓGIAI KÖZLÖNY 1993.73. ÉVF. 2. SZÁM Az információelmélet hidrológiai értelmezésének és alkalmazásának lehetőségei II. rész. V. Nagy Imre Budapesti Műszaki Egyetem Vízgazdálkodási Tanszék 1111 Budapest, Műegyetem rpt. 3-5. Kivonat: Kulcsszavak: A két részből álló tanulmány a Shannon féle információelmélet hidrológiai értelmezésének és alkalmazhatóságá­nak lehetőségeit tekinti át. AII. rész az információ értelmezési kérdéseiről, jelentéstartalmáról szól és a hidrológiai felhasználás alapvető kérdéseit fogalmazza meg. Információelmélet, entrópia, valószínilségi hidrológia. 4. Az információ általános értelmezési problémái. Az információ és az entrópia kapcsolatát illetően a szakirodalom korántsem egységes. Shannon szerint termodinamikai értelemben a hőközlés (miközben nö­veli a rendszer entrópiáját) információveszteséget okoz, mivel a hőmozgás növekedésével csökken a rendszer állapotáról beszerezhető információ. Tulajdonképpen elsősorban ezzel a ténnyel igazolható a termodinamikai és Shannon-féle 1. rendű információelméleti entrópiák „azonossága". Az azonosság plauzibilitását azonban Maxwell, Szilárd L., Gábor D. és mások is vitatták. Brillouin (1954) pl. felveti azt, hogy minden, mérés révén nyert információ csökkenti a megfigyelt (fizikai­kémiai stb.), rendszerben a bizonytalanságot (határozat­lanságot) tehát az entrópiát. A „tiltott" entrópia csök­kenés (a nyert információ) ily módon negentrópiának (negatív entrópiának) nevezhető. Információ viszont úgy nyerhető, ha a megfigyelő valamilyen kölcsönhatásba lép a rendszerrel (növeli az entrópiát) tehát végül is egy nagyobb, rendszerben az entrópia általános növekedése lehet nagyobb, mint a befogadott információmennyiség. Ennek alapján mondható, hogy az információ a hír­közlésben általában egyenlő a negentrópiával, az ent­rópia negatív információ vagy információhiány (bi­zonytalanság). Ennek megfelelően H m"ih s' s = ­kln 2 C 4­1) Az entrópia állandója úgy származtatható, hogy fel­veszünk két egyforma rekeszből álló rendszert, amely csak egyetlen molekulát tartalmaz. A molekula mindkét rekeszben azonos valószínűséggel fordulhat elő, azaz Pl - Pl = 1/2- A rendszer entrópiája: S = —k,ln2 = 10 ,-23 f Joul e ] •-Kelvin -I Mivel egy ilyen bizonytalanság feloldásához ponto­san 1 bit információ szükséges, így ehhez 10" 2 3 értékű entrópiaváltozást lehet társítani. A hőelméletben tehát a bizonyosabb (valószínűbb) állapotokhoz az entrópia kisebb értékei tartoznak. Az információelméletben viszont az előjel ellenkező, mivel a kisebb valószínűségű állapotot jellemzik a na­gyobb entrópiaértékek. Természetesen az előjel megfe­lelő megválasztása esetén az információelméletben is jelenthet a kisebb állapotvalószínűség (nagyobb bizony­talanság) kisebb entrópiát, ill. fordítva. A Shannon és Boltzmann egyenletei által megadott bizonytalan­ságok azonosságát viszont többen vitatják. így pl. Wicken (1987) felveti, hogy: 1.) a statisztikus termodinamikában a bizonytalanság a rendszer alapvető sajátossága, mivel az sztochasztikusan fluktuál a lehetséges mikroállapolok között; 2.) a hírközlési információelméletben viszont a bizznytalanság azt fejezi ki, hogy egy adott üzenet csak egy a jelrendszer elemeiből összeállítható lehetséges üzenetek közül és annak összeállítása után a bizonytalanság megszűnik; 3.) a termodinamikában a makroállapot mérhető realitás, a mik­roállapot viszont nem mérhető elméleti konstrukció; 4.) a hírközlés információelméletében a makro-mikroáUapot di­ghotómia (kétértékűség) nem értelmezhető, mivel a mérhető konkré­tum a mikroállapotnak megfelelő üzenet és az elképzelhető üzenetek összessége az elméleti konstrukció; 5.) az entrópiának csak a termodinamikában van jelentése, mivel Shannon képlete nem az entrópiát, hanem a struktúra kapcsolatainak komplexitását méri. Itt igazolódni látszik Neumann János előrelátása, aki az elnevezést illető tanácskérés során a „valószínű­ségeloszlás entrópiája" megnevezést azzal a megjegy­zéssel javasolta Shannon-nak, hogy a legtöbb ember úgysincs tisztában az entrópia fogalmával, és az eléggé általános és több vonatkozásban tisztázatlan ahhoz, hogy a hírközlési értelmezésben is szerepet kapjon és további gondolkodásra serkentsen. Neumann jóslata valóban bevált, mivel többen fog­lalkoztak pl. az információfüggvény időbeli változásá­val (pl. a nemegyensúlyi termodinamika és a biológiai idő vonatkozásában a környezet fizikai idejéhez viszo­nyítva), azonban ezek a meggondolások egyelőre a sej­tések szintjénél tartanak.

Next

/
Thumbnails
Contents