Hidrológiai Közlöny 1992 (72. évfolyam)
5-6. szám - V. Nagy Imre: Az információelmélet hidrológiai értelmezésének és alkalmazásának lehetőségei. I. rész
V. NAGY I.: Az információelmélet hidrológiai lehetőségei 261 hát az entrópianövekedés általában információveszteséggel jár. Megemlítendő, hogy az átlagos információveszteség és az átlagos információnyereség algebrai összegének zérus volta csak a Shannon-féle entrópia esetében teljesül (Rényi, 1960), amely egyben megkülönbözteti az egyéb összes a-rendű információ mennyiségektől. Ennek ellenére a Shannon-féle információmérték az információ legtermészetesebb mérőszáma, mivel a többi információmennyiség számos tekintetben ehhez hasonlóan viselkedik. 4. Két vagy több elemi esemény valószínűségének összegére vonatkozó információfüggvény értéke egyenlő vagy kisebb lesz mint az egyes függvények értékének összege: I( P 1+P 2)±I( P 1) + I(P 2 (2.18) ahol p 1 ós p 2 az x 1 és x 2 események bekövetkezési valószínűségei. Ez a feltétel hidrológiai szempontból is elfogadható, és nem mond ellent a tapasztalatoknak. Elmondható tehát, hogy a Shannon-féle entrópia mint 1. rendű információ a bizonytalanság mértéke, amelyet a megszüntetéséhez szükséges információval mérünk. Végeredményben tehát a bizonytalanság negatív információ (a pozitív információ negatív bizonytalanság), és általában valamely B esemény bekövetkezése ugyanannyi információt nyújt az A eseményre vonatkozólag, mint fordítva és ez az információ csak a két esemény közötti sztochasztikus kapcsolat erősségétől függ, amire a későbbiekben még visszatérünk. 3. Az entrópiák főbb típusai Az eddigiekből látható, hogy különbséget lehet tenni a maximális (egyenlő valószínűséggel előforduló adatokra (jelekre) vonatkozó entrópia (információ) valamint az esetenkénti (különböző valószínűséggel előforduló) entrópia között. A két entrópia arányát relatív entrópiának nevezhetjük, míg különbségük a vizsgált, összehasonlított rendszerek (adatsorok) belső entrópiáját jelenti, tehát megadja azt az információt, amellyel apriori rendelkezünk, azaz, H(x) m^-H(x)^H(x) b, (3.1) ill. ez úgy fogható fel, mintha a jelek bizonyos hányada nem hordozna információt és ezzel csökken a rendszer teljesítőképessége. A hírközlésben a belső entrópiának megfelelő jelhányad és a közvetített jelek teljes számának arányát az üzenet redundanciájának (terjengősségének) nevezik, H(x) H(x) H(x) ^ H(x) mai H(X) max tehát egyforma valószínűséggel előforduló jelek esetén: H(x)=H(x) mA X] H(x) b = 0 és Re = 0, (3.3) míg amikor az x változó pk= 1 valószínűséggel csak egyetlen értéket vehet fel, akkor H(x) = 0 ós = 1. A redundáns üzenet kevesebb információt tartalmaz, mint amennyit a jelek (N) száma alapján tartalmazhatna amiatt, hogy a jelek előfordulási valószínűségei nem egyenlők. A hírközlésben akkor is csökken az üzenet információtartalma, ha a jelek előfordulása nem független egymástól, tehát egy jel bekövetkezése függ az előző jeltől (jelektől), vagyis a rendszerek valamilyen időpontban észlelt állapota függ a megelőző időszak állapotától. Ekkor a jel bekövetkezésére vonatkozólag már rendelkezünk bizonyos mennyiségű (kezdeti) információval, clZd/Z 3/ rendszer redundanciája nagyobb lesz. Ilyen esetben a határozatlanságok összeadásának elve már nem alkalmazható, mivel teljes függés esetén új határozatlanság már nem adódhat a meglevőhöz, ill. részbeni függés esetén viszont a hozzáadásra kerülő határozatlanság foka csökken. Vágás I. (1965) megjegyzésével egyetértve úgy vélem, hogy a Shannon-féle összeadás elve itt csak a feltételes határozatlanság, ill. a feltételes entrópia fogalmának alkalmazásával állítható helyre, amelyre a dolgozat 6. fejezetében kívánok kísérletet tenni. Hidrológiai előrejelzések esetében a redundancia nem azonos értelmű a hírközlés esetével, amire példa lehet a csapadék-előrejelzés esete. A csapadék-előrejelzés azért bizonytalan, mivel az egymást követő, különböző időátlagok szerint vizsgált csapadékösszegek között nincs, vagy alig van kapcsolat. Éves összegek esetén azonban mód lehet arra, hogy az idősor egyes elemeit egymástól gyengén függő valószínűségi változók sorozatának tekintsük, azaz egy véges sok állapotú ergodikus Markov-lánc sémáját véve, számítsuk az egylépéses átmenetvalószínűségi mátrix abszolút valószínfíségeloszlásai (p t) révén az átlagos, H 1=H(P)= 2 Pi-Hi (3.4) i-1 egylépéses entrópiát, ahol a mátrix i-edik sorának entrópiája, Hi= ^ VÍ 'P*i (3.5) j = i amely kifejezi azon bizonytalanságunkat, hogy a lánc (csapadókérték) egy adott állapotból, mely állapotba kerül egy lépés (pl. 1 óv) során. Ekkor az idősor elemei közötti teljes függés esetén H 1 = 0 a redundancia maximális (Re = 1) és a belső entrópia H(x)b = 0. Amennyiben H 1 ^ 0, akkor van lehetőség bizonyos megbízhatóságú előrebecslésre. Annak eldöntése, hogy gyakorlatilag hányféle (N) változat (csapadékérték) bekövetkezésére lehet számítani k hosszúságú lánc esetén, a Hincsin-tétel alapján lehetséges, azaz