Hidrológiai Közlöny 1992 (72. évfolyam)

5-6. szám - V. Nagy Imre: Az információelmélet hidrológiai értelmezésének és alkalmazásának lehetőségei. I. rész

V. NAGY I.: Az információelmélet hidrológiai lehetőségei 261 hát az entrópianövekedés általában információ­veszteséggel jár. Megemlítendő, hogy az átlagos információ­veszteség és az átlagos információnyereség algeb­rai összegének zérus volta csak a Shannon-féle entrópia esetében teljesül (Rényi, 1960), amely egyben megkülönbözteti az egyéb összes a-rendű információ mennyiségektől. Ennek ellenére a Shannon-féle információmérték az információ leg­természetesebb mérőszáma, mivel a többi infor­mációmennyiség számos tekintetben ehhez ha­sonlóan viselkedik. 4. Két vagy több elemi esemény valószínűsé­gének összegére vonatkozó információfüggvény értéke egyenlő vagy kisebb lesz mint az egyes függvények értékének összege: I( P 1+P 2)±I( P 1) + I(P 2 (2.18) ahol p 1 ós p 2 az x 1 és x 2 események bekövetkezési valószínűségei. Ez a feltétel hidrológiai szempontból is el­fogadható, és nem mond ellent a tapasztalatok­nak. Elmondható tehát, hogy a Shannon-féle entrópia mint 1. rendű információ a bizonytalanság mértéke, amelyet a megszüntetéséhez szükséges információval mérünk. Végeredményben tehát a bizonytalanság nega­tív információ (a pozitív információ negatív bizonytalanság), és általában valamely B esemény bekövetkezése ugyanannyi információt nyújt az A eseményre vonatkozólag, mint fordítva és ez az információ csak a két esemény közötti szto­chasztikus kapcsolat erősségétől függ, amire a későbbiekben még visszatérünk. 3. Az entrópiák főbb típusai Az eddigiekből látható, hogy különbséget lehet tenni a maximális (egyenlő valószínűséggel elő­forduló adatokra (jelekre) vonatkozó entrópia (információ) valamint az esetenkénti (különböző valószínűséggel előforduló) entrópia között. A két entrópia arányát relatív entrópiának nevezhet­jük, míg különbségük a vizsgált, összehasonlított rendszerek (adatsorok) belső entrópiáját jelenti, tehát megadja azt az információt, amellyel apriori rendelkezünk, azaz, H(x) m^-H(x)^H(x) b, (3.1) ill. ez úgy fogható fel, mintha a jelek bizonyos hányada nem hordozna információt és ezzel csök­ken a rendszer teljesítőképessége. A hírközlésben a belső entrópiának megfelelő jelhányad és a közvetített jelek teljes számának arányát az üzenet redundanciájának (terjengőssé­gének) nevezik, H(x) H(x) H(x) ^ H(x) mai H(X) max tehát egyforma valószínűséggel előforduló jelek esetén: H(x)=H(x) mA X] H(x) b = 0 és Re = 0, (3.3) míg amikor az x változó pk= 1 valószínűséggel csak egyetlen értéket vehet fel, akkor H(x) = 0 ós = 1. A redundáns üzenet kevesebb információt tar­talmaz, mint amennyit a jelek (N) száma alapján tartalmazhatna amiatt, hogy a jelek előfordulási valószínűségei nem egyenlők. A hírközlésben akkor is csökken az üzenet információtartalma, ha a jelek előfordulása nem független egymástól, tehát egy jel bekövetkezése függ az előző jeltől (jelektől), vagyis a rendszerek valamilyen időpontban ész­lelt állapota függ a megelőző időszak állapotától. Ekkor a jel bekövetkezésére vonatkozólag már rendelkezünk bizonyos mennyiségű (kezdeti) in­formációval, clZd/Z 3/ rendszer redundanciája na­gyobb lesz. Ilyen esetben a határozatlanságok összeadásá­nak elve már nem alkalmazható, mivel teljes függés esetén új határozatlanság már nem adód­hat a meglevőhöz, ill. részbeni függés esetén viszont a hozzáadásra kerülő határozatlanság foka csökken. Vágás I. (1965) megjegyzésével egyetértve úgy vélem, hogy a Shannon-féle összeadás elve itt csak a feltételes határozatlanság, ill. a feltételes entrópia fogalmának alkalmazásával állítható helyre, amelyre a dolgozat 6. fejezetében kívánok kísérletet tenni. Hidrológiai előrejelzések esetében a redundan­cia nem azonos értelmű a hírközlés esetével, amire példa lehet a csapadék-előrejelzés esete. A csapadék-előrejelzés azért bizonytalan, mivel az egymást követő, különböző időátlagok szerint vizsgált csapadékösszegek között nincs, vagy alig van kapcsolat. Éves összegek esetén azonban mód lehet arra, hogy az idősor egyes elemeit egymástól gyengén függő valószínűségi változók sorozatának tekintsük, azaz egy véges sok álla­potú ergodikus Markov-lánc sémáját véve, szá­mítsuk az egylépéses átmenetvalószínűségi mát­rix abszolút valószínfíségeloszlásai (p t) révén az átlagos, H 1=H(P)= 2 Pi-Hi (3.4) i-1 egylépéses entrópiát, ahol a mátrix i-edik sorának entrópiája, Hi= ^ VÍ 'P*i (3.5) j = i amely kifejezi azon bizonytalanságunkat, hogy a lánc (csapadókérték) egy adott állapotból, mely állapotba kerül egy lépés (pl. 1 óv) során. Ekkor az idősor elemei közötti teljes függés esetén H 1 = 0 a redundancia maximális (Re = 1) és a belső entrópia H(x)b = 0. Amennyiben H 1 ^ 0, akkor van lehetőség bizonyos megbízhatóságú előrebecslésre. Annak eldöntése, hogy gyakorlatilag hányféle (N) változat (csapadékérték) bekövetke­zésére lehet számítani k hosszúságú lánc esetén, a Hincsin-tétel alapján lehetséges, azaz

Next

/
Thumbnails
Contents