Hidrológiai Közlöny 1992 (72. évfolyam)
5-6. szám - V. Nagy Imre: Az információelmélet hidrológiai értelmezésének és alkalmazásának lehetőségei. I. rész
260 HIDROLÖGIAI KÖZLÖNY 1992. 72. ÉVF. 5—6. SZAM I(1) = I(0) = 0 (2.13) megegyezéses feltételt. A hidrológiai előrejelzésben az I(1) = 0 feltétel ellentmondásos, mivel ekkor determinisztikus esetről van szó, azaz egyértelműen következtethetünk a bennünket érdeklő esemény bekövetkezésére, aminek meghatározott információtartalma van. Az 1(0) = 0 feltétel hidrológiai értelmezése szintén vitatható, mivel a p(x) — 0 egyfelől arra utal, hogy pl. a lehullott csapadék mennyiségének vagy intenzitásának valamilyen felső határa a légköri állapot fizikai, termodinamikai tényezőit illetően eddigi ismereteink szerint nem jelölhető ki, más oldalról azonban a bekövetkezési valószínűségek csökkenése nagyobb műtárgyméretezési kockázatot jelentő csapadékoknak felel meg, tehát azok információtartalma egyre nagyobb. Itt jegyezzük meg, hogy a hidrológiában a mért adatok információtartalma egyenesen arányos azok váratlanságával (V), mivel minél váratlanabb pl. egy szélsőségesen nagy csapadék (árvíz), annál több információt szolgáltat. A váratlanság eszerint fordítottan arányos a bekövetkezési valószínűséggel. Amennyiben egy adott esemény bekövetkezése biztos, p—l, akkor váratlansága V—0. Eszerint a csökkenő valószínűségek tartományában az információ egyenesen arányos a váratlansággal, míg p — l esetén csak a V — 0 és 1^0 feltétel teljesül. Más oldalról az 1(0) =0 feltételre gyakorlatilag nincs mindig szükség, mivel ekkor a hidrológiailag analóg területeken nyert ismeretek (kezdeti vagy alap információk) révén következtethetünk a bennünket érdeklő hidrológiai események bekövetkezésére akkor is, ha az adott jelenség (pl. csapadék, lefolyás) mérési adatsora hiányzik (vagy hiányos). A Shannon által vizsgált hírközlési folyamatban a helyzet lényegesen egyszerűbb, mivel itt a minimálisan szükséges két jel (igen, nem) ós a jelek egymásutánja, rendezettsége szolgáltatja az információt. Az üzenet az elemi események sorozata és az információmennyiség az egyes jelek által hordozott információk összege. Ennek megfelelően a jelenkénti átlagos információmennyiségek a (feltéve, ha Pi+P 2 + • •. +í>jv = 1) sorral jellemezhetők, amelyben a súlyozás azért szükséges, mivel a jelek általában különböző valószínűséggel fordulnak elő. Ez tehát a már említett additivitási elv mellett a második posztulátum, amely azt fejezi ki, hogy az egyes információértékeknek a hozzátartozó valószínűségekkel súlyozott középértékét (az információ várható értékét) tekintjük a vizsgált információ átlagos értékének. Ez tehát az ún. lineáris középértékképzés elve. A tetszőleges súlyokra való kiterjesztéssel a szakirodalom részletesen foglalkozott (Rényi, 1960), azonban vizsgált témánk szempontjából első közelítésben ezt a témakört nem érintjük. Nem foglalkozunk a nem teljes eloszlásokhoz tartozó információmennyiség kérdésével sem, jóllehet ennek hidrológiai értelmezése és alkalmazása további ígéretes lehetőségeket jelenthet. A fentiekből következik, hogy az üzenet egymást követő jeleinek várható (átlagos) hozzájárulása az üzenet információtartalmához: N 1 H= V p k dog -= - Epk dog pk (2.15) k = i p k Neumann János (1965) javaslatára Shannon a 11 értékét formai analógia alapján a (p v p v ..., p H) valószínűségeloszlás entrópiájának nevezte el. A fenti értelmezésből viszont következik, hogy az entrópia függvénynek ki kell elégítenie az alábbi feltételeket: 1. A H értéknek azonosnak kell lennie a p Y változótól függő, folytonos elemi f(pi) = —p\ dog p, függvények összegével. Ez a feltétel hosszú idejű (min 30 év) hidrológiai mérési adatsorok esetén gyakorlati szempontból elfogadható. 2. A f(p{) egy olyan függvény, amelynek értéke Pi—0 és Pi — 1 esetekben egyaránt a zérushoz tart (a biztosan bekövetkező és a be nem következő események nem szolgáltatnak információt). Ezek a feltételek a már elmondottak szerint a hidrológiában vitathatók. 3. Amennyiben az egyes x jelek bekövetkezési valószínűsége azonosan p n = l\N, ahol N az összes jelek száma, akkor az entrópia, N H(x) = 2 hr-lo g ~tjn~) ^ 2 1° g N ( 216 ) mivel, N v JL =1 N k = l ill. H(x) = 0, ha valamely k-ra, pk = l és pt — 0, ha i^k tehát, 0^H(x)^HogN. Az adott jelkészlet entrópiája tehát akkor maximális, ha a jelek egyenlő valószínőséggel fordulnak elő, míg ettől eltérő esetekben az entrópia csökken. Hidrológiai szempontból N jelenti a múltban észlelt összes adatok számát (értékét). Amennyiben az eddig észlelt adatok a jövőben egyforma valószínűséggel fordulhatnak elő, akkor az előrejelzési bizonytalanságunk maximális, a jövőre vonatkozó információ minimális. Amikor viszont az x változó pic=l valószínűséggel csak egyetlen értéket vehet fel, akkor a helyzet fordított. Hidrológiai szempontból elfogadható Wiener (1948) megállapítása, amely szerint az entrópia a rendszer rendezetlenségi fokának, míg az információ a szervezettség fokának mértéke. Az információ a bizonytalanság mérsóldésével növeli a rendezettséget. Minél nagyobb a rendszer szervezettsége, annál több információt szolgáltat, te-