Hidrológiai Közlöny 1992 (72. évfolyam)

5-6. szám - V. Nagy Imre: Az információelmélet hidrológiai értelmezésének és alkalmazásának lehetőségei. I. rész

260 HIDROLÖGIAI KÖZLÖNY 1992. 72. ÉVF. 5—6. SZAM I(1) = I(0) = 0 (2.13) megegyezéses feltételt. A hidrológiai előrejelzésben az I(1) = 0 feltétel ellentmondásos, mivel ekkor determinisztikus eset­ről van szó, azaz egyértelműen következtethe­tünk a bennünket érdeklő esemény bekövetkezé­sére, aminek meghatározott információtartalma van. Az 1(0) = 0 feltétel hidrológiai értelmezése szin­tén vitatható, mivel a p(x) — 0 egyfelől arra utal, hogy pl. a lehullott csapadék mennyiségének vagy intenzitásának valamilyen felső határa a légköri állapot fizikai, termodinamikai tényezőit illetően eddigi ismereteink szerint nem jelölhető ki, más oldalról azonban a bekövetkezési valószínűségek csökkenése nagyobb műtárgyméretezési kocká­zatot jelentő csapadékoknak felel meg, tehát azok információtartalma egyre nagyobb. Itt jegyezzük meg, hogy a hidrológiában a mért adatok információtartalma egyenesen arányos azok váratlanságával (V), mivel minél váratlanabb pl. egy szélsőségesen nagy csapadék (árvíz), annál több információt szolgáltat. A váratlanság esze­rint fordítottan arányos a bekövetkezési valószínű­séggel. Amennyiben egy adott esemény bekövet­kezése biztos, p—l, akkor váratlansága V—0. Eszerint a csökkenő valószínűségek tartományá­ban az információ egyenesen arányos a váratlan­sággal, míg p — l esetén csak a V — 0 és 1^0 fel­tétel teljesül. Más oldalról az 1(0) =0 feltételre gyakorlatilag nincs mindig szükség, mivel ekkor a hidrológiailag analóg területeken nyert ismeretek (kezdeti vagy alap információk) révén következtethetünk a bennünket érdeklő hidrológiai események bekövet­kezésére akkor is, ha az adott jelenség (pl. csapa­dék, lefolyás) mérési adatsora hiányzik (vagy hiányos). A Shannon által vizsgált hírközlési folyamatban a helyzet lényegesen egyszerűbb, mivel itt a minimálisan szükséges két jel (igen, nem) ós a jelek egymásutánja, rendezettsége szolgáltatja az infor­mációt. Az üzenet az elemi események sorozata és az információmennyiség az egyes jelek által hordozott információk összege. Ennek megfelelően a jelenkénti átlagos információmennyiségek a (feltéve, ha Pi+P 2 + • •. +í>jv = 1) sorral jellemezhetők, amelyben a súlyozás azért szükséges, mivel a jelek általában különböző valószínűséggel fordulnak elő. Ez tehát a már emlí­tett additivitási elv mellett a második posztulátum, amely azt fejezi ki, hogy az egyes információérté­keknek a hozzátartozó valószínűségekkel súlyozott középértékét (az információ várható értékét) te­kintjük a vizsgált információ átlagos értékének. Ez tehát az ún. lineáris középértékképzés elve. A tetszőleges súlyokra való kiterjesztéssel a szak­irodalom részletesen foglalkozott (Rényi, 1960), azonban vizsgált témánk szempontjából első kö­zelítésben ezt a témakört nem érintjük. Nem foglal­kozunk a nem teljes eloszlásokhoz tartozó informá­ciómennyiség kérdésével sem, jóllehet ennek hid­rológiai értelmezése és alkalmazása további ígére­tes lehetőségeket jelenthet. A fentiekből következik, hogy az üzenet egy­mást követő jeleinek várható (átlagos) hozzá­járulása az üzenet információtartalmához: N 1 H= V p k dog -= - Epk dog pk (2.15) k = i p k Neumann János (1965) javaslatára Shannon a 11 értékét formai analógia alapján a (p v p v ..., p H) valószínűségeloszlás entrópiájának nevezte el. A fenti értelmezésből viszont következik, hogy az entrópia függvénynek ki kell elégítenie az alábbi feltételeket: 1. A H értéknek azonosnak kell lennie a p Y változótól függő, folytonos elemi f(pi) = —p\ dog p, függvények összegével. Ez a feltétel hosszú idejű (min 30 év) hidrológiai mérési adatsorok esetén gyakorlati szempontból elfogadható. 2. A f(p{) egy olyan függvény, amelynek értéke Pi—0 és Pi — 1 esetekben egyaránt a zérushoz tart (a biztosan bekövetkező és a be nem következő események nem szolgáltatnak információt). Ezek a feltételek a már elmondottak szerint a hidrológiában vitathatók. 3. Amennyiben az egyes x jelek bekövetkezési valószínűsége azonosan p n = l\N, ahol N az összes jelek száma, akkor az entrópia, N H(x) = 2 hr-lo g ~tjn~) ^ 2 1° g N ( 2­16 ) mivel, N v JL =1 N k = l ill. H(x) = 0, ha valamely k-ra, pk = l és pt — 0, ha i^k tehát, 0^H(x)^HogN. Az adott jelkészlet entrópiája tehát akkor maximális, ha a jelek egyenlő valószínőséggel fordulnak elő, míg ettől eltérő esetekben az entró­pia csökken. Hidrológiai szempontból N jelenti a múltban észlelt összes adatok számát (értékét). Amennyi­ben az eddig észlelt adatok a jövőben egyforma valószínűséggel fordulhatnak elő, akkor az előre­jelzési bizonytalanságunk maximális, a jövőre vonatkozó információ minimális. Amikor viszont az x változó pic=l valószínűséggel csak egyetlen értéket vehet fel, akkor a helyzet fordított. Hidrológiai szempontból elfogadható Wiener (1948) megállapítása, amely szerint az entrópia a rendszer rendezetlenségi fokának, míg az infor­máció a szervezettség fokának mértéke. Az in­formáció a bizonytalanság mérsóldésével növeli a rendezettséget. Minél nagyobb a rendszer szer­vezettsége, annál több információt szolgáltat, te-

Next

/
Thumbnails
Contents