Hidrológiai Közlöny 1992 (72. évfolyam)

5-6. szám - V. Nagy Imre: Az információelmélet hidrológiai értelmezésének és alkalmazásának lehetőségei. I. rész

V. NAGY I.: Az információelmélet hidrológiai lehetőségei 259 Az első kórdós az, hogy mennyi az információtartalma (valószínűsége) annak, hogy egy 32 lapból álló csomag­ból egy adott (tetszőleges) lapot kiválasszunk? Ekkor, I = 2log 32=6 bit, mivel, 2 S =2 -2 -2 -2 -2=32 ós a bit az információ dimenzió nélküli egysége. Ez azt jelenti, hogy öt kérdésre van szükség oly módon, hogy a kérdésekre adott válaszok felezzék meg a lehetőségek számát (ha „rosszul" kérdezünk akkor öt kérdés nem lesz elegendő). Amennyiben a válasz egy része már benne volt az előző kérdésre adott válaszban, akkor a válasz redundáns, tehát 1 bit-nól kevesebb információt tartal­maz. Keverjük össze a két kártyaesomagot és húzzunk azokból két tetszőleges kártyát. A kérdés most az, hogy mi a valószínűsége annak, hogy két adott lapot válasz­tunk ki? Mivel a két kártyacsomagot (rendszert) egymástól függetlennek (egymáshoz csak logikailag kapcsolha tó­nak) tekintjük, így azok p x ós p„ állapot valószínűségei alapján az együttes valószínűséggel megadott információ­tartalom (p t =p t= 32): I = *log( P l -p 2) = *log p 1 + 2log p 2 = 5 + 5 = 10 bit. Az információtartalmak tehát így ugyanúgy összegez­hetők, mint az entrópiák és ez a körülmény igazolhatja az információ logaritmikus definícióját. Additív kap­csolódás (alaki azonosság) esetéről van szó, mivel a logaritmikus függvény ugyanolyan tulajdonságokkal rendelkezik (vagy fordítva) mint az entrópia. Shannon kétségtelen érdemei nem vitathatók, azonban a teljesség érdekében megemlítendő, hogy a távközlési rendszerben továbbított infor­máció mérésére elsőként Hartley (1928) adott megoldást, aki szerint az üzenetben foglalt infor­mációmennyiség : I — n 2log N, (2.6) ahol: n — az üzenetben levő jelek száma, N — a jelkészletben levő jelek száma. Eszerint tehát egy N elemű halmaz egy elemének pontos megadására 2log N egységnyi információ­mennyiség szükséges (itt az információmennyiség egysége 1 bit, amely szükséges egy kételemű hal­maz egyik elemének megadásához). Ez lényegében a Szilárd—Boltzmann-féle gon­dolat továbbfejlesztése és hírközlési alkalmazása, azonban Shannon annyiban lépett tovább, hogy az információ fogalmát a valószínűség fogalmával kapcsolta össze akkor, amikor a hírközlést sta­tisztikus jellegűnek tekintette. Ilyen közelítésben a hír vagy üzenet valószínűségszámítási szempont­ból esemény, tehát a forrás (adó) analóg a véletlen kísérlet esemény terével, azaz a hírforrás egy vélet­len kimenetelű kísérlet eseményteréhez tartozó lehetséges események összessége (Fülöp G. 1990). Shannon alapvető érdeme tehát annak a fel­ismerése, hogy a Hartley-féle képlet csak akkor érvényes, ha az N jelkészlet elemeinek bekövet­kezése egyformán valószínű, jóllehet ettől függet­lenül, Wiener (1948) is hasonló következtetésre jutott. Határesetben tehát a Shannon-féle képlet a Hartley-féle képletre redukálódik és mindkettő­ben érvényesül posztulátumként az additivitás és a lineáris középértékképzés elve (Rényi, 1960). Ebből logikusan következik, hogy általában minél kisebb, pontosabban minél azonosabb az egyes állapotok valószínűsége, annál nagyobb az információ, tehát az x jel által hordozott in­formáció x előfordulásának valószínűségétől függ, azaz: I(x)=f[p(x)] (2.7) A kérdés az, hogy milyen meggondolásokból származtatható az f(p) függvény. A (2.4) össze­függés kapcsán bemutatott példa szerint az infor­máció additív jellegű, azaz két, egymástól függet­len esemény bekövetkezése révén kapott informá­ciók összeadódnak: I(x,y) = I(x) + I(y). (2.8) Valószínűségek esetén viszont a szorzástételből következően, két független esemény együttes (vagy egymást követő) bekövetkezésének való­színűsége egyenlő a valószínűségek szorzatával, p(x-y)=p(x)-p(y). (2.9) Ennek megfelelően az f(p) függvény csak logarit­mikus lehet, mivel így tud eleget tenni az additivitás követelményének, mivel log(»-y) = log(a:)+Iogfo) (2.10) Rényi (1960) mutatott rá arra, hogy két valószínű­ségeloszlás direkt szorzatának információeloszlás­függvénye egyenlő két eloszlás információ-el­oszlás függvényének kompozíciójával, ezért el­méleti szempontból a különböző rendű információ­mennyiségek vizsgálata sokkal több felvilágosítást adhatna, mintha csak az entrópiát vizsgáljuk, azonban az egyszerűbb gyakorlati esetekben a Shannon-íéle közelítés mint 1. rendű információ igen jól alkalmazható. Célszerűen, az információmennyiség egységét úgy kell megválasztani, hogy akkor kapjunk egységnyi információt, amikor csupán két, egyformán valószínű esemény valamelyikének bekövetkezésére számítha­tunk ós ezek közül az egyik bekövetkezik (dihotomikus típusú események, ill. fej vagy írás, igen-nem, vagy­vagy stb.). Ilyen esetekben: I(x) = 1, ha p(x) = 1/2 (2.11) tehát a logaritmusfüggvónyben kettes alapú logaritmust kell használni. Ismeretes, hogy az információmennyiség ezen egy­ségét Tukey javaslatát elfogadva 6tí-nek (binary digit unit) nevezték el. Az információ—valószínűség analógia alkalma­zásának azonban elvi korlátját jelenti, az, hogy nem lehet feltétel nélkül elfogadni azt az állítást, amely szerint egy esemény annál több információt szolgáltat, minél kisebb a valószínűsége. Ekkor ugyanis határesetben: p(x)-*0 és /(x)-<=o (2.12) ami nyilvánvalóan ellentmondásos. Mivel a be nem következő, ill. teljesen nyilván­való esemény a hírközlésben nem szolgáltat infor­mációt, azért bevezették az

Next

/
Thumbnails
Contents