Hidrológiai Közlöny 1973 (53. évfolyam)

5. szám - Dr. V. Nagy Imre–dr. Reimann József: A Balaton tó átlagos havi vízállásának előrejelzése információ-elméleti alapon

210 Hidrológiai Közlöny 1973. 5. sz. Dr. V. Nagy 1.—dr. Reimann J.: A Balaton-tó Ezen entrópiát egy bizonytalansági mérőszámként tekintjük. A bizonytalanság arra vonatkozik, hogy X többféle lehetséges értéket vehet fel a következő megfigyelés során. Ismeretes, hogy a bizonytalan­ság akkor lesz maximális, ha X minden lehetséges értékét egyforma valószínűséggel veszi fel, ami a Jensen-egyenlőtlenség segítségével könnyen be­látható. Vizsgáljuk most az X és F diszkrét valószínű­ségi változókat, legyen P(X=Xi)=pij P{X = yi) = = qj, (i,j=l, 2...n), legyen P(X=x {, Y = y J) = r i j. Számítsuk ki az (X, Y) valószínűségi változó-pár együttes eloszlásának entrópiáját: H(X,F)=- £ X r« l oB r« (3) i ] tehát H(X, F) = H (X/F) + H(F), (5) taink során a sztochasztikus kapcsolat mérésére a I(X; Y) _H(X)-H(X/F) r(X; Y) = — H(X) H(X) = 1_ H(XIY) (7) Amennyiben X és Y független valószínűségi vál­tozók, akkor i rij=Piqj (i, j=\, 2.. ., n), tehát H*(X, Y)=- 2 2 = i j = - 2 ^ PW log Pi - £ pi<li '< >g (li = i i i i = ~ Z) ( r/ i 2 Vi lo g ~~ i i - 2 <Zil° g(? i) = H(X) + H(F) (4) H(X) mérőszámot alkalmaztuk, amely a következő tu­lajdonságokkal rendelkezik: 1. 0==r(X; 2. r(X; F) = 0 akkor és csak akkor, ha X és Y függetlenek; 3. r(X; Y)= 1 akkor és csak akkor, ha X = <p(F), ahol (p egyértékű függvény. Megjegyzendő, hogy a fenti meggondolások fel­használásával az X és Y valószínűségi változók közötti sztochasztikus kapcsolat mérésére könv­nyen konstruálható szimmetrikus mérőszám is. Figyelembe véve, hogy I(X; F) = H(X)-H(X/F) = H(F)-H(F/X), képezzük az R(X; Y) 2I(X; Y ) _ H(X) + H(F) = 1­H(X/F) + H(F/X) H(X) + H(F) (8) Könnyen belátható a feltételes valószínűség definíciójának alapján, hogv H (X, F)s//* (X, F), illetve az előbbiek alapján H(X, F)= 2 P(Y = y j)H(XIY = y i) i - 2 P( Y = y i) • log P( Y = y i) 2 (X = xíI Y = V j) } i A fenti egyenlőség jobb oldalának első tagját H(X/F)-al jelöljük s azt az X változó F-ra vonat­kozó feltételes entrópiájának nevezzük. Ekkor mérőszámot, amely az alábbi tulajdonságokkal rendelkezik: 1. R(X; 7) = R(F; X); 2. 0=§R(X; F)S1. 3. R(X; F) = 0 akkor és csak akkor, ha X és F függetlenek; 4. R(X; F) = l akkor és csak akkor ha X és F között egy egyértelmű (monoton) függvény­kapcsolat áll fenn. Fenti típusú mérőszámok felírhatok természete­sen kettőnél több valószínűségi változó közötti sztochasztikus kapcsolat vizsgálatára is. Pl. ha X, F, Z valószínűségi változók, akkor számíthat­juk az vl7 Y V\-^ H (Z/X, F) i(Z,X, F)_ 1—- , illetve 1 H*(X, F)-H(X, Y) = H(X) — H(X/ F) SO (6) Ugyanis, ugyancsak a Jensen-egyenlőtlenség alap­ján látható,' hogv H(X/F)SH(X). A fenti (6) összefüggés lényegében azt fejezi ki, hogy milyen mértékben csökken az X valószínű­ségi változó jövőbeni értékét illető bizonytalanság akkor, ha F értékét ismerjük. Amennyivel a bi­zonytalanság csökken, annyi információt nyerünk F-ból X-re vonatkozólag. Jelöljük az információ mennyiségét I(X, F)-al, azaz I(X; F) = H*(X; F)-H(X, F) = H(X)-H(X/F)aO amely lényegében az X és F változók közötti sztochasztikus kapcsolatot is mutatja. Vizsgála­R(X, Y,Z) = H(X/ F, Z) + H( F/X, Z) + H(Z/X, F) H(X) + H(F) + H(Z) (0) mérőszámokat, amelyek a fentiekkel analóg tulaj­donságokkal rendelkeznek. Megjegyzendő, hogy az I(X; F) és a o(X; F) korrelációs együttható között egyszerű össze­függést kapunk azon esetben, ha X és F együttes eloszlása kétdimenziós normális eloszlás [1]. Ebben az esetben az X változó szórása D(X) — <x 1 ( tehát az X változó feltételes szórása az Y = y feltétel esetén: T>(XIY-y) = cr 1VT^r ahol q az X és F változók közötti korreláció együtthatója. Amikor akkor a szórás jelen-

Next

/
Oldalképek
Tartalom