Hidrológiai Közlöny 1965 (45. évfolyam)
8. szám - Vágás István: Árhullámok entrópia-elmélete
348 Hidrológiai Közlöny 1965. 8. sz. Vágás I.: Árhullámok entrópia-elmélete [3, 4], információelméleti megfelelője pedig Shannon törvénye [2, 4, 5]. A (2) egyenlet alapján mondhatjuk, hogy a kísérlet M számú kimenetele közül egyre átlagosan S á = -^-]nM = — k-p-lnp (3) értékű határozatlanság esik [5]. Amennyiben a kísérleti eredmények bekövetkezési valószínűsége nem egyenlő, és így az A, jelű eredmény P( A,) = p v az A 2 jelű eredmény P(A 2) = p 2, egy általános, Ai jelű eredmény P(Ai) = pi valószínűségű, a kísérlet egészére vonatkozó határozatlanság mértéke : S = — k-[p 1-lnp 1 + p 2Anp 2 -f.. . + p n-lnpn\ = = — k • V pi • In pi (4) Az $-sel jelölt számértéket entrópiának nevezzük [2, 4, 5]. Ilyen előjel mellett tulajdonképpen az információelmélet negentrópia-fogalmát használjuk. Minthogy a valószínűségek számértékei 1-nél mindig kisebbek, ezek logaritmusa negatív előjelű lesz. Ezt az előjelet azonban a képlet egészére vonatkozó mínusz jel átváltja. így a határozatlanság növekedésével, tehát a valószínűségek csökkenésével az S entrópiaérték növekszik. Ha a kísérletek eredményének valószínűsége folytonos, p = p(x) alakú sűrűségfüggvénnyel fejezhető ki, a határozatlanság mértékét az S(x) = — j" p(x) • In p(x) • dx (5) integrállal arányos számérték méri. Itt az integrálási konstansnak is szerepe lehet, ezért S értékei — külön bearányosítás nélkül —- viszonylagosnak tekintendők. Bizonyosság esetén a valószínűségnek egységnyire kell adódnia. Ezért a p(x) függvény mértékegységei a -tí p(x) • da; = 1 (6) 2. Az entrópiát meghatározó (2) összefüggésnek az egyenlőtlen valószínűségi eloszlásokra érvényes, (4) egyenletben kifejezett általánosítását az alábbiakban [2] és [3] alapján kissé részletesebben is levezetjük. Legyen a különböző, A v A 2,... A n jelű kísérleti eredmények bekövetkezési valószínűsége: = Pv P{A 2) = p 2.. .P{Ai) = V i, ahol P l + + p 2 -f . . . -\-p n = 1 ; előfordulásuk gyakoriságait pedig rendre : N x, N 2,.. .Ni, ahol E Ni = N = = N, + N 2+...+N n és így: N 1 = N-p 1; N 2 = N • p 2. . .N n = N -p n. Ha minden lehetséges eredmény különböznék egymástól, az eredmények M — N\ számú kombinációban váltakozhatnának. Azonban az Aj jelű eredmény N-p x-szer, az A 2 jelű eredmény N -p 2-szer stb. megismétlődik,, s így — ismétléses permutációkról lévén szó : JV! M = (7) n(N. P iy. É = 1 számú olyan változat lehetséges, amelyben a kombinációk nem ismétlődnek meg. Képezzük a. (2)-nek megfelelően M logaritmusát : In M = In (ÍV!) — ^ In (N-pi)\ (8) í-i feltételnek megfelelően választandók meg. Az entrópiafogalom helyes értelmezésére még két fontos megjegyzést fűzünk az elmondottakhoz : 1. A határozatlanság mértékéül választott S entrópiaértékek skálájához nem találhatunk elegendő „természetes" meghatározási szempontot [3]. Az egymástól független kísérleti eredmények együttes határozatlanságának a részkísérleti határozatlanságok algebrai összegéből történt meghatározása alapjában véve megállapodás kérdése volt. Az együttes határozatlanságot más formában is definiálhattuk volna, természetesen akkor a valószínűségi értékek is más összefüggésükben kerültek volna az entrópiaképletbe. Az (í) egyenlethez tartozó gondolatmenet egyike az egyenlően jogosult lehetőségeknek, alkalmazását a matematikai egyszerűség, a hőelmélet járt útjai, és a természeti jelenségek leírásának kedvező alakja indokolhatják. tekintve, hogy a (7) egyenletben a szorzatot jelentő ÍZ utasítás logaritmusképzés esetén összegezéssé, E-véi egyszerűsödik. Ha N és N •p i értéke igen nagy, Stirling képlete alkalmazható : In (AH) f» N-lnN. (9) Ezt a (8) egyenletbe téve : n InMrvN-lnN — Y N -pt-In (N • p {) = = N-lnN— N-pi-lnN— ^ N-pi-ln Pi Azonban 1 ^^ n n y N-pi-lnN = N-lnN- V = N-lnN, hiszen : y lP i=1. Minthogy a (2) az N = 1 összgyakoriságot jellemzi, A r-nel osztanunk kell, és k_ N S = = — A 2 N-p i-\np i = rt = — k - V pi. In pi, (11) ami bizonyítandó volt. A folytonos esetekre vonatkozó (5) egyenlet érvényessége ennek már egyszerűen igazolható következménye.