Hidrológiai Közlöny 1992 (72. évfolyam)
5-6. szám - V. Nagy Imre: Az információelmélet hidrológiai értelmezésének és alkalmazásának lehetőségei. I. rész
258 HIDROLÖGIAI KÖZLÖNY 1992. 72. ÉVF. 5—6. SZAM Példaként értelmezzük egy c fajhőjű, m tömegű, 60 °C hőmérsékletű edény víz entrópiáját, mint egy legegyszerűbb ,,rendszer"-ót. A benne foglalt hőmennyiség: Q=c-m-T (1.2) amelyben a T hőmérséklet számítási intervalluma a 0°C =273,1 °K és 50 °C =323,1 °K közötti. Az entrópia: 323,1 S-J 273,1 dQ 323,1 273,1 / d T „ 323,1 = c •m -rin TI = c •m 273,1 [ fok J Megjegyzendő, hogy az entrópia fogalom statisztikus értelmezése Szilárd Leó (1929) fizikai kísérleteiben jelenik meg elsőként, azonban a matematikai megfogalmazás már Boltzmann-tói származik. Eszerint az entrópia (S) és a termodinamikai valószínűség (W) közötti kapcsolat: £ = &.ln W (2.1) A rendszer entrópiáját pozitív számérték fejezte ki. A példa folytatása két rendszer vizsgálata. Legyen az első rendszer az előbbi, in tömegű és 50 °C hőmérsékletű víz, legyen a második rendszer ugyanaz az m tömegű, de 20 °C hőmérsékletű víz. Si =0,168 -c -m (erg/fok) 293,1 =c -m -[In T] =0,071 -c •m (erg/fok) 273,1 A két különálló rendszer egyesített — összegzett — entrópiája: S =S 1 +S 2 =0,168 +0,071 =0,239 -c •m (erg/fok) Egyesítsük most a valóságban is a kót különböző hőmérsékletű edény vizet. Az egyesített tömeg M —m + + m=2-m, a közös hőmérséklet 2 1 = 35°C. A közös entrópia: 308,1 S 1) t =2 -c -m -[In T] =0,241 -c -m (erg/fok) z7o, 1 A számértékek is mutatják, hogy /S'i, 2>6', tehát azt kaptuk, hogy két különböző hőmérsékletű, azonos fajhőjű víztömeg egyesítése után a teljes rendszer entrópiája növekszik a hőkiegyenlítődés miatt. A későbbi statisztikus értelmezésre utalva megjegyezzük, hogy rendezetlen (valószínűtlen) állapotnak nevezzük azt, hogy a víztömegek hőmérséklete az egyesítés után is különböző marad és rendezett (valószínű) állapotnak nevezzük a kiegyenlítődés utáni helyzetet és ehhez nagyobb entrópia tartozik. Arról van szó, hogy az egyesített rendszer „önmagába fordul", növekszik a lehetséges mikroállapotok száma, így a rendezettségi mérőszám (entrópia) is növekszik. 2. Az entrópia fogalom statisztikus értelmezése Az entrópia és a rendezetlenség (rendezettség) összefüggését Boltzmann adta meg a termodinamikai valószínűség fogalmának bevezetése révén. Eszerint az általunk észlelt anyagok, objektumok mikrorendszerek sokaságából állanak és ezek állapota határozza meg azok észlelhető makroállapotát, tehát ugyanazon makroállapotot több, különböző mikroállapot (rendszer) eredményezhet. A felismerés lényege az volt, hogy az adott makroállapotot megvalósító különböző mikroállapotok száma arányos (egyenlő) az illető makroállapot termodinamikai valószínűségével. ahol: k — a Boltzmann-féle, az entrópiával azonos dimenziójú állandó, azaz k= 1,36-10-10 (erg/fok); W — a rendszer állapotának termodinamikai valószínűsége (dimenzió nélküli mérőszám), tehát más módon kifejezve: S=-/c-lnp, p=llW. (2.2) Mivel a mikroállapotok megvalósulásának (P) valószínűségei csak akkor egyenlők (tiszta valószínűségi rendszer, teljesen véletlen állapotok) ha energiaállapotuk egyenlő, így energiára nyitott rendszerekre érvényes az 8= -k-Zpi-lnpi (2.3) feltétel, ahol: p — az i-edik mikroállapot megvalósulásának energiafüggő valószínűsége. Nyilvánvaló, hogy a (2.3) összefüggés zárt rendszerek esetén egyenlő a (2.2) összefüggéssel. Ilyen előjel mellett lényegében az információelmélet negentrópia fogalmát használjuk. Shannon (1948) érdeme az, hogy felismerte az entrópia és az információtartalom (/) közötti fogalmi analógiát (véleményem szerint nem azonosságot) és azt az I = K -In p (2.4) összefüggéssel adta meg, ahol: p — a lehetőségek számát, ill. a rendszer állapotvalószínűségét jellemző, dimenzió nélküli mérőszám, K — határozatlan állandó, amelynek „alkalmas" megválasztása esetén felírható, hogy: I= 2log p. (2.5) Az egymástól független kísérleti eredmények együttes határozatlanságának a részkísérleti határozatlanságok algebrai összegéből való meghatározása lényegében megállapodás kérdése, mivel az együttes határozatlanságot más formában is lehetne definiálni és akkor a valószínűségi értékek is más összefüggésben kerültek volna az entrópiaképletbe (Vágás, 1965). Az általánosan használatos információ-elméletben tehát (a hőelmélettel szemben) az entrópia értékei a bizonytalanság fokával növekednek, tehát a kisebb valószínűségű állapothoz nagyobb entrópiaértékek tartoznak. A megállapodás szerint definiált információtartalomnak az entrópiával azonos (analóg) összegződésére utal az alábbi klasszikus példa. Adott két, egyenként 32 db lapból álló kártyacsomag esete.