Hidrológiai Közlöny 2011 (91. évfolyam)
1. szám - Koncsos Tamás–Melicz Zoltán: Eleveniszapos szennyvíztisztító rendszerek elfolyó vízminőségének előrejelzése neurális hálóval
16 HIDROLÓGIAI KÖZLÖNY 2011. 91. ÉVF. 1. SZ. amelyet a továbbiakban ismertetünk egy MLP háló, mely a definíció szerint jel előreterjedésü (előrecsatolt) és felügyelt tanítást igényel. A mesterséges neurális hálók két fázisban működnek. Az első fázis a tanulás, ennél a folyamatnál mintákat kell megadni a bemeneten vektorok formájában. A felügyelt tanulás esetében minden bemeneti vektorhoz definiálni kell egy erre adott választ, az elvárt eredményt. A neurális háló második fázisban számol, ilyenkor a bemeneti mintákra adott válasz lekérdezhető. A hálók a tanult mintákat a klasszikus értelmezés szerint nem tárolják el, hanem egy függvény-approximációt valósítanak meg, mely a legjobban íija le a minták közötti összefüggést. A háló e képessége miatt adattömörítés és asszociáció válik lehetővé. A mesterséges neurális hálók ötletét az idegrendszer működése adta. Az idegrendszer legkisebb egységét alkotják az idegsejtek más néven neuronok. A neuronok bemenetei a dendritek, ezek más idegsejtekhez csatlakoznak. A feldolgozást a sejtmag végzi. Az eredmény átadódik az axonon keresztül a többi neuronhoz. Az ismert struktúra átültethető a matematika nyelvére. A háló alapegységei a perceptronok avagy neuronok: 1. ábra. A mesterséges neuron (perceptron). Xi : bemeneti értékek, Wi : súlyok, b: konstans bemenet, Y: a kimenet. A perceptronok feladata a neuronok közötti kommunikáció lebonyolítása. A súlyozott bemeneti jelek egy átviteli függvényen keresztül adódnak át a következő neuronokhoz. Az MLP (Multilayer Perceptron) architektúra esetében a neuronok rétegbe vannak rendezve. A réteg a neuronok egy halmaza, melyek egymástól függetlenek, egymáshoz nem kapcsolódnak. A réteg neuronjai csak egy másik réteg neuronjaival lehetnek összekapcsolva. Az MLP esetében legalább két réteg szükséges, innen az elnevezés. Két réteg esetében az első a rejtett réteg, a második a kimeneti. Az MLP univerzális függvény- approximátor, de a függvényközelítés megvalósíthatósága nagyban függ a rejtett rétegek, illetve az alkalmazott neuronok számától. Sajnos a rejtett rétegek és neuronok szükséges számával kapcsolatban egzakt mennyiség nem adható, mivel ez a keresett függvény komplexitásától függ, illetve a keresett függvény sokszor ismeretlen. Az MLP tanítása backpropagation módszerrel történik, melynek lépései a hibaminta megállapítása és a kimeneti rétegből kiindulva a rejtett rétegek neuronsúlyainak a korrigálása. A rétegek neuronsúlyait, azaz a neuronok közötti jelátviteli kapcsolat súlyát egyenként kell módosítani. A tanulás iteratív jellegű, a folyamat során a súlyok közelítenek egy bizonyos értékhez (esetleg oszcillálnak). A backpropagation a lokális kereső algoritmusok családja, munkánk során az egyik leggyorsabb eljárást, a konjugált gradiens módszert alkalmaztuk. 2. ábra. A két rétegű MLP A tapasztalatok alapján a neurális háló kiválóan alkalmazható interpoláció számításnál. Az interpolálás esetében a meglevő értéksorok hiányzó tagjaira teszünk megállapítást. Az extrapolálásnál a mérési értéktartományon kívül eső értékeket becsüljük, melyre a rendszer nem alkalmas. Fontos szempont a megválasztott paraméterek száma, ugyanis a dimenzió növekedésével egyúttal a tanításhoz felhasználandó minták szükséges száma is nő. A paraméterek helyes megválasztása a következő szempont. A neurális háló nem ismeri, nem ismerheti a paraméterek jelentését, feladata csak annyiból áll, hogy öszszefüggést találjon a bemenet és a kimenet között. Irreleváns paraméterek, melyek nem játszanak szerepet a célfüggvény megtalálásában helytelen függvényillesztést eredményezhetnek, ha egyben a releváns paraméterek is hiányoznak. Még abban az esetben is helytelen függvényillesztés következhet be, ha a felvett paraméterek helyesek, de az adatok nem elég reprezentatívak. Összességében azt mondhatjuk, hogy a lehető legkevesebb, de még elégséges reprezentatív ponttal kell megtanítanunk a neurális hálót a célfüggvényre. A célunk tehát annak vizsgálata, hogy a neurális háló képes-e, szennyvíztisztító rendszer elfolyó szennyvízminőségének meghatározására a befolyó vízminőség ismerete alapján. A célfüggvény egy elődenitrifikációs telep belső folyamatainak nyomon követése. A szennyvíztisztító telep szimulációjával kapcsolatos legnagyobb kihívás az, hogy a rendszer dinamikus, a következő állapot függ az előző időpillanat állapotától és egyidejűleg iszap és nitrát recirkuláció is fellép. Felmerül a kérdés, hogy az MLP vajon alkalmas-e egy dinamikus modell approximációjára. A probléma megoldására hasonló esetekben ezért leggyakrabban rekurrens idősorelemző rendszereket alkalmaznak, mint az LSTM (Long ShortTerm Memory). Az MLP struktúrájánál fogva nem visszacsatolt, a jel előre teijed, így a korábbi állapotokat is figyelembe kell venni valamilyen módon. A neurális háló bemeneti paraméterei közé fel lehet venni a recirkulált szennyvízelegy paramétereit. kimenet 2.réteg bemenet