Hidrológiai Közlöny 2011 (91. évfolyam)

1. szám - Koncsos Tamás–Melicz Zoltán: Eleveniszapos szennyvíztisztító rendszerek elfolyó vízminőségének előrejelzése neurális hálóval

16 HIDROLÓGIAI KÖZLÖNY 2011. 91. ÉVF. 1. SZ. amelyet a továbbiakban ismertetünk egy MLP háló, mely a definíció szerint jel előreterjedésü (előrecsatolt) és fel­ügyelt tanítást igényel. A mesterséges neurális hálók két fázisban működnek. Az első fázis a tanulás, ennél a folyamatnál mintákat kell megadni a bemeneten vektorok formájában. A felügyelt tanulás esetében minden bemeneti vektorhoz definiálni kell egy erre adott választ, az elvárt eredményt. A neurá­lis háló második fázisban számol, ilyenkor a bemeneti mintákra adott válasz lekérdezhető. A hálók a tanult mintákat a klasszikus értelmezés szerint nem tárolják el, hanem egy függvény-approximációt valósítanak meg, mely a legjobban íija le a minták közötti összefüggést. A háló e képessége miatt adattömörítés és asszociáció válik lehetővé. A mesterséges neurális hálók ötletét az idegrendszer működése adta. Az idegrendszer legkisebb egységét al­kotják az idegsejtek más néven neuronok. A neuronok bemenetei a dendritek, ezek más idegsejtekhez csatla­koznak. A feldolgozást a sejtmag végzi. Az eredmény át­adódik az axonon keresztül a többi neuronhoz. Az ismert struktúra átültethető a matematika nyelvére. A háló alap­egységei a perceptronok avagy neuronok: 1. ábra. A mesterséges neuron (perceptron). Xi : bemeneti értékek, Wi : súlyok, b: konstans bemenet, Y: a kimenet. A perceptronok feladata a neuronok közötti kommu­nikáció lebonyolítása. A súlyozott bemeneti jelek egy át­viteli függvényen keresztül adódnak át a következő neu­ronokhoz. Az MLP (Multilayer Perceptron) architektúra esetében a neuronok rétegbe vannak rendezve. A réteg a neuronok egy halmaza, melyek egymástól függetlenek, egymáshoz nem kapcsolódnak. A réteg neuronjai csak egy másik réteg neuronjaival lehetnek összekapcsolva. Az MLP esetében legalább két réteg szükséges, innen az elnevezés. Két réteg esetében az első a rejtett réteg, a második a kimeneti. Az MLP univerzális függvény- app­roximátor, de a függvényközelítés megvalósíthatósága nagyban függ a rejtett rétegek, illetve az alkalmazott ne­uronok számától. Sajnos a rejtett rétegek és neuronok szükséges számával kapcsolatban egzakt mennyiség nem adható, mivel ez a keresett függvény komplexitásától függ, illetve a keresett függvény sokszor ismeretlen. Az MLP tanítása backpropagation módszerrel törté­nik, melynek lépései a hibaminta megállapítása és a ki­meneti rétegből kiindulva a rejtett rétegek neuronsúlyai­nak a korrigálása. A rétegek neuronsúlyait, azaz a neuro­nok közötti jelátviteli kapcsolat súlyát egyenként kell módosítani. A tanulás iteratív jellegű, a folyamat során a súlyok közelítenek egy bizonyos értékhez (esetleg osz­cillálnak). A backpropagation a lokális kereső algoritmu­sok családja, munkánk során az egyik leggyorsabb eljá­rást, a konjugált gradiens módszert alkalmaztuk. 2. ábra. A két rétegű MLP A tapasztalatok alapján a neurális háló kiválóan alkal­mazható interpoláció számításnál. Az interpolálás eseté­ben a meglevő értéksorok hiányzó tagjaira teszünk meg­állapítást. Az extrapolálásnál a mérési értéktartományon kívül eső értékeket becsüljük, melyre a rendszer nem al­kalmas. Fontos szempont a megválasztott paraméterek száma, ugyanis a dimenzió növekedésével egyúttal a ta­nításhoz felhasználandó minták szükséges száma is nő. A paraméterek helyes megválasztása a következő szem­pont. A neurális háló nem ismeri, nem ismerheti a para­méterek jelentését, feladata csak annyiból áll, hogy ösz­szefüggést találjon a bemenet és a kimenet között. Irrele­váns paraméterek, melyek nem játszanak szerepet a cél­függvény megtalálásában helytelen függvényillesztést e­redményezhetnek, ha egyben a releváns paraméterek is hiányoznak. Még abban az esetben is helytelen füg­gvényillesztés következhet be, ha a felvett paraméterek helyesek, de az adatok nem elég reprezentatívak. Összes­ségében azt mondhatjuk, hogy a lehető legkevesebb, de még elégséges reprezentatív ponttal kell megtanítanunk a neurális hálót a célfüggvényre. A célunk tehát annak vizsgálata, hogy a neurális háló képes-e, szennyvíztisztító rendszer elfolyó szennyvízmi­nőségének meghatározására a befolyó vízminőség isme­rete alapján. A célfüggvény egy elődenitrifikációs telep belső folyamatainak nyomon követése. A szennyvíztisztító telep szimulációjával kapcsolatos legnagyobb kihívás az, hogy a rendszer dinamikus, a következő állapot függ az előző időpillanat állapotától és egyidejűleg iszap és nitrát recirkuláció is fellép. Felmerül a kérdés, hogy az MLP vajon alkalmas-e egy dinamikus modell approximációjára. A probléma megoldására hasonló esetekben ezért leggyakrabban rekurrens idősorelemző rendszereket alkalmaznak, mint az LSTM (Long Short­Term Memory). Az MLP struktúrájánál fogva nem visszacsatolt, a jel előre teijed, így a korábbi állapotokat is figyelembe kell venni valamilyen módon. A neurális háló bemeneti paraméterei közé fel lehet venni a recirkulált szennyvízelegy paramétereit. kimenet 2.réteg bemenet

Next

/
Oldalképek
Tartalom