Vízügyi Közlemények, 2023 (105. évfolyam)
2023 / 3. szám
Vízügyi Közlemények, CV. évfolyam, 2023. évi 3. füzet 93 A mesterséges intelligencia (MI) meghatározó ága a gépi tanulás (Gyires- Tóth 2019). A gépi tanulásra alkalmas rendszerek olyan algoritmusok, melyek szabályok explicit megadása nélkül, a folyamatban rögzített minták alapján képesek egy adott folyamatot szabályozó sajátosságok meghatározására. A gépi tanulás napjainkban leginkább hangsúlyos része a mélytanulás. A mélytanulási paradigma neurális hálózatokat alkalmaz. A mély neurális hálózatok - a definíció szerint - az olyan neurális hálózatokat jelölik, amelyekben több mint egy réteg van. A mélytanulás (deep learning) kifejezés a fentieken túl magában foglalja (Gyires-Tóth 2019) az összes olyan elméleti és gyakorlati eredményt [pl. mély hálók tanítása (LeCun et al. 2012), variációs autoenkóderek (Kingma et al. 2013), generatív versengő hálózat (Goodfellow et al. 2014), komplex architektúrák (Szegedy et al. 2017) (Van den Oord et al. 2016) stb.], valamint a szoftver- és hardver-infrastruktúrát, amelyek a mai modem neurális hálózatok hatékony tanításához és futtatásához szükségesek. A mai mély neurális hálók előnye többek között abban rejlik, hogy a folyamatból rögzített adatokat egyszerre tanulja meg a célnak leginkább megfelelő reprezentációra alakítani, illetve modellezni. Más típusú eljárások esetén jellemzően az adatokat szakértők bevonásával előzetesen feldolgozzák (preprocessing) és a célnak leginkább megfelelő formátumra alakítják. Ezt követően tanítják az így kialakított adatbázis adataival a kiválasztott regressziós vagy osztályozó modellt. Az ilyen esetekben a végső modell minősége jelentősen függ a kialakított adatbázistól. 2.2. A mélytanulás történeti áttekintése A mélytanulás előzményei az 1940-es évekre nyúlnak vissza, amikor az idegsejt matematikai modelljére dolgoztak ki javaslatot (McCulloch et al. 1943). Ezt követően Frank Rosenblatt megalkotta az egy- és több rétegű perceptront, amely a mai mélytanuló hálózatok (Rosenblatt 1961) alapját jelentette. A többrétegű perceptron hatékony tanítását lehetővé tevő hibavisszaterjesztés eljárásához szükséges automatikus differenciálást Seppo Linnainmaa dolgozta ki (Linnainmaa 1970), majd ennek neurális hálózatokban történő alkalmazását David Rumelhart, Geoffrey Hinton és Ronald Williams hajtotta végre (Rumelhart et al. 1986). A mély neurális hálózatok tanításához ma is ezt az algoritmust alkalmazzák. A többrétegű perceptron, amit ma teljes neurális összeköttetésű neurális hálózatnak is neveznek, a be- és kimenet közötti leképzést tanulja meg az adatokból (2. ábra), azonban jellemzően ezek a rendszerek nem képesek a bemenetekben található hely- vagy időbeli mintázatok megtanulására. Ezáltal a két bemenet egymáshoz viszonyított távolsága nem jelent a hálózat számára többlet információt.