Vízügyi Közlemények, 2023 (105. évfolyam)

2023 / 3. szám

Vízügyi Közlemények, CV. évfolyam, 2023. évi 3. füzet 93 A mesterséges intelligencia (MI) meghatározó ága a gépi tanulás (Gyires- Tóth 2019). A gépi tanulásra alkalmas rendszerek olyan algoritmusok, melyek szabályok explicit megadása nélkül, a folyamatban rögzített minták alapján ké­pesek egy adott folyamatot szabályozó sajátosságok meghatározására. A gépi tanulás napjainkban leginkább hangsúlyos része a mélytanulás. A mélytanulási paradigma neurális hálózatokat alkalmaz. A mély neurális háló­zatok - a definíció szerint - az olyan neurális hálózatokat jelölik, amelyekben több mint egy réteg van. A mélytanulás (deep learning) kifejezés a fentieken túl magában foglalja (Gyires-Tóth 2019) az összes olyan elméleti és gyakorlati ered­ményt [pl. mély hálók tanítása (LeCun et al. 2012), variációs autoenkóderek (Kingma et al. 2013), generatív versengő hálózat (Goodfellow et al. 2014), komplex architektúrák (Szegedy et al. 2017) (Van den Oord et al. 2016) stb.], valamint a szoftver- és hardver-infrastruktúrát, amelyek a mai modem neurális hálózatok hatékony tanításához és futtatásához szükségesek. A mai mély neurális hálók előnye többek között abban rejlik, hogy a folya­matból rögzített adatokat egyszerre tanulja meg a célnak leginkább megfelelő reprezentációra alakítani, illetve modellezni. Más típusú eljárások esetén jel­lemzően az adatokat szakértők bevonásával előzetesen feldolgozzák (prepro­cessing) és a célnak leginkább megfelelő formátumra alakítják. Ezt követően tanítják az így kialakított adatbázis adataival a kiválasztott regressziós vagy osz­tályozó modellt. Az ilyen esetekben a végső modell minősége jelentősen függ a kialakított adatbázistól. 2.2. A mélytanulás történeti áttekintése A mélytanulás előzményei az 1940-es évekre nyúlnak vissza, amikor az idegsejt matematikai modelljére dolgoztak ki javaslatot (McCulloch et al. 1943). Ezt kö­vetően Frank Rosenblatt megalkotta az egy- és több rétegű perceptront, amely a mai mélytanuló hálózatok (Rosenblatt 1961) alapját jelentette. A többrétegű per­­ceptron hatékony tanítását lehetővé tevő hibavisszaterjesztés eljárásához szük­séges automatikus differenciálást Seppo Linnainmaa dolgozta ki (Linnainmaa 1970), majd ennek neurális hálózatokban történő alkalmazását David Rumelhart, Geoffrey Hinton és Ronald Williams hajtotta végre (Rumelhart et al. 1986). A mély neurális hálózatok tanításához ma is ezt az algoritmust alkalmazzák. A többrétegű perceptron, amit ma teljes neurális összeköttetésű neurális háló­zatnak is neveznek, a be- és kimenet közötti leképzést tanulja meg az adatokból (2. ábra), azonban jellemzően ezek a rendszerek nem képesek a bemenetekben található hely- vagy időbeli mintázatok megtanulására. Ezáltal a két bemenet egy­máshoz viszonyított távolsága nem jelent a hálózat számára többlet információt.

Next

/
Thumbnails
Contents