Belépés címtáras azonosítással
magyar nyelvű adatlap
Neurális hálózatok
A tantárgy angol neve: Neural Networks
Adatlap utolsó módosítása: 2023. október 18.
Villamosmérnöki szak Mérnök informatikus szakAlkalmazott matematikus szakSzabadon választható tantárgy
Hadházi Dániel, tudományos segédmunkatárs, MIT
Dr. Bolgár Bence, óraadó, MIT
Algoritmikusan nehezen megoldható feladatok. A tanulás szerepe a feladatmegoldásokban. Gépi tanulás alapjai. Felügyelt tanulás. (2 óra)
Tanuláson alapuló elosztott párhuzamos számító rendszerek, neurális hálózatok: Az elemi neuron (perceptron, adaline) felépítése, képességei és a megfelelő felügyelt tanítási algoritmusok. Hibakorrekciós eljárások (gradiens módszerek). (3 óra)
Egy- és többrétegű előrecsatolt neurális hálózat, az előre csatolt hálózatok tanítása: backpropagation algoritmus, Levenberg-Marquardt-eljárás, bactracking line search alapú optimalizáció. (3 óra)
A MLP konstrukciójával kapcsolatos kérdések: képesség, méret, tanítópontok száma, felhasználása, leállási feltétel, regularizáció, korai leállás regularizációs hatásának értelmezése stb. (3 óra)
Bázisfüggvényes hálók (RBF) felépítése és konstrukciójuk kérdései: képesség, tanítás, stb. Hálók működésének értelmezése, regularizáció szerepe, MLP-vel történő összehasonlítás. (2 óra)
Kernel módszerek: alapötletük, kernel függvények. Szupport vektor gépek (SVM). Konstrukció, osztályozásra és regresszióra (gyengített és gyengítés nélküli változatok). Működésük, viselkedésük értelmezése, optimalizálási feladataik analízise, Lagrange duális optimalizáció értelmezése. SVM-ek gyakorlati megvalósításának kérdései, SMO eljárással a tanítás implementációja. (8 óra)
A statisztikus tanuláselmélet (SLT) alapjai: kockázat, tapasztalati kockázat, torzítás - variancia dilemma, VC elmélet alapjai, empirikus kockázatminimalizálás konzisztenciája. AZ SLT és az SVM kapcsolata. (2 óra)
Neurális hálók tanításának statisztikai értelmezése, ML és MAP becslésre történő visszavezetése. Direkt regularizációk fajtái Tikhonov, Lasso, L0 analízise, valamint implementációs kérdései. (2 óra)
Szekvenciális és visszacsatolt neurális hálózatok: lokális és globális visszacsatolást tartalmazó hálózatok. Dinamikus neurális rendszerek és tanításuk: Dinamikus backpropagation, Temporal BP, BPTT, RTRL, előre csatolt szekvenciális hálózatoknál regresszorvektor választásának kérdése torzítás-variancia dilemma szempontjai mentén. (6 óra)
Hosszú távú emlékezet kialakításának problémája, szekvenciális hálók tanításának problémái, ezek lehetséges kezelése. Echo State Network, Long / Short Term Memory (LSTM) alapelve, felépítése, működése, transformer architektúrák motivációja, alkalmazási lehetőségeik, konstrukciójuk gyakorlati nehézségei. (4 óra)
Mély hálók motivációja, illetve új architekturális elemeik (nemlinearitások, dropout, batch normalization, skip connection, residual block, stb.). Konstrukciók fő kérdései, főbb problémáik kompenzálása: adat előfeldolgozás, súly inicializáció, adat augmentáció, tudás transzfer alapú konstrukciójuk. (4 óra)
Mély hálók optimalizálási eljárásai: BFGS, L-BFGS, CG, adaptív gradiens módszerek (Adagrad, RMSProp, Adadelta, AdaptiveMomentum), momentumos gradiens módszerek (Polyak, Nesterov momentum). Ezek működésének szemléltetése, korlátjaik, hatásosságuk. Optimalizációs eljárások összevetése. (5 óra)
2D/ 3D konvolúciós neurális hálózatok motivációja, felépítése: konvolúciós réteg, transzponált konvolúció, pooling operátorok. Egyszerűbb alkalmazási példák ismertetése. Népszerűbb CNN metamodellek (VGG, Inception, Resnet, DenseNet, CapsNet) áttekintése. (5 óra)
Konvolúciós neurális hálók alkalmazása: szemantikus szegmentálás, objektum lokalizáció és detekció, objektum szegmentálás problémakörökre. R-CNN, Fast R-CNN, Faster R-CNN, YOLO, SSD, SegNet. (3 óra)
Konvolúciós neurális hálók támadhatósága, működésük magyarázata, interpretáció kérdései: LRP, Lime. (2 óra)
Hasonlósági függvények tanulása, few shot learning. (1 óra)
a. A szorgalmi időszakban:
Házi feladat (elégséges szintű megoldása és egy bemutató keretében történő prezentálása). A feladatbeadás határideje a szorgalmi időszak utolsó hete.
b. A vizsgaidőszakban: szóbeli vizsga.
Altrichter, Horváth, Pataki, Strausz, Takács, Valyon (Szerk: Horváth G.): "Neurális hálózatok" Panem, 2006.
Haykin, S.: "Neural Networks. A Comprehensive Foundation" Second Edition, Prentice Hall. 1999.
Hassoun, M. H.: "Fundamentals of Artificial Neural Networks" MIT press, Cambridge, 1995
Mitchell, T. "Machine Learning" McGraw Hill, New York, 1997.
Schölkopf, B, Buges, C.J.C., Smola, A. J.: "Advances in Kernel Methods, Support Vector Learning" MIT Press, Cambridge, MA. 1999.
Deep Laerning, MIT Press, http://www.deeplearningbook.org/
C.M. Bishop: Pattern Recognition and Machine Learning, Springer, 2006.