Belépés címtáras azonosítással
magyar nyelvű adatlap
Neurális hálózatok
A tantárgy angol neve: Neural Networks
Adatlap utolsó módosítása: 2019. március 29.
Villamosmérnöki szak
Mérnök informatikus szak,
Szabadon választható tantárgy
Dr. Pataki Béla egyetemi docens, MIT
Hadházi Dániel tudományos segédmunkatárs, MIT
A fenti forma a Neptun sajátja, ezen technikai okokból nem változtattunk.
A kötelező előtanulmányi rend az adott szak honlapján és képzési programjában található.
Kötelező:
A tárgyat nem vehetik fel, akik hallgatták a Tanuló és hibrid információs rendszerek (VIMM4373) vagy a Tudásalapú architektúrák (VIMM4246), illetve a tárgy előzményeként szerepelt Neurális hálózatok (VIMM9107) tárgyat.
Algoritmikusan nehezen megoldható feladatok. A tanulás szerepe a feladat-megoldásokban. Gépi tanulás. Ellenőrzött (felügyelt) tanulás.(2 óra)
Tanuláson alapuló elosztott párhuzamos számító rendszerek, neurális hálózatok:Az elemi neuron (perceptron, adaline) felépítése, képességei és a megfelelő felügyelt tanítási algoritmusok. Hibakorrekciós eljárások (gradiens módszerek).(2 óra)
Egy- és többrétegű előrecsatolt neurális hálózat, az előre csatolt hálózatok tanítása: backpropagation algoritmus, Levenberg Marquardt eljárás. MLP (2 óra)
A MLP konstrukciójával kapcsolatos kérdések: képesség, méret, tanítópontok száma, felhasználása, leállási feltétel, regularizáció, stb. (2 óra)
Bázisfüggvényes hálók (RBF) felépítése és konstrukciójuk kérdései: képesség, tanítás, stb. Hálók működésének értelmezése, regularizáció szerepe, MLP-vel történő összehasonlítás (2 óra)
Kernel módszerek. szupport vektor gépek (SVM). Konstrukció, osztályozásra és regresszióra. Működésük értelmezése, optimalizálási feladatuk analízise, Lagrange duális függvény értelmezése. SVM-ek gyakorlati megvalósításának kérdései (6 óra)
A statisztikus tanuláselmélet (SLT) alapjai: kockázat, tapasztalati kockázat, torzítás - variancia dilemma, VC elmélet alapjai, empirikus kockázatminimalizálás konzisztenciája. AZ SLT és az SVM kapcsolata (2 óra)
Neurális hálók tanításának statisztikai értelmezése, ML és MAP becslésre történő visszavezetése. Direkt regularizációk fajtái Tihonov, Lasso, L0 analízise, valamint implementációs kérdései (2 óra)
Lokális és globális visszacsatolást tartalmazó hálózatok. Dinamikus neurális rendszerek és tanításuk: Dinamikus backpropagation, Temporal BP, BPTT, RTRL (4 óra)
Nemlineáris dinamikus rendszerek modellezés neuronhálókkal, modellválasztás, fokszámbecslés Cella alapú visszacsatolt hálózatok típusai és alkalmazásuk, visual attention. (3 óra)
Hosszú távú emlékezet kialakításának problémája, szekvenciális hálók tanításának problémái, ezek lehetséges kezelése. Echo State Network, Long / Short Term Memory (LSTM) alapelve, felépítése, működése (2 óra)
Mély hálók motivációja, illetve új architekturális elemeik (nelinearitások, dropout, batch normalization, skip connection, residual block, stb.). Konstrukciók fő kérdései, főbb problémáik kompenzálása: adatelőfeldolgozás, súly inicializáció, adat augmentáció, tudás transzfer alapú konstrukciójuk (4 óra)
Mély hálók optimalizálási eljárásai: BFGS, L-BFGS, CG, adaptív gradiens módszerek (Adagrad, RMSProp, Adadelta, AdaptiveMomentum), momentumos gradiens módszerek (heurisztikus, Nesterov momentum). Ezek működésének szemléltetése, korlátjaik, hatásosságuk (4 óra)
Konvolúciós neurális hálózatok motivációja, felépítése: konvolúciós réteg, transzponált konvolúció, pooling operátorok. Egyszerűbb alkalmazási példák ismertetése. Népszerűbb CNN modellek (VGG, Inception, Resnet, DenseNet, CapsNet) (4 óra)
Konvolúciós neurális hálók alkalmazása: szemantikus szegmentálás, objektum lokalizáció, objektum szegmentálás. R-CNN, Fast R-CNN, Faster R-CNN, YOLO, SSD, SegNet (2 óra)
Konvolúciós neurális hálók támadhatósága, működésük magyarázata, interpertáció kérdései: LRP, Lime (2 óra)
Nem ellenőrzött tanulás eszközei: klaszterezés, főkomponens analízis, autoenkoder hálók, variációs autoenkóder (VAE). Generative Adversial Network (GAN) felépítése, konstrukciós kérdései: mode collapse, optimalizálási problémák, módosításaik (virutal minibatch, feature matching, cycle GAN, stb.). Félig ellenőrzött tanulás alapproblémája, lehetséges megközelítései (Mean teachers, Virtual Adversial Training, GAN alkalmazása) (6 óra).
Hasonlósági függvények tanulása, few shot learning (1 óra)
A neurális hálózatok gyakorlati alkalmazásainál felmerülő problémák és azok megoldási lehetőségei. (1 óra)
Hardver és szoftver implementálási kérdések. (1 óra)
a. A szorgalmi időszakban: házi feladat bemutató keretében történő elégséges szintű beadása. A feladatbeadás határideje a szorgalmi időszak utolsó hete.
b. A vizsgaidőszakban: szóbeli vizsga
Elővizsga: igény esetén a szorgalmi időszak utolsó hetében
Altrichtre, Horváth, Pataki, Strausz, Takács, Valyon (Szerk: Horváth G.): "Neurális hálózatok" Panem, 2006.
Haykin, S.: "Neural Networks. A Comprehensive Foundation" Second Edition, Prentice Hall. 1999.
Hassoun, M. H.: "Fundamentals of Artificial Neural Networks" MIT press, Cambridge, 1995
Mitchell, T. "Machine Learning" McGraw Hill, New York, 1997.
Schölkopf, B, Buges, C.J.C., Smola, A. J.: "Advances in Kernel Methods, Support Vector Learning" MIT Press, Cambridge, MA. 1999.
Deep Laerning, MIT Press, http://www.deeplearningbook.org/
C.M. Bishop: Pattern Recognition and Machine Learning, Springer, 2006.
A Méréstechnika és Információs Rendszerek Tanszék WWW szerverén található összefoglaló anyagok.