Syllabus del Corso di Reti Neurali  (6 crediti) - a.a. 2003/04

Docente: Francesco Masulli.
http://www.disi.unige.it/person/MasulliF/syllabus-rn03.html
Ultima modifica: 23 Dicembre 2003.


Macchine ad appredimento automatico

Apprendimento automatico - Macchine ad apprendimento - Compiti di apprendimento - Classificazione - Regressione - Bias/variance tradeoff - Stima di densita' di probabilita' - Clustering e quantizzazione vettoriale - Funzioni approssimanti - Proprieta' di approassimazione universale di funzioni : Polinomi e funzioni semiparametriche - Interpretazione connessionista di reti multistrato feed-forward - Teoria statistica dell'apprendimento - Paradimi di apprendimento Supervisonato, non-supervisionato, con rinforzo - Generalizzazione - Training set, validation set, test set - Misure di similarita`/dissimilarita` - Overfitting/Overtraining - Approcci all'apprendimento parametrico e non-parametrico - Principi di apprendimento per modelli paramterici - Massima verosomiglianza - Metodi non- parametrici - Regole del primo vicino e dei k primi vicini - Course of dimensionality - Complessita' di insiemi di funzioni - Numero parametri nei polinomi e nelle reti neurali - Dimensione di Vapnik-Chervonenkis - Principi induttivi - Minimum description length - Penalizzazione/regolarizzazione - Mimizzazione del rischio strutturale.

Apprendimento Bayesiano

Classificazione supervisionata e non supervisionata - Regole di decisione - Superfici di decisione - Funzioni discriminanti - Regioni di decisione - Confini di decisione  - Teoria delle  decisioni di Bayes - Minimizzazione del rischio - Applicazione alla classificazione - Funzioni discriminanti per distribuzione normale dei pattern -  - Classificatori supervisionati parametrici - Stima con massima verosomiglianza - Stima Bayesiana - Classificatori supervisionati non parametrici  - K- nearest neighbor - Condensed Nearest Neigbor - Classificatore Naive di Bayes - Applicazione alla classificazione del testo: Filtri anti-SPAM.

Reti Neurali

Apprendimento con supervisore

Neurone e reti di neuroni biologici - Neuroni matematici - Neurone di Mc Culloch e Pitts - Percettroni semplici - Unita' deterministica a soglia o Linear Threshold Unit - Problemi linearmente separabili e problemi non linearmente separabili - Regole hebbiane per LTU - Teorema di convergenza per LTU - Unita' a funzione di attivazione lineare o ADALINE - Apprendimento mediate discesa a gradiente - Apprendimento by pattern o by epoch - Equivalenza di classificatori gaussiani e ADALINE - Unita' a funzione di attivazione non lineare - Percettroni multistrato con unita' tipo LTU - Esistenza della soluzione per problemi non linearmente separabili - Soluzione problema XOR - Percettrone multistrato con unita' a funzione di attivazione non lineare - Regola di apprendimento Back-Propagation - Criteri di stop - Early stopping /cross-validation - Bold driver - Momento - Metodi di ottimizzazione di second'ordine - Metodi globali - Teorema di approssimazione universale di funzioni - Applicazione alla regressione - Euristiche per la simulazione di percettroni multistrato - Applicazione di percettroni multistrato alla classificazione - Teorema di approssimazione della funzione discriminante di Bayes con percettroni multistrato - Problema dei falsi positivi - Reti di funzioni a base radiale.
Cenni:  Reti per previsione di serie temporali - Tapped Delay Neural Networks - Reti Neurali Ricorrenti - Memorie Associative Neurali - Rete di Hopfield - Applicazione a problemi di ottimizzazione combinatoria.

Apprendimento senza supervisore

Clustering e Quantizzazione Vettoriale - Code-books - Tassellazione di Voronoi - Approccio Parametrico al clustering - Algoritmo EM - Hard C- Means - ISODATA  Quantizzazione Vettoriale con apprendimento by pattern - Mappe Auto-organizzanti.