Syllabus del Corso di Reti Neurali (6
crediti)
- a.a. 2003/04
http://www.disi.unige.it/person/MasulliF/syllabus-rn03.html
Ultima modifica: 23 Dicembre 2003.
Macchine ad appredimento automatico
Apprendimento automatico - Macchine
ad apprendimento - Compiti di
apprendimento
- Classificazione - Regressione - Bias/variance tradeoff - Stima di
densita'
di probabilita' - Clustering e quantizzazione vettoriale - Funzioni
approssimanti
- Proprieta' di approassimazione universale di funzioni : Polinomi e
funzioni
semiparametriche - Interpretazione connessionista di reti multistrato
feed-forward
- Teoria statistica dell'apprendimento - Paradimi di apprendimento
Supervisonato,
non-supervisionato, con rinforzo - Generalizzazione - Training set,
validation
set, test set - Misure di similarita`/dissimilarita` -
Overfitting/Overtraining
- Approcci all'apprendimento parametrico e non-parametrico - Principi
di
apprendimento per modelli paramterici - Massima verosomiglianza -
Metodi
non- parametrici - Regole del primo vicino e dei k primi vicini -
Course
of dimensionality - Complessita' di insiemi di funzioni - Numero
parametri
nei polinomi e nelle reti neurali - Dimensione di Vapnik-Chervonenkis -
Principi induttivi - Minimum description length -
Penalizzazione/regolarizzazione
- Mimizzazione del rischio strutturale.
Apprendimento Bayesiano
Classificazione supervisionata e non
supervisionata - Regole di
decisione - Superfici di decisione - Funzioni discriminanti - Regioni
di
decisione - Confini di decisione - Teoria delle decisioni
di
Bayes - Minimizzazione del rischio - Applicazione alla classificazione
-
Funzioni discriminanti per distribuzione normale dei pattern - -
Classificatori
supervisionati parametrici - Stima con massima verosomiglianza - Stima
Bayesiana
- Classificatori supervisionati non parametrici - K- nearest
neighbor
- Condensed Nearest Neigbor - Classificatore Naive di Bayes -
Applicazione
alla classificazione del testo: Filtri anti-SPAM.
Reti Neurali
Apprendimento con supervisore
Neurone e reti di neuroni biologici -
Neuroni matematici - Neurone di
Mc
Culloch e Pitts - Percettroni semplici - Unita' deterministica a soglia
o Linear Threshold Unit - Problemi linearmente separabili e problemi
non
linearmente separabili - Regole hebbiane per LTU - Teorema di
convergenza
per LTU - Unita' a funzione di attivazione lineare o ADALINE -
Apprendimento
mediate discesa a gradiente - Apprendimento by pattern o by epoch -
Equivalenza di classificatori gaussiani e ADALINE - Unita' a funzione
di attivazione non
lineare
- Percettroni multistrato con unita' tipo LTU - Esistenza della
soluzione
per problemi non linearmente separabili - Soluzione problema XOR -
Percettrone
multistrato con unita' a funzione di attivazione non lineare - Regola
di apprendimento Back-Propagation - Criteri di stop - Early stopping
/cross-validation - Bold driver -
Momento - Metodi di ottimizzazione di second'ordine - Metodi globali -
Teorema di approssimazione universale di funzioni - Applicazione alla
regressione - Euristiche per la simulazione di percettroni multistrato
- Applicazione di percettroni multistrato alla classificazione -
Teorema di approssimazione della funzione discriminante di Bayes con
percettroni multistrato - Problema dei falsi positivi - Reti di
funzioni a base radiale.
Cenni: Reti per previsione di
serie temporali - Tapped Delay Neural Networks - Reti Neurali
Ricorrenti - Memorie Associative Neurali - Rete di Hopfield -
Applicazione a problemi di ottimizzazione combinatoria.
Apprendimento senza supervisore
Clustering e Quantizzazione
Vettoriale - Code-books - Tassellazione di Voronoi - Approccio
Parametrico al clustering - Algoritmo EM - Hard C- Means -
ISODATA Quantizzazione Vettoriale con apprendimento by pattern -
Mappe Auto-organizzanti.