Syllabus del Corso di Apprendimento
Automatico (6
crediti)
- a.a. 2003/04
http://www.disi.unige.it/person/MasulliF/syllabus-rn03.html
Ultima modifica: 14 Maggio 2004.
I parte
Introduzione
Apprendimento automatico - Macchine
ad apprendimento - Compiti di
apprendimento
- Classificazione - Regressione - Bias/variance tradeoff - Stima di
densita'
di probabilita' - Clustering e quantizzazione vettoriale - Funzioni
approssimanti
- Proprieta' di approassimazione universale di funzioni : Polinomi e
funzioni
semiparametriche - Interpretazione connessionista di reti multistrato
feed-forward
- Teoria statistica dell'apprendimento - Paradimi di apprendimento
Supervisonato,
non-supervisionato, con rinforzo - Generalizzazione - Training set,
validation
set, test set - Misure di similarita`/dissimilarita` -
Overfitting/Overtraining
- Approcci all'apprendimento parametrico e non-parametrico - Principi
di
apprendimento per modelli paramterici - Massima verosomiglianza -
Metodi
non- parametrici - Regole del primo vicino e dei k primi vicini -
Course
of dimensionality - Complessita' di insiemi di funzioni - Numero
parametri
nei polinomi e nelle reti neurali - Dimensione di Vapnik-Chervonenkis -
Principi induttivi - Minimum description length -
Penalizzazione/regolarizzazione
- Mimizzazione del rischio strutturale.
Apprendimento Bayesiano
Classificazione supervisionata e non
supervisionata - Regole di
decisione - Superfici di decisione - Funzioni discriminanti - Regioni
di
decisione - Confini di decisione - Teoria delle decisioni
di
Bayes - Minimizzazione del rischio - Applicazione alla classificazione
-
Classificatori
supervisionati parametrici - Stima con massima verosomiglianza - Brute
force concept learning - Classificatore Naive di Bayes -
Applicazione
alla classificazione del testo: Filtri anti-SPAM - Istance based
Learning - Metodi locali - K-nearest
neighbor
- Adaline e Classificatori Gaussiani- Percettrone multistrato e
classificazione bayesiana - Problema dei falsi positivi - Reti di
funzioni a base radiale.
Macchine a Vettori Supporto
SVM
per dicotomie linearmente separabili - Optimal canonical separating
hypersurface - Margine - Vettore supporto - Determinazione dell'OCSH -
Problema di ottimizzazione primale - Regione amissibile -
Programma lineare/quadratico - Variabili slach - Funzioni
(strettamante) convesse - Matrice hessiana - Funzioni affini - Insiemi
convessi - Insiemi connessi - Problemi di ottimizzazione convessi -
Lagrangiana - Moltiplicatori di Lagrange -Problema lagrangiano duale -
Teorema duale debole Duality gap - Punto sella della Lagrangiana -
Teorema duale forte - Teorema di Kuhn-Tucker - Dualita' - Applicazione
a SMV - Problema di programmazione quadratica - Confronto tra SVM e
Adaline - SVM e minimizzazione del rischi strutturale - VC-dimension di
un insieme di iperpiani canonici - Teorema su generalization bound-
Conseguenza su course of dimensionality - Linear soft-margin SVM
- Variabili slach - Nuovo teorema su generalization bound - Nuovo
problema di programmazione quadratica - SVM non lineari - Kernels -
Non-linear soft-margin SVM Nuovo problema di programmazione quadratica
- Kernel trick - SVM per regressione (cenni) - Espilon-tube - Nuovo
problema di programmazione quadratica.
II parte
Per questa del corso svolta dal Dott. Cardillo, vedere il sito http://www.di.unipi.it/~cardillo/AA0304/index.html