Syllabus del Corso di Apprendimento  Automatico (6 crediti) - a.a. 2003/04

Docente: Francesco Masulli.
http://www.disi.unige.it/person/MasulliF/syllabus-rn03.html
Ultima modifica: 14 Maggio 2004.

I parte

Introduzione

Apprendimento automatico - Macchine ad apprendimento - Compiti di apprendimento - Classificazione - Regressione - Bias/variance tradeoff - Stima di densita' di probabilita' - Clustering e quantizzazione vettoriale - Funzioni approssimanti - Proprieta' di approassimazione universale di funzioni : Polinomi e funzioni semiparametriche - Interpretazione connessionista di reti multistrato feed-forward - Teoria statistica dell'apprendimento - Paradimi di apprendimento Supervisonato, non-supervisionato, con rinforzo - Generalizzazione - Training set, validation set, test set - Misure di similarita`/dissimilarita` - Overfitting/Overtraining - Approcci all'apprendimento parametrico e non-parametrico - Principi di apprendimento per modelli paramterici - Massima verosomiglianza - Metodi non- parametrici - Regole del primo vicino e dei k primi vicini - Course of dimensionality - Complessita' di insiemi di funzioni - Numero parametri nei polinomi e nelle reti neurali - Dimensione di Vapnik-Chervonenkis - Principi induttivi - Minimum description length - Penalizzazione/regolarizzazione - Mimizzazione del rischio strutturale.

Apprendimento Bayesiano

Classificazione supervisionata e non supervisionata - Regole di decisione - Superfici di decisione - Funzioni discriminanti - Regioni di decisione - Confini di decisione  - Teoria delle  decisioni di Bayes - Minimizzazione del rischio - Applicazione alla classificazione - Classificatori supervisionati parametrici - Stima con massima verosomiglianza - Brute force concept learning - Classificatore Naive di Bayes - Applicazione alla classificazione del testo: Filtri anti-SPAM - Istance based Learning - Metodi locali - K-nearest neighbor - Adaline e Classificatori Gaussiani- Percettrone multistrato e classificazione bayesiana - Problema dei falsi positivi - Reti di funzioni a base radiale.


Macchine a Vettori Supporto

SVM per dicotomie linearmente separabili - Optimal canonical separating hypersurface - Margine - Vettore supporto - Determinazione dell'OCSH - Problema  di ottimizzazione primale - Regione amissibile - Programma lineare/quadratico - Variabili slach - Funzioni (strettamante) convesse - Matrice hessiana - Funzioni affini - Insiemi convessi - Insiemi connessi - Problemi di ottimizzazione convessi - Lagrangiana - Moltiplicatori di Lagrange -Problema lagrangiano duale - Teorema duale debole Duality gap - Punto sella della Lagrangiana - Teorema duale forte - Teorema di Kuhn-Tucker - Dualita' - Applicazione a SMV - Problema di programmazione quadratica - Confronto tra SVM e Adaline - SVM e minimizzazione del rischi strutturale - VC-dimension di un insieme di iperpiani canonici - Teorema su generalization bound- Conseguenza su course of dimensionality - Linear soft-margin SVM  - Variabili slach - Nuovo teorema su generalization bound - Nuovo problema di programmazione quadratica - SVM non lineari - Kernels - Non-linear soft-margin SVM Nuovo problema di programmazione quadratica - Kernel trick - SVM per regressione (cenni) - Espilon-tube - Nuovo problema di programmazione quadratica.


II parte

Per questa del corso svolta dal Dott. Cardillo,  vedere il sito http://www.di.unipi.it/~cardillo/AA0304/index.html