Reti Neurali   (6 crediti)   A.A. 2003/04   

http://www.disi.unige.it/person/MasulliF/RN03.hml  
Ultima modifica:  20 Nov  2003.  
Commenti a Francesco Masulli.

Docente: Francesco Masulli.


Motivazioni

Le Reti Neurali (NN)  sono macchine per l'elaborazione dell'informazione basate sulla metafora connessionistica delle reti di neuroni dei  sistemi nervosi biologici.  I compiti di elaborazione che vengono affrontati con le NN sono principalmente  quelli di classificazione (p.e.,  riconoscimento di caratteri manoscritti), di regressione (p.e., stima di variabili di stato in un impianto), di previsione (p.e., previsione di indici di borsa),  di quantizzazione  vettoriale (p.e., codifica di immagini televisive digitali),  analisi di componenti indipendenti (p.e., deconvoluzione di segnali),  clustering (p.e., fusione di dati).
Le NN possono apprendere il loro compito di elaborazione in base a una serie di esempi,  vengono normalmente simulate attraverso raffinati algoritmi di calcolo numerico e presentano un parallelismo di elaborazione massivo che ha ispirato loro implementazioni in VLSI  sia digitale che analogico.  Insieme al Calcolo Evoluzionario (EC)  e alla Logica Sfumata (FL),  i NN  sono uno dei principali costituenti del cosidetto Soft Computing (SC).
A Genova l'attivita' su NN e' iniziata  negli anni 60 con il progetto  pionieristico PAPA (Programmatore Automatico e Analizzatore di Probabilita') presso l'allora Istituto di Fisica dell'Universita' in Viale Benedetto XV,  ed  attualmente  a livello locale coinvolge diversi gruppi di ricerca presso varie facolta' universitarie, enti di ricerca, ospedali e industrie.


Obiettivi

Conoscenza delle basi teoriche dell'apprendimento automatico e delle  reti neurali e capacita' di applicare le reti neurali a  problemi concreti.

Prerequisiti

Programmazione. Elementi di analisi matematica, algebra lineare, calcolo numerico, probabilita' e statistica.

Programma del Corso

Macchine ad apprendimento automatico 

 Richiami di statistica e probabilita' - Compiti di apprendimento - Bias/variance tradeoff  - Funzioni approssimanti - Proprieta' di approssimazione universale di funzioni  - Teoria statistica dell'apprendimento - Paradigmi di apprendimento  - Generalizzazione -  Misure di similarita`/dissimilarita` - Overfitting/Overtraining - Apprendimento parametrico e non-parametrico - Curse of dimensionality - Complessita' di insiemi di funzioni -  Dimensione di Vapnik-Chervonenkis - Principi induttivi - Minimum description length - Penalizzazione/regolarizzazione - Mimizzazione del rischio strutturale - Valutazione e confronto di macchine ad apprendimento automatico.


Apprendimento Bayesiano

Classificazione supervisionata e non supervisionata - Regole di decisione - Superfici di decisione - Funzioni discriminanti - Regioni di decisione - Confini di decisione  - Teoria delle  decisioni di Bayes - Minimizzazione del rischio - Applicazione alla classificazione - Funzioni discriminanti per distribuzione normale dei pattern -  - Classificatori supervisionati parametrici - Stima con massima verosomiglianza - Stima Bayesiana - Classificatori supervisionati non parametrici  - K- nearest neighbor - Condensed Nearest Neigbor - Classificatore Naive di Bayes - Applicazione alla classificazione del testo: Filtri anti-SPAM - Bayesian Belief Networks.

Reti Neurali

Apprendimento con supervisore

Neurone e reti di neuroni biologici -  Neurone di Mc Culloch e Pitts - Percettroni semplici - Percettroni multistrato - Regola di apprendimento Back-Propagation -  Metodi di ottimizzazione di second'ordine - Metodi globali - Teorema di approssimazione universale di funzioni - Applicazione alla regressione - Euristiche per la simulazione di percettroni multistrato - Equivalenza di classificatori gaussiani e ADALINE - Applicazione di percettroni multistrato alla classificazione - Teorema di approssimazione della funzione discriminante di Bayes con percettroni multistrato - Problema dei falsi positivi - Reti di funzioni a base radiale. Reti per previsione di serie temporali - Tapped Delay Neural Networks - Reti Neurali Ricorrenti - Memorie Associative Neurali - Rete di Hopfield - Applicazione a problemi di ottimizzazione combinatoria - Sistemi Neuro-Fuzzy - Fuzzy Basis Function network  - ANFIS.

Apprendimento senza supervisore

Clustering e Quantizzazione Vettoriale - Code-books - Tassellazione di Voronoi - Approccio Parametrico al clustering - Algoritmo EM - Hard C- Means - ISODATA  Quantizzazione Vettoriale con apprendimento by pattern - Mappe Auto-organizzanti - Capture Effect Neural Network - Neural Gas  - Fuzzy C-Means e regolarizzazione - Informazione e Entropia - MEP-FC e Deterministic Annealing - Clustering probabilistico e Clustering Possibilistico - Possibilistic Clustering - Modello di Clustering Possibilistico Graduato - Applicazione alla segmentazione di immagini biomediche multivariate - Applicazione alla detezione di rette - Applicazione alla selezione di features - Analisi delle componenti principali - Analisi delle componenti indipendenti.
Ulteriori dettagli del programma sono presenti sul Syllabus.


 
 

Laboratorio

Gli studenti lavoreranno organizzati in gruppi di laboratorio e implementeranno alcuni algoritmi sui seguenti temi:


 
 

Testi di riferimento


Ulteriore materiale didattico sara' reso disponibile agli studenti durante il corso.