Reti Neurali I  a.a. 2002/03  Laurea Quinquennale             

Reti Neurali     a.a. 2002/03  - Laurea Triennale (7 crediti) 

http://www.disi.unige.it/person/MasulliF/RN02  - Ultima modifica:  17 ottobre  2002. Commenti a Francesco Masulli.

Docente: Francesco Masulli.

Motivazioni

Le Reti Neurali (NN)  sono macchine per l'elaborazione dell'informazione basate sulla metafora connessionistica delle reti di neuroni dei  sistemi nervosi biologici.  I compiti di elaborazione che vengono affrontati con le NN sono principalmente  quelli di classificazione (p.e.,  riconoscimento di caratteri manoscritti), di regressione (p.e., stima di variabili di stato in un impianto), di previsione (p.e., previsione di indici di borsa),  di quantizzazione  vettoriale (p.e., codifica di immagini televisive digitali),  analisi di componenti indipendenti (p.e., deconvoluzione di segnali),  clustering (p.e., fusione di dati).
Le NN possono apprendere il loro compito di elaborazione in base a una serie di esempi,  vengono normalmente simulate attraverso raffinati algoritmi di calcolo numerico e presentano un parallelismo di elaborazione massivo che ha ispirato loro implementazioni in VLSI  sia digitale che analogico.  Insieme al Calcolo Evoluzionario (EC)  e alla Logica Sfumata (FL),  i NN  sono uno dei principali costituenti del cosidetto Soft Computing (SC).
A Genova l'attivita' su NN e' iniziata  negli anni 60 con il progetto  pionieristico  P.A.P.A. (Pattern  Analyzer  and Probalistic Associator) presso l'Istituto di Fisica dell'Universita' in Viale Benedetto XV,  ed  attualmente  a livello locale coinvolge diversi gruppi di ricerca presso varie facolta' universitarie, enti di ricerca, ospedali e industrie.


Obiettivi

Conoscenza delle basi teoriche dell'apprendimento automatico e delle  reti neurali e capacita' di applicare le reti neurali a  problemi concreti.

Prerequisiti

Programmazione in linguaggio C o C++ . Elementi di analisi matematica, algebra lineare, calcolo numerico, probabilita' e statistica.

Programma del Corso

Generalita'

Introduzione.

Soft Computing e Applicazioni Industriali - Simulatori e implementazioni hardware di sistemi di Soft Computing.

Metodi di ricerca

Metodi di ricerca analitici, enumerativi, casuali - Steepest Ascend/Descent Procedures - Simulated Annealing - Calcolo Evoluzionario - Applicazione al problema TSP.

Generazione numeri casuali

Generazione di numeri casuali con distribuzione uniforme - Applicazioni della  legge di trasformazione delle probabilita'.

Macchine ad apprendimento automatico

 
Compiti di apprendimento - Bias/variance tradeoff  - Funzioni approssimanti - Proprieta' di approssimazione universale di funzioni  - Teoria statistica dell'apprendimento - Paradigmi di apprendimento  - Generalizzazione -  Misure di similarita`/dissimilarita` - Overfitting/Overtraining - Apprendimento parametrico e non-parametrico - Curse of dimensionality - Complessita' di insiemi di funzioni -  Dimensione di Vapnik-Chervonenkis - Principi induttivi - Minimum description length - Penalizzazione/regolarizzazione - Mimizzazione del rischio strutturale.


Reti Neurali

Modelli supervisionati

Neurone e reti di neuroni biologici -  Neurone di Mc Culloch e Pitts - Percettroni semplici - Percettroni multistrato - Regola di apprendimento Back-Propagation -  Metodi di ottimizzazione di second'ordine - Metodi globali - Teorema di approssimazione universale di funzioni - Applicazione alla regressione - Euristiche per la simulazione di percettroni multistrato. Classificazione supervisionata e non supervisionata -  Regola di decisione di Bayes - Minimizzazione del rischio - Applicazione alla classificazione - Equivalenza di classificatori gaussiani e ADALINE - Classificatori supervisionati parametrici e non parametrici  -  Applicazione di percettroni multistrato alla  classificazione - Teorema di approssimazione della funzione discriminante di Bayes con percettroni multistrato - Problema dei falsi positivi - Reti di funzioni a base radiale. Reti per previsione di serie temporali - Tapped Delay Neural Networks - Reti Neurali Ricorrenti - Memorie Associative Neurali - Rete di Hopfield - Applicazione a problemi di ottimizzazione combinatoria.

Modelli non supervisionati

Clustering e Quantizzazione Vettoriale - Code-books - Tassellazione di Voronoi - Approccio Parametrico al clustering - Massima Verosomiglianza - Hard C-Means - Quantizzazione Vettoriale con apprendimento by pattern - Mappe Auto-organizzanti.
Ulteriori dettagli del programma sono presenti sul Syllabus.


 
 

Laboratorio

Gli studenti lavoreranno organizzati in gruppi di laboratorio e implementeranno alcuni algoritmi sui seguenti temi:


 
 

Testi di riferimento

Ulteriore materiale didattico sara' reso disponibile agli studenti durante il corso.