Reti Neurali 1 (una unita') - a.a. 2001/02

Ultima modifica: 18 Nov  2001 . Commenti a Francesco Masulli.

http://www.disi.unige.it/person/MasulliF/RN101


Prerequisiti

Programmazione in linguaggio C o C++ . Elementi di analisi matematica, algebra lineare e di calcolo delle probabilita'.



Obiettivi

Conoscenza delle basi teoriche del calcolo evoluzionario e delle reti neurali e capacita' di applicare questi strumenti a problemi concreti.



Programma del Corso

Introduzione.

Soft Computing e Applicazioni Industriali -Simulatori e implementazioni hardware di sistemi di Soft Computing.

Metodi di ricerca

Metodi di ricerca analitici, enumerativi e  casuali - Steepest Ascend/Descent Procedures - Simulated Annealing - Applicazione al problema TSP.

Generazione numeri casuali

Generazione di numeri casuali con distribuzione uniforme - Applicazioni della  legge di trasformazione delle probabilita'.

Macchine ad appredimento

Macchine ad apprendimento automatico - Compiti di apprendimento - Bias/variance tradeoff  - Funzioni approssimanti - Proprieta' di approssimazione universale di funzioni&ieta' di approssimazione universale di funzioni  - Teoria statistica dell'apprendimento - Paradigmi di apprendimento  - Generalizzazione -  Misure di similarita`/dissimilarita` - Overfitting/Overtraining - Apprendimento parametrico e non-parametrico - Curse of dimensionality - Complessita' di insiemi di funzioni -  Dimensione di Vapnik-Chervonenkis - Principi induttivi - Minimum description length - Penalizzazione/regolarizzazione - Mimizzazione del rischio strutturale.

Reti Neurali

Percettroni semplici e multistrato

Neurone e reti di neuroni biologici -  Neurone di Mc Culloch e Pitts - Percettroni semplici - Percettroni multistrato - Regola di apprendimento Back-Propagation -  Metodi di ottimizzazione di second'ordine - Metodi globali - Teorema di approssimazione universale di funzioni - Applicazione alla regressione - Euristiche per l'implementazione di percettroni multistrato.

Riconoscimento delle forme e reti neurali

Classificazione supervisionata e non supervisionata -  Regola di decisione di Bayes - Minimizzazione del rischio - Applicazione alla classificazione - Equivalenza di classificatori gaussiani e ADALINE - Classificatori supervisionati parametrici e non parametrici -  App non parametrici -  Applicazione di percettroni multistrato alla classificazione - Teorema di approssimazione della funzione discrimazione della funzione discriminante di Bayes con percettroni multistrato - Problema dei falsi positivi - Reti di funzioni a base radiale.

Altre reti neurali supervisionate

Reti per previsione di serie temporali - Tapped Delay Neural Networks - Reti Neurali Ricorrenti - Memorie Associative Neurali - Rete di Hopfield - Applicazione a problemi di ottimizzazione combinatoria .

Modelli di classificazione non-supervisionata

Clustering e Quantizzazione Vettoriale - Code-books- Tassellazione di Voronoi - Approccio Parametrico al clustering - Massima Verosomiglianza - Hard C-Means - Quantizzazione Vettoriale con apprendimento by pattern - Mappe Auto-organizzanti.


Calcolo Evoluzionario

Algoritmi Genetici - Teorema degli schemi - Funzioni GA-hard - Minimal Deceptive Problem - Convergenza prematura - Stagnazione - Operatori avanzati di selezione - Operatori avanzati di crossover - GA per ottimizzazione combinatoria - Stategie Evolutive .


Ulteriori dettagli del programma sono presenti sul Syllabus



 
 
 

Laboratorio

Gli studenti lavoreranno organizzati in gruppi di laboratorio e implementeranno alcuni algoritmi sui seguenti temi:no alcuni algoritmi sui seguenti temi:

 
 
 

Testi di riferimento

Ulteriore materiale didattico sara' reso disponibile agli studenti durante il corso. . durante il corso. .