Syllabus del Corso di Reti Neurali  (6 crediti) - a.a. 2004/05

Docente: Francesco Masulli.
http://www.disi.unige.it/person/MasulliF/syllabus-rn04.html
Ultima modifica: 9 Gennaio 2004.




Apprendimento automatico - Macchine ad apprendimento -  Classificazione - Regressione - Neurone e reti di neuroni biologici - Neuroni matematici - Neurone di Mc Culloch e Pitts - Percettroni semplici - Unita' deterministica a soglia o Linear Threshold Unit - Problemi linearmente separabili e problemi non linearmente separabili - Regole hebbiane per LTU - Teorema di Rosemblatt sulla convergenza delle LTU - Unita' a funzione di attivazione lineare o ADALINE - Apprendimento mediate discesa a gradiente - Apprendimento by pattern o by epoch - Unita' a funzione di attivazione non lineare - Percettroni multistrato con unita' tipo LTU - Esistenza della soluzione per problemi non linearmente separabili - Soluzione problema XOR - Percettrone multistrato con unita' a funzione di attivazione non lineare - Regola di apprendimento Back-Propagation - Criteri di stop - Early stopping /cross-validation - Bold driver - Momento - Metodi di ottimizzazione di second'ordine - Metodi globali - Teorema di approssimazione universale di funzioni - Applicazione alla regressione- Metodi di model selection- Euristiche per la simulazione di percettroni multistrato - Classificazione supervisionata e non supervisionata - Regole di decisione - Superfici di decisione - Funzioni discriminanti - Regioni di decisione - Confini di decisione  - Teoria delle  decisioni di Bayes - Minimizzazione del rischio - Applicazione alla classificazione - Apprendimento parametrico - Classificatori supervisionati parametrici - Stima con massima verosomiglianza - Bias-variance tradeoff- Stima di densita' - Curse of dimensionality - Ottimizzazione con vincoli - Metodo dei miltplicatori di Lagrange - Quantizzazione vettoriale - Clustering - Code-books - Tassellazione di Voronoi - Approccio Parametrico al clustering - Algoritmo EM - Hard C- Means - ISODATA  Quantizzazione Vettoriale con apprendimento by pattern - Mappe Autorganizzanti - Analisi Componenti Principali - Equivalenza di classificatori gaussiani e ADALINE - Applicazione di percettroni multistrato alla classificazione - Teorema di approssimazione della funzione discriminante di Bayes con percettroni multistrato - Problema dei falsi positivi - Reti di funzioni a base radiale -Classificatore Naive di Bayes - Applicazione alla classificazione del testo: Filtri anti-SPAM - Metodi non- parametrici - Regole del primo vicino e dei k primi vicini - Complessita' di insiemi di funzioni - Numero parametri nei polinomi e nelle reti neurali - Dimensione di Vapnik-Chervonenkis - Principi induttivi - Minimum description length Penalizzazione/regolarizzazione - Mimizzazione del rischio strutturale - Macchine a vettori supporto SVM (cenno).