Vai al contenuto principale
Oggetto:
Oggetto:

Reti neurali

Oggetto:

Neural networks

Oggetto:

Anno accademico 2017/2018

Codice dell'attività didattica
MFN0824
Docente
Prof. Mario Ferraro (Titolare del corso)
Corso di studi
008510-101 Laurea Magistrale in Fisica ind. Fisica Nucleare e Subnucleare e Biomedica
008510-102 Laurea Magistrale in Fisica ind. Fisica Biomedica
008510-104 Laurea Magistrale in Fisica ind. Fisica delle Tecnologie Avanzate
Anno
1° anno
Periodo didattico
Terzo periodo didattico
Tipologia
B=Caratterizzante
Crediti/Valenza
6
SSD dell'attività didattica
FIS/02 - fisica teorica, modelli e metodi matematici
Modalità di erogazione
Tradizionale
Lingua di insegnamento
Italiano
Modalità di frequenza
Facoltativa
Tipologia d'esame
Orale
Prerequisiti
Non è necessario alcun requisito specifico:
sono sufficienti le conoscenze acquisite nel corso della laurea triennale.

No specific requirement is needed: knowledge at first degree level is enough
Propedeutico a
Oggetto:

Sommario insegnamento

Oggetto:

Obiettivi formativi

Introduzione alla teoria delle reti neurali biologiche ed artificiali. Applicazioni alla modellizzazione di sistemi neurali biologici ed alla risoluzione di problemi fisici.

Introduction to the theory of biological and artificial neural networks and applications

Oggetto:

Risultati dell'apprendimento attesi

A )Conoscenza e capacità di comprensione (knowledge and understanding )

Dimestichezza con  principali modelli di reti neurali bilogiche ed artificiali e delle dinamiche che determinano le loro proprietà di codifica e apprendimento.

B) Capacità di applicare conoscenza e comprensione (applying knowledge and understanding)

Capacità di analizzare le equazioni che determinano la dinamica delle reti neurali.

Capacità di elaborare e simulare semplici modelli di reti neurali.

Knowledge and understanding. 

Knowledge of the more important models of neural networks and  of their dynamics as concerns acitvity and learning

Applying knowledge and understanding

Students should be able to analise the equations determining the dynamics of neural networks and to model  simple neural nets for specific appliations

Oggetto:

Modalità di insegnamento

Oggetto:

Modalità di verifica dell'apprendimento

L'esame è composto da due parti: 1) lo studente presenta un' approfondimento su un argomento del corso a sua scelta. Questo approfondimento puo' consistere nella discussione di uno o più articoli relativi all'argomento scelto oppure nella simulazione di una rete neurale. 2) viene chiesto allo studente di affrontare ab initio due o tre argomenti svolti a lezione. La durata totale della prova è di 40-50 minuti

The exam comprises two parts: 1) the student presents a brief research on a   subject of the course he has chosen. Such research may be the discussion of a scientific paper or the simulation of a neural network.   2) The student must analise "ab initio" two or three subject explaned in  the course lectures. The duration of the exam is 40-50 minutes.

Oggetto:

Attività di supporto

Oggetto:

Programma

Introduzione: neuroni biologici e formali.
I neuroni come sistemi eccitabili: il modello di Hodkgin e Huxley.
Le reti neurali come sistemi dinamici:punti stazionari e loro stabilità.
Cenni sulla teoria delle biforcazioni:biforcazione di Hopf, cicli limite
Modelli di mutua eccitazione.
Modello  Winner takes all (WTA).
Il modello di Wilson-Cowan
Oscillatori neurali e central patterns generators.
Il neurone formale di McCullogh e Pitts.
Problemi linearmente separabili ed il percettrone.
Regole di apprendimento del percettrone e la regola di Widrow-Hoff.
Percettroni multistrato e il metodo di backpropagation
Il problema dell'intepolazione e le reti RBF.
Reti ad apprendimento non-supervisionato: principi di autoorganizzionee la regola di Hebb.
Modelli di apprendimento hebbiano.
La regola di Oja.
La regola di Sanger
Apprendimento competitivo: il WTA.
Connessioni laterali eccitatorie e inibitorie: la formazione di bolle di attività.
Mappe topografiche nella corteccia cerebrale e le  self-organizing maps (SOM).
Regola di apprendimento delle SOM.
Il reinforcement learning e la regola di Rescorla-Wagner.
Sparse coding: reti di Foldiak e di Olshausen-Field. Il teorema di Liapunov.
Reti di Hopfield e loro dinamica.
La funzione energia ed il teorema di Hopfield.
Le reti di Hopfield come memorie associative.
Reti di Hopfield probabilistiche.
Cenni sulle catene di Markov. Ricerca stocastica ed il metodo del simulated annealing
Codifica del segnale neurale:rates codes  spikes codes.
Populaton coding and decoding:
metodi vettoriali.
Metodi bayesiani di decodifica
Codifiche basate sulla latenza ed order coding.
Misure di complessità delle reti neurali.

Neural Networks

1. Introduction to biological neurons, and to information processing by a single neuron. The Hodgking-Huxley model of action potential generation. Phase space analysis of neuronal excitability.
2. Simple neural systems. Biological oscillators and central pattern generators.
3. The McCulloch-Pitts neuron and its computational properties. Feed-forward networks: simple perceptrons. Perceptrons learning rules and the theorem of convergence. Applications and limits of simple perceptrons.
4. Multi-layer perceptrons and back-propagation rule. Universal approximation property of the perceptron. Over-fitting, the bias-variance dilemma and regolarization methods. Applications of multi-layer perceptrons to pattern recognition.
5. Neural networks and regularization of inverse problems: Radial Basis Functions networks.
6. General principles of self-organization in neural networks. Hebb rule and models of hebbian learning. Oja and Sanger rules and their relationships to the theory of principal components. Applications to image compressions.
7. Lateral inhibition and competitive learning: Winner Takes All networks. Lateral interaction and formation of activity bubbles.
8. Kohonen networks and Self Organizing Maps Mathematical analysis of SOM: principal curves and surfaces. Applications.
9. Neurodynamics: stability of neural states, Liapunov functions and the Cohen-Grossberg theorem. Dynamics of Hopfield model and its performance as content addressable memory. Probabilistic version of the Hopfield model.
10. Coding and decoding of the neural signal: population coding, sparse coding

11. Large scale networks in the brain

Testi consigliati e bibliografia

Oggetto:

1. Titolo: Introduction to the theory of neural computation Autori: J, Hertz, A. Krogh, R.G. Palmer Editore Addison Wesley Publishing Company, 1991.

2. Titolo : Neural networks for pattern recognition Autori : C.M. Bishop Editore: Clarendon Press- Oxford, 1995

1.  Introduction to the theory of neural computation by J, Hertz, A. Krogh, R.G. Palmer,  Addison Wesley Publishing Company, 1991.

2.  Neural networks for pattern recognition by  C.M. Bishop,  Clarendon Press- Oxford, 1995



Oggetto:

Orario lezioni

GiorniOreAula
Martedì11:00 - 13:00Aula D Dipartimento di Fisica
Mercoledì11:00 - 13:00Aula D Dipartimento di Fisica
Giovedì11:00 - 13:00Aula D Dipartimento di Fisica

Lezioni: dal 16/04/2018 al 15/06/2018

Oggetto:

Note

Nessuna propedeuticità obbligatoria. Frequenza non obbligatoria, ma fortemente consigliata.

Attendance is not compulsory,  but students are stongly advised to attend 

Oggetto:

Altre informazioni

http://personalpages.to.infn.it/~ferraro/retineurali/retineurali.html
Oggetto:
Ultimo aggiornamento: 29/06/2017 19:12
Non cliccare qui!