Vai al contenuto principale
Coronavirus: aggiornamenti per la comunità universitaria / Coronavirus: updates for UniTo Community
Oggetto:
Oggetto:

Reti neurali

Oggetto:

Neural networks

Oggetto:

Anno accademico 2013/2014

Codice dell'attività didattica
MFN0824
Docente
Prof. Mario FERRARO (Titolare del corso)
Corso di studi
008510-101 Laurea Magistrale in Fisica ind. Fisica Nucleare e Subnucleare e Biomedica
008510-102 Laurea Magistrale in Fisica ind. Fisica Biomedica
008510-104 Laurea Magistrale in Fisica ind. Fisica delle Tecnologie Avanzate
Anno
1° anno
Periodo didattico
Terzo periodo didattico
Tipologia
B=Caratterizzante
Crediti/Valenza
6
SSD dell'attività didattica
FIS/02 - fisica teorica, modelli e metodi matematici
Modalità di erogazione
Tradizionale
Lingua di insegnamento
Italiano
Modalità di frequenza
Facoltativa
Tipologia d'esame
Orale
Modalità d'esame
Orale. Le date degli appelli sono stabilite previo accordo con il docente.
Prerequisiti
Non e' necessario alcun requisito specifico:
sono sufficienti le conoscenze acquisite nel corso della laurea triennale.
Oggetto:

Sommario insegnamento

Oggetto:

Obiettivi formativi

Introduzione alla teoria delle reti neurali biologiche ed artificiali. Applicazioni alla modellizzazione di sistemi neurali biologici ed alla risoluzione di problemi fisici.

Oggetto:

Risultati dell'apprendimento attesi

A )Conoscenza e capacita' di comprensione (knowledge and understanding )

Dimestichezza con  principali modelli di reti neurali bilogiche ed artificiali e delle dinamiche che determinano le loro proprieta' di codifica e apprendimento.

B) Capacita' di applicare conoscenza e comprensione (applying knowledge and understanding)

Capacita' di analizzare le equazioni che determinano la dinamica delle reti neurali.

Capacita' di elaborare e simulare semplici modelli di reti neurali.

Oggetto:

Programma

Introduzione: neuroni biologici e formali.
I neuroni come sistemi eccitabili: il modello
 di Hodkgin e Huxley.
Le reti neurali come sistemi dinamici:
punti stazionari e loro stabilita'.
Cenni sulla teoria delle biforcazioni:
biforcazione di Hopf , cicli limite
Modelli di mutua eccitazione.
Modello  Winner takes all (WTA).
Il modello di Wilson-Cowan
Oscillatori neurali e central patterns generators.
 Il neurone formale di McCullogh e Pitts.
Problemi linearmente separabili ed il percettrone.
Regole di apprendimento del percettrone
e la regola di Widrow-Hoff.
Percettroni multistrato e il metodo di backpropagation
Il problema dell'intepolazione e le reti RBF.
Reti ad apprendimento non-supervisionato: principi di autoorganizzione
e la regola di Hebb.
Modelli di apprendimento hebbiano.
La regola di Oja.
La regola di Sanger
Apprendimento competitivo: il WTA.
Connessioni laterali eccitatorie e inibitorie:
la formazione di bolle
di attivita'.
Mappe topografiche nella corteccia cerebrale e le  self-organizing maps (SOM).
Regola di apprendimento delle SOM.
Il reinforcement learning e la regola di Rescorla-Wagner.
Sparse coding: reti di Foldiak e di Olshausen-Field. Il teorema di Liapunov
Reti di Hopfield e loro dinamica.
La funzione energia ed il teorema di Hopfield.
Le reti di Hopfield come memorie associative.
Reti di Hopfield probabilistiche.
Cenni sulle catene di Markov.Ricerca stocastica ed il metodo del simulated annealing
Codifica del segnale neurale:rates codes , spikes codes.
Populaton coding and decoding:
metodi vettoriali.
Metodi bayesiani di decodifica
Codifiche basate sulla latenza ed order coding.
Misure di complessita' delle reti neurali.


Neural Networks
1. Introduction to biological neurons, and to information processing by a single neuron. The
Hodgking-Huxley model of action potential generation. Phase space analysis of neuronal
excitability
2. Simple neural systems. Biological oscillators and central pattern generators.
3. The McCulloch-Pitts neuron and its computational properties. Feed-forward networks: sim-
ple perceptrons. Perceptrons learning rules and the theorem of convergence. Applications
and limits of simple perceptrons.
4. Multi-layer perceptrons and back-propagation rule. Universal approximation property of the
perceptron. Over-fitting, the bias-variance dilemma and regolarization methods. Applica-
tions of multi-layer perceptrons to pattern recognition.
5. Neural networks and regularization of inverse problems: Radial Basis Functions networks.
6. General principles of self-organization in neural networks. Hebb rule and models of hebbian
learning. Oja and Sanger rules and their relationships to the theory of principal components.
Applications to image compressions
7. Lateral inhibition and competitive learning: Winner Takes All networks. Lateral interaction
and formation of activity bubbles.
8. Kohonen networks and Self Organizing Maps Mathematical analysis of SOM: principal curves
and surfaces. Applications.
9. Neurodynamics: stability of neural states, Liapunov functions and the Cohen-Grossberg
theorem. Dynamics of Hopfield model and its performance as content addressable memory.
Probabilistic version of the Hopfield model.
10. Coding and decoding of the neural signal: population coding , sparse coding

Testi consigliati e bibliografia

Oggetto:

1. Titolo: Introduction to the theory of neural computation Autori: J, Hertz, A. Krogh, R.G. Palmer Editore Addison Wesley Publishing Company, 1991. 2. Titolo : Neural networks for pattern recognition Autori : C.M. Bishop Editore: Clarendon Press- Oxford, 1995



Oggetto:

Note

Nessuna propedeuticità obbligatoria. Frequenza non obbligatoria, ma fortemente consigliata.

Oggetto:

Altre informazioni

http://personalpages.to.infn.it/~ferraro/retineurali/retineurali.html
Oggetto:
Ultimo aggiornamento: 23/07/2014 09:12