Vai al contenuto principale
Oggetto:
Oggetto:

Teoria dell'informazione I

Oggetto:

Anno accademico 2009/2010

Codice dell'attività didattica
S8185
Docente
Prof. Maurizio Lucenteforte (Titolare del corso)
Corso di studi
c210 laurea spec. in fisica ambientale e biomedica
c211 laurea spec. in fisica delle tecnologie avanzate
Anno
1° anno
Periodo didattico
Primo periodo didattico
Tipologia
A=Di base
Crediti/Valenza
6
SSD dell'attività didattica
INF/01 - informatica
Mutuato da
http://www.educ.di.unito.it/VisualizzaCorsi/guida_corso.php?cod=I8052&year=2008
Oggetto:

Sommario insegnamento

Oggetto:

Obiettivi formativi

Il corso intende fornire un’introduzione ai concetti fondamentali della teoria dell’informazione classica e alle sue principali applicazioni nel campo dell’informatica. È suddiviso in quattro parti, dedicate rispettivamente alla teoria dell’informazione classica (o teoria di Shannon), allo studio della teoria dei codici di sorgente, ai codici correttori d’errore ed infine ad una panoramica delle applicazioni dei principi teorici studiati nel campo della compressione e della protezione di segnali ed immagini.
Oggetto:

Risultati dell'apprendimento attesi

Al termine del modulo lo studente saprà gestire e manipolare informazioni multimodali in situazioni in cui sia necessario trasmettere le stesse, con compressione senza perdita o con perdita di informazione non significativa, su canali reali di varie tipologie, adottando tecniche di protezione adattative dell'informazione.
Oggetto:

Programma

Informazione e incertezza. Modello per la trasmissione dell’informazione. Ridondanza e codifica di sorgente. Rumore e codifica di canale. Quantità di informazione. Entropia. Proprietà della funzione entropia. Unicità della funzione entropia. Entropia e lunghezza media di parola. Relazione tra entropia e mutua informazione. Il primo teorema di Shannon (o della codifica di sorgente). Tipi di sorgente: discrete senza memoria, stazionarie ed ergodiche. Entropia di una sorgente discreta con memoria. Il concetto di codifica, codici univocamente decodificabili. Teorema di Sardinas-Patterson. Codici istantanei. Disuguaglianza di Kraft e teorema di Mc Millan. Codice di Huffman, ottimalità dei codici di Huffman. Codici aritmetici. Codifica universale di Ziv-Lempel. Notazioni e definizioni. Il canale binario simmetrico e altri canali notevoli. Capacità di canale e sue proprietà. Trasmissione su canali rumorosi. Regole di decisione. Distanza di Hamming. Il secondo teorema di Shannon (o della codifica di canale). Codici rivelatori e correttori di errori. Codici lineari. Codici perfetti e codici di Hamming. Codici ciclici. Codici convoluzionali. Trasmissione e memorizzazione numerica di audio, immagini fisse e video, panorama degli standard relativi esistenti e in via di definizione. Rassegna dei fondamenti teorici su cui si basano i metodi di compressione  DPCM, DCT, VLC). Introduzione agli standard di compressione per immagini fisse (JPEG, anche reversibile) e in movimento (H.261, MPEG-1, MPEG-2). Nuove tendenze della compressione di immagini fisse (JPEG 2000) e della codifica video per la trasmissione su canali a bassissima velocità (<64kb/s): la codifica proposta in MPEG-4 ed H.263.

Testi consigliati e bibliografia

Oggetto:

- Emanuele Angeleri, Informazione, significato e universalità, UTET, Torino, 2000.
- Francesco Fabris, Teoria dell’informazione, codici, cifrari, Bollati Boringhieri, Torino, 2001.
- Thomas M. Cover, Joy A. Thomas, Elements of Information Theory, Wiley Interscience, 1991.
- Richard W. Hamming, Coding and Information Theory, Prentice Hall, 1986.
- C.E.Shannon, "A mathematical theory of communication", Bell System Technical Journal, vol. 27, pp. 379-423 and 623-656, July and October, 1948.


Oggetto:

Note

Mutuato dal corso di 'Fondamenti di Comunicazione', corso di laurea Magistrale in Informatica.
Oggetto:
Ultimo aggiornamento: 15/09/2010 15:26
Non cliccare qui!