- Oggetto:
- Oggetto:
Teoria dell'informazione I
- Oggetto:
Anno accademico 2009/2010
- Codice dell'attività didattica
- S8185
- Docente
- Prof. Maurizio Lucenteforte (Titolare del corso)
- Corso di studi
- c210 laurea spec. in fisica ambientale e biomedica
c211 laurea spec. in fisica delle tecnologie avanzate - Anno
- 1° anno
- Periodo didattico
- Primo periodo didattico
- Tipologia
- A=Di base
- Crediti/Valenza
- 6
- SSD dell'attività didattica
- INF/01 - informatica
- Mutuato da
- http://www.educ.di.unito.it/VisualizzaCorsi/guida_corso.php?cod=I8052&year=2008
- Oggetto:
Sommario insegnamento
- Oggetto:
Obiettivi formativi
Il corso intende fornire unintroduzione ai concetti fondamentali della teoria dellinformazione classica e alle sue principali applicazioni nel campo dellinformatica. È suddiviso in quattro parti, dedicate rispettivamente alla teoria dellinformazione classica (o teoria di Shannon), allo studio della teoria dei codici di sorgente, ai codici correttori derrore ed infine ad una panoramica delle applicazioni dei principi teorici studiati nel campo della compressione e della protezione di segnali ed immagini.- Oggetto:
Risultati dell'apprendimento attesi
Al termine del modulo lo studente saprà gestire e manipolare informazioni multimodali in situazioni in cui sia necessario trasmettere le stesse, con compressione senza perdita o con perdita di informazione non significativa, su canali reali di varie tipologie, adottando tecniche di protezione adattative dell'informazione.- Oggetto:
Programma
Informazione e incertezza. Modello per la trasmissione dell’informazione. Ridondanza e codifica di sorgente. Rumore e codifica di canale. Quantità di informazione. Entropia. Proprietà della funzione entropia. Unicità della funzione entropia. Entropia e lunghezza media di parola. Relazione tra entropia e mutua informazione. Il primo teorema di Shannon (o della codifica di sorgente). Tipi di sorgente: discrete senza memoria, stazionarie ed ergodiche. Entropia di una sorgente discreta con memoria. Il concetto di codifica, codici univocamente decodificabili. Teorema di Sardinas-Patterson. Codici istantanei. Disuguaglianza di Kraft e teorema di Mc Millan. Codice di Huffman, ottimalità dei codici di Huffman. Codici aritmetici. Codifica universale di Ziv-Lempel. Notazioni e definizioni. Il canale binario simmetrico e altri canali notevoli. Capacità di canale e sue proprietà. Trasmissione su canali rumorosi. Regole di decisione. Distanza di Hamming. Il secondo teorema di Shannon (o della codifica di canale). Codici rivelatori e correttori di errori. Codici lineari. Codici perfetti e codici di Hamming. Codici ciclici. Codici convoluzionali. Trasmissione e memorizzazione numerica di audio, immagini fisse e video, panorama degli standard relativi esistenti e in via di definizione. Rassegna dei fondamenti teorici su cui si basano i metodi di compressione DPCM, DCT, VLC). Introduzione agli standard di compressione per immagini fisse (JPEG, anche reversibile) e in movimento (H.261, MPEG-1, MPEG-2). Nuove tendenze della compressione di immagini fisse (JPEG 2000) e della codifica video per la trasmissione su canali a bassissima velocità (<64kb/s): la codifica proposta in MPEG-4 ed H.263.
Testi consigliati e bibliografia
- Oggetto:
- - Emanuele Angeleri, Informazione, significato e universalità, UTET, Torino, 2000.
- Francesco Fabris, Teoria dellinformazione, codici, cifrari, Bollati Boringhieri, Torino, 2001.
- Thomas M. Cover, Joy A. Thomas, Elements of Information Theory, Wiley Interscience, 1991.
- Richard W. Hamming, Coding and Information Theory, Prentice Hall, 1986.
- C.E.Shannon, "A mathematical theory of communication", Bell System Technical Journal, vol. 27, pp. 379-423 and 623-656, July and October, 1948. - Oggetto:
Note
Mutuato dal corso di 'Fondamenti di Comunicazione', corso di laurea Magistrale in Informatica.- Oggetto: