Teoria dell informazione

Documenti analoghi
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche. Modulazione A.A Alberto Perotti

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

Sorgenti discrete e informazione

Comunicazioni Elettriche Esercizi

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

L informazione numerica

2) Codici univocamente decifrabili e codici a prefisso.

Indice. A Riassunto formule principali sulla Teoria dell Informazione per sorgenti135

Teoria della probabilità Variabili casuali

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

Introduzione alla codifica entropica

STII/Teoria dell Informazione

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore

La codifica di sorgente

1 Esercizio - caso particolare di ottimalità

Campionamento e quantizzazione

Roberto Maieli La trasmissione dell informazione

Unità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9.

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.

1 Entropia: Riepilogo

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.

Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale

carattere a b c d e f cod. var

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...

Tecniche di compressione senza perdita

3. TEORIA DELL INFORMAZIONE

La teoria dell informazione

Le variabili casuali o aleatorie

Codifica di Huffman e Lempel-Ziv-Welch A L B E R T O B E L U S S I A N N O A C C A D E M I C O /

CODIFICA DI SORGENTE. Schematizzazione generale sistema di comunicazione

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

Algoritmi Greedy. Tecniche Algoritmiche: tecnica greedy (o golosa) Un esempio

Lezione 4 Ugo Vaccaro

Esame di AM2 & EAP (270/04) a.a. 2009/10

La codifica digitale

Esercizi di Calcolo delle Probabilità

Compressione dell Informazione (Parte I) Marco Gori

La dualità nella Programmazione Lineare

Sistemi di Elaborazione delle Informazioni 6 CFU

STATISTICA ESERCITAZIONE 9

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

Codifica delle sequenze sorgente

Sistemi di Elaborazione delle Informazioni 6 CFU

ALGORITMI CORSO DI STUDIO IN INFORMATICA (laurea triennale) UNIVERSITÀ DEGLI STUDI DI CATANIA ANNO ACCADEMICO 2014/15

Corso di Fondamenti di Telecomunicazioni

Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni

4) Teorema fondamentale della codifica di canale. 6) Definizione di codifica di canale (FEC e ARQ)

Teoria dell Informazione

Sperimentazioni di Fisica I mod. A Statistica - Lezione 2

Esercizi di riepilogo

Numeri interi. Laboratorio di Calcolo Paola Gallo

Elaborazione dell informazione. Elaborazione dell informazione. Rappresentazione dei numeri INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042)

La Rappresentazione dell Informazione

Teorema del limite centrale TCL

I circuiti dei calcolatori, le memorie, i bus. I fondamenti della rappresentazione dell informazione e della sua trasmissione ed elaborazione.

Codifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione

Analogico vs. Digitale. LEZIONE II La codifica binaria. Analogico vs digitale. Analogico. Digitale

QUANTIZZAZIONE E CONVERSIONE IN FORMA NUMERICA. 1 Fondamenti Segnali e Trasmissione

Conversione Analogico/Digitale

L algoritmo di decodifica è semplice e computazionalmente meno oneroso rispetto a quello di codifica.

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I

1) Codici convoluzionali. 2) Circuito codificatore. 3) Diagramma a stati e a traliccio. 4) Distanza libera. 5) Algoritmo di Viterbi

Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE

Teoria dell Informazione

Rapida Nota sulla Rappresentazione dei Caratteri

Informazione e sua rappresentazione: codifica

TEORIA DEI SISTEMI SISTEMI LINEARI

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =

Capitolo 5 Variabili aleatorie discrete notevoli Insegnamento: Statistica Applicata Corso di Laurea in "Scienze e Tecnologie Alimentari"

Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni. Esercitazioni del corso di. Telecomunicazioni

APPUNTI DI TEORIA DEI CODICI

Codifiche a lunghezza variabile

UNIVERSITÀ di ROMA TOR VERGATA

Codifica di sorgente. esempio di sorgente con memoria

Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere. 1) A quanto corrisponde su base decimale un guadagno di 31 db? (Risp: = )

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione dei numeri relativi

Codici convoluzionali

Note sull implementazione in virgola fissa di filtri numerici

Rappresentazione delle frazioni proprie Aritmetica in binario Barbara Masucci

E03 ESERCIZI SU LIVELLO FISICO

Algoritmi e Strutture Dati Laboratorio 15/12/2008. Daniele Loiacono

ALGORITMI: PROPRIETÀ FONDAMENTALI

STATISTICA: esercizi svolti sulle VARIABILI CASUALI

Rappresentazione dei numeri interi in un calcolatore

Teoria della probabilità Assiomi e teoremi

Definizioni. Soluzione ottima: migliore soluzione possibile Soluzione ottima localmente: soluzione ottima in un dominio contiguo. Il paradigma greedy

Capitolo 5 La trasmissione dell informazione

RETI DI TELECOMUNICAZIONE

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Processi casuali A.A Alberto Perotti, Roberto Garello

Reti di Calcolatori a.a

Sommario. Lempel-Ziv coding e varianti Run-length encoding. 1 Introduzione. 2 Codifica mediante predittori (Lossless JPEG, PNG, ecc.

Training Set Test Set Find-S Dati Training Set Def: Errore Ideale Training Set Validation Set Test Set Dati

UNIVERSITÀ DEGLI STUDI DI TRIESTE

Introduzione alla scienza della comunicazione (E. T. Jaynes)

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

Programmazione Lineare Intera: Piani di Taglio

Capitolo 6. La distribuzione normale

un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio;

Transcript:

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di sistema di comunicazione proposto da C. E. Shannon è il seguente: Sorgente Codificatore di sorgente Codificatore di canale Modulatore Voce, video, musica, dati, Zip, JPEG, MPEG, MP3, vocoder GSM e UMTS, Canale Destinatario Decodificatore di sorgente Decodificatore di canale Demodulatore 2 1

Sorgente stazionaria discreta La sorgente d informazione è caratterizzata da un alfabeto X costituito da M simboli: La sorgente emette messaggi costituiti da una sequenza di simboli: Sorgente x 0, x 1, 3 Sorgente stazionaria discreta (cont.) L emissione di un simbolo è un esperimento casuale il cui spazio campione coincide con l alfabeto X. Ogni simbolo è emesso dalla sorgente estraendolo dall alfabeto con probabilità Il messaggio è quindi rappresentabile come un processo casuale stazionario. Sorgente x 0, x 1, 4 2

Informazione Ad ogni simbolo dell alfabeto è associata una grandezza chiamata informazione: Interpretazione: Un simbolo molto probabile contiene poca informazione Un simbolo poco probabile contiene molta informazione Unità di misura: bit (logaritmo in base 2) 5 Informazione (cont.) Una generale proprietà dell informazione così definita: Simboli poco probabili, la cui emissione è un evento raro, forniscono una quantità elevata di informazione. Simboli molto probabili, la cui emissione è un evento frequente, forniscono una quantità ridotta di informazione. 6 3

Informazione (cont.) Altra proprietà interessante: Cioè l emissione di una coppia di simboli statisticamente indipendenti fornisce una quantità d informazione pari alla somma delle informazioni fornite dai singoli simboli 7 Entropia Il contenuto informativo medio dell intera sorgente, intesa come l insieme dell alfabeto e della sua associata distribuzione di probabilità, è misurato dall entropia di sorgente: Si tratta di una media pesata dell informazione associata ad ogni simbolo L informazione è pesata con la corrispondente probabilità di simbolo. Unità di misura: bit/simbolo (logaritmo in base 2) 8 4

Entropia (cont.) Esempio: sorgente binaria X = {0, 1} con p 0 = p, p 1 = 1 p. Valore massimo H(X) p = ½ H = 1 Valori minimi 1 p = 0, p =1 H = 0 0 ½ 1 p 9 Entropia (cont.) Teorema: l entropia di una sorgente con alfabeto X costituito da M simboli soddisfa la disuguaglianza L uguaglianza è raggiunta solo quando tutti i simboli sono equiprobabili. 10 5

Entropia (cont.) Esercizio: calcolare l entropia di una sorgente con alfabeto X costituito da 4 simboli con probabilità p 1 = ½ p 2 = ¼ p 3 = p 4 = 1/8 Soluzione: 11 Il canale discreto Si tratta di un sistema avente X ingressi e Y uscite, caratterizzato dalle probabilità condizionali di transizione. Esempio: il canale binario simmetrico X 1-p 1 1 p p 0 1-p 0 Y 12 6

Il canale discreto (cont.) Esempio: il canale quaternario. Può essere descritto mediante una matrice: x 1 p 11 p 12 y 1 X x 2 x 3 p 21 p 31 y 2 y 3 Y x 4 p 41 p 43 p 44 y 4 13 Il canale discreto (cont.) Si definisce l entropia d ingresso come x 1 p 11 p 12 y 1 p 21 x 2 y 2 Misura l informazione media dell alfabeto di sorgente. X p 31 x 3 y 3 Y p 41 p 43 x 4 y 4 p 44 14 7

Il canale discreto (cont.) Si definisce l entropia d uscita come x 1 p 11 p 12 y 1 p 21 x 2 y 2 Misura l informazione media dell alfabeto d uscita. X p 31 x 3 y 3 Y p 41 p 43 x 4 y 4 p 44 15 Il canale discreto (cont.) Si definisce l entropia congiunta come x 1 p 11 p 12 y 1 p 21 x 2 y 2 Misura l informazione media fornita da una coppia costituita da un simbolo d ingresso e da uno d uscita. X p 31 x 3 p 41 p 43 y 3 Y x 4 y 4 p 44 16 8

Il canale discreto (cont.) Si definisce l entropia condizionale H(X Y) come x 1 p 11 p 12 y 1 Misura l informazione media necessaria per specificare un simbolo d ingresso dato il simbolo d uscita. X x 2 x 3 x 4 p 21 p 31 p 41 p 43 p 44 y 2 y 3 y 4 17 Y Mutua informazione L entropia condizionale H(X Y) (equivocazione) rappresenta la parte di informazione che viene persa durante la trasmissione sul canale. 18 9

Mutua informazione (cont.) La mutua informazione può anche essere espressa nel seguente modo: I ( X ; Y ) = H ( X ) H ( X Y ) = P{ x, y } X Y i i P{ xi, yi}log i= 1 j= 1 P{ xi} P{ yi} Significato: se le variabili casuali X e Y sono statisticamente indipendenti (cioè l uscita Y non fornisce alcuna informazione sull ingresso X), allora P{x i, y i } = P{x i }P{y i } e la mutua informazione si annulla. 19 Capacità del canale discreto La capacità del canale è definita come la massima mutua informazione: La massimizzazione è effettuata rispetto alla distribuzione di probabilità della sorgente. 20 10

Capacità del canale binario simmetrico Per calcolare la mutua informazione I(X;Y) è necessario conoscere H(X) e H(X Y) L entropia di una sorgente binaria con probabilità {½, ½} vale H(X) = 1. L entropia condizionale H(X Y) vale quindi è necessario conoscere le probabilità P{x i y i } 21 Capacità del canale binario simmetrico Il canale binario simmetrico è definito mediante le probabilità 22 11

Capacità del canale binario simmetrico (cont.) Poiché e, per il teorema della probabilità totale si ottiene 23 Capacità del canale binario simmetrico (cont.) L entropia condizionale H(X Y) assume quindi la seguente forma: dove p è la probabilità di errore del canale binario simmetrico. Infine: 24 12

Capacità del canale binario simmetrico (cont.) Si può dimostrare che si ottiene per simboli d ingresso equiprobabili. 1 I(X;Y) p = 0 p = 0.1 p = 0.2 Nel caso binario, P{X = 0} = P{X = 1} = ½. 0 ½ 1 P{x 1 } 25 Codifica di sorgente Supponiamo di voler trasmettere i simboli dell alfabeto X usando un canale binario. Ogni simbolo x i deve essere rappresentato mediante una sequenza finita di bit c i, che chiameremo parola di codice, di lunghezza n i bit. Definiamo codificatore di sorgente il sistema che associa i simboli di sorgente x i alle parole di codice c i. Poiché ciascun simbolo di sorgente x i compare con probabilità p i all uscita della sorgente, anche la corrispondente parola di codice c i di lunghezza n i comparirà con la stessa probabilità p i all uscita del codificatore 26 13

Codifica di sorgente (cont.) Per ragioni di economia nell uso delle risorse trasmissive (bande di frequenza, potenza, ecc.), si è interessati alla minimizzazione della lunghezza media delle parole di codice: 27 Codifica di sorgente (cont.) L idea di fondo è quella di associare parole di codice corte ai simboli più frequenti parole di codice lunghe ai simboli meno frequenti In questo modo, si trasmettono più frequentemente parole di codice corte, mentre è più raro l utilizzo delle parole lunghe. In conclusione, si usa il canale per un numero di volte minore, ossia si opera una compressione. 28 14

Codifica di sorgente (cont.) La minimizzazione di E[n] deve essere effettuata tenendo conto del seguente vincolo (vincolo del prefisso): un codice viola il vincolo del prefisso se esiste una parola di codice che contiene, come sua parte iniziale, un altra parola di codice Un codice che viola tale vincolo è non univocamente decodificabile. Un codice che non viola tale vincolo è anche chiamato prefix code. 29 Codifica di sorgente (cont.) Esempio: w 1 = 0, w 2 = 01, w 3 = 10, w 4 = 100 viola il vincolo del prefisso perché w 2 contiene w 1 come sua parte iniziale e w 4 contiene w 3 come sua parte iniziale. Il messaggio 010010 è decodificabile come w 1 w 4 w 3 w 2 w 1 w 1 w 3 w 1 w 3 w 2 w 1 w 1 w 3 w 1 w 3 Quindi tale codice è non univocamente decodificabile 30 15

Algoritmo di Huffman Consente di ottenere il prefix code ottimo (dal punto di vista della lunghezza media) dato un alfabeto e la sua distribuzione di probabilità. Consiste nell esecuzione della seguente procedura: Ordinare i simboli in base alla loro probabilità Raggruppare i due simboli x i e x j meno probabili in un nuovo simbolo equivalente avente probabilità pari alla somma delle loro probabilità: p i + p j Ripetere i passi precedenti finché si ottiene un solo simbolo equivalente con probabilità 1. 31 Algoritmo di Huffman (cont.) Esempio: è dato l alfabeto X = {x 1, x 2, x 3, x 4, x 5 } con distribuzione di probabilità { 1 / 3, 1 / 4, 1 / 6, 1 / 6, 1 / 12 } 32 16

Algoritmo di Huffman (cont.) Esempio: è dato l alfabeto X = {x 1, x 2, x 3, x 4, x 5 } con distribuzione di probabilità {1/3, 1/4, 1/6, 1/6, 1/12} 33 Algoritmo di Huffman (cont.) Esempio: è dato l alfabeto X = {x 1, x 2, x 3, x 4, x 5 } con distribuzione di probabilità {1/3, 1/4, 1/6, 1/6, 1/12} 34 17

Algoritmo di Huffman (cont.) Esempio: è dato l alfabeto X = {x 1, x 2, x 3, x 4, x 5 } con distribuzione di probabilità {1/3, 1/4, 1/6, 1/6, 1/12} 35 Algoritmo di Huffman (cont.) Esempio: è dato l alfabeto X = {x 1, x 2, x 3, x 4, x 5 } con distribuzione di probabilità {1/3, 1/4, 1/6, 1/6, 1/12} 36 18

Algoritmo di Huffman (cont.) Esempio: è dato l alfabeto X = {x 1, x 2, x 3, x 4, x 5 } con distribuzione di probabilità {1/3, 1/4, 1/6, 1/6, 1/12} 37 Algoritmo di Huffman (cont.) Esempio: è dato l alfabeto X = {x 1, x 2, x 3, x 4, x 5 } con distribuzione di probabilità {1/3, 1/4, 1/6, 1/6, 1/12} 38 19

Algoritmo di Huffman (cont.) Esempio: è dato l alfabeto X = {x 1, x 2, x 3, x 4, x 5 } con distribuzione di probabilità {1/3, 1/4, 1/6, 1/6, 1/12} 39 Algoritmo di Huffman (cont.) Esempio: è dato l alfabeto X = {x 1, x 2, x 3, x 4, x 5 } con distribuzione di probabilità {1/3, 1/4, 1/6, 1/6, 1/12} 40 20

Algoritmo di Huffman (cont.) Esempio: è dato l alfabeto X = {x 1, x 2, x 3, x 4, x 5 } con distribuzione di probabilità {1/3, 1/4, 1/6, 1/6, 1/12} 41 Algoritmo di Huffman (cont.) Tutte le parole di codice corrispondono alle foglie dell albero che si è costruito. Il codice ottenuto soddisfa quindi il vincolo del prefisso per costruzione. Inoltre, si ha 42 21

Lunghezza media Teorema: è sempre possibile trovare un codice che soddisfa il vincolo del prefisso con lunghezza media 43 Esercizio 1 La sorgente S emette simboli dall alfabeto X = {x i }, i = 1, 2, 3 con probabilità p 1 = 0.6 p 2 = 0.3 p 3 = 0.1 Calcolare l entropia della sorgente Determinare il codice di sorgente ottimo che rispetti il vincolo del prefisso. Calcolare la lunghezza media delle parole di codice. 44 22

Esercizio 1 - soluzione L entropia della sorgente vale 1 1 1 H ( X ) = 0.6 log + 0.3log + 0.1log = 1.295 0.6 0.3 0.1 Si osservi che H ( X ) < log(3) = 1.585 valore che si otterrebbe se in ingresso si avesse una distribuzione uniforme 45 Esercizio 1 - soluzione Applicando l algoritmo di Huffman, si ottengono le seguenti parole di codice C (x 1 ) = 0 C (x 2 ) = 10 C (x 3 ) = 11 La lunghezza media delle parole di codice è 1.4 bit. 46 23

Esercizio 2 Con la sorgente definita nell esercizio precedente, considerando coppie di simboli di sorgente, determinare il codice di sorgente ottimo che rispetti il vincolo del prefisso. Calcolare la lunghezza media delle parole di codice e confrontarla con il risultato ottenuto all esercizio precedente. 47 Esercizio 2 soluzione Le parole di codice associate all alfabeto X 2 = {x i x j }, i, j = 1, 2, 3 sono C (x 1 x 1 ) = 0 C (x 1 x 2 ) = 100 C (x 2 x 1 ) = 101 C (x 2 x 2 ) = 1110 C (x 1 x 3 ) = 1100 C (x 3 x 1 ) = 1101 C (x 2 x 3 ) = 11110 C (x 3 x 2 ) = 111110 C (x 3 x 3 ) = 111111 48 24

Esercizio 2 soluzione (cont.) La lunghezza media delle parole di codice è 2.67 Il valore ottenuto è maggiore rispetto al valore di 1.4 ottenuto all esercizio 1. Tuttavia, ogni parola di codice corrisponde a 2 simboli di sorgente, quindi la lunghezza media per simbolo di sorgente vale 1.335 bit, valore minore del precedente. 49 Esercizio 3 È data una sorgente binaria X = {0, 1} con probabilità P{X = 0} = 1 P{X = 1} = 0.3. I simboli vengono trasmessi su un canale binario simmetrico con probabilità di errore p = 0.1. Determinare il codice di sorgente ottimo per X 2 e per X 3 che rispetti il vincolo del prefisso. Determinare la capacità (mutua informazione) del canale senza e con il codificatore di sorgente 50 25

Esercizio 3 - suggerimenti Determinare il codice di sorgente ottimo per X 2 e per X 3 che rispetti il vincolo del prefisso. Applicare l algoritmo di Huffman agli alfabeti X 2 e X 3 Determinare la capacità (mutua informazione) del canale Calcolare la mutua infomazione come I( X ; Y ) = H ( X ) H ( X Y ) 51 Esercizio 3 - suggerimenti È necessario calcolare, applicando il teorema della probabilità totale, le probabilità a posteriori P{ y0 } = P{ y0 x0} P{ x0} + P{ y0 x1} P{ x1} = 0.34 P{ y1 } = P{ y1 x0} P{ x0} + P{ y1 x1} P{ x1} = 0.66 Quindi si calcola 52 26

Esercizio 4 Un canale discreto (senza memoria) è caratterizzato dalla seguente matrice delle probabilità di transizione 0.9 0.1 P= 0.2 0.8 In ingresso, è presente una sorgente binaria equiprobabile. Calcolare la mutua informazione Considerare ora una sorgente che emette simboli binari con P{0} = 0.6 e P{1} = 0.4. Ripetere il calcolo della mutua informazione. 53 Riferimenti bibliografici [1] G. Prati, Videocorso Teoria dei Segnali [2] S. Benedetto, E. Biglieri, Principles of Digital Transmission with Wireless Applications, Kluwer, New York, 1999 54 27