1) Codifica di sorgente sub-ottima: algoritmi di Shannon, Shannon-Fano.

Documenti analoghi
Appunti di Teoria dell Informazione

Sorgenti Numeriche - Soluzioni

Intorduzione alla teoria delle Catene di Markov

1. Il Teorema Ergodico per le catene di Markov * Definizione Una catena di Markov discreta con spazio degli stati E; si dice regolare se, detta P = (P

Esempi di canali DMC ed esercizi su: 1) Calcolo della capacità di canale. 2) Calcolo della probabilità di errore

6. Catene di Markov a tempo continuo (CMTC)

3) Entropie condizionate, entropie congiunte ed informazione mutua

6. Catene di Markov a tempo continuo (CMTC)

Variabili casuali doppie

Matematica Computazionale(6cfu) Ottimizzazione(8cfu)

* PROBABILITÀ - SCHEDA N. 2 LE VARIABILI ALEATORIE *

Analisi Class Successioni Lezione 6 2 ottobre 2014

Corso di TELECOMUNICAZIONI a.a

STATISTICA PSICOMETRICA a.a. 2004/2005 Corsi di laurea. Scienze e tecniche neuropsicologiche Modulo 3 Statistica Inferenziale

Analisi Matenatica Lezione 5 1 ottobre 2013

{ 1, 2,..., n} Elementi di teoria dei giochi. Giovanni Di Bartolomeo Università degli Studi di Teramo

RICHIAMI SULLA RAPPRESENTAZIONE IN COMPLEMENTO A 2

B - ESERCIZI: IP e TCP:

Lezione 20 Maggio 29

Lezione 2 Codifica della informazione

Massimizzazione del profitto e offerta concorrenziale

Dipartimento di Matematica per le scienze economiche e sociali Università di Bologna. Modelli 1 lezione novembre 2011 Media e varianza

ESERCITAZIONE 2 DIAGRAMMI A BARRE, COSTRUZIONE DI ISTOGRAMMA. Notazione: x i = i-esima modalità della variabile X

Media aritmetica (ponderata)

Capitolo 9 - Teoria dell informazione

DBMS multimediali A L B E R T O B E L U S S I B A S I D I D A T I A N N O A C C A D E M I C O /

I Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2014/15 Nome: 29 gennaio

termodinamica dei gas perfetti V i Funzione di stato Trasformazione isotermica di un gas perfetto: Q isot = L isot V = cost L = 0

Corso di Fondamenti di Telecomunicazioni

ANALISI STATISTICA DELLE INCERTEZZE CASUALI

Statistica descrittiva

Il campionamento casuale semplice

1 Le equazioni per le variabili macroscopiche: i momenti dell equazione di Boltzmann

rendere più veloce il trasferimento dei dati, per esempio attraverso una rete;

Dipartimento di Matematica per le scienze economiche e sociali Università di Bologna

Elementi di calcolo numerico

IL RUMORE NEGLI AMPLIFICATORI

La teoria del consumo

Dipartimento di Statistica Università di Bologna. Matematica finanziaria aa lezione 3: 27 febbraio 2013

Limitazioni di ampiezza negli amplificatori reali

CARATTERISTICHE DEI SEGNALI RANDOM

POLINOMIO MINIMO E FORMA CANONICA DI JORDAN NOTA AGGIUNTIVA PER IL CORSO DI GEOMETRIA ANALITICA E ALGEBRA LINEARE A.A DOCENTE: PAOLO LISCA

26/08/2010. segnali deterministici. segnali casuali o random. stazionario. periodico. Non stazionario. transitorio

Teoria dei processi casuali a tempo continuo. Seconda lezione: Medie statistiche

una variabile casuale è continuase può assumere un qualunque valore in un intervallo

LEZIONE 2. Riassumere le informazioni: LE MEDIE MEDIA ARITMETICA MEDIANA, MODA, QUANTILI. La media aritmetica = = N

Elementi di statistica

Equilibri Chimici. Processi chimici indipendenti & reazioni in fase gas

Realizzazione di FSM sincrone. Sommario. Introduzione. Sommario. M. Favalli

Intelligenza Artificiale II. Ragionamento probabilistico Rappresentazione. Marco Piastra. Intelligenza Artificiale II - AA 2007/2008

Esercitazione 1 del corso di Statistica 2

ELEMENTI DI STATISTICA

x 0 x 50 x 20 x 100 CASO 1 CASO 2 CASO 3 CASO 4 X n X n X n X n

Algoritmo di Carlier- Pinson per problemi di Job Shop Scheduling: un esempio

IL RUMORE NEGLI AMPLIFICATORI

Analisi Matematica Lezione 16 3 novembre 2014 Limiti di funzioni

Incertezza di sensibilità < fluttuazione intrinseca delle misure.

Dipartimento di Statistica Università di Bologna. Matematica Finanziaria aa lezione 20: 16 maggio 2012

Il modello markoviano per la rappresentazione del Sistema Bonus Malus. Prof. Cerchiara Rocco Roberto. Materiale e Riferimenti

Teoria dell informazione e Meccanica Statistica

Università di Cassino. Esercitazione di Statistica 1 del 4 dicembre Dott.ssa Simona Balzano

Definizione di campione

Università di Cassino Corso di Statistica 1 Esercitazione del 28/01/2008 Dott. Alfonso Piscitelli. Esercizio 1

Algoritmi basati sulla tecnica Divide et Impera

Gas ideale (perfetto):

Esercizi di econometria: serie 1

LKC LKT. Grafo della rete PRESCINDE DAI SUOI COMPONENTI. V e I scelte arbitrariamente, purché soddisfino le LK

Esercizi sulle reti elettriche in corrente continua (parte 2)

STATO DI TENSIONE IN SEZIONI MASSICCE. Sforzo normale

Modello del Gruppo d Acquisto

Teoria dei Segnali Rumore granulare

Misure indipendenti della stessa grandezza, ciascuna con una diversa precisione.

x(t) x[n] x q [n] x q [n] Campionamento Quantizzazione Codifica

Università di Cassino Corso di Statistica 1 Esercitazione del 17/10/2006 Dott. Alfonso Piscitelli. Esercizio 1

4.6 Dualità in Programmazione Lineare

Corso di. Dott.ssa Donatella Cocca

Alberi di classificazione: caratteristiche. della metodologia CART

1) Le medie e le varianze calcolate su n osservazioni relative alle variabili quantitative X ed Y sono tali che. σ x

4. ALGORITMI GREEDY. cambia-monete scheduling a minimo il ritardo. Il problema del cambia-monete. Proprietà di una soluzione ottima

Esercizio. Alcuni esercizi su algoritmi e programmazione. Schema a blocchi. Calcolo massimo, minimo e media

Strada B. Classe Velocità valore frequenza Frequ. ass Frequ. % hi Freq. Cum

Dipartimento di Matematica per le scienze economiche e sociali Università di Bologna. Matematica aa lezione febbraio 2009

Ragionamento probabilistico: rappresentazione

Il logaritmo discreto in Z p Il gruppo moltiplicativo Z p delle classi resto modulo un primo p è un gruppo ciclico.

Analisi Matematica Lezione novembre 2013

Esercitazione 8 del corso di Statistica (parte 1)

Analisi Modale. Le evoluzioni libere dei due sistemi a partire dalla condizione iniziale x(0) = x 0 sono

Matematica Computazionale(6cfu) Ottimizzazione(8cfu) (a.a , lez.9)

S O L U Z I O N I. 1. Effettua uno studio qualitativo della funzione. con particolare riferimento ai seguenti aspetti:

Dipartimento di Statistica Università di Bologna. Matematica Finanziaria aa lezione 3:

Statistica Descrittiva

La Stima Spettrale classica Ingegneria Clinica

Dipartimento di Matematica per le scienze economiche e sociali Università di Bologna

Esame di Statistica Corso di Laurea in Economia Prof.ssa Giordano

Metodi e Modelli per l Ottimizzazione Combinatoria Progetto: Metodo di soluzione basato su generazione di colonne

Metodi di Ottimizzazione mod. Modelli per la pianificazione delle attività

Transcript:

Argoment della Lezone ) Codfca d sorgente sub-ottma: algortm d Shannon, Shannon-Fano. 2) Codfca d sorgente basata su blocch 3) Sorgent con memora 4) Codfca d sorgent d Markov 5) Codfca unversale e codfca con erdte

Codfca d Codfca d Shannon Shannon La codfca d sorgente d Shannon orta ad un codce le cu lunghezze vengono defnte sulla base delle robabltà d emssone de smbol secondo la regola: Verfchamo la dsuguaglanza d Kraft er un codce d Shannon: n log 2 2 Verfchamo la dsuguaglanza d Kraft er un codce d Shannon: D conseguenza esste semre un codce d Shannon del to a refsso. Tale codce ha un effcenza mnore del codce d Huffman. 2 2 2 2 log log log 2 2 2 X X X X X N N N N N n

Codfca d Shannon e Fano L algortmo d Shannon e Fano è l seguente:. Gl M smbol dell alfabeto d sorgente vengono ordnat n accordo a valor non crescent delle loro robabltà 2. S dvde la lsta n due art n un unto tale che le due art abbano arossmatvamente la stessa robabltà comlessva. 3. S assegna l smbolo 0 alla arte alta della lsta ed l smbolo alla arte bassa della lsta. 4. S retono ass 2 e 3 fnché la suddvsone fnale non contene tutt smbol con tutte le robabltà assocate. Tale algortmo non è ottmo. 3

Codfca dell alfabeto d sorgente: codfca a blocch Fno ad ora s è vsto come una code word ossa essere assegnata n modo effcente a cascun smbolo x d un alfabeto d sorgente X. Il maggor rsultato è l teorema: H ( X ) n < H ( X ) + Al lmte nferore del teorema c s uò avvcnare quanto s vuole ν se s codfcano blocch d ν smbol nvece d sngol smbol: ) data una sequenza d osservazon ndendent d X, s assegna una code word al rsultante gruo d smbol Y 2) s costrusce un codce er un nuovo alfabeto d smbol y, la cu robabltà è l rodotto delle robabltà de smbol che secfcano y X υ υ N X 4

Prmo Teorema d Shannon er la codfca a blocch Con l rmo Teorema d Shannon s uò costrure un codce er Y la cu lunghezza meda delle codeword soddsfa la relazone: n ν H ( Y ) nν < H ( Y ) + Ogn y è comosto da ν smbol ndendent d X, da cu s uò dmostrare che: D conseguenza s ha: H H ( Y ) νh ( X ) n ( X ) < H ( X ) + v ν v 5

Prmo Teorema d Shannon er la codfca a blocch Dalla recedente esressone l numero medo d dgt/smbolo n ν ν d X: uò essere reso arbtraramente vcno a H(X), se s rende ν suffcentemente grande Effcenza del codce d sorgente a blocch: ν H ( X ) ε n ν Rdondanza del codce d sorgente a blocch: ε 6

Esemo Dato l alfabeto d sorgente: X {x, x 2, x 3 } con 0.5, 2 0.3 e 3 0.2, s vuole costrure un nuovo alfabeto: Y X 2 { y, y 2,..., y 9 } Raggruando smbol a due a due s ottene: 7

Esemo - contnua. Costruzone del codce d Huffman er le lunghezze d blocco: ν e ν 2 2. Calcolo ne due cas l numero d dgt/smbolo, usando la defnzone d effcenza d codce er l confronto: ν H ( X ) ε n ν 8

Esemo - contnua. Codce d Huffman er ν: x 0.5 x 0.3 x 2 0.2 x 3 0.5 0.0 0 x 0 x 2 0 x 3 3 n ν n 0.5 + 0.3 2 + 0.2 2.5 dgt/smbolo ε ν H ( X ) H ( X ) 0.67H ( X n.5 ν ) 9

2. Codce d Huffman er ν2: y 0.25 y 0.5 y 2 0.5 y 3 0. y 4 0. y 5 0.09 y 6 0.06 y 7 0.06 y 8 0.5 0 0. 0 Esemo - contnua 0.25 0 0.2 0.45 0 0.3 0 0.55 9 n ν 2 0.04 y 9 + 0. 3 + 0. 3+ 3 dgt/smbolo 0 0 0 y 00 y 2 00 y 3 00 y 4 0 y 5 0 y 6 00 y 7 0 y 8 0 y 9 0.25 2 + 0.5 3+ 0.5 3+ 0.09 4 + 0.06 4 + 0.06 4 + 0.04 4 ε ν 2 0.67H ( X Mauro De Sancts corso d Informazone e ncodfca ν 2 Unverstà 3d Roma Tor Vergata y n y 2 H ( X ) 2 H ( X ) ) 0

Esemo - contnua Pertanto, ur codfcando a blocch, se ν 2 non c è un mgloramento nell effcenza rsetto al caso ν S uò verfcare che er ν 3 comnca ad esserc un vantaggo n termn d effcenza.

Sorgent con memora e codfca adattatva 2

Se una sorgente X è dscreta e senza memora, l suo contenuto medo d nformazone è equvalente al contenuto medo d nformazone dell'alfabeto d sorgente con smbol avent robabltà d emssone ar alla massa d robabltà della varable aleatora X. Sorgent con memora Se smbol emess nel temo dalla sorgente sono dendent allora l modello d varable aleatora non è ù valdo. S ha la necesstà d estendere la defnzone d contenuto nformatvo dell ALFABETO d sorgente al contenuto nformatvo della SORGENTE Questo mlca d consderare la dendenza statstca tra smbol n un messaggo 3

Process aleator Un rocesso aleatoro è una funzone X(t,ω) del temo t assegnata ad ogn rsultato ω d un esermento aleatoro. Normalmente vene ndcato con X(t) o X t omettendo ω. La dstrbuzone d robabltà e la denstà d robabltà sono defnte come: F X ( x, t) P( X ( t) x), f ( x, t) X F xx ( x, t) Il temo t uò essere una varable contnua o dscreta. Un rocesso aleatoro temo dscreto corrsonde ad una sequenza d varabl aleatore. 4

Valore atteso: Autocorrelazone: Process aleator + [ X ( t) ] xf ( x t) η( t) E X, dx [ ( ) ( )] * X t X R XX ( t, t2 ) E t2 Autocovaranza: C XX ( t, t2) RXX ( t, t2) η( t) η( t2) Un rocesso aleatoro è detto stazonaro n senso lato (WSS) se le statstche del rmo e del secondo ordne sono nvarant rsetto a una traslazone del temo e d conseguenza: η t ) η, R ( t, t + τ ) ( XX RXX ( τ ) Denstà settrale d otenza d un rocesso WSS: S XX ( f ) + 2 F{ R τ } R τ e πτ XX ( ) XX ( ) dτ 5

Eserczo Una sorgente analogca è modellzzata come un rocesso aleatoro contnuo con denstà settrale d otenza lmtata tra 0 e 4kHz. Il segnale della sorgente vene camonato alla frequenza d Nyqust. S ottene una sequenza d varabl aleatore dscrete che s assume sano ndendente. Esstono 5 lvell d quantzzazone con robabltà ar a /2, /4, /8, /6, /6. Calcolare l entroa della sorgente quantzzata e la frequenza d nformazone. Soluzone: Poché la sorgente è senza memora (smbol ndendent), l entroa d sorgente è ar a: H( X ) 5 3 5 log + + + + bt / smbolo 2 2 8 4 4 8 Il camonamento alla frequenza d Nyqust roduce 2B8000 camon al secondo R 2 B H( X ) 5000 bt / s 6

Process d Markov e catene d Markov Un rocesso aleatoro X(t) è detto rocesso d Markov del rmo ordne se le robabltà condzonate dendono soltanto dall'ultmo valore recedente e non da tutt gl altr valor recedent: er P ogn t < t 2 <... < t n < t n+ ( X x X x, X x,..., X x ) P( X x X x ) tn n+ tn n tn n t tn n+ t + + n Una catena d Markov del rmo ordne è un caso artcolare d un rocesso d Markov del rmo ordne n cu X(t) uò avere soltanto valor aartenent ad un nseme dscreto S{s,s 2,...}. Gl element d S sono chamat stat della catena e, nel caso d catena a stat fnt S{s,s 2,...,s N }, N è l numero d stat della catena. n Un rocesso d Markov ed una catena d Markov ossono essere temo-contnu o temo dscret. 7

Process d Markov e catene d Markov Per una catena d Markov del rmo ordne X(t) s defnsce la robabltà d transzone d stato:, ( t) P t ( X s X s ) + Se le robabltà d transzone d stato non dendono dal temo t, la catena d Markov vene detta omogenea (o temo omogenea). Defnamo la matrce delle robabltà d transzone come: P, 2,... N,,2 2,2... N,2............, N 2, N... N, N Un catena d Markov è detta regolare se er qualsas numero ntero r, tutt gl element della matrce P r sono strettamente ostv. t N, 8

Process d Markov e catene d Markov Per una catena d Markov del rmo ordne X(t) ndchamo con u () vettore delle robabltà d stato al asso -esmo. l L'elemento -esmo del vettore u () ndca la robabltà che la catena s trov nello stato -esmo al asso -esmo Sa u l vettore delle robabltà d stato al asso 0 e u (n) l vettore delle robabltà d stato al asso n, s ha: n n u ( ) up 9

Process d Markov e catene d Markov Per una catena d Markov del rmo ordne X(t) se esste fnto l lmte: ( n) lm u π [ π,..., π n l vettore π vene detto vettore d dstrbuzone degl stat stazonar. N ] Teorema: er una catena d Markov a stat fnt, omogenea e regolare, esste l vettore π d dstrbuzone degl stat stazonar tale che: π π P 20

Sorgent con memora S consder una sorgente con memora che vene modellzzata tramte un rocesso aleatoro temo dscreto, ossa una sequenza d varabl aleatore X con ndce che raresenta l temo dscreto e tutte con alfabeto A { x, x2,..., x N X } Contenuto d nformazone condzonato: I ( x x ) 2 log P( x x 2 ) Entroa condzonata: H ( X 2 X ) N N X X P( x, x ) log P( x x ) S ha: H ( X 2 X) H ( X 2) 2

Sorgent con memora S consder l'emssone d un blocco d n smbol modellzzable come un vettore d n varabl aleatore X[X, X 2,..., X n ]. L'entroa del blocco d n smbol è data da: H (X) H ( X n, X n,..., X N X NX NX... P ( x ), x,..., x ) log 2 n n P( x, x,..., x ) 2 2 E' necessaro effettuare una normalzzazone er defnre l'entroa er smbolo d un blocco d n smbol: H n ( X ) H ( X) H ( X n, X n,..., X) n n n 22

Sorgent con memora S consder una sorgente dscreta con memora. Il contenuto nformatvo medo er smbolo (entroa) d tale sorgente è defnta come: H ( X ) lm H n ( X ) lm H ( X) lm H ( X n, X n,..., X) n n n n n se l lmte esste. Per una sorgente stazonara tale lmte esste. 23

Sorgent con memora Frequenza meda d nformazone ( nformaton rate ) della sorgente: R S H ( T S S vedrà come l aarzone del temo sa strettamente legata alla larghezza d banda del canale fsco che s usa er trasortare l nformazone X ) N.B. H ( X ) s msura n bt/smbolo, l temo d smbolo T s n s/smbolo: dunque R s s msura n bt/s 24

Sorgent d Markov Consderamo una sorgente dscreta e con memora X modellzzata da una catena d Markov temo dscreta omogenea e regolare, con N S stat, matrce d transzone P e vettore d dstrbuzone degl stat stazonar π. S assume che l'emssone d un smbolo sa generata da ogn transzone d stato che avvene ogn T s second. Il numero d smbol N X dell'alfabeto d sorgente è n generale dverso dal numero N S degl stat della catena. 25

Sorgent d Markov Sa S lo stato -esmo della catena. L'entroa della sorgente allo stato S è data da: H ( S ) N S, log, Teorema: s consder una sorgente dscreta e con memora X modellzzata da una catena d Markov temo dscreta omogenea e regolare, con N S stat, matrce d transzone P e vettore d dstrbuzone degl stat stazonar π. L'entroa d tale sorgente è data da: NS NS NS H ( X ), log π π H ( S ), 26

Eserczo Sa data la catena d Markov omogenea e regolare a due stat raresentata n fgura. Calcolare la matrce P delle robabltà d transzone, l vettore w degl stat stazonar e la matrce P delle robabltà d transzone lmte. 0.8 0.2 S S 2 0.3 P Soluzone: ( 2 0.7 S S) 0.2 P( S S2) 0.7 P( S2 S) 0.8 P( S2 S ) P( S S, ) P 2 2 22 0.2 0.7 0.8 0.3 0.3 27

Eserczo Essendo la catena regolare, er calcolare l vettore w degl stat stazonar è suffcente rsolvere l sstema: 0.2 0.8 wp w [ w ] [ ] w2 w w2 0.7 0.3 w + w2 0.2w + 0.7w w w2 2 w w w 2.4w.4w w w 2 0.53 0.47 w [ 0.47 0.53] P w w 0.47 0.47 0.53 0.53 28

Codfca d una sorgente stazonara d Markov Nel caso d sorgent d Markov è alcable la rocedura d Huffman er codfcare smbol dell alfabeto er ogn stato S Cò uò rchedere l uso d un nseme d code word dverso er ogn stato d sorgente Per ottenere le restazon d tale rocedura s usa l teorema: n H( X) n < H( X) + ( S Indcando con l numero medo d dgt/smbolo d alfabeto usato nello stato S s ottene: ) H ( S ) n( S ) < H ( S ) + 29

Codfca d una sorgente stazonara d Markov La lunghezza meda della code word s uò defnre come: n N S π n( S ) Partendo dal rmo teorema d Shannon alcato ad ogn stato della catena d Markov e oerando una sommatora su π er tutt membr della dsequazone s ottene: H ( X ) n < H ( X ) + 30

Codfca unversale Fno ad ora sono state consderate sorgent d cu s conosce la dstrbuzone statstca de smbol. Tale nformazone non è d solto dsonble ed è necessaro svluare nuov metod er la comressone che non faccano uso delle robabltà d emssone de smbol. Un metodo semlce detto a due ass è quello d attendere che tutt smbol sano stat emess, calcolarne la frequenza d emssone er ogn smbolo e o codfcare la sorgente sulla base della statstca sulle frequenze d emssone che è stata msurata. Tale rocedmento ntroduce un rtardo agguntvo nella codfca. 3

Comressone d dat basata su dzonar Gl algortm d comressone basat su dzonar vengono utlzzat er la comressone d fle. Al contraro della codfca statstca, n questa classe d algortm s codfcano strnghe d smbol d sorgente a lunghezza varable con codeword d lunghezza costante. Vene creato un dzonaro contenente tutte le strnghe d smbol rcorrent nel fle. Ogn strnga d lunghezza varable resente nel fle vene codfcata con un ndrzzo che ndca la sua oszone nel dzonaro. Il rmo esemo d codfca basato su dzonaro fu l algortmo d Lemel e Zv del 977 (LZ77). Il formato d comressone.z utlzza una varante d LZ77. 32

Codfca d sorgente senza erdta d nformazone I t d dat analogc n natura (mmagn, audo, vdeo), er oter essere dgtalzzat devono essere subre un rocesso d quantzzazone che determna ntrnsecamente una certa erdta d nformazone. A seguto del rocesso d quantzzazone, l nformazone uò essere comressa utlzzando metod con erdta o senza erdta. Alcun de metod d codfca senza erdte ottmzzat er determnat t d dat analogc sono: - mmagn: TIFF (lossless), PNG, GIF, RAW format - audo (musca, voce): WAV, FLAC, ALAC, WMA (lossless), Monkey's Audo, WavPack - vdeo: Drac (lossless), FFV, YULS 33

Codfca d sorgente con erdta d nformazone In alcun cas, oltre alla erdta d nformazone dovuta alla quantzzazone, s è dsost a erdere una ulterore quanttà d nformazone nella fase d codfca d sorgente a vantaggo d una maggore comressone de dat. Alcun de metod d codfca con erdte sono: - mmagn: JPEG (lossy), JPEG2000 (lossy) - audo (musca): MP3, AAC, OGG - audo (voce): ACELP, QCELP, RCELP - vdeo: H.264/MPEG-4, WMV 34