Comunicazioni Elettriche II

Documenti analoghi
Comunicazioni Elettriche II

Comunicazioni Elettriche II

Comunicazioni Elettriche II

Modello di sistema di comunicazione

Teoria dell informazione

Comunicazioni Elettriche II

Comunicazioni Elettriche II

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Comunicazioni Elettriche Esercizi

Teoria dell informazione

RETI INTERNET MULTIMEDIALI. Esercitazione 4

LA CODIFICA. CANALE IDEALE E REALE

Roberto Maieli La trasmissione dell informazione

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.

Quale polinomio locatore ottiene il decodificatore? Quale parola propone in uscita? Commentare la scelta del decodificatore.

Comunicazioni Elettriche II

STII/Teoria dell Informazione

Indice. A Riassunto formule principali sulla Teoria dell Informazione per sorgenti135

Codifica delle sequenze sorgente

Introduzione alla codifica entropica

2) Codici univocamente decifrabili e codici a prefisso.

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

Tecniche di compressione senza perdita

Gestione ed Elaborazione di Grandi Moli di Dati. Scritto 29/08/2006: SOLUZIONI

15 Informazione e Predizione

Lezione 4 Ugo Vaccaro

Frequenza lettere in inglese

carattere a b c d e f cod. var

Sorgenti discrete e informazione

La codifica di sorgente

1 Esercizio - caso particolare di ottimalità

Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni. Esercitazioni del corso di. Telecomunicazioni

Elementi di teoria dell informazione e della trasmissione

Fondamenti di Informatica

Compressione dell Informazione (Parte I) Marco Gori

Rappresentazione dei numeri

Definizioni. Soluzione ottima: migliore soluzione possibile Soluzione ottima localmente: soluzione ottima in un dominio contiguo. Il paradigma greedy

Esercitazione 0. Alberto Marchesi Informatica A Ingegneria Matematica (sez. 2) 25 Settembre 2019

Comunicazioni Elettriche II

Comunicazioni Elettriche II

Prova di esame di Trasmissione Numerica

Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni

Capitolo 3 Compressione sorgenti statiche

che si ripete n volte, con n molto grande. Determinare il rate ottenuto dalla codifica LZ77, usando i parametri:

INFORMAZIONE E COMPLESSITA

Informazione e sua rappresentazione: codifica. Il concetto di informazione

10 Proprietà di Equipartizione Asintotica

Informazione e sua rappresentazione: codifica

Corso di Informatica B - Sezione D

Corso di Laurea in Ingegneria Informatica (Laurea on Line)

Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere. 1) A quanto corrisponde su base decimale un guadagno di 31 db? (Risp: = )

Informatica 3. LEZIONE 16: Heap - Codifica di Huffmann. Modulo 1: Heap e code di priorità Modulo 2: Esempio applicativo: codifica di Huffmann

La codifica di sorgente

Sicurezza di un Cifrario (C. Shannon)

Fondamenti di Internet e Reti

Comunicazioni Elettriche II

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

CODIFICA DI SORGENTE. Schematizzazione generale sistema di comunicazione

Corso di Calcolatori Elettronici I A.A Lezione 2 Rappresentazione dei numeri: sistemi di numerazione posizionale ing. Alessandro Cilardo

Esercitazioni di Fondamenti di Informatica - Lez. 1 02/10/2018

L algoritmo di decodifica è semplice e computazionalmente meno oneroso rispetto a quello di codifica.

Complessità di Kolmogorov

APPUNTI DI TEORIA DEI CODICI

Variabili e assegnazione

APPUNTI DI TEORIA DEI CODICI

ASPETTI MATEMATICI DI ALCUNI ALGORITMI DI COMPRESSIONE

1 Entropia: Riepilogo

Fondamenti di Comunicazioni - A.A. 2008/2009 Appello parte di TEORIA

CALCOLO DELLE PROBABILITÀ 2 (Laurea Specialistica) 28 giugno Motivare dettagliatamente le risposte su fogli allegati

Appunti di Elaborazione di Segnali Multimediali a.a. 2012/2013. Compattazione dati. G.Poggi, L.Verdoliva

Algoritmi e Strutture Dati Laboratorio 15/12/2008. Daniele Loiacono

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.

Teoria della Complessità Computazionale

Trasmissione numerica: Compito del 22/07/2008

Compressione di Testo

Corso di Calcolatori Elettronici I

INFORMATICA SANITARIA (Esercitazione sulla Compressione)

Algoritmi e Complessità

Compressione dell Informazione (Parte II) Marco Gori

Sistemi di Telecomunicazioni

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I

Teoria della complessità

Informazione e sua rappresentazione: codifica

ALGORITMI CORSO DI STUDIO IN INFORMATICA (laurea triennale) UNIVERSITÀ DEGLI STUDI DI CATANIA ANNO ACCADEMICO 2014/15

8 Derivati dell entropia

Notazione posizionale. Codifica binaria. Rappresentazioni medianti basi diverse. Multipli del byte

Profs. Roberto Cusani Francesca Cuomo

Universita degli Studi di Siena

La Teoria dell Informazione. Il termine calore. Le origini. Cosa intendiamo quando usiamo il termine informazione?

Esercitazioni di Fondamenti di Informatica - Lez. 1 - Soluzioni

Algoritmi e strutture dati. Codici di Huffman

1.2f: Operazioni Binarie

STII. Probabilità e proprietà dei logaritmi

Transcript:

Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28

Teoria dell informazione Esercitazione 6

Teorema della codifica di sorgente Si consideri una sorgente costituita da prove ripetute di una v.a. X con p(x) con ritmo pari a r prove/secondo Si definisce la velocità R della sorgente in bit/s! R = rh ( X ) Teorema: la sorgente può essere codificata con un codificatore di sorgente in un flusso di bit con velocità di trasmissione pari a R+ε per ogni ε> Il problema è quindi trovare codici che permettano di rendere ε piccolo: spesso si sceglie di adottare codici sub-ottimi ma più facilmente realizzabili

Codifica di sorgente Quali sono le proprietà necessarie e auspicabili per la codifica di sorgente? Necessaria: un codice deve essere univocamente decodificabile (non ci possono essere due simboli identificati dalla stessa parola di codice) Auspicabile: la lunghezza media di una parola di codice dovrebbe essere minimizzata in modo da minimizzare il bit rate necessario per trasferire i simboli di sorgente

Codifica di sorgente Classi di Codici Sorgente Codice Singolare Codice Non- Singolare, Non decodificabile univocamente Codice Non-Singolare, decodificabile univocamente, Non istantaneo Codice Non-Singolare, decodificabile univocamente, istantaneo 2 3 4 *non-singolare: ad ogni elementodella sorgente è associata una diversa stringa *decodificabile univocamente: unasuccessionedi stringhe nonforma una stringa *istantaneo: verifica la regoladel prefisso il prefissodi una stringa nonè esso stessouna stringa. Codifica Ottima: minimizza la lunghezzamedia L[bit] delcodice,rispettando ilvincoloh(x) L.

Codifica di Huffman Genera un codice non-singolare, decodificabile univocamente, ed istantaneo La codifica di Huffman è ottima! P= a a 8 a 6 a 3.3.3.5..25.4.6 a 4.8.5 a 7 a 2 a 5.5...2.7 esempio codice di a 7 () - ovvero

Esercizio : Codifica di Huffman Quali dei seguenti codici NON sono codici di Huffman? Motiva le risposte. a) {,, } b) {,,, } c) {, } a) È un possibile codice di Huffman per una sorgente ternaria tale che p(x): {/2, ¼, ¼}. b) NON è un codice di Huffman in quanto non è ottimo. Può infatti essere ridotto a {,,, }. c) NON è un codice di Huffman in quanto non è ottimo. Può infatti essere ridotto a {,}.

Esercizio 2: Codifica di Huffman. Si generi un codice binario di Huffman per la sorgente avente la seguente PMF: p(x):{/3, /5, /5, 2/5, 2/5} 2. Si mostri che il codice trovato è ottimo*, sia per la PMF al punto che nel caso di sorgente equiprobabile. q(x):{/5, /5, /5, /5, /5} *codice ottimo: minimizza la lunghezza media L [bit], rispettando il vincolo H(X) L.

Esercizio 2: Codifica di Huffman Un possibile codice di Huffman è il seguente: a /3 9/5 a 2 a 3 /5 /5 2/5 P = a 4 a 5 2/5 2/5 4/5 a a 2 a 3 a 4 H(p) = /3*log(3) + 2*/5*log(5) + 2*2/5*log(5/2) = 2.2323 bit L Huff = /3*2 + 2*/5*2 + 2*2/5*3 = 2.26 bit H(p) a 5 H(q) = log(5) = 2.329 bit L Huff = 3*/5*2 + 2*/5*3 = 2/5 bit $ L gen = " # = " &'" ( '" ) '" * '" + =, -./ $ $ $ Il valore di K più vicino alla codifica di Huffman è K=. K = L 456 = // = 2.2 bit < H(q), quindi tale codifica non è utilizzabile, la codifica di Huffman è ottima. $

Esercizio 3: Codifica, Entropia, ed Entropia relativa X è una sorgente a 5 possibili realizzazioni {, 2, 3, 4, 5} Considerate due possibili distribuzioni per X, tali che p(x): {/2, ¼, /8, /6, /6} q(x): {/2, /8, /8, /8, /8} Considerate due possibili codifiche, tali che C : {,,,, } C 2 : {,,,, } a) Calcolare H(p), H(q), D(p q), e D(q p). b) Verificare che la lunghezza media di C, rispetto a p(x), sia uguale a H(p) (C è ottimo per p(x)). Verificare che C 2 è ottimo per q(x). c) Assumendo di utilizzare C 2 quando la distribuzione è p(x), calcolare la lunghezza media del codice, e di quanto tale lunghezza eccede l entropia H(p). d) Calcolare l inefficienza nell utilizzo di C quando la distribuzione è q(x). N.B. l esercizio può essere svolto utilizzando Matlab, utilizzando le funzioni e gli script delle esercitazioni precedenti, e aggiungendo nuove funzionalità dove opportuno.