Codifica sorgente e canale

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Codifica sorgente e canale"

Transcript

1 Codifica sorgente e canale Codifica sorgente Codifica canale in Canale Compressione Codifica Decodifica Decompress. Rumoroso out Codifica sorgente: comprimere i dati per rimuovere ridondanza Codifica canale: aggiungere ridondanza per proteggere da errori di trasmissione sul canale Comunicazione con successo: out=in p. 1/42

2 Codifica canale Codifica sorgente Codifica canale in Canale Compressione Codifica Decodifica Decompress. Rumoroso out Es. effetto rumore. Input possibili al canale: sequenze 101 e 111, input 101, rumore: secondo bit modificato, output: 111; input: 111, rumore: nessuno, output: 111; diverse sequenze in input producono lo stesso output (input confondibili). Obiettivo: proteggere l informazione da eventuali errori di trasmissione legati al rumore p. 2/42

3 Codifica canale Obiettivo: Input NON Confondibili correzione errori trasmissione p. 3/42

4 Codifica canale Obiettivo: Input NON Confondibili correzione errori trasmissione Metodo: Aggiungere ridondanza p. 3/42

5 Codifica canale Obiettivo: Input NON Confondibili correzione errori trasmissione Metodo: Aggiungere ridondanza Nota: impossibile eliminare effetto rumore vogliamo input non confondibili con alta probabilità p. 3/42

6 Canali discreti senza memoria Canale discreto (alfabeti I/O discreti): (X, Π, Y) x X Π y Y X = alfabeto input al canale Y= alfabeto output al canale Π = [p(y/x)]= matrice delle probabilità di transizione p. 4/42

7 Canali discreti senza memoria Canale discreto (alfabeti I/O discreti): (X, Π, Y) x X Π y Y X = alfabeto input al canale Y= alfabeto output al canale Π = [p(y/x)]= matrice delle probabilità di transizione Canale discreto senza memoria (DMC) (X, Π, Y): probabilità output dipende solo da input corrispondente NON da precedenti input o output. p. 4/42

8 Capacità per n usi del canale C (n) = 1 n max p(x 1...x n ) I(X 1...X n ;Y 1...Y n ) p. 5/42

9 Capacità per n usi del canale C (n) = 1 n max p(x 1...x n ) I(X 1...X n ;Y 1...Y n ) Per canale discreto senza memoria (DMC) I(X 1... X n ; Y 1... Y n ) = H(Y 1... Y n ) H(Y 1... Y n /X 1... X n ) = nx nx H(Y i /Y 1... Y i 1 ) H(Y i /X 1... X n, Y 1... Y i 1 ) i=1 nx H(Y i ) i=1 nx I(X i ; Y i ) i=1 i=1 nx H(Y i /X i ) i=1 regola catena+dmc p. 5/42

10 Capacità per n usi del canale C (n) = 1 n max p(x 1...x n ) I(X 1...X n ;Y 1...Y n ) Per canale discreto senza memoria (DMC) I(X 1... X n ; Y 1... Y n ) = H(Y 1... Y n ) H(Y 1... Y n /X 1... X n ) = nx nx H(Y i /Y 1... Y i 1 ) H(Y i /X 1... X n, Y 1... Y i 1 ) i=1 nx H(Y i ) i=1 nx I(X i ; Y i ) i=1 i=1 nx H(Y i /X i ) i=1 regola catena+dmc Max I(X 1...X n ;Y 1...Y n ) massimizzando ogni I(X i ;Y i ) Ci concentreremo su maxi(x,y ) singolo uso canale p. 5/42

11 Capacità Canale Capacità del canale senza memoria: C = max p(x) I(X;Y ) Dimostreremo: capacità = massimo numero di bit (di informazione) che possono essere trasmessi per ogni uso del canale. p. 6/42

12 Canale senza rumore Trasmette un bit per uso senza errore C = 1 p. 7/42

13 Canale senza rumore Trasmette un bit per uso senza errore C = 1 Infatti C = max p(x) I(X;Y ) = max p(x) H(X) H(X/Y ) = max p(x) H(X) = 1 per p(x) = (1/2, 1/2) p. 7/42

14 Canale binario simmetrico p p p 1 p 0 1 Π = p 1 p 1 p p I(X; Y ) = H(Y ) H(Y/X) = H(Y ) x p(x)h(y/x = x) = H(Y ) x p(x)h(p) = H(Y ) h(p) C = max p(x) I(X; Y ) = max p(x) H(Y ) h(p) 1 h(p) p(x) = (1/2, 1/2) p(y = 1) = 1 2 (1 p) p = 1 2 H(Y ) = 1 Quindi C = 1 h(p)bits 1 h(p) p p. 8/42

15 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = p. 9/42

16 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = Canale debolmente simmetrico: Ogni riga é permutazione di ogni altra riga; la somma su ogni colonna é costante Es. Π = [ 1/3 1/6 1/2 1/3 1/2 1/6 ] p. 9/42

17 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = Canale debolmente simmetrico: Ogni riga é permutazione di ogni altra riga; la somma su ogni colonna é costante Es. Π = [ 1/3 1/6 1/2 1/3 1/2 1/6 ] Canale simmetrico Canale debolmente simmetrico p. 9/42

18 r=riga di Π Canali (Debolmente) Simmetrici I(X;Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) p. 10/42

19 Canali (Debolmente) Simmetrici r=riga di Π I(X;Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) Ponendo p(x) = 1/ X per ogni x X risulta p(y) = x p(x)p(y/x) = x p(y/x) X = somma colonna X = 1 Y p. 10/42

20 Canali (Debolmente) Simmetrici r=riga di Π I(X;Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) Ponendo p(x) = 1/ X per ogni x X risulta p(y) = x p(x)p(y/x) = x p(y/x) X = somma colonna X = 1 Y Quindi C = log Y H(r) p. 10/42

21 Canali (Debolmente) Simmetrici r=riga di Π I(X;Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) Ponendo p(x) = 1/ X per ogni x X risulta p(y) = x p(x)p(y/x) = x p(y/x) X = somma colonna X = 1 Y Quindi C = log Y H(r) Es. Π = [ ] 1/3 1/6 1/2 1/3 1/2 1/6 C = log 3 H( 1 3, 1 6, 1 2 ) = 1 2 log p. 10/42

22 Canale binario con cancellazioni 0 0 e Π = 1 α α 0 0 α 1 α 1 1 p. 11/42

23 Canale binario con cancellazioni 0 0 e Π = 1 α α 0 0 α 1 α 1 1 Sia p(x = 0) = p I(X;Y ) = H(Y ) H(Y/X) = H(Y ) ph(y/x = 0) (1 p)h(y/x = 1) = H(Y ) h(α) p. 11/42

24 Canale binario con cancellazioni 0 0 e Π = 1 α α 0 0 α 1 α 1 1 Sia p(x = 0) = p I(X;Y ) = H(Y ) H(Y/X) = H(Y ) ph(y/x = 0) (1 p)h(y/x = 1) = H(Y ) h(α) p(y = 0) = p(1 α), P(Y = e) = α H(Y ) h(α) = H(p(1 α),(1 p)(1 α), α) h(α) = (1 α)h(p) p. 11/42

25 Canale binario con cancellazioni 0 0 e Π = 1 α α 0 0 α 1 α 1 Sia p(x = 0) = p 1 I(X;Y ) = H(Y ) H(Y/X) = H(Y ) ph(y/x = 0) (1 p)h(y/x = 1) = H(Y ) h(α) p(y = 0) = p(1 α), P(Y = e) = α H(Y ) h(α) = H(p(1 α),(1 p)(1 α), α) h(α) = (1 α)h(p) C = max p (1 α)h(p) = 1 α, per p = 1/2 Frazione α bit cancellati mumero medio bit di info trasmessi é 1 α. p. 11/42

26 Canale asimmetrico α 1 α 1 α Π = α α α 1 α p. 12/42

27 Canale asimmetrico α 1 α 1 α Π = α α α 1 α Sia p(x) = (p, p, 1 2p) P(Y ) = (p, p, 1 2p) H(Y/X) = 2ph(α) + (1 2p)h(1) = 2ph(α) H(Y ) = H(p, p, 1 2p) = 2p log p (1 2p) log(1 2p) p. 12/42

28 Canale asimmetrico α 1 α 1 α Π = α α α 1 α Sia p(x) = (p, p, 1 2p) P(Y ) = (p, p, 1 2p) H(Y/X) = 2ph(α) + (1 2p)h(1) = 2ph(α) H(Y ) = H(p, p, 1 2p) = 2p log p (1 2p) log(1 2p) Per trovare C massimizziamo f(p) = H(Y ) H(Y/X) = 2p log p (1 2p) log(1 2p) 2ph(α) f (p) = 2 log e 2 log p + 2 log e + 2 log(1 2p) 2h(α) = 0 h(α) = log p + log(1 2p) C = 2p log p (1 2p) log(1 2p)+(2p log p 2p log(1 2p)) = log(1 2p) p. 12/42

29 Codifica Canale DMC Codifica sorgente Codifica canale in Compressione Codifica Π Decodifica Decompress. i X n (i) y n g(yn ) out Codice canale (M,n) per (X, Π, Y): Insieme di indici {1,...,M} ( possibili sequenze input) Funzione codifica X n : {1,...,M} X n Funzione decodifica g : Y n {1,...,M} p. 13/42

30 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = Pr{g(Y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) p. 14/42

31 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = Pr{g(Y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) Probabilitá massima di errore: λ (n) = max 1 i M λ i p. 14/42

32 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = Pr{g(Y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) Probabilitá massima di errore: Probabilitá media di errore: λ (n) = max 1 i M λ i P (n) e = 1 M M i=1 λ i p. 14/42

33 Codifica Canali Rumorosi Tasso codice (M,n): R = log M n bit trasm. p. 15/42

34 Codifica Canali Rumorosi Tasso codice (M,n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr,n) con λ (n) 0 per n p. 15/42

35 Codifica Canali Rumorosi Tasso codice (M,n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr,n) con λ (n) 0 per n Si dimostra che: (Teorema di Codifica Canale) (a) ogni tasso R C é ottenibile, (b) nessun tasso R > C é ottenibile p. 15/42

36 Codifica Canali Rumorosi Tasso codice (M,n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr,n) con λ (n) 0 per n Si dimostra che: (Teorema di Codifica Canale) (a) ogni tasso R C é ottenibile, (b) nessun tasso R > C é ottenibile Capacitá = limite superiore di tutti i tassi ottenibili p. 15/42

37 Coppie Tipiche Definizione L insieme A ǫ (n) delle coppie tipiche {(x n,y n )} rispetto alla distribuzione p(x, y) è definito da: A (n) ǫ = dove p(x n,y n ) = n i=1 p(x i,x j ). { (x n,y n ) X n Y n : 1 n log p(xn ) H(X) < ǫ, 1 n log p(yn ) H(Y ) < ǫ, } 1 n log p(xn,y n ) H(XY ) < ǫ p. 16/42

38 Joint AEP Teorema Siano (X n,y n ) seqeuenze di v.c. i.i.d secondo p(x n,y n ) = n i=1 p(x i,x j ). Allora, 1. Pr((X n,y n ) A (n) ǫ ) 1 per n. p. 17/42

39 Joint AEP Teorema Siano (X n,y n ) seqeuenze di v.c. i.i.d secondo p(x n,y n ) = n i=1 p(x i,x j ). Allora, 1. Pr((X n,y n ) A (n) ǫ ) 1 per n. 2. (1 e)2 n(h(x,y ) ǫ) A ǫ (n) 2n(H(X,Y )+ǫ) p. 17/42

40 Joint AEP Teorema Siano (X n,y n ) seqeuenze di v.c. i.i.d secondo p(x n,y n ) = n i=1 p(x i,x j ). Allora, 1. Pr((X n,y n ) A (n) ǫ ) 1 per n. 2. (1 e)2 n(h(x,y ) ǫ) A ǫ (n) 2n(H(X,Y )+ǫ) 3. Se X n e Y n sono indipendenti e scelte secondo p(x n ) e p(y n ), quindi Pr( x n, y n ) = p( x n )p( y n ), allora per n (1 e)2 n(i(x;y )+3ǫ) Pr(( X n, Xn ) A (n) ǫ ) 2 n(i(x;y ) 3ǫ). p. 17/42

41 Teorema di Codifica Canale Teorema Per ogni tasso R < C, esiste una sequenza di codici (2 nr,n) con probabilità massima di errore λ (n) 0. p. 18/42

42 Teorema di Codifica Canale Teorema Per ogni tasso R < C, esiste una sequenza di codici (2 nr,n) con probabilità massima di errore λ (n) 0. Dim. La dimostrazione si basa sulle seguenti idee analisi di sequenze lunghe, in modo da sfruttare la legge dei grandi numeri e, specificamente, le proprietà delle coppie tipiche. p. 19/42

43 Teorema di Codifica Canale Teorema Per ogni tasso R < C, esiste una sequenza di codici (2 nr,n) con probabilità massima di errore λ (n) 0. Dim. La dimostrazione si basa sulle seguenti idee analisi di sequenze lunghe, in modo da sfruttare la legge dei grandi numeri e, specificamente, le proprietà delle coppie tipiche. Calcolo della probabilità di errore mediata su una scelta random del codice. p. 19/42

44 Codifica Canale - Parte Diretta Generiamo 2 nr parole codice i.i.d. scegliendone i simboli da X indipendentemente in accordo ad una fissata d.p. p(x). una sequenza x n è scelta con probabilità p(x n ) = n i=1 p(x i) p. 20/42

45 Codifica Canale - Parte Diretta Generiamo 2 nr parole codice i.i.d. scegliendone i simboli da X indipendentemente in accordo ad una fissata d.p. p(x). una sequenza x n è scelta con probabilità p(x n ) = n i=1 p(x i) un codice C = x 1 (1) x 2 (1)... x n (1) x 1 (2 nr ) x 2 (2 nr )... x n (2 nr ) con probabilità Pr(C) = 2 nr w=1 n i=1 p(x i(w)).. p. 20/42

46 Codifica Canale - Il Modello Consideriamo il seguente modello Il codice viene scelto in maniera random (vedi sopra) p. 21/42

47 Codifica Canale - Il Modello Consideriamo il seguente modello Il codice viene scelto in maniera random (vedi sopra) il messaggio W da trasmettere viene scelto uniformemente a caso: Pr(W = w) = 2 nr, per ogni w = 1, 2,...,2 nr. p. 21/42

48 Codifica Canale - Il Modello Consideriamo il seguente modello Il codice viene scelto in maniera random (vedi sopra) il messaggio W da trasmettere viene scelto uniformemente a caso: Pr(W = w) = 2 nr, per ogni w = 1, 2,...,2 nr. La parola codice X n (w), corrispondente alla w-esima riga di C viene spedita sul canale. p. 21/42

49 Codifica Canale - Il Modello Consideriamo il seguente modello Il codice viene scelto in maniera random (vedi sopra) il messaggio W da trasmettere viene scelto uniformemente a caso: Pr(W = w) = 2 nr, per ogni w = 1, 2,...,2 nr. La parola codice X n (w), corrispondente alla w-esima riga di C viene spedita sul canale. L output del canale è una sequenza Y n determinata in accordo alla distribuzione P(y n x n (w)) = n i=1 p(y i x i (w)). p. 21/42

50 La sequenza Y n viene decodificata come W se (X n ( W),Y n ) formano coppia tipica Non esiste un altro messaggio k t.c. (X n (k),y n ) formano coppia tipica. p. 22/42

51 La sequenza Y n viene decodificata come W se (X n ( W),Y n ) formano coppia tipica Non esiste un altro messaggio k t.c. (X n (k),y n ) formano coppia tipica. se non esiste un tale W o ce ne è più di uno, si emette un segnale di errore. p. 22/42

52 La sequenza Y n viene decodificata come W se (X n ( W),Y n ) formano coppia tipica Non esiste un altro messaggio k t.c. (X n (k),y n ) formano coppia tipica. se non esiste un tale W o ce ne è più di uno, si emette un segnale di errore. Dichiariamo la codifica errata se W W, e denotiamo con E tale evento. p. 22/42

53 La probabilità di errore. La calcoliamo mediata su tutte le parole del codice, e mediata su tutti i codici possibili: Pr(E) = C P(C)P e (n) (C) = C = 1 2 nr P(C) 1 2 nr 2 nr w=1 2 nr w=1 λ w (C) P(C)λ w (C) C p. 23/42

54 Poiché mediamo su tutti i codici P(C)λ w (C) C non dipende da w. Infatti, guardando a tutti codici, la stessa parola appare lo stesso numero di volte con ogni indice. Quindi possiamo assumere, senza perdita di generalità che l indice del messaggio inviato sia W = 1, poiché P(C) = 1 2 nr 2 nr P(C)λ w (C) = w=1 C C = Pr(E W = 1). P(C)λ 1 (C) p. 24/42

55 Sia Y n la sequenza output quando X n (1) viene trasmesso (codifichiamo W = 1). Definiamo i, l evento l i-esima parola codice e Y n formano coppia tipica : E i = {(X n (i),y n ) A (n) ǫ }, p. 25/42

56 Sia Y n la sequenza output quando X n (1) viene trasmesso (codifichiamo W = 1). Definiamo i, l evento l i-esima parola codice e Y n formano coppia tipica : E i = {(X n (i),y n ) A (n) ǫ }, Per la decodifica scelta, quando X n (1) viene trasmessa, si ha errore se una si verifica tra: (X n (i),y n ) A (n) ǫ, i 1: l evento E i ; (X n (1),Y n ) A (n) ǫ : l evento E 1. p. 25/42

57 Quindi P(E) = Pr(E W = 1) = P(E 1 E 2 E 3 E 2 nr) P(E 1 ) + 2 nr i=2 P(E i ). p. 26/42

58 Quindi P(E) = Pr(E W = 1) = P(E 1 E 2 E 3 E 2 nr) P(E 1 ) + 2 nr i=2 P(E i ). P(E 1 ) ǫ, per n (joint AEP 1.); p. 26/42

59 Quindi P(E) = Pr(E W = 1) = P(E 1 E 2 E 3 E 2 nr) P(E 1 ) + 2 nr i=2 P(E i ). P(E 1 ) ǫ, per n (joint AEP 1.); X n (1) e X n (i) indipendenti Y n e X n (i) indipendenti, i 1. p. 26/42

60 Quindi P(E) = Pr(E W = 1) = P(E 1 E 2 E 3 E 2 nr) P(E 1 ) + 2 nr i=2 P(E i ). P(E 1 ) ǫ, per n (joint AEP 1.); X n (1) e X n (i) indipendenti Y n e X n (i) indipendenti, i 1. P(E i ) 2 n(i(x;y ) 3ǫ) (joint AEP 3.). p. 26/42

61 Otteniamo P(E) P(E 1 ) + ǫ + 2 nr i=2 2 nr i=2 P(E i ) n(i(x;y ) 3ǫ) 2 = ǫ + (2 nr n(i(x;y ) 3ǫ) 1)2 2ǫ, ǫ + 2 3nǫ n(i(x;y ) R) 2 se scegliamo n sufficientemente grande e R < I(X;Y ) 3ǫ. p. 27/42

62 Se R < I(X;Y ), possiamo scegliere ǫ e n in modo da rendere la media (su tutti i codici) di P (n) e < 2ǫ. Che possiamo dire della probabilità massima di errore? p. 28/42

63 scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità p. 29/42

64 scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità quindi possiamo sostituire R < C ad R < I(X;Y ). p. 29/42

65 scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità quindi possiamo sostituire R < C ad R < I(X;Y ). Se la media (su tutti i codici) di P e (n) (C) è 2ǫ, allora esiste un codice C tale che P e (n) (C) 2ǫ. p. 29/42

66 scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità quindi possiamo sostituire R < C ad R < I(X;Y ). Se la media (su tutti i codici) di P e (n) (C) è 2ǫ, allora esiste un codice C tale che P e (n) (C) 2ǫ. eliminiamo da C ogni parola i con λ i > 4ǫ (sono meno della metá, altr. P e (n) (C) > 1 2 nr 2 nr 2 4ǫ = 2ǫ) p. 29/42

67 scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità quindi possiamo sostituire R < C ad R < I(X;Y ). Se la media (su tutti i codici) di P e (n) (C) è 2ǫ, allora esiste un codice C tale che P e (n) (C) 2ǫ. eliminiamo da C ogni parola i con λ i > 4ǫ (sono meno della metá, altr. P e (n) (C) > 1 2 nr 2 nr 2 4ǫ = 2ǫ) allora 2ǫ 1 2 nr 2 nr i=1 λ i (C ) (i 1,...,i 2 nr 1) s.t. λ ij (C ) 4ǫ. p. 29/42

68 Creiamo un nuovo codice che contiene solo tali parole di C con prob. di errore piccola C = {X n (i j ) C j = 1, 2,...,2 nr 1 }. p. 30/42

69 Creiamo un nuovo codice che contiene solo tali parole di C con prob. di errore piccola C = {X n (i j ) C j = 1, 2,...,2 nr 1 }. Tale codice contiene ovviamente 2 nr 1 parole, quindi il suo tasso è R n 1 che per n grande non differisce significativamente da R. p. 30/42

70 Creiamo un nuovo codice che contiene solo tali parole di C con prob. di errore piccola C = {X n (i j ) C j = 1, 2,...,2 nr 1 }. Tale codice contiene ovviamente 2 nr 1 parole, quindi il suo tasso è R n 1 che per n grande non differisce significativamente da R. Concludendo: per ogni R < C, possiamo scegliere un codice di tasso R = R n 1, con probabilità massima di errore λ (n) 4ǫ. p. 30/42

71 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica p. 31/42

72 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate p. 31/42

73 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate Tale codice può essere trovato (ricerca esaustiva!?!) ed il processo di codifica e decodifica rimane completamente deterministico. p. 31/42

74 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate Tale codice può essere trovato (ricerca esaustiva!?!) ed il processo di codifica e decodifica rimane completamente deterministico. La ricerca di tale codice è esponenziale p. 31/42

75 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate Tale codice può essere trovato (ricerca esaustiva!?!) ed il processo di codifica e decodifica rimane completamente deterministico. La ricerca di tale codice è esponenziale Possiamo sceglierlo random e avere buone chance di trovarne uno con le caratteristiche richieste. Però la decodifica risulta altamente inefficiente. p. 31/42

76 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate Tale codice può essere trovato (ricerca esaustiva!?!) ed il processo di codifica e decodifica rimane completamente deterministico. La ricerca di tale codice è esponenziale Possiamo sceglierlo random e avere buone chance di trovarne uno con le caratteristiche richieste. Però la decodifica risulta altamente inefficiente. Un problema fondamentale: trovare codici con tasso prossimo a C e con una struttura che mantenga la decodifica efficiente p. 31/42

77 Codifica Canale - Parte Inversa Ci rimane da dimostrare che per ogni sequenza di codici (2 nr,n) con λ (n) n deve valere R < C. Cominceremo con il dimostrare due lemmi che ci serviranno per la dimostrazione. I(X n,y n ) n i=1 I(X i,y i ) H(X n Y n ) 1 + P e (n) nr. (Disuguaglianza di Fano) p. 32/42

78 Lemma (Disuguaglianza di Fano) Consideriamo un DMC. Sia il messaggio in input W scelto in accordo alla distribuzione uniforme tra 2 nr messaggi. Sia C il codice, Y n la parola ricevuta in output al canale, g( ) la funzione di decodifica e P (n) e = Pr(W g(y n )). Allora H(X n Y n ) 1 + P e (n) nr. p. 33/42

79 Disuguaglianza di Fano Dim. Definiamo E = { 1, se g(y n ) W, 0, se g(y n ) = W. Espandiamo H(E,W Y n ) in due modi diversi H(E,W Y n ) = H(W Y n ) + H(E W,Y n ) = H(E Y n ) + H(W E,Y n ) p. 34/42

80 Disuguaglianza di Fano Dim. Definiamo E = { 1, se g(y n ) W, 0, se g(y n ) = W. Espandiamo H(E,W Y n ) in due modi diversi H(E,W Y n ) = H(W Y n ) + H(E W,Y n ) = H(E Y n ) + H(W E,Y n ) Notiamo che H(E W,Y n ) = 0, H(E Y n ) H(E) 1, e H(W E,Y n ) = 1 P(E = i)h(w Y n,e = i) i=0 = (1 P (n) e )0 + P (n) e log(2 nr 1) P e (n) nr. p. 34/42

81 Dim. (cont.) Ne consegue che H(W Y n ) 1 + P e (n) nr p. 35/42

82 Dim. (cont.) Ne consegue che H(W Y n ) 1 + P e (n) nr da cui segue la tesi, in quanto H(X n Y n ) H(W Y n ), poiché X n è funzione di W. p. 35/42

83 Lemma Sia Y n l output di un DMC per input X n. Allora, per ogni distribuzione p(x n ), vale I(X n ;Y n ) n i=1 I(X i;y i ). Dim. I(X n,y n ) = H(Y n ) H(Y n X n ) n = H(Y n ) H(Y i Y 1,...,Y i 1,X n ) = H(Y n ) i=1 n H(Y i X i ) (no memoria) i=1 n H(Y i ) i=1 n H(Y i X i ) = i=1 n I(X i ;Y i ). i=1 p. 36/42

84 Lemma Sia Y n l output di un DMC per input X n. Allora, per ogni distribuzione p(x n ), vale I(X n ;Y n ) n i=1 I(X i;y i ). Corollario Sia Y n l output di un DMC per input X n. Allora, per ogni distribuzione p(x n ), vale I(X n ;Y n ) nc. p. 37/42

85 Codifica Canale - Parte Inversa Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. λ (n) 0 P (n) e 0. p. 38/42

86 Codifica Canale - Parte Inversa Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. λ (n) 0 P (n) e 0. Consideriamo il messaggio W scelto uniformemente in {1, 2,...,2 nr }, (quindi H(W) = nr) p. 38/42

87 Codifica Canale - Parte Inversa Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. λ (n) 0 P (n) e 0. Consideriamo il messaggio W scelto uniformemente in {1, 2,...,2 nr }, (quindi H(W) = nr) P (n) e = Pr(g(Y n ) W). p. 38/42

88 Codifica Canale - Parte Inversa Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. λ (n) 0 P (n) e 0. Consideriamo il messaggio W scelto uniformemente in {1, 2,...,2 nr }, (quindi H(W) = nr) P (n) e Allora, = Pr(g(Y n ) W). nr = H(W) = H(W Y n ) + I(W;Y n ) H(W Y n ) + I(X n (W);Y n ) 1 + P e (n) nr + nc. [W X n (W) Y n p. 38/42

89 Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. (cont.) nr 1 + P e (n) nr + nc. p. 39/42

90 Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. (cont.) nr 1 + P e (n) nr + nc. Dividendo per n otteniamo R 1 n + P e (n) R + C p. 39/42

91 Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. (cont.) nr 1 + P e (n) nr + nc. Dividendo per n otteniamo R 1 n + P e (n) R + C e per n abbiamo la tesi, usando P (n) e 0 e 1/n 0. p. 39/42

92 Riscriviamo la disuguaglianza R n 1 + P e (n) R + C come P (n) e 1 C R 1 nr p. 40/42

93 Riscriviamo la disuguaglianza R n 1 + P e (n) R + C come P (n) e 1 C R 1 nr Questo mostra che per R > C la probabilità di errore si mantiene > 0 per n. p. 40/42

94 Riscriviamo la disuguaglianza R n 1 + P e (n) R + C come P (n) e 1 C R 1 nr Questo mostra che per R > C la probabilità di errore si mantiene > 0 per n. ma deve valere per ogni n. Infatti, se avessimo codici con P e (n) = 0 per n piccoli potremmo estenderli a codici di lunghezza maggiore per concatenazione. p. 40/42

95 Riscriviamo la disuguaglianza R n 1 + P e (n) R + C come P (n) e 1 C R 1 nr Questo mostra che per R > C la probabilità di errore si mantiene > 0 per n. ma deve valere per ogni n. Infatti, se avessimo codici con P e (n) = 0 per n piccoli potremmo estenderli a codici di lunghezza maggiore per concatenazione. In conclusione, non si può ridurre arbitrariamente la probabilità d errore a tassi superiori alla capacità. p. 40/42

96 Codifica Sorgente Canale Teorema Se V 1,...,V n soddisfano la PEA allora esiste una codice sorgente-canale con P e (n) 0 se H(V ) < C. Se H(V ) > C la probabilitá di errore non puó essere resa arbitrariamente piccola. p. 41/42

97 Codifica Sorgente Canale Teorema Se V 1,...,V n soddisfano la PEA allora esiste una codice sorgente-canale con P e (n) 0 se H(V ) < C. Se H(V ) > C la probabilitá di errore non puó essere resa arbitrariamente piccola. Dim. n n n n ^ n V X (V ) Y V p. 41/42

98 Codifica Sorgente Canale Teorema Se V 1,...,V n soddisfano la PEA allora esiste una codice sorgente-canale con P e (n) 0 se H(V ) < C. Se H(V ) > C la probabilitá di errore non puó essere resa arbitrariamente piccola. Dim. n n n n ^ n V X (V ) Y V PEA A (n) ǫ 2 n(h(v )+ǫ) e P(A ǫ (n) ) > 1 ǫ Codifichiamo solo sequenze tipiche 2 n(h(v )+ǫ) indici se R = H(V ) + ǫ < C possiamo trasmettere sul canale con prob. err < ǫ Quindi P (n) e = P(V n ˆV n ) P(V n / A (n) ǫ ) + P(g(Y n ) V n V n A ǫ (n) ) ǫ + ǫ = 2ǫ p. 41/42

99 Parte inversa. Dalla disuguaglianza di Fano H(V n ˆV n ) 1 + P e (n) log V n = 1 + P e (n) n log V p. 42/42

100 Parte inversa. Dalla disuguaglianza di Fano H(V n ˆV n ) 1 + P e (n) log V n = 1 + P e (n) n log V Quindi H(V ) = H(V 1...V n ) n = H(V n ) n 1 (n) (1 + P e n log V ) + 1 n n I(V n ; ˆV n ) = 1 n H(V n ˆV n ) + 1 n I(V n ; ˆV n ) 1 (n) (1 + P e n log V ) + 1 n n I(Xn ;Y n ) 1 n + P (n) e log V + C p. 42/42

101 Parte inversa. Dalla disuguaglianza di Fano H(V n ˆV n ) 1 + P e (n) log V n = 1 + P e (n) n log V Quindi H(V ) = H(V 1...V n ) n = H(V n ) n 1 (n) (1 + P e n log V ) + 1 n n I(V n ; ˆV n ) = 1 n H(V n ˆV n ) + 1 n I(V n ; ˆV n ) 1 (n) (1 + P e n log V ) + 1 n n I(Xn ;Y n ) 1 n + P (n) e log V + C Per n, se P (n) e 0 si ha H(V ) C. p. 42/42

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore. CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore

Dettagli

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità

Dettagli

STII. Probabilità e proprietà dei logaritmi

STII. Probabilità e proprietà dei logaritmi STII Durante una trasmissione, il segnale naviga alcuni minuti prima di arrivare a destinazione. Durante il percorso, il segnale è soggetto a rumore, quindi può capitare che il messaggio che è stato inviato

Dettagli

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio

Dettagli

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza

Dettagli

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media

Dettagli

STII/Teoria dell Informazione

STII/Teoria dell Informazione STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione

Dettagli

Codifica delle sequenze sorgente

Codifica delle sequenze sorgente Codifica delle sequenze sorgente Sorgente emette sequenza di simboli appartenenti ad un alfabeto X che vengono codificati come sequenze di simboli di un alfabeto D-ario.. p.1/?? Codifica delle sequenze

Dettagli

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

Nota: Eventi meno probabili danno maggiore informazione

Nota: Eventi meno probabili danno maggiore informazione Entropia Informazione associata a valore x avente probabilitá p(x é i(x = log 2 p(x Nota: Eventi meno probabili danno maggiore informazione Entropia di v.c. X P : informazione media elementi di X H(X =

Dettagli

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p. Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con

Dettagli

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente

Dettagli

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore 10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore

Dettagli

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata

Dettagli

Roberto Maieli La trasmissione dell informazione

Roberto Maieli La trasmissione dell informazione Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio

Dettagli

Comunicazioni Elettriche Esercizi

Comunicazioni Elettriche Esercizi Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,

Dettagli

1 Esercizio - caso particolare di ottimalità

1 Esercizio - caso particolare di ottimalità Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto

Dettagli

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16 Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana - 015/16 Esercizio 1 Per quali valori n Z \ {0} l espressione è un numero intero positivo? (n + 5)(n + 6) 6n Soluzione. Il problema

Dettagli

Sui Linguaggi Regolari: Teorema di Kleene - Pumping Lemm

Sui Linguaggi Regolari: Teorema di Kleene - Pumping Lemm Sui Linguaggi Regolari: Teorema di Kleene - Pumping Lemma N.Fanizzi - V.Carofiglio 6 aprile 2016 1 Teorema di Kleene 2 3 o 1 o 3 o 8 Teorema di Kleene Vale la seguente equivalenza: L 3 L FSL L REG Dimostrazione.

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 206 207 Lezione 4 Ugo Vaccaro Nella lezione scorsa abbiamo derivato il seguente risultato. Teorema Per ogni codifica UD per una sorgente DSSM con alfabeto sorgente

Dettagli

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17 II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile

Dettagli

Trapani. Dispensa di Geometria, x 1 x 2.x n. (x 1 y 1 ) (x n y n ) 2.

Trapani. Dispensa di Geometria, x 1 x 2.x n. (x 1 y 1 ) (x n y n ) 2. 2006 Trapani Dispensa di Geometria, 1 Distanze Siano P e Q punti di R n con P di coordinate allora la distanza tra P e Q e P Q = x 1 x 2 x n (x 1 y 1 ) 2 + (x n y n ) 2 e Q di coordinate Siano Σ 1 e Σ

Dettagli

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013 CORSO DI ANALISI MATEMATICA SOLUZIONI ESERCIZI PROPOSTI 8/03/03 D.BARTOLUCCI, D.GUIDO. La continuità uniforme I ESERCIZIO: Dimostrare che la funzione f(x) = x 3, x A = (, ] non è uniformemente continua

Dettagli

COMPLETAMENTO DI SPAZI METRICI

COMPLETAMENTO DI SPAZI METRICI COMPLETAMENTO DI SPAZI METRICI 1. Successioni di Cauchy e spazi metrici completi Definizione 1.1. Una successione x n n N a valori in uno spazio metrico X, d si dice di Cauchy se, per ogni ε > 0 esiste

Dettagli

Introduzione alla codifica entropica

Introduzione alla codifica entropica Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta

Dettagli

Lezione 17 Ugo Vaccaro

Lezione 17 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 2015 2016 Lezione 17 Ugo Vaccaro Nella Lezione scorsa abbiamo introdotto una classe di codici a correzione di errore (codici di Hamming) in grado di correggere

Dettagli

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x

Dettagli

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 1 a.a Soluzioni

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 1 a.a Soluzioni Corso di Laurea in Matematica Geometria 2 Foglio di esercizi n. 1 a.a. 2015-16 Soluzioni Gli esercizi sono presi dal libro di Manetti. Per svolgere questi esercizi, studiare con cura i paragrafi 3.1, 3.2,

Dettagli

Il teorema di Stone Weierstrass

Il teorema di Stone Weierstrass APPENDICE B Il teorema di Stone Weierstrass Definizione B.1. Siano X un insieme non vuoto e A un sottospazio vettoriale dello spazio delle funzioni a valori reali (risp. complessi) su X. Si dice che A

Dettagli

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una

Dettagli

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) = 1 Esercizi settimana 3 Esercizio 1. Un urna contiene 8 palline bianche, 4 nere e rosse. Si assuma di vincere e ogni volta che si estragga una pallina nera, si perda 1e per ogni pallina bianca e non succeda

Dettagli

Soluzioni dei quesiti della maturità scientifica A.S. 2009/2010

Soluzioni dei quesiti della maturità scientifica A.S. 2009/2010 Soluzioni dei quesiti della maturità scientifica AS 009/010 Nicola Gigli Sun-Ra Mosconi giugno 010 Quesito 1 Un generico polinomio di grado n si può scrivere nella forma p(x) a 0 + a 1 x + + a n x n dove

Dettagli

Approssimazione di dati e funzioni

Approssimazione di dati e funzioni Approssimazione di dati e funzioni Richiamiamo i principali metodi di approssimazione polinomiale di un insieme di dati (x i, y i ), i = 0,..., n. Le ordinate y i possono essere i valori assunti nei nodi

Dettagli

LEZIONE 12. v = α 1 v α n v n =

LEZIONE 12. v = α 1 v α n v n = LEZIONE 12 12.1. Combinazioni lineari. Definizione 12.1.1. Sia V uno spazio vettoriale su k = R, C e v 1,..., v n V vettori fissati. Un vettore v V si dice combinazione lineare di v 1,..., v n se esistono

Dettagli

Anno 4 Matrice inversa

Anno 4 Matrice inversa Anno 4 Matrice inversa 1 Introduzione In questa lezione parleremo della matrice inversa di una matrice quadrata: definizione metodo per individuarla Al termine della lezione sarai in grado di: descrivere

Dettagli

1) Hamming bound, coset, codici equivalenti

1) Hamming bound, coset, codici equivalenti Argomenti della Lezione ) Hamming bound, coset, codici equivalenti 2) Esercizi sui codici lineari a blocchi Osservazione () Per effettuare la decodifica a rivelazione di errore si può seguire una delle

Dettagli

Codifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione

Codifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione Codifica di canale (dalle dispense e dalle fotocopie) Codici lineari a blocchi Un codice lineare (n,k) è un codice che assegna una parola lunga n ad ogni blocco lungo k. Si dice che il codice abbia un

Dettagli

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare

Dettagli

Concetti fondamentali

Concetti fondamentali Concetti fondamentali elemento insieme sequenza tutto si riconduce a questi insieme: esempi {,3,5,7,9} insieme dei numeri dispari positivi minori di dieci {Antonio, Beatrice, Carlo, Daria} insieme dei

Dettagli

CP110 Probabilità: Esonero 1. Testo e soluzione

CP110 Probabilità: Esonero 1. Testo e soluzione Dipartimento di Matematica, Roma Tre Pietro Caputo 2009-2010, II semestre 1 aprile, 2010 CP110 Probabilità: Esonero 1 Testo e soluzione 1. (7 pt Una scatola contiene 15 palle numerate da 1 a 15. Le palle

Dettagli

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione. Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x

Dettagli

un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio;

un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio; TEST DI AUTOVALUTAZIONE - SETTIMANA 3 I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. Metodi statistici per la biologia 1 Parte A 1.1 Una variabile casuale

Dettagli

Esame di Probabilità e Statistica del 30 marzo 2009 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).

Esame di Probabilità e Statistica del 30 marzo 2009 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Esame di Probabilità e Statistica del 30 marzo 2009 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Cognome Nome Matricola Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale Attenzione:

Dettagli

PROCESSI STOCASTICI 1: INTEGRAZIONI

PROCESSI STOCASTICI 1: INTEGRAZIONI PROCESSI STOCASTICI 1: INTEGRAZIONI 1. Definizioni e risultati sparsi Def. Dato un insieme I, si chiama processo stocastico con spazio degli stati I una famiglia {X t } t T di variabili aleatorie a valori

Dettagli

Capitolo 5 La trasmissione dell informazione

Capitolo 5 La trasmissione dell informazione Capitolo 5 La trasmissione dell informazione Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio Destinazione Caratterizzazione

Dettagli

Forme indeterminate e limiti notevoli

Forme indeterminate e limiti notevoli Forme indeterminate e iti notevoli Limiti e continuità Forme indeterminate e iti notevoli Forme indeterminate Teorema di sostituzione Limiti notevoli Altre forme indeterminate 2 2006 Politecnico di Torino

Dettagli

L algoritmo AKS. L algoritmo AKS. Seminario per il corso di Elementi di Algebra Computazionale. Oscar Papini. 22 luglio 2013

L algoritmo AKS. L algoritmo AKS. Seminario per il corso di Elementi di Algebra Computazionale. Oscar Papini. 22 luglio 2013 L algoritmo AKS Seminario per il corso di Elementi di Algebra Computazionale Oscar Papini 22 luglio 2013 Test di primalità Come facciamo a sapere se un numero n è primo? Definizione (Test di primalità)

Dettagli

Comportamento asintotico delle Catene di Markov

Comportamento asintotico delle Catene di Markov Comortamento asintotico delle Catene di Markov In queste note analizzeremo il comortamento asintotico della catene di Markov a temo discreto omogenee, con sazio degli stati di dimensione finita. I risultati

Dettagli

Spazi affini e combinazioni affini.

Spazi affini e combinazioni affini. Spazi affini e combinazioni affini. Morfismi affini. Giorgio Ottaviani Abstract Introduciamo il concetto di combinazione affine in uno spazio affine, e in base a questo, ne caratterizziamo i sottospazi.

Dettagli

LEZIONI Dispense a cura del Docente.

LEZIONI Dispense a cura del Docente. LEZIONI 06-07-08 Contents 5. INTRODUZIONE ALLO STUDIO QUALITATIVO DELLE FUNZIONI. 5.. Operazioni elementari sui grafici di funzioni. 5.. Funzione composta. Monotonia della funzione composta. 5 5.. Grafico

Dettagli

Geometria e Topologia I (U1-4) 2006-mag-10 61

Geometria e Topologia I (U1-4) 2006-mag-10 61 Geometria e Topologia I (U1-4) 2006-mag-10 61 (15.9) Teorema. Consideriamo il piano affine. Se A A 2 (K) è un punto e r una retta che non passa per A, allora esiste unica la retta per A che non interseca

Dettagli

Il secondo teorema di Shannon

Il secondo teorema di Shannon Il secondo teorema di Shannon Appunti scritti da Alberto Leporati e-mail: alberto.leporati@unimib.it Dipartimento di Informatica, Sistemistica e Comunicazione (DISCo) Università degli Studi di Milano Bicocca

Dettagli

(E) : 2x 43 mod 5. (2 + h)x + y = 0

(E) : 2x 43 mod 5. (2 + h)x + y = 0 Dipartimento di Matematica e Informatica Anno Accademico 2016-2017 Corso di Laurea in Informatica (L-31) Prova scritta di Matematica Discreta (12 CFU) 27 Settembre 2017 Parte A 1 [10 punti] Sia data la

Dettagli

Appunti del Corso Analisi 1

Appunti del Corso Analisi 1 Appunti del Corso Analisi 1 Anno Accademico 2011-2012 Roberto Monti Versione del 5 Ottobre 2011 1 Contents Chapter 1. Cardinalità 5 1. Insiemi e funzioni. Introduzione informale 5 2. Cardinalità 7 3.

Dettagli

Indici di posizione e dispersione per distribuzioni di variabili aleatorie

Indici di posizione e dispersione per distribuzioni di variabili aleatorie Indici di posizione e dispersione per distribuzioni di variabili aleatorie 12 maggio 2017 Consideriamo i principali indici statistici che caratterizzano una distribuzione: indici di posizione, che forniscono

Dettagli

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I 01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore

Dettagli

Somma diretta di sottospazi vettoriali

Somma diretta di sottospazi vettoriali Capitolo 8 Somma diretta di sottospazi vettoriali 8.1 Introduzione Introduciamo un caso particolare di somma di due sottospazi vettoriali: la somma diretta. Anche questo argomento è stato visto nel corso

Dettagli

1 Funzioni reali di una variabile reale

1 Funzioni reali di una variabile reale 1 Funzioni reali di una variabile reale Qualche definizione e qualche esempio che risulteranno utili più avanti Durante tutto questo corso studieremo funzioni reali di una variabile reale, cioè Si ha f

Dettagli

ANALISI 1 - Teoremi e dimostrazioni vari

ANALISI 1 - Teoremi e dimostrazioni vari ANALISI 1 - Teoremi e dimostrazioni vari Sommario Proprietà dell estremo superiore per R... 2 Definitivamente... 2 Successioni convergenti... 2 Successioni monotone... 2 Teorema di esistenza del limite

Dettagli

CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI

CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI Consideriamo l insieme R = R {, + } ottenuto aggiungendo all insieme dei numeri reali i simboli e +. Introduciamo in

Dettagli

Geometria della Programmazione Lineare

Geometria della Programmazione Lineare Capitolo 2 Geometria della Programmazione Lineare In questo capitolo verranno introdotte alcune nozioni della teoria dei poliedri che permetteranno di cogliere gli aspetti geometrici della Programmazione

Dettagli

Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale

Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale 1 Obiettivi: Codici correttori d errore correggere o rivelare errori nella trasmissione di segnali numerici (sequenze di simboli,

Dettagli

Sui determinanti e l indipendenza lineare di vettori

Sui determinanti e l indipendenza lineare di vettori Sui determinanti e l indipendenza lineare di vettori 1 Si dice che m vettori v 1, v 2,,v m di R n sono linearmente indipendenti, se una loro combinazione lineare può dare il vettore nullo solo se i coefficienti

Dettagli

Pagine di Algebra lineare. di premessa al testo Pagine di Geometria di Sara Dragotti. Parte terza: SISTEMI LINEARI

Pagine di Algebra lineare. di premessa al testo Pagine di Geometria di Sara Dragotti. Parte terza: SISTEMI LINEARI Pagine di Algebra lineare di premessa al testo Pagine di Geometria di Sara Dragotti Parte terza: SISTEMI LINEARI 1. Definizioni Dato un campo K ed m 1 polinomi su K in n indeterminate di grado non superiore

Dettagli

UNIVERSITA` di ROMA TOR VERGATA

UNIVERSITA` di ROMA TOR VERGATA UNIVERSITA` di ROMA TOR VERGATA Corso di PS2-Probabilità 2 P.Baldi appello, 7 giugno 200 Corso di Laurea in Matematica Esercizio Siano X, Y v.a. indipendenti di legge Ŵ(2, λ). Calcolare densità e la media

Dettagli

04 - Logica delle dimostrazioni

04 - Logica delle dimostrazioni Università degli Studi di Palermo Facoltà di Economia CdS Sviluppo Economico e Cooperazione Internazionale Appunti del corso di Matematica 04 - Logica delle dimostrazioni Anno Accademico 013/014 D. Provenzano,

Dettagli

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria. Capitolo 2 Campi 2.1 Introduzione Studiamo ora i campi. Essi sono una generalizzazione dell insieme R dei numeri reali con le operazioni di addizione e di moltiplicazione. Nel secondo paragrafo ricordiamo

Dettagli

I teoremi della funzione inversa e della funzione implicita

I teoremi della funzione inversa e della funzione implicita I teoremi della funzione inversa e della funzione implicita Appunti per il corso di Analisi Matematica 4 G. Mauceri Indice 1 Il teorema della funzione inversa 1 Il teorema della funzione implicita 3 1

Dettagli

Elezione di un leader in una rete ad anello

Elezione di un leader in una rete ad anello Elezione di un leader in una rete ad anello Corso di Algoritmi Distribuiti Prof. Roberto De Prisco Lezione n a cura di Rosanna Cassino e Sergio Di Martino Introduzione In questa lezione viene presentato

Dettagli

23. Le coniche nel piano euclideo.

23. Le coniche nel piano euclideo. 3. Le coniche nel piano euclideo. 3. Definizione. Una matrice C ad elementi reali quadrata C si dice ortogonale se C T = C. 3. Osservazione. Una matrice C ad elementi reali quadrata C è ortogonale se e

Dettagli

11. Misure con segno.

11. Misure con segno. 11. Misure con segno. 11.1. Misure con segno. Sia Ω un insieme non vuoto e sia A una σ-algebra in Ω. Definizione 11.1.1. (Misura con segno). Si chiama misura con segno su A ogni funzione ϕ : A R verificante

Dettagli

Questa viene trasmessa sul canale (wireless o wired). In questo corso, modellizzeremo il canale di trasmissione come un canale Gaussiano bianco

Questa viene trasmessa sul canale (wireless o wired). In questo corso, modellizzeremo il canale di trasmissione come un canale Gaussiano bianco Canale di trasmissione Dati una costellazione M un labeling binario e è possibile associare alle sequenze binarie di informazione u da trasmettere una forma d onda s(t). Questa viene trasmessa sul canale

Dettagli

1 Il Teorema della funzione implicita o del Dini

1 Il Teorema della funzione implicita o del Dini 1 Il Teorema della funzione implicita o del Dini Ricordiamo che dato un punto x R n, un aperto A R n che contiene x si dice intorno (aperto) di x. Teorema 1.1. (I Teorema del Dini) Sia f : A (aperto) R

Dettagli

Appunti sui Codici di Reed Muller. Giovanni Barbarino

Appunti sui Codici di Reed Muller. Giovanni Barbarino Appunti sui Codici di Reed Muller Giovanni Barbarino Capitolo 1 Codici di Reed-Muller I codici di Reed-Muller sono codici lineari su F q legati alle valutazioni dei polinomi sullo spazio affine. Per semplicità

Dettagli

(E) : 4x 181 mod 3. h(h 1)x + 4hy = 0

(E) : 4x 181 mod 3. h(h 1)x + 4hy = 0 Dipartimento di Matematica e Informatica Anno Accademico 206-207 Corso di Laurea in Informatica (L-3) Prova scritta di Matematica Discreta (2 CFU) 6 Settembre 207 Parte A [0 punti] Sia data la successione

Dettagli

3. TEORIA DELL INFORMAZIONE

3. TEORIA DELL INFORMAZIONE 3. TEORIA DELL INFORMAZIONE INTRODUZIONE MISURA DI INFORMAZIONE SORGENTE DISCRETA SENZA MEMORIA ENTROPIA DI UNA SORGENTE NUMERICA CODIFICA DI SORGENTE 1 TEOREMA DI SHANNON CODICI UNIVOCAMENTE DECIFRABILI

Dettagli

Alcuni Teoremi sulle funzioni continue e uniforme continuità

Alcuni Teoremi sulle funzioni continue e uniforme continuità Alcuni Teoremi sulle funzioni continue e uniforme continuità Teorema 0. Una funzione f(x) è continua in x 0 se e solo se per ogni sucessione {x n } dom(f) con x n x 0 dom(f), risulta f(x n ) f(x 0 ). (Non

Dettagli

Analisi 2. Roberto Monti. Appunti del Corso - Versione 5 Ottobre 2012

Analisi 2. Roberto Monti. Appunti del Corso - Versione 5 Ottobre 2012 Analisi 2 Roberto Monti Appunti del Corso - Versione 5 Ottobre 212 Indice Capitolo 1. Programma 5 Capitolo 2. Convergenza uniforme 7 1. Convergenza uniforme e continuità 7 2. Criterio di Abel Dirichlet

Dettagli

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x 4. Geometria di R 3. Questo paragrafo è molto simile al paragrafo : tratta infatti delle proprietà geometriche elementari dello spazio R 3. Per assegnare delle coordinate nello spazio, fissiamo innanzitutto

Dettagli

) la sua densità discreta sarà della forma. p X (0) = 1 2, p X(1) = 1 2,

) la sua densità discreta sarà della forma. p X (0) = 1 2, p X(1) = 1 2, Esercizi settimana 6 Esercizi applicati Esercizio. Siano X e Y due v.a. discrete indipendenti tali che X B(, ) e Y B(, ), n 0. (i) Si calcoli la legge di X + Y ; (ii) Si calcoli la legge di X Y ; (iii)

Dettagli

DIFFERENZIAZIONE. Sia f una funzione reale di variabile reale con dominio un intervallo. Se f è derivabile in un punto x 0, allora: f(x) f(x 0 ) lim

DIFFERENZIAZIONE. Sia f una funzione reale di variabile reale con dominio un intervallo. Se f è derivabile in un punto x 0, allora: f(x) f(x 0 ) lim DIFFERENZIAZIONE 1 Regola della catena Sia f una funzione reale di variabile reale con dominio un intervallo. Se f è derivabile in un punto x 0, allora: f(x) f(x 0 ) lim = f (x 0 ). x x 0 x x 0 Questa

Dettagli

Proprieta dei Linguaggi regolari

Proprieta dei Linguaggi regolari Proprieta dei Linguaggi regolari Pumping Lemma. Ogni linguaggio regolare soddisfa il pumping lemma. Se qualcuno vi presenta un falso linguaggio regolare, l uso del pumping lemma mostrera una contraddizione.

Dettagli

AUTOVALORI, AUTOVETTORI, AUTOSPAZI

AUTOVALORI, AUTOVETTORI, AUTOSPAZI AUTOVALORI, AUTOVETTORI, AUTOSPAZI. Esercizi Esercizio. Sia f : R 3 R 3 l endomorfismo definito da f(x, y, z) = (x+y, y +z, x+z). Calcolare gli autovalori ed una base per ogni autospazio di f. Dire se

Dettagli

Crittografia a chiave pubblica

Crittografia a chiave pubblica Crittografia a chiave pubblica Barbara Masucci Dipartimento di Informatica Università di Salerno bmasucci@unisa.it http://www.di.unisa.it/professori/masucci Cifrari simmetrici canale insicuro Bob 1 Distribuzione

Dettagli

1 Volume di parallelepipedi e determinanti

1 Volume di parallelepipedi e determinanti 1 Volume di parallelepipedi e determinanti Dimostriamo la seguente relazione fondamentale tra volumi e determinanti. Lemma 1 Sia T una matrice reale (n n) e sia K 1 := [0, 1] n. Allora dove mis denota

Dettagli

Lezione 18 Ugo Vaccaro

Lezione 18 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 26 27 Lezione 8 Ugo Vaccaro In questa lezione vedremo un applicazione della Teoria dei Codici a correzione d errore al seguente problema, già descritto nella

Dettagli

Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni

Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Corso di Laurea in Ingegneria Informatica corso di Telecomunicazioni (Prof. G. Giunta) (editing a cura dell ing. F. Benedetto) Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Esame

Dettagli

LIMITI - ESERCIZI SVOLTI

LIMITI - ESERCIZI SVOLTI LIMITI - ESERCIZI SVOLTI ) Verificare mediante la definizione di ite che a) 3 5) = b) = + ) c) 3n n + n+ = + d) 3+ = 3. ) Calcolare utilizzando i teoremi sull algebra dei iti a) 3 + ) b) + c) 0 + d) ±

Dettagli

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 2 a.a Soluzioni

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 2 a.a Soluzioni Corso di Laurea in Matematica Geometria 2 Foglio di esercizi n. 2 a.a. 2015-16 Soluzioni Gli esercizi sono presi dal libro di Manetti. Per svolgere questi esercizi, studiare con cura i paragrafi 3.5, 3.6,

Dettagli

INSIEMI. Se X è un insieme, indichiamo con P(X) l insieme dei sottoinsiemi di X (sono elementi di P(X) anche e X).

INSIEMI. Se X è un insieme, indichiamo con P(X) l insieme dei sottoinsiemi di X (sono elementi di P(X) anche e X). INSIEMI Se X è un insieme, indichiamo con P(X) l insieme dei sottoinsiemi di X (sono elementi di P(X) anche e X). Sia A = {A λ : λ Λ} una famiglia di insiemi. Definiamo: unione A = A λ è l insieme U tale

Dettagli

NORMA DI UN VETTORE. Una NORMA VETTORIALE su R n è una funzione. : R n R +

NORMA DI UN VETTORE. Una NORMA VETTORIALE su R n è una funzione. : R n R + NORMA DI UN VETTORE Una NORMA VETTORIALE su R n è una funzione. : R n R + {0}, che associa ad ogni vettore x R n di componenti x i, i = 1,..., n, uno scalare in modo che valgano le seguenti proprietà:

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

Prova Scritta di Probabilità e Statistica Cognome: Laurea in Matematica. 10 settembre 2012 Matricola: Nome:

Prova Scritta di Probabilità e Statistica Cognome: Laurea in Matematica. 10 settembre 2012 Matricola: Nome: Prova Scritta di Probabilità e Statistica Cognome: Laurea in Matematica Nome: 10 settembre 2012 Matricola: ESERCIZIO 1. Facendo uso solamente della definizione di spazio di probabilità, dell additività

Dettagli

Spazi euclidei, endomorfismi simmetrici, forme quadratiche. R. Notari

Spazi euclidei, endomorfismi simmetrici, forme quadratiche. R. Notari Spazi euclidei, endomorfismi simmetrici, forme quadratiche R. Notari 14 Aprile 2006 1 1. Proprietà del prodotto scalare. Sia V = R n lo spazio vettoriale delle n-uple su R. Il prodotto scalare euclideo

Dettagli

CAPITOLO SECONDO APPLICAZIONI TRA INSIEMI E RELAZIONI DI EQUIVALENZA

CAPITOLO SECONDO APPLICAZIONI TRA INSIEMI E RELAZIONI DI EQUIVALENZA CAPITOLO SECONDO APPLICAZIONI TRA INSIEMI E RELAZIONI DI EQUIVALENZA 1 Applicazioni tra insiemi Siano A, insiemi. Una corrispondenza tra A e è un qualsiasi sottoinsieme del prodotto cartesiano A ; Se D

Dettagli

Algoritmi Randomizzati per parole di peso minimo

Algoritmi Randomizzati per parole di peso minimo Algoritmi Randomizzati per parole di peso minimo Camilla Ferretti Dip. di Scienze Economiche e Sociali, UCSC Piacenza Trento, 10 Marzo 2011 Problema della distanza minima Cerchiamo un algoritmo efficiente

Dettagli

Alcuni equivalenti dell Assioma della Scelta

Alcuni equivalenti dell Assioma della Scelta Alcuni equivalenti dell Assioma della Scelta Giugno 2010 Gabriele Gullà Sommario Dimostreremo l equivalenza fra l assioma della scelta ed altri enunciati della matematica piú o meno noti. Enunciati: 1)

Dettagli

15 Informazione e Predizione

15 Informazione e Predizione (FX) Teoria dell Informazione e della Trasmissione 5 Informazione e Predizione Docente: Nicolò Cesa-Bianchi versione 4 maggio 03 Consideriamo una sorgente X, p. Dallo studio della codifica sorgente, sappiamo

Dettagli

Sorgenti discrete e informazione

Sorgenti discrete e informazione Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un

Dettagli