CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore."

Transcript

1 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente p. 1/39

2 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente Es. effetto rumore. Input possibili al canale sequenze 101 e 111, input 101, rumore: secondo bit modificato, output: 111; input: 111, rumore: nessuno, output: 111; diverse sequenze in input producono lo stesso output (input confondibili). p. 1/39

3 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente Es. effetto rumore. Input possibili al canale sequenze 101 e 111, input 101, rumore: secondo bit modificato, output: 111; input: 111, rumore: nessuno, output: 111; diverse sequenze in input producono lo stesso output (input confondibili). Obiettivo: proteggere l informazione da eventuali errori di trasmissione legati al rumore p. 1/39

4 Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione p. 2/39

5 Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione Metodo: Aggiungere ridondanza p. 2/39

6 Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione Metodo: Aggiungere ridondanza Nota: impossibile eliminare effetto rumore vogliamo input non confondibili con alta robabilità p. 2/39

7 Canali Canale discreto (alfabeti I/O discreti): (X,, Y) X= alfabeto input al canale Y= alfabeto output al canale Π = [p(y/x)]= matrice delle probabilità di transizione p. 3/39

8 Canali Canale discreto (alfabeti I/O discreti): (X,, Y) X= alfabeto input al canale Y= alfabeto output al canale Π = [p(y/x)]= matrice delle probabilità di transizione Canale discreto senza memoria (DMC) (X, Π, Y): distribuzione probabilità output dipende solo da input corrispondente NON da precedenti input o output. p. 3/39

9 Capacitá Canale Capacità del canale senza memoria: C = max p(x) I(X,Y ) p. 4/39

10 Capacitá Canale Capacità del canale senza memoria: C = max p(x) I(X,Y ) Dimostreremo: capacità = massimo numero di bit per uso del canale. p. 4/39

11 Canale senza rumore Trasmette un bit per uso senza errore C = 1 p. 5/39

12 Canale senza rumore Trasmette un bit per uso senza errore C = 1 Infatti C = max p(x) I(X,Y ) = max p(x) H(X) H(X/Y ) = max p(x) H(X) = 1 per p(x) = (1/2, 1/2) p. 5/39

13 Canale binario simmetrico p p p 1 p 0 1 Π = [ ] p 1 p 1 p p I(X;Y ) = H(Y ) H(Y/X) = H(Y ) x p(x)h(y/x = x) = H(Y ) x p(x)h(p) = H(Y ) h(p) p. 6/39

14 Canale binario simmetrico C = max p(x) I(X,Y ) = max p(x) H(Y ) h(p) 1 h(p) p(x) = (1/2, 1/2) p(y = 1) = 1 2 (1 p) p = 1 2 H(Y ) = 1 Quindi C = 1 h(p)bits 1 1/2 1 p. 7/39

15 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = p. 8/39

16 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = Canale debolmente simmetrico: Ogni riga é permutazione di ogni altra riga; la somma su ogni colonna [ é costante ] 1/3 1/6 1/2 Es. Π = 1/3 1/2 1/6 p. 8/39

17 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = Canale debolmente simmetrico: Ogni riga é permutazione di ogni altra riga; la somma su ogni colonna [ é costante ] 1/3 1/6 1/2 Es. Π = 1/3 1/2 1/6 Canale simmetrico Canale debolmente simmetrico p. 8/39

18 Canali (Debolmente) Simmetrici r=riga di Π I(X;Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) p. 9/39

19 Canali (Debolmente) Simmetrici r=riga di Π I(X;Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) Ponendo p(x) = 1/ X per ogni x X risulta p(y) = x p(x)p(y/x) = somma colonna X = 1 Y p. 9/39

20 Canali (Debolmente) Simmetrici r=riga di Π I(X;Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) Ponendo p(x) = 1/ X per ogni x X risulta p(y) = x p(x)p(y/x) = somma colonna X = 1 Y Quindi C = log Y H(r) p. 9/39

21 Codifica Canale DMC Codice canale (M,n) per (X, Π, Y): Insieme di indici {1,...,M} p. 10/39

22 Codifica Canale DMC Codice canale (M,n) per (X, Π, Y): Insieme di indici {1,...,M} Funzione codifica X n : {1,...,M} X n p. 10/39

23 Codifica Canale DMC Codice canale (M,n) per (X, Π, Y): Insieme di indici {1,...,M} Funzione codifica X n : {1,...,M} X n Funzione decodifica g : Y n {1,...,M} p. 10/39

24 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = Pr{g(Y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) p. 11/39

25 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = Pr{g(Y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) Probabilitá massima di errore: λ (n) = max 1 i M λ i p. 11/39

26 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = Pr{g(Y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) Probabilitá massima di errore: Probabilitá media di errore: λ (n) = max 1 i M λ i P (n) e = 1 M M i=1 λ i p. 11/39

27 Codifica Canali Rumorosi Tasso codice (M,n): R = log M n bit trasm. p. 12/39

28 Codifica Canali Rumorosi Tasso codice (M,n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr,n) con λ (n) 0 per n p. 12/39

29 Codifica Canali Rumorosi Tasso codice (M,n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr,n) con λ (n) 0 per n Si dimostra che: (Teorema di Codifica Canale) (a) ogni tasso R C é ottenibile, (b) nessun tasso R > C é ottenibile p. 12/39

30 Codifica Canali Rumorosi Tasso codice (M,n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr,n) con λ (n) 0 per n Si dimostra che: (Teorema di Codifica Canale) (a) ogni tasso R C é ottenibile, (b) nessun tasso R > C é ottenibile Capacitá = limite superiore di tutti i tassi ottenibili p. 12/39

31 Coppie Tipiche Definizione L insieme A ǫ (n) delle coppie tipiche {(x n,y n )} rispetto alla distribuzione p(x, y) è definito da: A (n) ǫ = dove p(x n,y n ) = n i=1 p(x i,x j ). { (x n,y n ) X n Y n : 1 n log p(xn ) H(X) < ǫ, 1 n log p(yn ) H(Y ) < ǫ, } 1 n log p(xn,y n ) H(XY ) < ǫ p. 13/39

32 Joint AEP Teorema Siano (X n,y n ) seqeuenze di v.c. i.i.d secondo p(x n,y n ) = n i=1 p(x i,x j ). Allora, 1. Pr((X n,y n ) A (n) ǫ ) 1 per n. p. 14/39

33 Joint AEP Teorema Siano (X n,y n ) seqeuenze di v.c. i.i.d secondo p(x n,y n ) = n i=1 p(x i,x j ). Allora, 1. Pr((X n,y n ) A (n) ǫ ) 1 per n. 2. (1 e)2 n(h(x,y ) ǫ) A ǫ (n) 2n(H(X,Y )+ǫ) p. 14/39

34 Joint AEP Teorema Siano (X n,y n ) seqeuenze di v.c. i.i.d secondo p(x n,y n ) = n i=1 p(x i,x j ). Allora, 1. Pr((X n,y n ) A (n) ǫ ) 1 per n. 2. (1 e)2 n(h(x,y ) ǫ) A ǫ (n) 2n(H(X,Y )+ǫ) 3. Se X n e Y n sono indipendenti e scelte secondo p(x n ) e p(y n ), quindi Pr( x n, y n ) = p( x n )p( y n ), allora per n (1 e)2 n(i(x;y )+3ǫ) Pr(( X n, Xn ) A (n) ǫ ) 2 n(i(x;y ) 3ǫ). p. 14/39

35 Teorema di Codifica Canale Teorema Per ogni tasso R < C, esiste una sequenza di codici (2 nr,n) con probabilità massima di errore λ (n) 0. p. 15/39

36 Teorema di Codifica Canale Teorema Per ogni tasso R < C, esiste una sequenza di codici (2 nr,n) con probabilità massima di errore λ (n) 0. Dim. La dimostrazione si basa sulle seguenti idee analisi di sequenze lunghe, in modo da sfruttare la legge dei grandi numeri e, specificamente, le proprietà delle coppie tipiche. p. 16/39

37 Teorema di Codifica Canale Teorema Per ogni tasso R < C, esiste una sequenza di codici (2 nr,n) con probabilità massima di errore λ (n) 0. Dim. La dimostrazione si basa sulle seguenti idee analisi di sequenze lunghe, in modo da sfruttare la legge dei grandi numeri e, specificamente, le proprietà delle coppie tipiche. Calcolo della probabilità di errore mediata su una scelta random del codice. p. 16/39

38 Codifica Canale - Parte Diretta Generiamo 2 nr parole codice i.i.d. scegliendone i simboli da X indipendentemente in accordo ad una fissata d.p. p(x). una sequenza x n è scelta con probabilità p(x n ) = n i=1 p(x i) p. 17/39

39 Codifica Canale - Parte Diretta Generiamo 2 nr parole codice i.i.d. scegliendone i simboli da X indipendentemente in accordo ad una fissata d.p. p(x). una sequenza x n è scelta con probabilità p(x n ) = n i=1 p(x i) un codice C = x 1 (1) x 2 (1)... x n (1) x 1 (2 nr ) x 2 (2 nr )... x n (2 nr ) con probabilità Pr(C) = 2 nr w=1 n i=1 p(x i(w)).. p. 17/39

40 Codifica Canale - Il Modello Consideriamo il seguente modello Il codice viene scelto in maniera random (vedi sopra) p. 18/39

41 Codifica Canale - Il Modello Consideriamo il seguente modello Il codice viene scelto in maniera random (vedi sopra) il messaggio W da trasmettere viene scelto uniformemente a caso: Pr(W = w) = 2 nr, per ogni w = 1, 2,...,2 nr. p. 18/39

42 Codifica Canale - Il Modello Consideriamo il seguente modello Il codice viene scelto in maniera random (vedi sopra) il messaggio W da trasmettere viene scelto uniformemente a caso: Pr(W = w) = 2 nr, per ogni w = 1, 2,...,2 nr. La parola codice X n (w), corrispondente alla w-esima riga di C viene spedita sul canale. p. 18/39

43 Codifica Canale - Il Modello Consideriamo il seguente modello Il codice viene scelto in maniera random (vedi sopra) il messaggio W da trasmettere viene scelto uniformemente a caso: Pr(W = w) = 2 nr, per ogni w = 1, 2,...,2 nr. La parola codice X n (w), corrispondente alla w-esima riga di C viene spedita sul canale. L output del canale è una sequenza Y n determinata in accordo alla distribuzione P(y n x n (w)) = n i=1 p(y i x i (w)). p. 18/39

44 Codifica Canale - Il Modello La sequenza Y n viene decodificata come W se (X n ( W),Y n ) formano coppia tipica Non esiste un altro messaggio k t.c. (X n (k),y n ) formano coppia tipica. p. 19/39

45 Codifica Canale - Il Modello La sequenza Y n viene decodificata come W se (X n ( W),Y n ) formano coppia tipica Non esiste un altro messaggio k t.c. (X n (k),y n ) formano coppia tipica. se non esiste un tale W o ce ne è più di uno, si emette un segnale di errore. p. 19/39

46 Codifica Canale - Il Modello La sequenza Y n viene decodificata come W se (X n ( W),Y n ) formano coppia tipica Non esiste un altro messaggio k t.c. (X n (k),y n ) formano coppia tipica. se non esiste un tale W o ce ne è più di uno, si emette un segnale di errore. Dichiariamo la codifica errata se W W, e denotiamo con E tale evento. p. 19/39

47 Codifica Canale La probabilità di errore. La calcoliamo mediata su tutte le parole del codice, e mediata su tutti i codici possibili: Pr(E) = C P(C)P e (n) (C) = C = 1 2 nr P(C) 1 2 nr 2 nr w=1 2 nr w=1 λ w (C) P(C)λ w (C) C p. 20/39

48 Codifica Canale Poiché mediamo su tutti i codici P(C)λ w (C) C non dipende da w. Infatti, guardando a tutti codici, la stessa parola appare lo stesso numero di volte con ogni indice. Quindi possiamo assumere, senza perdita di generalità che l indice del messaggio inviato sia W = 1, poiché P(C) = 1 2 nr 2 nr P(C)λ w (C) = w=1 C C = Pr(E W = 1). P(C)λ 1 (C) p. 21/39

49 Codifica Canale Sia Y n la sequenza output quando X n (1) viene trasmesso (codifichiamo W = 1). Definiamo i, l evento l i-esima parola codice e Y n formano coppia tipica : E i = {(X n (i),y n ) A (n) ǫ }, p. 22/39

50 Codifica Canale Sia Y n la sequenza output quando X n (1) viene trasmesso (codifichiamo W = 1). Definiamo i, l evento l i-esima parola codice e Y n formano coppia tipica : E i = {(X n (i),y n ) A (n) ǫ }, Per la decodifica scelta, quando X n (1) viene trasmessa, si ha errore se una si verifica tra: (X n (i),y n ) A (n) ǫ, i 1: l evento E i ; (X n (1),Y n ) A (n) ǫ : l evento E 1. p. 22/39

51 Codifica Canale Quindi P(E) = Pr(E W = 1) = P(E 1 E 2 E 3 E 2 nr) P(E 1 ) + 2 nr i=2 P(E i ). p. 23/39

52 Codifica Canale Quindi P(E) = Pr(E W = 1) = P(E 1 E 2 E 3 E 2 nr) P(E 1 ) + 2 nr i=2 P(E i ). P(E 1 ) ǫ, per n (joint AEP 1.); p. 23/39

53 Codifica Canale Quindi P(E) = Pr(E W = 1) = P(E 1 E 2 E 3 E 2 nr) P(E 1 ) + 2 nr i=2 P(E i ). P(E 1 ) ǫ, per n (joint AEP 1.); X n (1) e X n (i) indipendenti Y n e X n (i) indipendenti, i 1. p. 23/39

54 Codifica Canale Quindi P(E) = Pr(E W = 1) = P(E 1 E 2 E 3 E 2 nr) P(E 1 ) + 2 nr i=2 P(E i ). P(E 1 ) ǫ, per n (joint AEP 1.); X n (1) e X n (i) indipendenti Y n e X n (i) indipendenti, i 1. P(E i ) 2 n(i(x;y ) 3ǫ) (joint AEP 3.). p. 23/39

55 Codifica Canale Otteniamo P(E) P(E 1 ) + ǫ + 2 nr i=2 2 nr i=2 P(E i ) n(i(x;y ) 3ǫ) 2 = ǫ + (2 nr n(i(x;y ) 3ǫ) 1)2 2ǫ, ǫ + 2 3nǫ n(i(x;y ) R) 2 se scegliamo n sufficientemente grande e R < I(X;Y ) 3ǫ. p. 24/39

56 Codifica Canale Se R < I(X;Y ), possiamo scegliere ǫ e n in modo da rendere la media (su tutti i codici) di P (n) e < 2ǫ. Che possiamo dire della probabilità massima di errore? p. 25/39

57 Codifica Canale scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità p. 26/39

58 Codifica Canale scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità quindi possiamo sostituire R < C ad R < I(X;Y ). p. 26/39

59 Codifica Canale scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità quindi possiamo sostituire R < C ad R < I(X;Y ). Se la media (su tutti i codici) di P e (n) (C) è 2ǫ, allora esiste un codice C tale che P e (n) (C) 2ǫ. p. 26/39

60 Codifica Canale scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità quindi possiamo sostituire R < C ad R < I(X;Y ). Se la media (su tutti i codici) di P e (n) (C) è 2ǫ, allora esiste un codice C tale che P e (n) (C) 2ǫ. eliminiamo da C ogni parola i con λ i > 4ǫ (sono meno della metá, altr. P e (n) (C) > 1 2 nr 2 nr 2 4ǫ = 2ǫ) p. 26/39

61 Codifica Canale scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità quindi possiamo sostituire R < C ad R < I(X;Y ). Se la media (su tutti i codici) di P e (n) (C) è 2ǫ, allora esiste un codice C tale che P e (n) (C) 2ǫ. eliminiamo da C ogni parola i con λ i > 4ǫ (sono meno della metá, altr. P e (n) (C) > 1 2 nr 2 nr 2 4ǫ = 2ǫ) allora 2ǫ 1 2 nr 2 nr i=1 λ i (C ) (i 1,...,i 2 nr 1) s.t. λ ij (C ) 4ǫ. p. 26/39

62 Codifica Canale Creiamo un nuovo codice che contiene solo tali parole di C con prob. di errore piccola C = {X n (i j ) C j = 1, 2,...,2 nr 1 }. p. 27/39

63 Codifica Canale Creiamo un nuovo codice che contiene solo tali parole di C con prob. di errore piccola C = {X n (i j ) C j = 1, 2,...,2 nr 1 }. Tale codice contiene ovviamente 2 nr 1 parole, quindi il suo tasso è R n 1 che per n grande non differisce significativamente da R. p. 27/39

64 Codifica Canale Creiamo un nuovo codice che contiene solo tali parole di C con prob. di errore piccola C = {X n (i j ) C j = 1, 2,...,2 nr 1 }. Tale codice contiene ovviamente 2 nr 1 parole, quindi il suo tasso è R n 1 che per n grande non differisce significativamente da R. Concludendo: per ogni R < C, possiamo scegliere un codice di tasso R = R n 1, con probabilità massima di errore λ (n) 4ǫ. p. 27/39

65 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica p. 28/39

66 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate p. 28/39

67 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate Tale codice può essere trovato (ricerca esaustiva!?!) ed il processo di codifica e decodifica rimane completamente deterministico. p. 28/39

68 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate Tale codice può essere trovato (ricerca esaustiva!?!) ed il processo di codifica e decodifica rimane completamente deterministico. La ricerca di tale codice è esponenziale p. 28/39

69 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate Tale codice può essere trovato (ricerca esaustiva!?!) ed il processo di codifica e decodifica rimane completamente deterministico. La ricerca di tale codice è esponenziale Possiamo sceglierlo random e avere buone chance di trovarne uno con le caratteristiche richieste. Però la decodifica risulta altamente inefficiente. p. 28/39

70 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate Tale codice può essere trovato (ricerca esaustiva!?!) ed il processo di codifica e decodifica rimane completamente deterministico. La ricerca di tale codice è esponenziale Possiamo sceglierlo random e avere buone chance di trovarne uno con le caratteristiche richieste. Però la decodifica risulta altamente inefficiente. Un problema fondamentale: trovare codici con tasso prossimo a C e con una struttura che mantenga la decodifica efficiente p. 28/39

71 Codifica Canale - Parte Inversa Ci rimane da dimostrare che per ogni sequenza di codici (2 nr,n) con λ (n) n deve valere R < C. Cominceremo con il dimostrare due lemmi che ci serviranno per la dimostrazione. I(X n,y n ) n i=1 I(X i,y i ) H(X n Y n ) 1 + P e (n) nr. (Disuguaglianza di Fano) p. 29/39

72 Codifica Canale - Parte Inversa Lemma (Disuguaglianza di Fano) Consideriamo un DMC. Sia il messaggio in input W scelto in accordo alla distribuzione uniforme tra 2 nr messaggi. Sia C il codice, Y n la parola ricevuta in output al canale, g( ) la funzione di decodifica e P (n) e = Pr(W g(y n )). Allora H(X n Y n ) 1 + P e (n) nr. p. 30/39

73 Disuguaglianza di Fano Dim. Definiamo E = { 1, se g(y n ) W, 0, se g(y n ) = W. Espandiamo H(E,W Y n ) in due modi diversi H(E,W Y n ) = H(W Y n ) + H(E W,Y n ) = H(E Y n ) + H(W E,Y n ) p. 31/39

74 Disuguaglianza di Fano Dim. Definiamo E = { 1, se g(y n ) W, 0, se g(y n ) = W. Espandiamo H(E,W Y n ) in due modi diversi H(E,W Y n ) = H(W Y n ) + H(E W,Y n ) = H(E Y n ) + H(W E,Y n ) Notiamo che H(E W,Y n ) = 0, H(E Y n ) H(E) 1, e H(W E,Y n ) = 1 P(E = i)h(w Y n,e = i) i=0 = (1 P (n) e )0 + P (n) e log(2 nr 1) P e (n) nr. p. 31/39

75 Disuguaglianza di Fano Dim. (cont.) Ne consegue che H(W Y n ) 1 + P e (n) nr p. 32/39

76 Disuguaglianza di Fano Dim. (cont.) Ne consegue che H(W Y n ) 1 + P e (n) nr da cui segue la tesi, in quanto H(X n Y n ) H(W Y n ), poiché X n è funzione di W. p. 32/39

77 Lemma Sia Y n l output di un DMC per input X n. Allora, per ogni distribuzione p(x n ), vale I(X n ;Y n ) n i=1 I(X i;y i ). Dim. I(X n,y n ) = H(Y n ) H(Y n X n ) n = H(Y n ) H(Y i Y 1,...,Y i 1,X n ) = H(Y n ) i=1 n H(Y i X i ) (no memoria) i=1 n H(Y i ) i=1 n H(Y i X i ) = i=1 n I(X i ;Y i ). i=1 p. 33/39

78 Lemma Sia Y n l output di un DMC per input X n. Allora, per ogni distribuzione p(x n ), vale I(X n ;Y n ) n i=1 I(X i;y i ). Corollario Sia Y n l output di un DMC per input X n. Allora, per ogni distribuzione p(x n ), vale I(X n ;Y n ) nr. p. 34/39

79 Codifica Canale - Parte Inversa Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. λ (n) 0 P (n) e 0. p. 35/39

80 Codifica Canale - Parte Inversa Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. λ (n) 0 P (n) e 0. Consideriamo il messaggio W scelto uniformemente in {1, 2,...,2 nr }, (quindi H(W) = nr) p. 35/39

81 Codifica Canale - Parte Inversa Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. λ (n) 0 P (n) e 0. Consideriamo il messaggio W scelto uniformemente in {1, 2,...,2 nr }, (quindi H(W) = nr) P (n) e = Pr(g(Y n ) W). p. 35/39

82 Codifica Canale - Parte Inversa Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. λ (n) 0 P (n) e 0. Consideriamo il messaggio W scelto uniformemente in {1, 2,...,2 nr }, (quindi H(W) = nr) P (n) e Allora, = Pr(g(Y n ) W). nr = H(W) = H(W Y n ) + I(W;Y n ) H(W Y n ) + I(X n (W);Y n ) 1 + P e (n) nr + nc. [W X n (W) Y n p. 35/39

83 Parte Inversa (cont.) Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. (cont.) nr 1 + P e (n) nr + nc. p. 36/39

84 Parte Inversa (cont.) Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. (cont.) nr 1 + P e (n) nr + nc. Dividendo per n otteniamo R 1 n + P e (n) R + C p. 36/39

85 Parte Inversa (cont.) Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. (cont.) nr 1 + P e (n) nr + nc. Dividendo per n otteniamo R 1 n + P e (n) R + C e per n abbiamo la tesi, usando P (n) e 0 e 1/n 0. p. 36/39

86 Parte Inversa (cont.) Riscriviamo la disuguaglianza R n 1 + P e (n) R + C come P (n) e 1 C R 1 nr p. 37/39

87 Parte Inversa (cont.) Riscriviamo la disuguaglianza R n 1 + P e (n) R + C come P (n) e 1 C R 1 nr Questo mostra che per R > C la probabilità di errore si mantiene > 0 per n. p. 37/39

88 Parte Inversa (cont.) Riscriviamo la disuguaglianza R n 1 + P e (n) R + C come P (n) e 1 C R 1 nr Questo mostra che per R > C la probabilità di errore si mantiene > 0 per n. ma deve valere per ogni n. Infatti, se avessimo codici con P e (n) = 0 per n piccoli potremmo estenderli a codici di lunghezza maggiore per concatenazione. p. 37/39

89 Parte Inversa (cont.) Riscriviamo la disuguaglianza R n 1 + P e (n) R + C come P (n) e 1 C R 1 nr Questo mostra che per R > C la probabilità di errore si mantiene > 0 per n. ma deve valere per ogni n. Infatti, se avessimo codici con P e (n) = 0 per n piccoli potremmo estenderli a codici di lunghezza maggiore per concatenazione. In conclusione, non si può ridurre arbitrariamente la probabilità d errore a tassi superiori alla capacità. p. 37/39

90 Codifica Sorgente Canale Teorema Se V 1,...,V n soddisfano la PEA allora esiste una codice sorgente-canale con P e (n) 0 se H(V ) < C. Se H(V ) > C la probabilitá di errore non puó essere resa arbitrariamente piccola. p. 38/39

91 Codifica Sorgente Canale Teorema Se V 1,...,V n soddisfano la PEA allora esiste una codice sorgente-canale con P e (n) 0 se H(V ) < C. Se H(V ) > C la probabilitá di errore non puó essere resa arbitrariamente piccola. Dim. n n n n ^ n V X (V ) Y V p. 38/39

92 Codifica Sorgente Canale Teorema Se V 1,...,V n soddisfano la PEA allora esiste una codice sorgente-canale con P e (n) 0 se H(V ) < C. Se H(V ) > C la probabilitá di errore non puó essere resa arbitrariamente piccola. Dim. n n n n ^ n V X (V ) Y V PEA A (n) ǫ 2 n(h(v )+ǫ) e P(A ǫ (n) ) > 1 ǫ Codifichiamo solo sequenze tipiche 2 n(h(v )+ǫ) indici se R = H(V ) + ǫ < C possiamo trasmettere sul canale con prob. err < ǫ Quindi P (n) e = P(V n ˆV n ) P(V n / A (n) ǫ ) + P(g(Y n ) V n V n A ǫ (n) ) ǫ + ǫ = 2ǫ p. 38/39

93 Codifica Sorgente Canale Parte inversa. Dalla disuguaglianza di Fano H(V n ˆV n ) 1 + P e (n) log V n = 1 + P e (n) n log V p. 39/39

94 Codifica Sorgente Canale Parte inversa. Dalla disuguaglianza di Fano H(V n ˆV n ) 1 + P e (n) log V n = 1 + P e (n) n log V Quindi H(V ) = H(V 1...V n ) n = H(V n ) n 1 (n) (1 + P e n log V ) + 1 n n I(V n ; ˆV n ) = 1 n H(V n ˆV n ) + 1 n I(V n ; ˆV n ) 1 (n) (1 + P e n log V ) + 1 n n I(Xn ;Y n ) 1 n + P (n) e log V + C p. 39/39

95 Codifica Sorgente Canale Parte inversa. Dalla disuguaglianza di Fano H(V n ˆV n ) 1 + P e (n) log V n = 1 + P e (n) n log V Quindi H(V ) = H(V 1...V n ) n = H(V n ) n 1 (n) (1 + P e n log V ) + 1 n n I(V n ; ˆV n ) = 1 n H(V n ˆV n ) + 1 n I(V n ; ˆV n ) 1 (n) (1 + P e n log V ) + 1 n n I(Xn ;Y n ) 1 n + P (n) e log V + C Per n, se P (n) e 0 si ha H(V ) C. p. 39/39

Codifica sorgente e canale

Codifica sorgente e canale Codifica sorgente e canale Codifica sorgente Codifica canale in Canale Compressione Codifica Decodifica Decompress. Rumoroso out Codifica sorgente: comprimere i dati per rimuovere ridondanza Codifica canale:

Dettagli

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore. CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore

Dettagli

10 Proprietà di Equipartizione Asintotica

10 Proprietà di Equipartizione Asintotica FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della

Dettagli

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore

Dettagli

STII. Probabilità e proprietà dei logaritmi

STII. Probabilità e proprietà dei logaritmi STII Durante una trasmissione, il segnale naviga alcuni minuti prima di arrivare a destinazione. Durante il percorso, il segnale è soggetto a rumore, quindi può capitare che il messaggio che è stato inviato

Dettagli

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza

Dettagli

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio

Dettagli

8 Derivati dell entropia

8 Derivati dell entropia (F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta

Dettagli

Codifica delle sequenze sorgente

Codifica delle sequenze sorgente Codifica delle sequenze sorgente Sorgente emette sequenza di simboli appartenenti ad un alfabeto X che vengono codificati come sequenze di simboli di un alfabeto D-ario.. p.1/?? Codifica delle sequenze

Dettagli

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media

Dettagli

STII/Teoria dell Informazione

STII/Teoria dell Informazione STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione

Dettagli

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

Proprietà di equipartizione asintotica e sue applicazioni nella teoria dell informazione

Proprietà di equipartizione asintotica e sue applicazioni nella teoria dell informazione UNIVERSITÀ DEGLI STUDI DI PADOVA FACOLTÀ DI INGEGNERIA Corso di Laurea in INGEGNERIA DELL INFORMAZIONE Proprietà di equipartizione asintotica e sue applicazioni nella teoria dell informazione Relatore

Dettagli

Nota: Eventi meno probabili danno maggiore informazione

Nota: Eventi meno probabili danno maggiore informazione Entropia Informazione associata a valore x avente probabilitá p(x é i(x = log 2 p(x Nota: Eventi meno probabili danno maggiore informazione Entropia di v.c. X P : informazione media elementi di X H(X =

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì

Dettagli

Modello di sistema di comunicazione

Modello di sistema di comunicazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p. Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia

Dettagli

Roberto Maieli La trasmissione dell informazione

Roberto Maieli La trasmissione dell informazione Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con

Dettagli

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore 10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore

Dettagli

Crittografia Moderna. Segretezza Perfetta: nozioni

Crittografia Moderna. Segretezza Perfetta: nozioni Crittografia Moderna Segretezza Perfetta: nozioni Segretezza perfetta Ci occuperemo di schemi di cifratura perfettamente sicuri Avversari di potere computazionale illimitato confidenzialità / riservatezza

Dettagli

Codifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione

Codifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione Codifica di canale (dalle dispense e dalle fotocopie) Codici lineari a blocchi Un codice lineare (n,k) è un codice che assegna una parola lunga n ad ogni blocco lungo k. Si dice che il codice abbia un

Dettagli

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente

Dettagli

Comunicazioni Elettriche Esercizi

Comunicazioni Elettriche Esercizi Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,

Dettagli

1 Esercizio - caso particolare di ottimalità

1 Esercizio - caso particolare di ottimalità Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto

Dettagli

Teoria dell Informazione II Anno Accademico Lezione 6-7

Teoria dell Informazione II Anno Accademico Lezione 6-7 Teoria dell Informazione II Anno Accademico 2017 2018 Lezione 6-7 Ugo Vaccaro ( ) 1 2 n Data una variabile casuale X = che assume valori i, con probabilità p p 1 p 2 p i, per i = 1,...,n, n vogliamo studiare

Dettagli

Campi di Galois. Campo di Galois V m (F 2 ) = F 2. Elementi: vettori binari di lunghezza m, F 2 : elementi {0, 1}, somma modulo 2. . p.

Campi di Galois. Campo di Galois V m (F 2 ) = F 2. Elementi: vettori binari di lunghezza m, F 2 : elementi {0, 1}, somma modulo 2. . p. Campi di Galois F 2 : elementi {0, 1}, somma modulo 2 Campo di Galois V m (F 2 ) = F 2 m Elementi: vettori binari di lunghezza m,. p.1/39 Campi di Galois F 2 : elementi {0, 1}, somma modulo 2 Campo di

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 206 207 Lezione 4 Ugo Vaccaro Nella lezione scorsa abbiamo derivato il seguente risultato. Teorema Per ogni codifica UD per una sorgente DSSM con alfabeto sorgente

Dettagli

CP110 Probabilità: Esame 2 luglio Testo e soluzione

CP110 Probabilità: Esame 2 luglio Testo e soluzione Dipartimento di Matematica, Roma Tre Pietro Caputo 212-13, II semestre 2 luglio, 213 CP11 Probabilità: Esame 2 luglio 213 Testo e soluzione 1. (6 pts Due mazzi di carte francesi vengono uniti e mischiati.

Dettagli

Lezione 11 Ugo Vaccaro

Lezione 11 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 207 208 Lezione Ugo Vaccaro Abbiamo visto finora che in vari problemi collegati alla codifica di emissioni di una sorgente di informazione la entropia H(P )

Dettagli

Fondamenti dell Informatica

Fondamenti dell Informatica Informatica e Comunicazione Digitale (sede di Taranto) Fondamenti dell Informatica a.a. 2015-2016 Programma 2015-2016 1. Teoria dell Informazione 2. Algoritmi e problema 3. Algebra di Boole 4. La Macchina

Dettagli

Elementi di teoria dell informazione e della trasmissione

Elementi di teoria dell informazione e della trasmissione VERSIONE 19.4.01 Elementi di teoria dell informazione e della trasmissione Introduzione Efficienza nell uso dei supporti Quantità di informazione ed entropia La caratterizzazione statistica dei canali

Dettagli

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17 II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile

Dettagli

5. Analisi dei dati di output

5. Analisi dei dati di output Anno accademico 2006/07 Analisi dei dati di Output Y 1, Y 2,..., Y m : output della simulazione. Le variabili casuali Y 1, Y 2,..., Y m non sono in generale indipendenti Se supponiamo però di avere effettuato

Dettagli

Introduzione alla codifica entropica

Introduzione alla codifica entropica Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta

Dettagli

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16 Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana - 015/16 Esercizio 1 Per quali valori n Z \ {0} l espressione è un numero intero positivo? (n + 5)(n + 6) 6n Soluzione. Il problema

Dettagli

CP410: Esame 2, 3 febbraio 2015

CP410: Esame 2, 3 febbraio 2015 Dipartimento di Matematica, Roma Tre Pietro Caputo 2014-15, I semestre 3 febbraio, 2015 CP410: Esame 2, 3 febbraio 2015 Cognome Nome Matricola Firma 1. Sia (Ω, F, P) lo spazio di probabilità definito da

Dettagli

Trapani. Dispensa di Geometria, x 1 x 2.x n. (x 1 y 1 ) (x n y n ) 2.

Trapani. Dispensa di Geometria, x 1 x 2.x n. (x 1 y 1 ) (x n y n ) 2. 2006 Trapani Dispensa di Geometria, 1 Distanze Siano P e Q punti di R n con P di coordinate allora la distanza tra P e Q e P Q = x 1 x 2 x n (x 1 y 1 ) 2 + (x n y n ) 2 e Q di coordinate Siano Σ 1 e Σ

Dettagli

1) Hamming bound, coset, codici equivalenti

1) Hamming bound, coset, codici equivalenti Argomenti della Lezione ) Hamming bound, coset, codici equivalenti 2) Esercizi sui codici lineari a blocchi Osservazione () Per effettuare la decodifica a rivelazione di errore si può seguire una delle

Dettagli

Probabilità: teoremi e distribuzioni

Probabilità: teoremi e distribuzioni Probabilità: teoremi e distribuzioni OBIETTIVO DIDATTICO DELLA LEZIONE Illustrare le più importanti distribuzioni di probabilità che vengono utilizzate in statistica Distribuzioni di probabilità 1. La

Dettagli

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria

Dettagli

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni. 5. Rango

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni. 5. Rango Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof Fabio Perroni 5 Rango Definizione 1 Sia A M m,n (K) una matrice m n a coefficienti nel campo K Il rango

Dettagli

CODICI CONVOLUZIONALI PUNTURATI

CODICI CONVOLUZIONALI PUNTURATI Con un unico decodificatore si possono ottenere vari tassi. Partendo da un unico codice convoluzionale madre di tasso 1/2, si ottiene un insieme di codici convoluzionali di tasso k/n, con k>1. Vantaggi:

Dettagli

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) = 1 Esercizi settimana 3 Esercizio 1. Un urna contiene 8 palline bianche, 4 nere e rosse. Si assuma di vincere e ogni volta che si estragga una pallina nera, si perda 1e per ogni pallina bianca e non succeda

Dettagli

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x

Dettagli

Capitolo 5 La trasmissione dell informazione

Capitolo 5 La trasmissione dell informazione Capitolo 5 La trasmissione dell informazione Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio Destinazione Caratterizzazione

Dettagli

Cognome Nome Matricola. Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale

Cognome Nome Matricola. Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale Esame di Calcolo delle Probabilità mod. B del 9 settembre 2003 (Corso di Laurea in Matematica, Università degli Studi di Padova). Cognome Nome Matricola Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale Attenzione:

Dettagli

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata

Dettagli

COMPLETAMENTO DI SPAZI METRICI

COMPLETAMENTO DI SPAZI METRICI COMPLETAMENTO DI SPAZI METRICI 1. Successioni di Cauchy e spazi metrici completi Definizione 1.1. Una successione x n n N a valori in uno spazio metrico X, d si dice di Cauchy se, per ogni ε > 0 esiste

Dettagli

Polarizzazione dei canali B-DMC e Polar Codes TESI DI LAUREA MAGISTRALE

Polarizzazione dei canali B-DMC e Polar Codes TESI DI LAUREA MAGISTRALE UIVERSITÀ DEGLI STUDI DI PISA FACOLTÀ DI SCIEZE MATEMATICHE, FISICHE E ATURALI CORSO DI LAUREA I MATEMATICA Polarizzazione dei canali B-DMC e Polar Codes TESI DI LAUREA MAGISTRALE Giulia Cervia Relatore

Dettagli

Sui Linguaggi Regolari: Teorema di Kleene - Pumping Lemm

Sui Linguaggi Regolari: Teorema di Kleene - Pumping Lemm Sui Linguaggi Regolari: Teorema di Kleene - Pumping Lemma N.Fanizzi - V.Carofiglio 6 aprile 2016 1 Teorema di Kleene 2 3 o 1 o 3 o 8 Teorema di Kleene Vale la seguente equivalenza: L 3 L FSL L REG Dimostrazione.

Dettagli

Pagine di Algebra lineare. di premessa al testo Pagine di Geometria di Sara Dragotti. Parte terza: SISTEMI LINEARI

Pagine di Algebra lineare. di premessa al testo Pagine di Geometria di Sara Dragotti. Parte terza: SISTEMI LINEARI Pagine di Algebra lineare di premessa al testo Pagine di Geometria di Sara Dragotti Parte terza: SISTEMI LINEARI 1. Definizioni Dato un campo K ed m 1 polinomi su K in n indeterminate di grado non superiore

Dettagli

Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A (STII(A))

Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A (STII(A)) STIIA Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A STIIA Classe: Matricole Pari Docente: Prof. Luisa Gargano Testo principale: T. Cover, J. Thomas, Elements of Information Theory,

Dettagli

Esame di Probabilità e Statistica del 30 marzo 2009 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).

Esame di Probabilità e Statistica del 30 marzo 2009 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Esame di Probabilità e Statistica del 30 marzo 2009 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Cognome Nome Matricola Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale Attenzione:

Dettagli

Soluzioni dei quesiti della maturità scientifica A.S. 2009/2010

Soluzioni dei quesiti della maturità scientifica A.S. 2009/2010 Soluzioni dei quesiti della maturità scientifica AS 009/010 Nicola Gigli Sun-Ra Mosconi giugno 010 Quesito 1 Un generico polinomio di grado n si può scrivere nella forma p(x) a 0 + a 1 x + + a n x n dove

Dettagli

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013 CORSO DI ANALISI MATEMATICA SOLUZIONI ESERCIZI PROPOSTI 8/03/03 D.BARTOLUCCI, D.GUIDO. La continuità uniforme I ESERCIZIO: Dimostrare che la funzione f(x) = x 3, x A = (, ] non è uniformemente continua

Dettagli

Approssimazione di dati e funzioni

Approssimazione di dati e funzioni Approssimazione di dati e funzioni Richiamiamo i principali metodi di approssimazione polinomiale di un insieme di dati (x i, y i ), i = 0,..., n. Le ordinate y i possono essere i valori assunti nei nodi

Dettagli

Generazione di variabili aleatorie con distribuzione non uniforme. Daniela Picin

Generazione di variabili aleatorie con distribuzione non uniforme. Daniela Picin Generazione di variabili aleatorie con distribuzione non uniforme Daniela Picin A partire da una sequenza di numeri random u k ~ U(0,1) opportunamente generati, alcuni dei metodi per la generazione di

Dettagli

Secondo scritto. 8 luglio 2010

Secondo scritto. 8 luglio 2010 Secondo scritto 8 luglio 010 1 Parte 1 Esercizio 1.1. Facciamo riferimento alle pagine e 3 del libro di testo. Quando si ha a che fare con la moltiplicazione o la divisione di misure bisogna fare attenzione,

Dettagli

Università degli Studi di Bergamo Modulo di Geometria e Algebra Lineare (vecchio programma) 2 settembre 2013 Tema A

Università degli Studi di Bergamo Modulo di Geometria e Algebra Lineare (vecchio programma) 2 settembre 2013 Tema A Università degli Studi di Bergamo Modulo di Geometria e Algebra Lineare (vecchio programma) settembre 013 Tema A Tempo a disposizione: ore. Calcolatrici, libri e appunti non sono ammessi. Ogni esercizio

Dettagli

Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale

Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale 1 Obiettivi: Codici correttori d errore correggere o rivelare errori nella trasmissione di segnali numerici (sequenze di simboli,

Dettagli

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2004-05 Alberto Perotti DELEN-DAUIN Esperimento casuale Esperimento suscettibile di più

Dettagli

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione. Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x

Dettagli

Comportamento asintotico delle Catene di Markov

Comportamento asintotico delle Catene di Markov Comortamento asintotico delle Catene di Markov In queste note analizzeremo il comortamento asintotico della catene di Markov a temo discreto omogenee, con sazio degli stati di dimensione finita. I risultati

Dettagli

Esercizi settimana 4. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3

Esercizi settimana 4. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3 1 Esercizi settimana Esercizi applicati Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 3 di ottenere testa. Se scegliete la prima moneta vincete 10 punti se esce testa e punti

Dettagli

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 1 a.a Soluzioni

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 1 a.a Soluzioni Corso di Laurea in Matematica Geometria 2 Foglio di esercizi n. 1 a.a. 2015-16 Soluzioni Gli esercizi sono presi dal libro di Manetti. Per svolgere questi esercizi, studiare con cura i paragrafi 3.1, 3.2,

Dettagli

Anno 4 Matrice inversa

Anno 4 Matrice inversa Anno 4 Matrice inversa 1 Introduzione In questa lezione parleremo della matrice inversa di una matrice quadrata: definizione metodo per individuarla Al termine della lezione sarai in grado di: descrivere

Dettagli

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni 2. MATRICI

Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni 2. MATRICI Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof Fabio Perroni 2 MATRICI Siano m, n N \ {0}, sia K un campo Una matrice m n a coefficienti in K è una

Dettagli

CP410: Esonero 1, 7 novembre, 2018

CP410: Esonero 1, 7 novembre, 2018 Dipartimento di Matematica, Roma Tre Pietro Caputo 2018-19, I semestre 7 novembre, 2018 CP410: Esonero 1, 7 novembre, 2018 Cognome Nome Matricola Firma 1. Sia X una variabile aleatoria su uno spazio di

Dettagli

DATI DELLO STUDENTE: NomeeCognome:... NumerodiMatricola:... PROCESSI STOCASTICI 09/09/2015, ESAME SCRITTO

DATI DELLO STUDENTE: NomeeCognome:... NumerodiMatricola:... PROCESSI STOCASTICI 09/09/2015, ESAME SCRITTO DATI DELLO STUDENTE: NomeeCognome:... NumerodiMatricola:... PROCESSI STOCASTICI 09/09/20, ESAME SCRITTO L uso di testi, appunti, formulari e gadget elettronici non è autorizzato. Avete 2 ore di tempo a

Dettagli

Geometria e Topologia I (U1-4) 2006-mag-10 61

Geometria e Topologia I (U1-4) 2006-mag-10 61 Geometria e Topologia I (U1-4) 2006-mag-10 61 (15.9) Teorema. Consideriamo il piano affine. Se A A 2 (K) è un punto e r una retta che non passa per A, allora esiste unica la retta per A che non interseca

Dettagli

un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio;

un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio; TEST DI AUTOVALUTAZIONE - SETTIMANA 3 I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. Metodi statistici per la biologia 1 Parte A 1.1 Una variabile casuale

Dettagli

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare

Dettagli

CP110 Probabilità: Esonero 1. Testo e soluzione

CP110 Probabilità: Esonero 1. Testo e soluzione Dipartimento di Matematica, Roma Tre Pietro Caputo 2009-2010, II semestre 1 aprile, 2010 CP110 Probabilità: Esonero 1 Testo e soluzione 1. (7 pt Una scatola contiene 15 palle numerate da 1 a 15. Le palle

Dettagli

Il teorema di Stone Weierstrass

Il teorema di Stone Weierstrass APPENDICE B Il teorema di Stone Weierstrass Definizione B.1. Siano X un insieme non vuoto e A un sottospazio vettoriale dello spazio delle funzioni a valori reali (risp. complessi) su X. Si dice che A

Dettagli

Somma diretta di sottospazi vettoriali

Somma diretta di sottospazi vettoriali Capitolo 8 Somma diretta di sottospazi vettoriali 8.1 Introduzione Introduciamo un caso particolare di somma di due sottospazi vettoriali: la somma diretta. Anche questo argomento è stato visto nel corso

Dettagli

Concetti fondamentali

Concetti fondamentali Concetti fondamentali elemento insieme sequenza tutto si riconduce a questi insieme: esempi {,3,5,7,9} insieme dei numeri dispari positivi minori di dieci {Antonio, Beatrice, Carlo, Daria} insieme dei

Dettagli

Lezione Risoluzione di sistemi

Lezione Risoluzione di sistemi Lezione Risoluzione di sistemi Sia AX = B un sistema di equazioni lineari, con la sua matrice completa associate (A B) Per la Proposizione sappiamo di poter trasformare con operazioni elementari di riga

Dettagli

Il secondo teorema di Shannon

Il secondo teorema di Shannon Il secondo teorema di Shannon Appunti scritti da Alberto Leporati e-mail: alberto.leporati@unimib.it Dipartimento di Informatica, Sistemistica e Comunicazione (DISCo) Università degli Studi di Milano Bicocca

Dettagli

Mattia Zanella. Ferrara, April

Mattia Zanella. Ferrara, April Department of Mathematical Sciences Politecnico di Torino, Italy http://www.mattiazanella.eu Ferrara, April 5 217 Programma della lezione Seminario I Introduzione a Matlab U(, 1): metodo di inversione

Dettagli

Generazione di variabili aleatorie con distribuzione non uniforme. Daniela Picin

Generazione di variabili aleatorie con distribuzione non uniforme. Daniela Picin Generazione di variabili aleatorie con distribuzione non uniforme Daniela Picin A partire da una sequenza di numeri random u k ~ U(0,1) opportunamente generati, alcuni dei metodi per la generazione di

Dettagli

Questa viene trasmessa sul canale (wireless o wired). In questo corso, modellizzeremo il canale di trasmissione come un canale Gaussiano bianco

Questa viene trasmessa sul canale (wireless o wired). In questo corso, modellizzeremo il canale di trasmissione come un canale Gaussiano bianco Canale di trasmissione Dati una costellazione M un labeling binario e è possibile associare alle sequenze binarie di informazione u da trasmettere una forma d onda s(t). Questa viene trasmessa sul canale

Dettagli

APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a

APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof FPodestà, aa 003-004 Sia V uno spazio vettoriale e sia f : V V una applicazione lineare una tale applicazione da uno spazio vettoriale in se stesso è chiamata

Dettagli

LEZIONE 12. v = α 1 v α n v n =

LEZIONE 12. v = α 1 v α n v n = LEZIONE 12 12.1. Combinazioni lineari. Definizione 12.1.1. Sia V uno spazio vettoriale su k = R, C e v 1,..., v n V vettori fissati. Un vettore v V si dice combinazione lineare di v 1,..., v n se esistono

Dettagli

Lezione 17 Ugo Vaccaro

Lezione 17 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 2015 2016 Lezione 17 Ugo Vaccaro Nella Lezione scorsa abbiamo introdotto una classe di codici a correzione di errore (codici di Hamming) in grado di correggere

Dettagli

CP110 Probabilità: Esame del 15 settembre Testo e soluzione

CP110 Probabilità: Esame del 15 settembre Testo e soluzione Dipartimento di Matematica, Roma Tre Pietro Caputo 2009-2010, II semestre 15 settembre, 2010 CP110 Probabilità: Esame del 15 settembre 2010 Testo e soluzione 1. (6 pts) 10 carte numerate da 1 a 10 vengono

Dettagli

R. Cusani, F. Cuomo: Telecomunicazioni - DataLinkLayer: Gestione degli errori, Aprile 2010

R. Cusani, F. Cuomo: Telecomunicazioni - DataLinkLayer: Gestione degli errori, Aprile 2010 1 11. Data link layer: codici di rilevazione di errore, gestione degli errori La rilevazione di errore Un codice a rilevazione di errore ha lo scopo di permettere al ricevente di determinare se vi sono

Dettagli

1 Funzioni reali di una variabile reale

1 Funzioni reali di una variabile reale 1 Funzioni reali di una variabile reale Qualche definizione e qualche esempio che risulteranno utili più avanti Durante tutto questo corso studieremo funzioni reali di una variabile reale, cioè Si ha f

Dettagli

φ X (t) = mentre nel caso continuo, indicando con f(x) la densità di X, si ha e itx f(x) dx + e itx e itx f(x)dx. f(x)dx = e itx +

φ X (t) = mentre nel caso continuo, indicando con f(x) la densità di X, si ha e itx f(x) dx + e itx e itx f(x)dx. f(x)dx = e itx + 10.1 Funzione caratteristica 11 10.1. Funzione caratteristica La funzione caratteristica è uno strumento teorico utile sotto diversi aspetti per studiare la distribuzione di probabilità di numeri aleatori

Dettagli

Esame di Calcolo delle Probabilità del 12 dicembre 2005 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).

Esame di Calcolo delle Probabilità del 12 dicembre 2005 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Esame di Calcolo delle Probabilità del 2 dicembre 2005 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Cognome Nome Matricola Es. Es. 2 Es. 3 Es. 4 Somma Voto parziale Prima

Dettagli

Rischio statistico e sua analisi

Rischio statistico e sua analisi F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello

Dettagli

Lezione 18 Ugo Vaccaro

Lezione 18 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 26 27 Lezione 8 Ugo Vaccaro In questa lezione vedremo un applicazione della Teoria dei Codici a correzione d errore al seguente problema, già descritto nella

Dettagli

Certificati dei problemi in NP

Certificati dei problemi in NP Certificati dei problemi in NP La stringa y viene in genere denominata un certificato Un Certificato è una informazione ausiliaria che può essere utilizzata per verificare in tempo polinomiale nella dimensione

Dettagli

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria. Capitolo 2 Campi 2.1 Introduzione Studiamo ora i campi. Essi sono una generalizzazione dell insieme R dei numeri reali con le operazioni di addizione e di moltiplicazione. Nel secondo paragrafo ricordiamo

Dettagli

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I 01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore

Dettagli

ANALISI 1 1 QUARTA LEZIONE

ANALISI 1 1 QUARTA LEZIONE ANALISI 1 1 QUARTA LEZIONE 1 prof. Claudio Saccon, Dipartimento di Matematica Applicata, Via F. Buonarroti 1/C email: saccon@mail.dm.unipi.it web: http://www2.ing.unipi.it/ d6081/index.html Ricevimento:

Dettagli