CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
|
|
- Paolo Savino
- 5 anni fa
- Visualizzazioni
Transcript
1 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente p. 1/39
2 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente Es. effetto rumore. Input possibili al canale sequenze 101 e 111, input 101, rumore: secondo bit modificato, output: 111; input: 111, rumore: nessuno, output: 111; diverse sequenze in input producono lo stesso output (input confondibili). p. 1/39
3 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente Es. effetto rumore. Input possibili al canale sequenze 101 e 111, input 101, rumore: secondo bit modificato, output: 111; input: 111, rumore: nessuno, output: 111; diverse sequenze in input producono lo stesso output (input confondibili). Obiettivo: proteggere l informazione da eventuali errori di trasmissione legati al rumore p. 1/39
4 Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione p. 2/39
5 Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione Metodo: Aggiungere ridondanza p. 2/39
6 Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione Metodo: Aggiungere ridondanza Nota: impossibile eliminare effetto rumore vogliamo input non confondibili con alta robabilità p. 2/39
7 Canali Canale discreto (alfabeti I/O discreti): (X,, Y) X= alfabeto input al canale Y= alfabeto output al canale Π = [p(y/x)]= matrice delle probabilità di transizione p. 3/39
8 Canali Canale discreto (alfabeti I/O discreti): (X,, Y) X= alfabeto input al canale Y= alfabeto output al canale Π = [p(y/x)]= matrice delle probabilità di transizione Canale discreto senza memoria (DMC) (X, Π, Y): distribuzione probabilità output dipende solo da input corrispondente NON da precedenti input o output. p. 3/39
9 Capacitá Canale Capacità del canale senza memoria: C = max p(x) I(X,Y ) p. 4/39
10 Capacitá Canale Capacità del canale senza memoria: C = max p(x) I(X,Y ) Dimostreremo: capacità = massimo numero di bit per uso del canale. p. 4/39
11 Canale senza rumore Trasmette un bit per uso senza errore C = 1 p. 5/39
12 Canale senza rumore Trasmette un bit per uso senza errore C = 1 Infatti C = max p(x) I(X,Y ) = max p(x) H(X) H(X/Y ) = max p(x) H(X) = 1 per p(x) = (1/2, 1/2) p. 5/39
13 Canale binario simmetrico p p p 1 p 0 1 Π = [ ] p 1 p 1 p p I(X;Y ) = H(Y ) H(Y/X) = H(Y ) x p(x)h(y/x = x) = H(Y ) x p(x)h(p) = H(Y ) h(p) p. 6/39
14 Canale binario simmetrico C = max p(x) I(X,Y ) = max p(x) H(Y ) h(p) 1 h(p) p(x) = (1/2, 1/2) p(y = 1) = 1 2 (1 p) p = 1 2 H(Y ) = 1 Quindi C = 1 h(p)bits 1 1/2 1 p. 7/39
15 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = p. 8/39
16 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = Canale debolmente simmetrico: Ogni riga é permutazione di ogni altra riga; la somma su ogni colonna [ é costante ] 1/3 1/6 1/2 Es. Π = 1/3 1/2 1/6 p. 8/39
17 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = Canale debolmente simmetrico: Ogni riga é permutazione di ogni altra riga; la somma su ogni colonna [ é costante ] 1/3 1/6 1/2 Es. Π = 1/3 1/2 1/6 Canale simmetrico Canale debolmente simmetrico p. 8/39
18 Canali (Debolmente) Simmetrici r=riga di Π I(X;Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) p. 9/39
19 Canali (Debolmente) Simmetrici r=riga di Π I(X;Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) Ponendo p(x) = 1/ X per ogni x X risulta p(y) = x p(x)p(y/x) = somma colonna X = 1 Y p. 9/39
20 Canali (Debolmente) Simmetrici r=riga di Π I(X;Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) Ponendo p(x) = 1/ X per ogni x X risulta p(y) = x p(x)p(y/x) = somma colonna X = 1 Y Quindi C = log Y H(r) p. 9/39
21 Codifica Canale DMC Codice canale (M,n) per (X, Π, Y): Insieme di indici {1,...,M} p. 10/39
22 Codifica Canale DMC Codice canale (M,n) per (X, Π, Y): Insieme di indici {1,...,M} Funzione codifica X n : {1,...,M} X n p. 10/39
23 Codifica Canale DMC Codice canale (M,n) per (X, Π, Y): Insieme di indici {1,...,M} Funzione codifica X n : {1,...,M} X n Funzione decodifica g : Y n {1,...,M} p. 10/39
24 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = Pr{g(Y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) p. 11/39
25 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = Pr{g(Y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) Probabilitá massima di errore: λ (n) = max 1 i M λ i p. 11/39
26 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = Pr{g(Y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) Probabilitá massima di errore: Probabilitá media di errore: λ (n) = max 1 i M λ i P (n) e = 1 M M i=1 λ i p. 11/39
27 Codifica Canali Rumorosi Tasso codice (M,n): R = log M n bit trasm. p. 12/39
28 Codifica Canali Rumorosi Tasso codice (M,n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr,n) con λ (n) 0 per n p. 12/39
29 Codifica Canali Rumorosi Tasso codice (M,n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr,n) con λ (n) 0 per n Si dimostra che: (Teorema di Codifica Canale) (a) ogni tasso R C é ottenibile, (b) nessun tasso R > C é ottenibile p. 12/39
30 Codifica Canali Rumorosi Tasso codice (M,n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr,n) con λ (n) 0 per n Si dimostra che: (Teorema di Codifica Canale) (a) ogni tasso R C é ottenibile, (b) nessun tasso R > C é ottenibile Capacitá = limite superiore di tutti i tassi ottenibili p. 12/39
31 Coppie Tipiche Definizione L insieme A ǫ (n) delle coppie tipiche {(x n,y n )} rispetto alla distribuzione p(x, y) è definito da: A (n) ǫ = dove p(x n,y n ) = n i=1 p(x i,x j ). { (x n,y n ) X n Y n : 1 n log p(xn ) H(X) < ǫ, 1 n log p(yn ) H(Y ) < ǫ, } 1 n log p(xn,y n ) H(XY ) < ǫ p. 13/39
32 Joint AEP Teorema Siano (X n,y n ) seqeuenze di v.c. i.i.d secondo p(x n,y n ) = n i=1 p(x i,x j ). Allora, 1. Pr((X n,y n ) A (n) ǫ ) 1 per n. p. 14/39
33 Joint AEP Teorema Siano (X n,y n ) seqeuenze di v.c. i.i.d secondo p(x n,y n ) = n i=1 p(x i,x j ). Allora, 1. Pr((X n,y n ) A (n) ǫ ) 1 per n. 2. (1 e)2 n(h(x,y ) ǫ) A ǫ (n) 2n(H(X,Y )+ǫ) p. 14/39
34 Joint AEP Teorema Siano (X n,y n ) seqeuenze di v.c. i.i.d secondo p(x n,y n ) = n i=1 p(x i,x j ). Allora, 1. Pr((X n,y n ) A (n) ǫ ) 1 per n. 2. (1 e)2 n(h(x,y ) ǫ) A ǫ (n) 2n(H(X,Y )+ǫ) 3. Se X n e Y n sono indipendenti e scelte secondo p(x n ) e p(y n ), quindi Pr( x n, y n ) = p( x n )p( y n ), allora per n (1 e)2 n(i(x;y )+3ǫ) Pr(( X n, Xn ) A (n) ǫ ) 2 n(i(x;y ) 3ǫ). p. 14/39
35 Teorema di Codifica Canale Teorema Per ogni tasso R < C, esiste una sequenza di codici (2 nr,n) con probabilità massima di errore λ (n) 0. p. 15/39
36 Teorema di Codifica Canale Teorema Per ogni tasso R < C, esiste una sequenza di codici (2 nr,n) con probabilità massima di errore λ (n) 0. Dim. La dimostrazione si basa sulle seguenti idee analisi di sequenze lunghe, in modo da sfruttare la legge dei grandi numeri e, specificamente, le proprietà delle coppie tipiche. p. 16/39
37 Teorema di Codifica Canale Teorema Per ogni tasso R < C, esiste una sequenza di codici (2 nr,n) con probabilità massima di errore λ (n) 0. Dim. La dimostrazione si basa sulle seguenti idee analisi di sequenze lunghe, in modo da sfruttare la legge dei grandi numeri e, specificamente, le proprietà delle coppie tipiche. Calcolo della probabilità di errore mediata su una scelta random del codice. p. 16/39
38 Codifica Canale - Parte Diretta Generiamo 2 nr parole codice i.i.d. scegliendone i simboli da X indipendentemente in accordo ad una fissata d.p. p(x). una sequenza x n è scelta con probabilità p(x n ) = n i=1 p(x i) p. 17/39
39 Codifica Canale - Parte Diretta Generiamo 2 nr parole codice i.i.d. scegliendone i simboli da X indipendentemente in accordo ad una fissata d.p. p(x). una sequenza x n è scelta con probabilità p(x n ) = n i=1 p(x i) un codice C = x 1 (1) x 2 (1)... x n (1) x 1 (2 nr ) x 2 (2 nr )... x n (2 nr ) con probabilità Pr(C) = 2 nr w=1 n i=1 p(x i(w)).. p. 17/39
40 Codifica Canale - Il Modello Consideriamo il seguente modello Il codice viene scelto in maniera random (vedi sopra) p. 18/39
41 Codifica Canale - Il Modello Consideriamo il seguente modello Il codice viene scelto in maniera random (vedi sopra) il messaggio W da trasmettere viene scelto uniformemente a caso: Pr(W = w) = 2 nr, per ogni w = 1, 2,...,2 nr. p. 18/39
42 Codifica Canale - Il Modello Consideriamo il seguente modello Il codice viene scelto in maniera random (vedi sopra) il messaggio W da trasmettere viene scelto uniformemente a caso: Pr(W = w) = 2 nr, per ogni w = 1, 2,...,2 nr. La parola codice X n (w), corrispondente alla w-esima riga di C viene spedita sul canale. p. 18/39
43 Codifica Canale - Il Modello Consideriamo il seguente modello Il codice viene scelto in maniera random (vedi sopra) il messaggio W da trasmettere viene scelto uniformemente a caso: Pr(W = w) = 2 nr, per ogni w = 1, 2,...,2 nr. La parola codice X n (w), corrispondente alla w-esima riga di C viene spedita sul canale. L output del canale è una sequenza Y n determinata in accordo alla distribuzione P(y n x n (w)) = n i=1 p(y i x i (w)). p. 18/39
44 Codifica Canale - Il Modello La sequenza Y n viene decodificata come W se (X n ( W),Y n ) formano coppia tipica Non esiste un altro messaggio k t.c. (X n (k),y n ) formano coppia tipica. p. 19/39
45 Codifica Canale - Il Modello La sequenza Y n viene decodificata come W se (X n ( W),Y n ) formano coppia tipica Non esiste un altro messaggio k t.c. (X n (k),y n ) formano coppia tipica. se non esiste un tale W o ce ne è più di uno, si emette un segnale di errore. p. 19/39
46 Codifica Canale - Il Modello La sequenza Y n viene decodificata come W se (X n ( W),Y n ) formano coppia tipica Non esiste un altro messaggio k t.c. (X n (k),y n ) formano coppia tipica. se non esiste un tale W o ce ne è più di uno, si emette un segnale di errore. Dichiariamo la codifica errata se W W, e denotiamo con E tale evento. p. 19/39
47 Codifica Canale La probabilità di errore. La calcoliamo mediata su tutte le parole del codice, e mediata su tutti i codici possibili: Pr(E) = C P(C)P e (n) (C) = C = 1 2 nr P(C) 1 2 nr 2 nr w=1 2 nr w=1 λ w (C) P(C)λ w (C) C p. 20/39
48 Codifica Canale Poiché mediamo su tutti i codici P(C)λ w (C) C non dipende da w. Infatti, guardando a tutti codici, la stessa parola appare lo stesso numero di volte con ogni indice. Quindi possiamo assumere, senza perdita di generalità che l indice del messaggio inviato sia W = 1, poiché P(C) = 1 2 nr 2 nr P(C)λ w (C) = w=1 C C = Pr(E W = 1). P(C)λ 1 (C) p. 21/39
49 Codifica Canale Sia Y n la sequenza output quando X n (1) viene trasmesso (codifichiamo W = 1). Definiamo i, l evento l i-esima parola codice e Y n formano coppia tipica : E i = {(X n (i),y n ) A (n) ǫ }, p. 22/39
50 Codifica Canale Sia Y n la sequenza output quando X n (1) viene trasmesso (codifichiamo W = 1). Definiamo i, l evento l i-esima parola codice e Y n formano coppia tipica : E i = {(X n (i),y n ) A (n) ǫ }, Per la decodifica scelta, quando X n (1) viene trasmessa, si ha errore se una si verifica tra: (X n (i),y n ) A (n) ǫ, i 1: l evento E i ; (X n (1),Y n ) A (n) ǫ : l evento E 1. p. 22/39
51 Codifica Canale Quindi P(E) = Pr(E W = 1) = P(E 1 E 2 E 3 E 2 nr) P(E 1 ) + 2 nr i=2 P(E i ). p. 23/39
52 Codifica Canale Quindi P(E) = Pr(E W = 1) = P(E 1 E 2 E 3 E 2 nr) P(E 1 ) + 2 nr i=2 P(E i ). P(E 1 ) ǫ, per n (joint AEP 1.); p. 23/39
53 Codifica Canale Quindi P(E) = Pr(E W = 1) = P(E 1 E 2 E 3 E 2 nr) P(E 1 ) + 2 nr i=2 P(E i ). P(E 1 ) ǫ, per n (joint AEP 1.); X n (1) e X n (i) indipendenti Y n e X n (i) indipendenti, i 1. p. 23/39
54 Codifica Canale Quindi P(E) = Pr(E W = 1) = P(E 1 E 2 E 3 E 2 nr) P(E 1 ) + 2 nr i=2 P(E i ). P(E 1 ) ǫ, per n (joint AEP 1.); X n (1) e X n (i) indipendenti Y n e X n (i) indipendenti, i 1. P(E i ) 2 n(i(x;y ) 3ǫ) (joint AEP 3.). p. 23/39
55 Codifica Canale Otteniamo P(E) P(E 1 ) + ǫ + 2 nr i=2 2 nr i=2 P(E i ) n(i(x;y ) 3ǫ) 2 = ǫ + (2 nr n(i(x;y ) 3ǫ) 1)2 2ǫ, ǫ + 2 3nǫ n(i(x;y ) R) 2 se scegliamo n sufficientemente grande e R < I(X;Y ) 3ǫ. p. 24/39
56 Codifica Canale Se R < I(X;Y ), possiamo scegliere ǫ e n in modo da rendere la media (su tutti i codici) di P (n) e < 2ǫ. Che possiamo dire della probabilità massima di errore? p. 25/39
57 Codifica Canale scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità p. 26/39
58 Codifica Canale scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità quindi possiamo sostituire R < C ad R < I(X;Y ). p. 26/39
59 Codifica Canale scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità quindi possiamo sostituire R < C ad R < I(X;Y ). Se la media (su tutti i codici) di P e (n) (C) è 2ǫ, allora esiste un codice C tale che P e (n) (C) 2ǫ. p. 26/39
60 Codifica Canale scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità quindi possiamo sostituire R < C ad R < I(X;Y ). Se la media (su tutti i codici) di P e (n) (C) è 2ǫ, allora esiste un codice C tale che P e (n) (C) 2ǫ. eliminiamo da C ogni parola i con λ i > 4ǫ (sono meno della metá, altr. P e (n) (C) > 1 2 nr 2 nr 2 4ǫ = 2ǫ) p. 26/39
61 Codifica Canale scegliamo p(x) = p (x) = max p(x) I(X;Y ) cioè quella che ottiene la capacità quindi possiamo sostituire R < C ad R < I(X;Y ). Se la media (su tutti i codici) di P e (n) (C) è 2ǫ, allora esiste un codice C tale che P e (n) (C) 2ǫ. eliminiamo da C ogni parola i con λ i > 4ǫ (sono meno della metá, altr. P e (n) (C) > 1 2 nr 2 nr 2 4ǫ = 2ǫ) allora 2ǫ 1 2 nr 2 nr i=1 λ i (C ) (i 1,...,i 2 nr 1) s.t. λ ij (C ) 4ǫ. p. 26/39
62 Codifica Canale Creiamo un nuovo codice che contiene solo tali parole di C con prob. di errore piccola C = {X n (i j ) C j = 1, 2,...,2 nr 1 }. p. 27/39
63 Codifica Canale Creiamo un nuovo codice che contiene solo tali parole di C con prob. di errore piccola C = {X n (i j ) C j = 1, 2,...,2 nr 1 }. Tale codice contiene ovviamente 2 nr 1 parole, quindi il suo tasso è R n 1 che per n grande non differisce significativamente da R. p. 27/39
64 Codifica Canale Creiamo un nuovo codice che contiene solo tali parole di C con prob. di errore piccola C = {X n (i j ) C j = 1, 2,...,2 nr 1 }. Tale codice contiene ovviamente 2 nr 1 parole, quindi il suo tasso è R n 1 che per n grande non differisce significativamente da R. Concludendo: per ogni R < C, possiamo scegliere un codice di tasso R = R n 1, con probabilità massima di errore λ (n) 4ǫ. p. 27/39
65 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica p. 28/39
66 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate p. 28/39
67 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate Tale codice può essere trovato (ricerca esaustiva!?!) ed il processo di codifica e decodifica rimane completamente deterministico. p. 28/39
68 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate Tale codice può essere trovato (ricerca esaustiva!?!) ed il processo di codifica e decodifica rimane completamente deterministico. La ricerca di tale codice è esponenziale p. 28/39
69 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate Tale codice può essere trovato (ricerca esaustiva!?!) ed il processo di codifica e decodifica rimane completamente deterministico. La ricerca di tale codice è esponenziale Possiamo sceglierlo random e avere buone chance di trovarne uno con le caratteristiche richieste. Però la decodifica risulta altamente inefficiente. p. 28/39
70 Codifica Canale - Osservazioni La scelta random del codice serve per la prova non per la codifica Mediando proviamo che esiste almeno un codice con le proprietà desiderate Tale codice può essere trovato (ricerca esaustiva!?!) ed il processo di codifica e decodifica rimane completamente deterministico. La ricerca di tale codice è esponenziale Possiamo sceglierlo random e avere buone chance di trovarne uno con le caratteristiche richieste. Però la decodifica risulta altamente inefficiente. Un problema fondamentale: trovare codici con tasso prossimo a C e con una struttura che mantenga la decodifica efficiente p. 28/39
71 Codifica Canale - Parte Inversa Ci rimane da dimostrare che per ogni sequenza di codici (2 nr,n) con λ (n) n deve valere R < C. Cominceremo con il dimostrare due lemmi che ci serviranno per la dimostrazione. I(X n,y n ) n i=1 I(X i,y i ) H(X n Y n ) 1 + P e (n) nr. (Disuguaglianza di Fano) p. 29/39
72 Codifica Canale - Parte Inversa Lemma (Disuguaglianza di Fano) Consideriamo un DMC. Sia il messaggio in input W scelto in accordo alla distribuzione uniforme tra 2 nr messaggi. Sia C il codice, Y n la parola ricevuta in output al canale, g( ) la funzione di decodifica e P (n) e = Pr(W g(y n )). Allora H(X n Y n ) 1 + P e (n) nr. p. 30/39
73 Disuguaglianza di Fano Dim. Definiamo E = { 1, se g(y n ) W, 0, se g(y n ) = W. Espandiamo H(E,W Y n ) in due modi diversi H(E,W Y n ) = H(W Y n ) + H(E W,Y n ) = H(E Y n ) + H(W E,Y n ) p. 31/39
74 Disuguaglianza di Fano Dim. Definiamo E = { 1, se g(y n ) W, 0, se g(y n ) = W. Espandiamo H(E,W Y n ) in due modi diversi H(E,W Y n ) = H(W Y n ) + H(E W,Y n ) = H(E Y n ) + H(W E,Y n ) Notiamo che H(E W,Y n ) = 0, H(E Y n ) H(E) 1, e H(W E,Y n ) = 1 P(E = i)h(w Y n,e = i) i=0 = (1 P (n) e )0 + P (n) e log(2 nr 1) P e (n) nr. p. 31/39
75 Disuguaglianza di Fano Dim. (cont.) Ne consegue che H(W Y n ) 1 + P e (n) nr p. 32/39
76 Disuguaglianza di Fano Dim. (cont.) Ne consegue che H(W Y n ) 1 + P e (n) nr da cui segue la tesi, in quanto H(X n Y n ) H(W Y n ), poiché X n è funzione di W. p. 32/39
77 Lemma Sia Y n l output di un DMC per input X n. Allora, per ogni distribuzione p(x n ), vale I(X n ;Y n ) n i=1 I(X i;y i ). Dim. I(X n,y n ) = H(Y n ) H(Y n X n ) n = H(Y n ) H(Y i Y 1,...,Y i 1,X n ) = H(Y n ) i=1 n H(Y i X i ) (no memoria) i=1 n H(Y i ) i=1 n H(Y i X i ) = i=1 n I(X i ;Y i ). i=1 p. 33/39
78 Lemma Sia Y n l output di un DMC per input X n. Allora, per ogni distribuzione p(x n ), vale I(X n ;Y n ) n i=1 I(X i;y i ). Corollario Sia Y n l output di un DMC per input X n. Allora, per ogni distribuzione p(x n ), vale I(X n ;Y n ) nr. p. 34/39
79 Codifica Canale - Parte Inversa Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. λ (n) 0 P (n) e 0. p. 35/39
80 Codifica Canale - Parte Inversa Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. λ (n) 0 P (n) e 0. Consideriamo il messaggio W scelto uniformemente in {1, 2,...,2 nr }, (quindi H(W) = nr) p. 35/39
81 Codifica Canale - Parte Inversa Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. λ (n) 0 P (n) e 0. Consideriamo il messaggio W scelto uniformemente in {1, 2,...,2 nr }, (quindi H(W) = nr) P (n) e = Pr(g(Y n ) W). p. 35/39
82 Codifica Canale - Parte Inversa Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. λ (n) 0 P (n) e 0. Consideriamo il messaggio W scelto uniformemente in {1, 2,...,2 nr }, (quindi H(W) = nr) P (n) e Allora, = Pr(g(Y n ) W). nr = H(W) = H(W Y n ) + I(W;Y n ) H(W Y n ) + I(X n (W);Y n ) 1 + P e (n) nr + nc. [W X n (W) Y n p. 35/39
83 Parte Inversa (cont.) Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. (cont.) nr 1 + P e (n) nr + nc. p. 36/39
84 Parte Inversa (cont.) Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. (cont.) nr 1 + P e (n) nr + nc. Dividendo per n otteniamo R 1 n + P e (n) R + C p. 36/39
85 Parte Inversa (cont.) Teorema Ogni sequenza di codici (2 nr,n) con λ (n) 0, deve avere R < C. Dim. (cont.) nr 1 + P e (n) nr + nc. Dividendo per n otteniamo R 1 n + P e (n) R + C e per n abbiamo la tesi, usando P (n) e 0 e 1/n 0. p. 36/39
86 Parte Inversa (cont.) Riscriviamo la disuguaglianza R n 1 + P e (n) R + C come P (n) e 1 C R 1 nr p. 37/39
87 Parte Inversa (cont.) Riscriviamo la disuguaglianza R n 1 + P e (n) R + C come P (n) e 1 C R 1 nr Questo mostra che per R > C la probabilità di errore si mantiene > 0 per n. p. 37/39
88 Parte Inversa (cont.) Riscriviamo la disuguaglianza R n 1 + P e (n) R + C come P (n) e 1 C R 1 nr Questo mostra che per R > C la probabilità di errore si mantiene > 0 per n. ma deve valere per ogni n. Infatti, se avessimo codici con P e (n) = 0 per n piccoli potremmo estenderli a codici di lunghezza maggiore per concatenazione. p. 37/39
89 Parte Inversa (cont.) Riscriviamo la disuguaglianza R n 1 + P e (n) R + C come P (n) e 1 C R 1 nr Questo mostra che per R > C la probabilità di errore si mantiene > 0 per n. ma deve valere per ogni n. Infatti, se avessimo codici con P e (n) = 0 per n piccoli potremmo estenderli a codici di lunghezza maggiore per concatenazione. In conclusione, non si può ridurre arbitrariamente la probabilità d errore a tassi superiori alla capacità. p. 37/39
90 Codifica Sorgente Canale Teorema Se V 1,...,V n soddisfano la PEA allora esiste una codice sorgente-canale con P e (n) 0 se H(V ) < C. Se H(V ) > C la probabilitá di errore non puó essere resa arbitrariamente piccola. p. 38/39
91 Codifica Sorgente Canale Teorema Se V 1,...,V n soddisfano la PEA allora esiste una codice sorgente-canale con P e (n) 0 se H(V ) < C. Se H(V ) > C la probabilitá di errore non puó essere resa arbitrariamente piccola. Dim. n n n n ^ n V X (V ) Y V p. 38/39
92 Codifica Sorgente Canale Teorema Se V 1,...,V n soddisfano la PEA allora esiste una codice sorgente-canale con P e (n) 0 se H(V ) < C. Se H(V ) > C la probabilitá di errore non puó essere resa arbitrariamente piccola. Dim. n n n n ^ n V X (V ) Y V PEA A (n) ǫ 2 n(h(v )+ǫ) e P(A ǫ (n) ) > 1 ǫ Codifichiamo solo sequenze tipiche 2 n(h(v )+ǫ) indici se R = H(V ) + ǫ < C possiamo trasmettere sul canale con prob. err < ǫ Quindi P (n) e = P(V n ˆV n ) P(V n / A (n) ǫ ) + P(g(Y n ) V n V n A ǫ (n) ) ǫ + ǫ = 2ǫ p. 38/39
93 Codifica Sorgente Canale Parte inversa. Dalla disuguaglianza di Fano H(V n ˆV n ) 1 + P e (n) log V n = 1 + P e (n) n log V p. 39/39
94 Codifica Sorgente Canale Parte inversa. Dalla disuguaglianza di Fano H(V n ˆV n ) 1 + P e (n) log V n = 1 + P e (n) n log V Quindi H(V ) = H(V 1...V n ) n = H(V n ) n 1 (n) (1 + P e n log V ) + 1 n n I(V n ; ˆV n ) = 1 n H(V n ˆV n ) + 1 n I(V n ; ˆV n ) 1 (n) (1 + P e n log V ) + 1 n n I(Xn ;Y n ) 1 n + P (n) e log V + C p. 39/39
95 Codifica Sorgente Canale Parte inversa. Dalla disuguaglianza di Fano H(V n ˆV n ) 1 + P e (n) log V n = 1 + P e (n) n log V Quindi H(V ) = H(V 1...V n ) n = H(V n ) n 1 (n) (1 + P e n log V ) + 1 n n I(V n ; ˆV n ) = 1 n H(V n ˆV n ) + 1 n I(V n ; ˆV n ) 1 (n) (1 + P e n log V ) + 1 n n I(Xn ;Y n ) 1 n + P (n) e log V + C Per n, se P (n) e 0 si ha H(V ) C. p. 39/39
Codifica sorgente e canale
Codifica sorgente e canale Codifica sorgente Codifica canale in Canale Compressione Codifica Decodifica Decompress. Rumoroso out Codifica sorgente: comprimere i dati per rimuovere ridondanza Codifica canale:
DettagliCODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore
Dettagli10 Proprietà di Equipartizione Asintotica
FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della
Dettagli1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore
DettagliSTII. Probabilità e proprietà dei logaritmi
STII Durante una trasmissione, il segnale naviga alcuni minuti prima di arrivare a destinazione. Durante il percorso, il segnale è soggetto a rumore, quindi può capitare che il messaggio che è stato inviato
DettagliLunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27
Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza
DettagliTEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
Dettagli8 Derivati dell entropia
(F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta
DettagliCodifica delle sequenze sorgente
Codifica delle sequenze sorgente Sorgente emette sequenza di simboli appartenenti ad un alfabeto X che vengono codificati come sequenze di simboli di un alfabeto D-ario.. p.1/?? Codifica delle sequenze
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliProprietà di equipartizione asintotica e sue applicazioni nella teoria dell informazione
UNIVERSITÀ DEGLI STUDI DI PADOVA FACOLTÀ DI INGEGNERIA Corso di Laurea in INGEGNERIA DELL INFORMAZIONE Proprietà di equipartizione asintotica e sue applicazioni nella teoria dell informazione Relatore
DettagliNota: Eventi meno probabili danno maggiore informazione
Entropia Informazione associata a valore x avente probabilitá p(x é i(x = log 2 p(x Nota: Eventi meno probabili danno maggiore informazione Entropia di v.c. X P : informazione media elementi di X H(X =
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì
DettagliModello di sistema di comunicazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliCompressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.
Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia
DettagliRoberto Maieli La trasmissione dell informazione
Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con
Dettagli10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore
10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore
DettagliCrittografia Moderna. Segretezza Perfetta: nozioni
Crittografia Moderna Segretezza Perfetta: nozioni Segretezza perfetta Ci occuperemo di schemi di cifratura perfettamente sicuri Avversari di potere computazionale illimitato confidenzialità / riservatezza
DettagliCodifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione
Codifica di canale (dalle dispense e dalle fotocopie) Codici lineari a blocchi Un codice lineare (n,k) è un codice che assegna una parola lunga n ad ogni blocco lungo k. Si dice che il codice abbia un
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
Dettagli1 Esercizio - caso particolare di ottimalità
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto
DettagliTeoria dell Informazione II Anno Accademico Lezione 6-7
Teoria dell Informazione II Anno Accademico 2017 2018 Lezione 6-7 Ugo Vaccaro ( ) 1 2 n Data una variabile casuale X = che assume valori i, con probabilità p p 1 p 2 p i, per i = 1,...,n, n vogliamo studiare
DettagliCampi di Galois. Campo di Galois V m (F 2 ) = F 2. Elementi: vettori binari di lunghezza m, F 2 : elementi {0, 1}, somma modulo 2. . p.
Campi di Galois F 2 : elementi {0, 1}, somma modulo 2 Campo di Galois V m (F 2 ) = F 2 m Elementi: vettori binari di lunghezza m,. p.1/39 Campi di Galois F 2 : elementi {0, 1}, somma modulo 2 Campo di
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 206 207 Lezione 4 Ugo Vaccaro Nella lezione scorsa abbiamo derivato il seguente risultato. Teorema Per ogni codifica UD per una sorgente DSSM con alfabeto sorgente
DettagliCP110 Probabilità: Esame 2 luglio Testo e soluzione
Dipartimento di Matematica, Roma Tre Pietro Caputo 212-13, II semestre 2 luglio, 213 CP11 Probabilità: Esame 2 luglio 213 Testo e soluzione 1. (6 pts Due mazzi di carte francesi vengono uniti e mischiati.
DettagliLezione 11 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 207 208 Lezione Ugo Vaccaro Abbiamo visto finora che in vari problemi collegati alla codifica di emissioni di una sorgente di informazione la entropia H(P )
DettagliFondamenti dell Informatica
Informatica e Comunicazione Digitale (sede di Taranto) Fondamenti dell Informatica a.a. 2015-2016 Programma 2015-2016 1. Teoria dell Informazione 2. Algoritmi e problema 3. Algebra di Boole 4. La Macchina
DettagliElementi di teoria dell informazione e della trasmissione
VERSIONE 19.4.01 Elementi di teoria dell informazione e della trasmissione Introduzione Efficienza nell uso dei supporti Quantità di informazione ed entropia La caratterizzazione statistica dei canali
DettagliII Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17
II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile
Dettagli5. Analisi dei dati di output
Anno accademico 2006/07 Analisi dei dati di Output Y 1, Y 2,..., Y m : output della simulazione. Le variabili casuali Y 1, Y 2,..., Y m non sono in generale indipendenti Se supponiamo però di avere effettuato
DettagliIntroduzione alla codifica entropica
Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta
DettagliEsercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16
Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana - 015/16 Esercizio 1 Per quali valori n Z \ {0} l espressione è un numero intero positivo? (n + 5)(n + 6) 6n Soluzione. Il problema
DettagliCP410: Esame 2, 3 febbraio 2015
Dipartimento di Matematica, Roma Tre Pietro Caputo 2014-15, I semestre 3 febbraio, 2015 CP410: Esame 2, 3 febbraio 2015 Cognome Nome Matricola Firma 1. Sia (Ω, F, P) lo spazio di probabilità definito da
DettagliTrapani. Dispensa di Geometria, x 1 x 2.x n. (x 1 y 1 ) (x n y n ) 2.
2006 Trapani Dispensa di Geometria, 1 Distanze Siano P e Q punti di R n con P di coordinate allora la distanza tra P e Q e P Q = x 1 x 2 x n (x 1 y 1 ) 2 + (x n y n ) 2 e Q di coordinate Siano Σ 1 e Σ
Dettagli1) Hamming bound, coset, codici equivalenti
Argomenti della Lezione ) Hamming bound, coset, codici equivalenti 2) Esercizi sui codici lineari a blocchi Osservazione () Per effettuare la decodifica a rivelazione di errore si può seguire una delle
DettagliProbabilità: teoremi e distribuzioni
Probabilità: teoremi e distribuzioni OBIETTIVO DIDATTICO DELLA LEZIONE Illustrare le più importanti distribuzioni di probabilità che vengono utilizzate in statistica Distribuzioni di probabilità 1. La
Dettagli1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano
Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria
DettagliCorso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni. 5. Rango
Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof Fabio Perroni 5 Rango Definizione 1 Sia A M m,n (K) una matrice m n a coefficienti nel campo K Il rango
DettagliCODICI CONVOLUZIONALI PUNTURATI
Con un unico decodificatore si possono ottenere vari tassi. Partendo da un unico codice convoluzionale madre di tasso 1/2, si ottiene un insieme di codici convoluzionali di tasso k/n, con k>1. Vantaggi:
DettagliP(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =
1 Esercizi settimana 3 Esercizio 1. Un urna contiene 8 palline bianche, 4 nere e rosse. Si assuma di vincere e ogni volta che si estragga una pallina nera, si perda 1e per ogni pallina bianca e non succeda
Dettaglinon solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da
NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x
DettagliCapitolo 5 La trasmissione dell informazione
Capitolo 5 La trasmissione dell informazione Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio Destinazione Caratterizzazione
DettagliCognome Nome Matricola. Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale
Esame di Calcolo delle Probabilità mod. B del 9 settembre 2003 (Corso di Laurea in Matematica, Università degli Studi di Padova). Cognome Nome Matricola Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale Attenzione:
DettagliEntropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...
Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata
DettagliCOMPLETAMENTO DI SPAZI METRICI
COMPLETAMENTO DI SPAZI METRICI 1. Successioni di Cauchy e spazi metrici completi Definizione 1.1. Una successione x n n N a valori in uno spazio metrico X, d si dice di Cauchy se, per ogni ε > 0 esiste
DettagliPolarizzazione dei canali B-DMC e Polar Codes TESI DI LAUREA MAGISTRALE
UIVERSITÀ DEGLI STUDI DI PISA FACOLTÀ DI SCIEZE MATEMATICHE, FISICHE E ATURALI CORSO DI LAUREA I MATEMATICA Polarizzazione dei canali B-DMC e Polar Codes TESI DI LAUREA MAGISTRALE Giulia Cervia Relatore
DettagliSui Linguaggi Regolari: Teorema di Kleene - Pumping Lemm
Sui Linguaggi Regolari: Teorema di Kleene - Pumping Lemma N.Fanizzi - V.Carofiglio 6 aprile 2016 1 Teorema di Kleene 2 3 o 1 o 3 o 8 Teorema di Kleene Vale la seguente equivalenza: L 3 L FSL L REG Dimostrazione.
DettagliPagine di Algebra lineare. di premessa al testo Pagine di Geometria di Sara Dragotti. Parte terza: SISTEMI LINEARI
Pagine di Algebra lineare di premessa al testo Pagine di Geometria di Sara Dragotti Parte terza: SISTEMI LINEARI 1. Definizioni Dato un campo K ed m 1 polinomi su K in n indeterminate di grado non superiore
DettagliCorso: Strumenti di Teoria dell Informazione per l Informatica, Parte A (STII(A))
STIIA Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A STIIA Classe: Matricole Pari Docente: Prof. Luisa Gargano Testo principale: T. Cover, J. Thomas, Elements of Information Theory,
DettagliEsame di Probabilità e Statistica del 30 marzo 2009 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).
Esame di Probabilità e Statistica del 30 marzo 2009 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Cognome Nome Matricola Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale Attenzione:
DettagliSoluzioni dei quesiti della maturità scientifica A.S. 2009/2010
Soluzioni dei quesiti della maturità scientifica AS 009/010 Nicola Gigli Sun-Ra Mosconi giugno 010 Quesito 1 Un generico polinomio di grado n si può scrivere nella forma p(x) a 0 + a 1 x + + a n x n dove
DettagliCORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013
CORSO DI ANALISI MATEMATICA SOLUZIONI ESERCIZI PROPOSTI 8/03/03 D.BARTOLUCCI, D.GUIDO. La continuità uniforme I ESERCIZIO: Dimostrare che la funzione f(x) = x 3, x A = (, ] non è uniformemente continua
DettagliApprossimazione di dati e funzioni
Approssimazione di dati e funzioni Richiamiamo i principali metodi di approssimazione polinomiale di un insieme di dati (x i, y i ), i = 0,..., n. Le ordinate y i possono essere i valori assunti nei nodi
DettagliGenerazione di variabili aleatorie con distribuzione non uniforme. Daniela Picin
Generazione di variabili aleatorie con distribuzione non uniforme Daniela Picin A partire da una sequenza di numeri random u k ~ U(0,1) opportunamente generati, alcuni dei metodi per la generazione di
DettagliSecondo scritto. 8 luglio 2010
Secondo scritto 8 luglio 010 1 Parte 1 Esercizio 1.1. Facciamo riferimento alle pagine e 3 del libro di testo. Quando si ha a che fare con la moltiplicazione o la divisione di misure bisogna fare attenzione,
DettagliUniversità degli Studi di Bergamo Modulo di Geometria e Algebra Lineare (vecchio programma) 2 settembre 2013 Tema A
Università degli Studi di Bergamo Modulo di Geometria e Algebra Lineare (vecchio programma) settembre 013 Tema A Tempo a disposizione: ore. Calcolatrici, libri e appunti non sono ammessi. Ogni esercizio
DettagliCapitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale
Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale 1 Obiettivi: Codici correttori d errore correggere o rivelare errori nella trasmissione di segnali numerici (sequenze di simboli,
DettagliCorso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2004-05 Alberto Perotti DELEN-DAUIN Esperimento casuale Esperimento suscettibile di più
DettagliInformatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.
Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x
DettagliComportamento asintotico delle Catene di Markov
Comortamento asintotico delle Catene di Markov In queste note analizzeremo il comortamento asintotico della catene di Markov a temo discreto omogenee, con sazio degli stati di dimensione finita. I risultati
DettagliEsercizi settimana 4. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3
1 Esercizi settimana Esercizi applicati Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 3 di ottenere testa. Se scegliete la prima moneta vincete 10 punti se esce testa e punti
DettagliCorso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 1 a.a Soluzioni
Corso di Laurea in Matematica Geometria 2 Foglio di esercizi n. 1 a.a. 2015-16 Soluzioni Gli esercizi sono presi dal libro di Manetti. Per svolgere questi esercizi, studiare con cura i paragrafi 3.1, 3.2,
DettagliAnno 4 Matrice inversa
Anno 4 Matrice inversa 1 Introduzione In questa lezione parleremo della matrice inversa di una matrice quadrata: definizione metodo per individuarla Al termine della lezione sarai in grado di: descrivere
DettagliCorso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof. Fabio Perroni 2. MATRICI
Corso di GEOMETRIA Dipartimento di Ingegneria ed Architettura Università degli Studi di Trieste Prof Fabio Perroni 2 MATRICI Siano m, n N \ {0}, sia K un campo Una matrice m n a coefficienti in K è una
DettagliCP410: Esonero 1, 7 novembre, 2018
Dipartimento di Matematica, Roma Tre Pietro Caputo 2018-19, I semestre 7 novembre, 2018 CP410: Esonero 1, 7 novembre, 2018 Cognome Nome Matricola Firma 1. Sia X una variabile aleatoria su uno spazio di
DettagliDATI DELLO STUDENTE: NomeeCognome:... NumerodiMatricola:... PROCESSI STOCASTICI 09/09/2015, ESAME SCRITTO
DATI DELLO STUDENTE: NomeeCognome:... NumerodiMatricola:... PROCESSI STOCASTICI 09/09/20, ESAME SCRITTO L uso di testi, appunti, formulari e gadget elettronici non è autorizzato. Avete 2 ore di tempo a
DettagliGeometria e Topologia I (U1-4) 2006-mag-10 61
Geometria e Topologia I (U1-4) 2006-mag-10 61 (15.9) Teorema. Consideriamo il piano affine. Se A A 2 (K) è un punto e r una retta che non passa per A, allora esiste unica la retta per A che non interseca
Dettagliun elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio;
TEST DI AUTOVALUTAZIONE - SETTIMANA 3 I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. Metodi statistici per la biologia 1 Parte A 1.1 Una variabile casuale
DettagliNOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n
NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare
DettagliCP110 Probabilità: Esonero 1. Testo e soluzione
Dipartimento di Matematica, Roma Tre Pietro Caputo 2009-2010, II semestre 1 aprile, 2010 CP110 Probabilità: Esonero 1 Testo e soluzione 1. (7 pt Una scatola contiene 15 palle numerate da 1 a 15. Le palle
DettagliIl teorema di Stone Weierstrass
APPENDICE B Il teorema di Stone Weierstrass Definizione B.1. Siano X un insieme non vuoto e A un sottospazio vettoriale dello spazio delle funzioni a valori reali (risp. complessi) su X. Si dice che A
DettagliSomma diretta di sottospazi vettoriali
Capitolo 8 Somma diretta di sottospazi vettoriali 8.1 Introduzione Introduciamo un caso particolare di somma di due sottospazi vettoriali: la somma diretta. Anche questo argomento è stato visto nel corso
DettagliConcetti fondamentali
Concetti fondamentali elemento insieme sequenza tutto si riconduce a questi insieme: esempi {,3,5,7,9} insieme dei numeri dispari positivi minori di dieci {Antonio, Beatrice, Carlo, Daria} insieme dei
DettagliLezione Risoluzione di sistemi
Lezione Risoluzione di sistemi Sia AX = B un sistema di equazioni lineari, con la sua matrice completa associate (A B) Per la Proposizione sappiamo di poter trasformare con operazioni elementari di riga
DettagliIl secondo teorema di Shannon
Il secondo teorema di Shannon Appunti scritti da Alberto Leporati e-mail: alberto.leporati@unimib.it Dipartimento di Informatica, Sistemistica e Comunicazione (DISCo) Università degli Studi di Milano Bicocca
DettagliMattia Zanella. Ferrara, April
Department of Mathematical Sciences Politecnico di Torino, Italy http://www.mattiazanella.eu Ferrara, April 5 217 Programma della lezione Seminario I Introduzione a Matlab U(, 1): metodo di inversione
DettagliGenerazione di variabili aleatorie con distribuzione non uniforme. Daniela Picin
Generazione di variabili aleatorie con distribuzione non uniforme Daniela Picin A partire da una sequenza di numeri random u k ~ U(0,1) opportunamente generati, alcuni dei metodi per la generazione di
DettagliQuesta viene trasmessa sul canale (wireless o wired). In questo corso, modellizzeremo il canale di trasmissione come un canale Gaussiano bianco
Canale di trasmissione Dati una costellazione M un labeling binario e è possibile associare alle sequenze binarie di informazione u da trasmettere una forma d onda s(t). Questa viene trasmessa sul canale
DettagliAPPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a
APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof FPodestà, aa 003-004 Sia V uno spazio vettoriale e sia f : V V una applicazione lineare una tale applicazione da uno spazio vettoriale in se stesso è chiamata
DettagliLEZIONE 12. v = α 1 v α n v n =
LEZIONE 12 12.1. Combinazioni lineari. Definizione 12.1.1. Sia V uno spazio vettoriale su k = R, C e v 1,..., v n V vettori fissati. Un vettore v V si dice combinazione lineare di v 1,..., v n se esistono
DettagliLezione 17 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 2015 2016 Lezione 17 Ugo Vaccaro Nella Lezione scorsa abbiamo introdotto una classe di codici a correzione di errore (codici di Hamming) in grado di correggere
DettagliCP110 Probabilità: Esame del 15 settembre Testo e soluzione
Dipartimento di Matematica, Roma Tre Pietro Caputo 2009-2010, II semestre 15 settembre, 2010 CP110 Probabilità: Esame del 15 settembre 2010 Testo e soluzione 1. (6 pts) 10 carte numerate da 1 a 10 vengono
DettagliR. Cusani, F. Cuomo: Telecomunicazioni - DataLinkLayer: Gestione degli errori, Aprile 2010
1 11. Data link layer: codici di rilevazione di errore, gestione degli errori La rilevazione di errore Un codice a rilevazione di errore ha lo scopo di permettere al ricevente di determinare se vi sono
Dettagli1 Funzioni reali di una variabile reale
1 Funzioni reali di una variabile reale Qualche definizione e qualche esempio che risulteranno utili più avanti Durante tutto questo corso studieremo funzioni reali di una variabile reale, cioè Si ha f
Dettagliφ X (t) = mentre nel caso continuo, indicando con f(x) la densità di X, si ha e itx f(x) dx + e itx e itx f(x)dx. f(x)dx = e itx +
10.1 Funzione caratteristica 11 10.1. Funzione caratteristica La funzione caratteristica è uno strumento teorico utile sotto diversi aspetti per studiare la distribuzione di probabilità di numeri aleatori
DettagliEsame di Calcolo delle Probabilità del 12 dicembre 2005 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).
Esame di Calcolo delle Probabilità del 2 dicembre 2005 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Cognome Nome Matricola Es. Es. 2 Es. 3 Es. 4 Somma Voto parziale Prima
DettagliRischio statistico e sua analisi
F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello
DettagliLezione 18 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 26 27 Lezione 8 Ugo Vaccaro In questa lezione vedremo un applicazione della Teoria dei Codici a correzione d errore al seguente problema, già descritto nella
DettagliCertificati dei problemi in NP
Certificati dei problemi in NP La stringa y viene in genere denominata un certificato Un Certificato è una informazione ausiliaria che può essere utilizzata per verificare in tempo polinomiale nella dimensione
DettagliRiassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.
Capitolo 2 Campi 2.1 Introduzione Studiamo ora i campi. Essi sono una generalizzazione dell insieme R dei numeri reali con le operazioni di addizione e di moltiplicazione. Nel secondo paragrafo ricordiamo
Dettagli01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I
01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore
DettagliANALISI 1 1 QUARTA LEZIONE
ANALISI 1 1 QUARTA LEZIONE 1 prof. Claudio Saccon, Dipartimento di Matematica Applicata, Via F. Buonarroti 1/C email: saccon@mail.dm.unipi.it web: http://www2.ing.unipi.it/ d6081/index.html Ricevimento:
Dettagli