CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

Documenti analoghi
Codifica sorgente e canale

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

Codifica delle sequenze sorgente

STII/Teoria dell Informazione

STII. Probabilità e proprietà dei logaritmi

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

Nota: Eventi meno probabili danno maggiore informazione

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore

Codifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...

Teoria dell informazione

Roberto Maieli La trasmissione dell informazione

I teoremi della funzione inversa e della funzione implicita

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale

Algoritmi Randomizzati per parole di peso minimo

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I

Comunicazioni Elettriche Esercizi

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.

NORMA DI UN VETTORE. Una NORMA VETTORIALE su R n è una funzione. : R n R +

4) Teorema fondamentale della codifica di canale. 6) Definizione di codifica di canale (FEC e ARQ)

UNIVERSITA` di ROMA TOR VERGATA

La Rappresentazione Dell Informazione

Principi di Teoria dei Codici

Lezione 4 Ugo Vaccaro

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere. 1) A quanto corrisponde su base decimale un guadagno di 31 db? (Risp: = )

FUNZIONE DI TRASFERIMENTO ASSOCIATA A UN CODICE CONVOLUZIONALE

Il secondo teorema di Shannon

3. TEORIA DELL INFORMAZIONE

RETI DI TELECOMUNICAZIONE

Forme bilineari simmetriche

Esercizi geometria analitica nello spazio. Corso di Laurea in Informatica. Docente: Andrea Loi. Correzione

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da

0 se y c 1 (y)) se c < y < d. 1 se y d

Problemi e algoritmi. Il che cosa ed il come. Il che cosa ed il come. Il che cosa e il come

APPUNTI DI TEORIA DEI CODICI

Soluzioni dei quesiti della maturità scientifica A.S. 2009/2010

1 Esercizio - caso particolare di ottimalità

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

Parte 12b. Riduzione a forma canonica

Complemento ortogonale e proiezioni

Sistemi sovradeterminati

Ma il programma in Fig. 8.2 del libro? Stampa hello, world, dato un input n se e solo se l equazione

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche. Modulazione A.A Alberto Perotti

Def. Error-Burst la più lunga sequenza di simboli di E che comincia e finisce con un simbolo diverso da 0.

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013

Corso di Geometria BIAR, BSIR Esercizi 2: soluzioni

X (o equivalentemente rispetto a X n ) è la

Codici Lineari G = [I K P], (1)

Lezione 17 Ugo Vaccaro

Definizione 1. Una matrice n m a coefficienti in K é una tabella del tipo. ... K m, detto vettore riga i-esimo, ed a im

2) Codici univocamente decifrabili e codici a prefisso.

Capitolo 5 La trasmissione dell informazione

Esercitazione 6 - Soluzione

LIMITI - ESERCIZI SVOLTI

CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI

TEORIA DELL INFORMAZIONE E CODICI. Sandro Bellini. Politecnico di Milano

Raggiungibilità, Controllabilità, Osservabilità e Determinabilità

Calcolo delle Probabilità 2

Alcuni Teoremi sulle funzioni continue e uniforme continuità

Note sulle Catene di Markov

un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio;

Tecniche di protezione dell informazione

La Rappresentazione dell Informazione

Concetti fondamentali

7.6. Distribuzione Esponenziale. Un n.a. continuo X con densità di probabilità

Somma diretta di sottospazi vettoriali

1) Codici ciclici. 2) Esempi di codici ciclici. 3) Algoritmi di codifica e decodifica. 4) Circuiti di codifica

Leggi congiunte di variabili aleatorie

Nella modulazione di ampiezza, si trasmette il segnale. v R (t) = (V 0 + k I x(t)) cos (2πf 0 t).

Massimo limite e minimo limite di una funzione

1) Codici convoluzionali. 2) Circuito codificatore. 3) Diagramma a stati e a traliccio. 4) Distanza libera. 5) Algoritmo di Viterbi

0 < x 3. x 2 mod 5 x 0 mod 3. x 27 mod 7. 1 [7 punti] Risolvere il seguente sistema di congruenze:

Fondamenti di Algebra Lineare e Geometria TEMA A

Codici binari decimali

Codici. Introduzione. Sia A un insieme finito di simboli e C=A n l insieme di tutte le parole composte da n simboli di A

Le matrici. Sia K un campo con elemento neutro dell addizione 0 ed elemento neutro della moltiplicazione 1.

Codici a controllo dell errore per le memorie

Universita degli Studi di Ancona - Facolta di Ingegneria Laurea in Ing. Elettronica (VO) Ing. Informatica e Automatica - Ing. delle Telecomunicazioni

2.2 Alberi di supporto di costo ottimo

Le Funzioni di Bessel

3) Entropie condizionate, entropie congiunte ed informazione mutua

carattere a b c d e f cod. var

) la sua densità discreta sarà della forma. p X (0) = 1 2, p X(1) = 1 2,

Risoluzione di sistemi lineari

Corso di Matematica per la Chimica

Fasci di Coniche. Salvino Giuffrida. 2. Determinare e studiare il fascio Φ delle coniche che passano per A (1, 0) con tangente

CALCOLO DELLE PROBABILITÀ - 9 giugno 1998 Scrivere le risposte negli appositi spazi Motivare dettagliatamente le risposte su fogli allegati

Calcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale a.a. 2016/17

Crittografia a chiave pubblica

Alcuni equivalenti dell Assioma della Scelta

Esercitazione ENS su processi casuali (13 e 14 Maggio 2008)

Teoria dell Informazione

Capacità di canale in molte salse

Analisi Matematica di Base, 2a edizione: errata corrige

COMPLETAMENTO DI SPAZI METRICI

Dispensa di Teoria dell Informazione

Transcript:

CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24

CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente Es. effetto rumore. Input possibili al canale sequenze 101 e 111, input 101, rumore: secondo bit modificato, output: 111; input: 111, rumore: nessuno, output: 111; diverse sequenze in input producono lo stesso output (input confondibili).. p.1/24

CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente Es. effetto rumore. Input possibili al canale sequenze 101 e 111, input 101, rumore: secondo bit modificato, output: 111; input: 111, rumore: nessuno, output: 111; diverse sequenze in input producono lo stesso output (input confondibili). Obiettivo: proteggere l informazione da eventuali errori di trasmissione legati al rumore. p.1/24

Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione. p.2/24

Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione Metodo: Aggiungere ridondanza. p.2/24

Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione Metodo: Aggiungere ridondanza Nota: impossibile eliminare effetto rumore vogliamo input non confondibili con alta robabilità. p.2/24

Canali Canale discreto (alfabeti I/O discreti): (X,, Y) X= alfabeto input al canale Y= alfabeto output al canale Π = [p(y/x)]= matrice delle probabilità di transizione. p.3/24

Canali Canale discreto (alfabeti I/O discreti): (X,, Y) X= alfabeto input al canale Y= alfabeto output al canale Π = [p(y/x)]= matrice delle probabilità di transizione Canale discreto senza memoria (DMC) (X, Π, Y): distribuzione probabilità output dipende solo da input corrispondente NON da precedenti input o output.. p.3/24

Capacitá Canale Capacità del canale senza memoria: C = max p(x) I(X, Y ). p.4/24

Capacitá Canale Capacità del canale senza memoria: C = max p(x) I(X, Y ) Dimostreremo: capacità = massimo numero di bit per uso del canale.. p.4/24

Canale senza rumore 0 0 1 1 Trasmette un bit per uso senza errore C = 1. p.5/24

Canale senza rumore 0 0 1 1 Trasmette un bit per uso senza errore C = 1 Infatti C = max p(x) I(X, Y ) = max p(x) H(X) H(X/Y ) = max p(x) H(X) = 1 per p(x) = (1/2, 1/2). p.5/24

Canale binario simmetrico 0 1 1 p p p 1 p 0 1 Π = [ ] p 1 p 1 p p I(X; Y ) = H(Y ) H(Y/X) = H(Y ) x p(x)h(y/x = x) = H(Y ) x p(x)h(p) = H(Y ) h(p). p.6/24

Canale binario simmetrico C = max p(x) I(X, Y ) = max p(x) H(Y ) h(p) 1 h(p) p(x) = (1/2, 1/2) p(y = 1) = 1 2 (1 p) + 1 2 p = 1 2 H(Y ) = 1 Quindi C = 1 h(p)bits 1 1/2 1. p.7/24

Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) 0.3 0.2 0.5 Es. Π = 0.5 0.3 0.2 0.2 0.5 0.3. p.8/24

Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) 0.3 0.2 0.5 Es. Π = 0.5 0.3 0.2 0.2 0.5 0.3 Canale debolmente simmetrico: Ogni riga é permutazione di ogni altra riga; la somma su ogni colonna [ é costante ] 1/3 1/6 1/2 Es. Π = 1/3 1/2 1/6. p.8/24

Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) 0.3 0.2 0.5 Es. Π = 0.5 0.3 0.2 0.2 0.5 0.3 Canale debolmente simmetrico: Ogni riga é permutazione di ogni altra riga; la somma su ogni colonna [ é costante ] 1/3 1/6 1/2 Es. Π = 1/3 1/2 1/6 Canale simmetrico Canale debolmente simmetrico. p.8/24

Canali (Debolmente) Simmetrici r=riga di Π I(X; Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r). p.9/24

Canali (Debolmente) Simmetrici r=riga di Π I(X; Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) Ponendo p(x) = 1/ X per ogni x X risulta p(y) = x p(x)p(y/x) = somma colonna X = 1 Y. p.9/24

Canali (Debolmente) Simmetrici r=riga di Π I(X; Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) Ponendo p(x) = 1/ X per ogni x X risulta p(y) = x p(x)p(y/x) = somma colonna X = 1 Y Quindi C = log Y H(r). p.9/24

Codifica Canale DMC Codice canale (M, n) per (X, Π, Y): Insieme di indici {1,..., M}. p.10/24

Codifica Canale DMC Codice canale (M, n) per (X, Π, Y): Insieme di indici {1,..., M} Funzione codifica X n : {1,..., M} X n. p.10/24

Codifica Canale DMC Codice canale (M, n) per (X, Π, Y): Insieme di indici {1,..., M} Funzione codifica X n : {1,..., M} X n Funzione decodifica g : Y n {1,..., M}. p.10/24

Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = P r{g(y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i). p.11/24

Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = P r{g(y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) Probabilitá massima di errore: λ (n) = max 1 i M λ i. p.11/24

Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = P r{g(y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) Probabilitá massima di errore: Probabilitá media di errore: λ (n) = max 1 i M λ i P (n) e = 1 M M i=1 λ i. p.11/24

Codifica Canali Rumorosi Tasso codice (M, n): R = log M n bit trasm.. p.12/24

Codifica Canali Rumorosi Tasso codice (M, n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr, n) con λ (n) 0 per n. p.12/24

Codifica Canali Rumorosi Tasso codice (M, n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr, n) con λ (n) 0 per n Si dimostra che: (Teorema di Codifica Canale) (a) ogni tasso R C é ottenibile, (b) nessun tasso R > C é ottenibile. p.12/24

Codifica Canali Rumorosi Tasso codice (M, n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr, n) con λ (n) 0 per n Si dimostra che: (Teorema di Codifica Canale) (a) ogni tasso R C é ottenibile, (b) nessun tasso R > C é ottenibile Capacitá = limite superiore di tutti i tassi ottenibili. p.12/24

CODIFICA CANALI BSC Strumenti Chernoff bound Sia X una v.c. con alfabeto {0, 1} e d.p P. Siano X 1,..., X n v.c. i.i.d come X. Per ogni λ > 0 [ n P r i=1 X i n ] E[X] λ e λ2 n 2. p.13/24

CODIFICA CANALI BSC Strumenti Bound su binomiali Per ogni intero n e α (0, 1) 2 n h(α) ( ) n 2 n h(α) 8πnα(1 α) αn 2πnα(1 α) 2 n h(α) ( ) αn n 8πnα(1 α) i=0 2 n h(α) i. p.14/24

CODIFICA CANALI BSC Strumenti Bound su binomiali Per ogni intero n e α (0, 1) 2 n h(α) ( ) n 2 n h(α) 8πnα(1 α) αn 2πnα(1 α) 2 n h(α) ( ) αn n 8πnα(1 α) i=0 2 n h(α) i ( ) αn n i=0 = 2 n[h(α)+o(1)] i. p.14/24

CODIFICA CANALI BSC:Definizioni Peso di Hamming di y {0, 1} n : w(y) = {i 0 i < n, y i 0}. p.15/24

CODIFICA CANALI BSC:Definizioni Peso di Hamming di y {0, 1} n : w(y) = {i 0 i < n, y i 0} Distanza di Hamming tra y, z {0, 1} n : (y, z) = {i 0 i < n, y i z i }. p.15/24

CODIFICA CANALI BSC:Definizioni Peso di Hamming di y {0, 1} n : w(y) = {i 0 i < n, y i 0} Distanza di Hamming tra y, z {0, 1} n : (y, z) = {i 0 i < n, y i z i } Sfera di Hamming di centro y {0, 1} n e raggio r: Ball(y, r) = {z {0, 1} n (y, z) r}. p.15/24

CODIFICA CANALI BSC Teorema Il tasso 1 h(p) é ottenibile Dimostrazione Date δ > 0, mostriamo che esiste codice con tasso k/n = 1 h(p) δ per k, n suff. grandi Codice X : {0, 1} k {0, 1} n : formato da 2 k parole random (ogni bit con prob (1/2, 1/2)) Decodifica: Dato y, definiamo g(y) = a {0, 1} k con (X(a), y) minima.. p.16/24

CODIFICA CANALI BSC Teorema Il tasso 1 h(p) é ottenibile Dimostrazione Date δ > 0, mostriamo che esiste codice con tasso k/n = 1 h(p) δ per k, n suff. grandi Codice X : {0, 1} k {0, 1} n : formato da 2 k parole random (ogni bit con prob (1/2, 1/2)) Decodifica: Dato y, definiamo g(y) = a {0, 1} k con (X(a), y) minima. Trasmettiamo: X(a) Riceviamo: y = X(a) + z, z =errore (z i = 1 errore in posiz. i). p.16/24

CODIFICA CANALI BSC Teorema Il tasso 1 h(p) é ottenibile Dimostrazione Date δ > 0, mostriamo che esiste codice con tasso k/n = 1 h(p) δ per k, n suff. grandi Codice X : {0, 1} k {0, 1} n : formato da 2 k parole random (ogni bit con prob (1/2, 1/2)) Decodifica: Dato y, definiamo g(y) = a {0, 1} k con (X(a), y) minima. Trasmettiamo: X(a) Riceviamo: y = X(a) + z, z =errore (z i = 1 errore in posiz. i). p.16/24

CODIFICA CANALI BSC Teorema Il tasso 1 h(p) é ottenibile Dimostrazione Date δ > 0, mostriamo che esiste codice con tasso k/n = 1 h(p) δ per k, n suff. grandi Codice X : {0, 1} k {0, 1} n : formato da 2 k parole random (ogni bit con prob (1/2, 1/2)) Decodifica: Dato y, definiamo g(y) = a {0, 1} k con (X(a), y) minima. Trasmettiamo: X(a) Riceviamo: y = X(a) + z, z =errore (z i = 1 errore in posiz. i). p.16/24

CODIFICA CANALI BSC Sia γ > 0 t.c. h(p + γ) = h(p) + δ < h(p) + δ. p.17/24

CODIFICA CANALI BSC Sia γ > 0 t.c. h(p + γ) = h(p) + δ < h(p) + δ Ball(y, (p + γ)n) = (p+γ)n ) i=0 2 nh(p+γ) = 2 n(h(p)+δ ) ( n i. p.17/24

CODIFICA CANALI BSC Sia γ > 0 t.c. h(p + γ) = h(p) + δ < h(p) + δ Ball(y, (p + γ)n) = (p+γ)n ) i=0 2 nh(p+γ) = 2 n(h(p)+δ ) Per ogni a a P [X(a ) Ball(y, (p + γ)n)] = Ball(y,(p+γ)n) 2 n 2 n(h(p)+δ 1) ( n i. p.17/24

CODIFICA CANALI BSC Sia γ > 0 t.c. h(p + γ) = h(p) + δ < h(p) + δ Ball(y, (p + γ)n) = (p+γ)n ) i=0 2 nh(p+γ) = 2 n(h(p)+δ ) Per ogni a a P [X(a ) Ball(y, (p + γ)n)] = Ball(y,(p+γ)n) 2 n 2 n(h(p)+δ 1) P [esiste a a, X(a ) Ball(y, (p + γ)n)] 2 k 2 n(h(p)+δ 1) = 2 n(1 h(p) δ)+n(h(p)+δ 1) = 2 n(δ δ) = a n (a = 2 δ δ > 1) ( n i. p.17/24

CODIFICA CANALI BSC Definiamo z {0, 1} n BAD w(z) > (p + γ)n. p.18/24

CODIFICA CANALI BSC Definiamo z {0, 1} n BAD w(z) > (p + γ)n ] E = p (pn bits cambiati in media) [ w(z) n (usando Chernoff Bound) P [zbad] = P [w(z) p > γ] 2 γ2 n/2 = c n (per c > 1). p.18/24

CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n). p.19/24

CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )). p.19/24

CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )) g(y) = a ESATTA. p.19/24

CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )) g(y) = a ESATTA P [esatta] P [z NON BAD, X(a ) / Ball(y, (p + γ)n)]. p.19/24

CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )) g(y) = a ESATTA P [esatta] P [z NON BAD, X(a ) / Ball(y, (p + γ)n)] P [errore] P [z BAD]+P [X(a ) Ball(y, (p + γ)n)] c n + a n. p.19/24

CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )) g(y) = a ESATTA P [esatta] P [z NON BAD, X(a ) / Ball(y, (p + γ)n)] P [errore] P [z BAD]+P [X(a ) Ball(y, (p + γ)n)] c n + a n P [errore]<ɛ, per n suff. grande. p.19/24

Codifica Canale: Parte Inversa Teorema Siano k e n t.c. Allora k n per ogni coppia di funzioni > 1 h(p) + ɛ. lim Pr [g(x(a) + e) = a] = 0 k,n e X : {0, 1} k {0, 1} n, g : {0, 1} n {0, 1} k La probabilitá e presa su vettori e t.c. ogni bit é 1 con prob. p, 0 altrimenti. p.20/24

Codifica Canale: Parte Inversa Teorema Siano k e n t.c. Allora k n per ogni coppia di funzioni > 1 h(p) + ɛ. lim Pr [g(x(a) + e) = a] = 0 k,n e X : {0, 1} k {0, 1} n, g : {0, 1} n {0, 1} k La probabilitá e presa su vettori e t.c. ogni bit é 1 con prob. p, 0 altrimenti Cioé nessun tasso > 1 h(p) é ottenibile. p.20/24

Codifica Canale: Parte Inversa Dim. a {0, 1} k definiamo S a := {y {0, 1} n : g(y) = a}. Nota: a S a = {0, 1} n e a S a = 2 n.. p.21/24

Codifica Canale: Parte Inversa Dim. a {0, 1} k definiamo S a := {y {0, 1} n : g(y) = a}. Nota: a S a = {0, 1} n e a S a = 2 n. Data stringa binaria e, sia w(e) = peso di e =numero di bit pari a 1 Sia ɛ tale che h(p) h(p ɛ ) < ɛ (Nota ɛ < ɛ) Definiamo e hard se (p ɛ )n w(e) (p ɛ )n e easy altrimenti Nota: Usando Chernoff bound Pr[e easy] = Pr[ w(e) n p > ɛ ] a n (per a > 1).. p.21/24

Codifica Canale: Parte Inversa Consideriamo vettore b {0, 1} n con w(b) = αn e (p ɛ )n < αn < (p + ɛ )n. Notando che tutti i vettori di uno stesso peso sono equiprobabili, e che la loro probabilità totale é 1, abbiamo Pr[e = b] 1 ( n αn). p.22/24

Codifica Canale: Parte Inversa Consideriamo vettore b {0, 1} n con w(b) = αn e (p ɛ )n < αn < (p + ɛ )n. Notando che tutti i vettori di uno stesso peso sono equiprobabili, e che la loro probabilità totale é 1, abbiamo Pr[e = b] 1 ( n αn) Poiché possiamo assumere p + ɛ 1/2 e ( n αn) é crescente per α 1/2 1 ( αn) 1 n n ((p ɛ )n) )n (2 h(p ɛ ) n c c cost. Quindi Pr[e = b] (2 h(p ɛ )n ) n c. p.22/24

Codifica Canale: Parte Inversa Pr[decodifica corretta] = Pr[d. c. quando e easy] + Pr[d. c. quando e hard] a n + Pr[decodifica corretta quando ehard] = a n + P r(a) Pr[y = X(a) + e, e hard] a y S a = a n + 2 k a a n + 2 k a Pr[e = y X(a) é hard] y S a )n n c y S a 2 h(p ɛ = a n + 2 k 2 n 2 h(p ɛ )n n c. p.23/24

Codifica Canale: Parte Inversa Pr[decodifica corretta] a n + 2 h(p ɛ )n k+n n c Ricordando che (k n(1 h(p) + ɛ)) e che h(p) h(p ɛ ) < ɛ otteniamo h(p ɛ )n k + n = αn per qualche α > 0, quindi Pr[decodifica corretta] a n + 2 αn n c n 0. p.24/24