CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
|
|
- Fabiana Mazza
- 6 anni fa
- Visualizzazioni
Transcript
1 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24
2 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente Es. effetto rumore. Input possibili al canale sequenze 101 e 111, input 101, rumore: secondo bit modificato, output: 111; input: 111, rumore: nessuno, output: 111; diverse sequenze in input producono lo stesso output (input confondibili).. p.1/24
3 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente Es. effetto rumore. Input possibili al canale sequenze 101 e 111, input 101, rumore: secondo bit modificato, output: 111; input: 111, rumore: nessuno, output: 111; diverse sequenze in input producono lo stesso output (input confondibili). Obiettivo: proteggere l informazione da eventuali errori di trasmissione legati al rumore. p.1/24
4 Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione. p.2/24
5 Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione Metodo: Aggiungere ridondanza. p.2/24
6 Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione Metodo: Aggiungere ridondanza Nota: impossibile eliminare effetto rumore vogliamo input non confondibili con alta robabilità. p.2/24
7 Canali Canale discreto (alfabeti I/O discreti): (X,, Y) X= alfabeto input al canale Y= alfabeto output al canale Π = [p(y/x)]= matrice delle probabilità di transizione. p.3/24
8 Canali Canale discreto (alfabeti I/O discreti): (X,, Y) X= alfabeto input al canale Y= alfabeto output al canale Π = [p(y/x)]= matrice delle probabilità di transizione Canale discreto senza memoria (DMC) (X, Π, Y): distribuzione probabilità output dipende solo da input corrispondente NON da precedenti input o output.. p.3/24
9 Capacitá Canale Capacità del canale senza memoria: C = max p(x) I(X, Y ). p.4/24
10 Capacitá Canale Capacità del canale senza memoria: C = max p(x) I(X, Y ) Dimostreremo: capacità = massimo numero di bit per uso del canale.. p.4/24
11 Canale senza rumore Trasmette un bit per uso senza errore C = 1. p.5/24
12 Canale senza rumore Trasmette un bit per uso senza errore C = 1 Infatti C = max p(x) I(X, Y ) = max p(x) H(X) H(X/Y ) = max p(x) H(X) = 1 per p(x) = (1/2, 1/2). p.5/24
13 Canale binario simmetrico p p p 1 p 0 1 Π = [ ] p 1 p 1 p p I(X; Y ) = H(Y ) H(Y/X) = H(Y ) x p(x)h(y/x = x) = H(Y ) x p(x)h(p) = H(Y ) h(p). p.6/24
14 Canale binario simmetrico C = max p(x) I(X, Y ) = max p(x) H(Y ) h(p) 1 h(p) p(x) = (1/2, 1/2) p(y = 1) = 1 2 (1 p) p = 1 2 H(Y ) = 1 Quindi C = 1 h(p)bits 1 1/2 1. p.7/24
15 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = p.8/24
16 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = Canale debolmente simmetrico: Ogni riga é permutazione di ogni altra riga; la somma su ogni colonna [ é costante ] 1/3 1/6 1/2 Es. Π = 1/3 1/2 1/6. p.8/24
17 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = Canale debolmente simmetrico: Ogni riga é permutazione di ogni altra riga; la somma su ogni colonna [ é costante ] 1/3 1/6 1/2 Es. Π = 1/3 1/2 1/6 Canale simmetrico Canale debolmente simmetrico. p.8/24
18 Canali (Debolmente) Simmetrici r=riga di Π I(X; Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r). p.9/24
19 Canali (Debolmente) Simmetrici r=riga di Π I(X; Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) Ponendo p(x) = 1/ X per ogni x X risulta p(y) = x p(x)p(y/x) = somma colonna X = 1 Y. p.9/24
20 Canali (Debolmente) Simmetrici r=riga di Π I(X; Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) Ponendo p(x) = 1/ X per ogni x X risulta p(y) = x p(x)p(y/x) = somma colonna X = 1 Y Quindi C = log Y H(r). p.9/24
21 Codifica Canale DMC Codice canale (M, n) per (X, Π, Y): Insieme di indici {1,..., M}. p.10/24
22 Codifica Canale DMC Codice canale (M, n) per (X, Π, Y): Insieme di indici {1,..., M} Funzione codifica X n : {1,..., M} X n. p.10/24
23 Codifica Canale DMC Codice canale (M, n) per (X, Π, Y): Insieme di indici {1,..., M} Funzione codifica X n : {1,..., M} X n Funzione decodifica g : Y n {1,..., M}. p.10/24
24 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = P r{g(y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i). p.11/24
25 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = P r{g(y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) Probabilitá massima di errore: λ (n) = max 1 i M λ i. p.11/24
26 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = P r{g(y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) Probabilitá massima di errore: Probabilitá media di errore: λ (n) = max 1 i M λ i P (n) e = 1 M M i=1 λ i. p.11/24
27 Codifica Canali Rumorosi Tasso codice (M, n): R = log M n bit trasm.. p.12/24
28 Codifica Canali Rumorosi Tasso codice (M, n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr, n) con λ (n) 0 per n. p.12/24
29 Codifica Canali Rumorosi Tasso codice (M, n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr, n) con λ (n) 0 per n Si dimostra che: (Teorema di Codifica Canale) (a) ogni tasso R C é ottenibile, (b) nessun tasso R > C é ottenibile. p.12/24
30 Codifica Canali Rumorosi Tasso codice (M, n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr, n) con λ (n) 0 per n Si dimostra che: (Teorema di Codifica Canale) (a) ogni tasso R C é ottenibile, (b) nessun tasso R > C é ottenibile Capacitá = limite superiore di tutti i tassi ottenibili. p.12/24
31 CODIFICA CANALI BSC Strumenti Chernoff bound Sia X una v.c. con alfabeto {0, 1} e d.p P. Siano X 1,..., X n v.c. i.i.d come X. Per ogni λ > 0 [ n P r i=1 X i n ] E[X] λ e λ2 n 2. p.13/24
32 CODIFICA CANALI BSC Strumenti Bound su binomiali Per ogni intero n e α (0, 1) 2 n h(α) ( ) n 2 n h(α) 8πnα(1 α) αn 2πnα(1 α) 2 n h(α) ( ) αn n 8πnα(1 α) i=0 2 n h(α) i. p.14/24
33 CODIFICA CANALI BSC Strumenti Bound su binomiali Per ogni intero n e α (0, 1) 2 n h(α) ( ) n 2 n h(α) 8πnα(1 α) αn 2πnα(1 α) 2 n h(α) ( ) αn n 8πnα(1 α) i=0 2 n h(α) i ( ) αn n i=0 = 2 n[h(α)+o(1)] i. p.14/24
34 CODIFICA CANALI BSC:Definizioni Peso di Hamming di y {0, 1} n : w(y) = {i 0 i < n, y i 0}. p.15/24
35 CODIFICA CANALI BSC:Definizioni Peso di Hamming di y {0, 1} n : w(y) = {i 0 i < n, y i 0} Distanza di Hamming tra y, z {0, 1} n : (y, z) = {i 0 i < n, y i z i }. p.15/24
36 CODIFICA CANALI BSC:Definizioni Peso di Hamming di y {0, 1} n : w(y) = {i 0 i < n, y i 0} Distanza di Hamming tra y, z {0, 1} n : (y, z) = {i 0 i < n, y i z i } Sfera di Hamming di centro y {0, 1} n e raggio r: Ball(y, r) = {z {0, 1} n (y, z) r}. p.15/24
37 CODIFICA CANALI BSC Teorema Il tasso 1 h(p) é ottenibile Dimostrazione Date δ > 0, mostriamo che esiste codice con tasso k/n = 1 h(p) δ per k, n suff. grandi Codice X : {0, 1} k {0, 1} n : formato da 2 k parole random (ogni bit con prob (1/2, 1/2)) Decodifica: Dato y, definiamo g(y) = a {0, 1} k con (X(a), y) minima.. p.16/24
38 CODIFICA CANALI BSC Teorema Il tasso 1 h(p) é ottenibile Dimostrazione Date δ > 0, mostriamo che esiste codice con tasso k/n = 1 h(p) δ per k, n suff. grandi Codice X : {0, 1} k {0, 1} n : formato da 2 k parole random (ogni bit con prob (1/2, 1/2)) Decodifica: Dato y, definiamo g(y) = a {0, 1} k con (X(a), y) minima. Trasmettiamo: X(a) Riceviamo: y = X(a) + z, z =errore (z i = 1 errore in posiz. i). p.16/24
39 CODIFICA CANALI BSC Teorema Il tasso 1 h(p) é ottenibile Dimostrazione Date δ > 0, mostriamo che esiste codice con tasso k/n = 1 h(p) δ per k, n suff. grandi Codice X : {0, 1} k {0, 1} n : formato da 2 k parole random (ogni bit con prob (1/2, 1/2)) Decodifica: Dato y, definiamo g(y) = a {0, 1} k con (X(a), y) minima. Trasmettiamo: X(a) Riceviamo: y = X(a) + z, z =errore (z i = 1 errore in posiz. i). p.16/24
40 CODIFICA CANALI BSC Teorema Il tasso 1 h(p) é ottenibile Dimostrazione Date δ > 0, mostriamo che esiste codice con tasso k/n = 1 h(p) δ per k, n suff. grandi Codice X : {0, 1} k {0, 1} n : formato da 2 k parole random (ogni bit con prob (1/2, 1/2)) Decodifica: Dato y, definiamo g(y) = a {0, 1} k con (X(a), y) minima. Trasmettiamo: X(a) Riceviamo: y = X(a) + z, z =errore (z i = 1 errore in posiz. i). p.16/24
41 CODIFICA CANALI BSC Sia γ > 0 t.c. h(p + γ) = h(p) + δ < h(p) + δ. p.17/24
42 CODIFICA CANALI BSC Sia γ > 0 t.c. h(p + γ) = h(p) + δ < h(p) + δ Ball(y, (p + γ)n) = (p+γ)n ) i=0 2 nh(p+γ) = 2 n(h(p)+δ ) ( n i. p.17/24
43 CODIFICA CANALI BSC Sia γ > 0 t.c. h(p + γ) = h(p) + δ < h(p) + δ Ball(y, (p + γ)n) = (p+γ)n ) i=0 2 nh(p+γ) = 2 n(h(p)+δ ) Per ogni a a P [X(a ) Ball(y, (p + γ)n)] = Ball(y,(p+γ)n) 2 n 2 n(h(p)+δ 1) ( n i. p.17/24
44 CODIFICA CANALI BSC Sia γ > 0 t.c. h(p + γ) = h(p) + δ < h(p) + δ Ball(y, (p + γ)n) = (p+γ)n ) i=0 2 nh(p+γ) = 2 n(h(p)+δ ) Per ogni a a P [X(a ) Ball(y, (p + γ)n)] = Ball(y,(p+γ)n) 2 n 2 n(h(p)+δ 1) P [esiste a a, X(a ) Ball(y, (p + γ)n)] 2 k 2 n(h(p)+δ 1) = 2 n(1 h(p) δ)+n(h(p)+δ 1) = 2 n(δ δ) = a n (a = 2 δ δ > 1) ( n i. p.17/24
45 CODIFICA CANALI BSC Definiamo z {0, 1} n BAD w(z) > (p + γ)n. p.18/24
46 CODIFICA CANALI BSC Definiamo z {0, 1} n BAD w(z) > (p + γ)n ] E = p (pn bits cambiati in media) [ w(z) n (usando Chernoff Bound) P [zbad] = P [w(z) p > γ] 2 γ2 n/2 = c n (per c > 1). p.18/24
47 CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n). p.19/24
48 CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )). p.19/24
49 CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )) g(y) = a ESATTA. p.19/24
50 CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )) g(y) = a ESATTA P [esatta] P [z NON BAD, X(a ) / Ball(y, (p + γ)n)]. p.19/24
51 CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )) g(y) = a ESATTA P [esatta] P [z NON BAD, X(a ) / Ball(y, (p + γ)n)] P [errore] P [z BAD]+P [X(a ) Ball(y, (p + γ)n)] c n + a n. p.19/24
52 CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )) g(y) = a ESATTA P [esatta] P [z NON BAD, X(a ) / Ball(y, (p + γ)n)] P [errore] P [z BAD]+P [X(a ) Ball(y, (p + γ)n)] c n + a n P [errore]<ɛ, per n suff. grande. p.19/24
53 Codifica Canale: Parte Inversa Teorema Siano k e n t.c. Allora k n per ogni coppia di funzioni > 1 h(p) + ɛ. lim Pr [g(x(a) + e) = a] = 0 k,n e X : {0, 1} k {0, 1} n, g : {0, 1} n {0, 1} k La probabilitá e presa su vettori e t.c. ogni bit é 1 con prob. p, 0 altrimenti. p.20/24
54 Codifica Canale: Parte Inversa Teorema Siano k e n t.c. Allora k n per ogni coppia di funzioni > 1 h(p) + ɛ. lim Pr [g(x(a) + e) = a] = 0 k,n e X : {0, 1} k {0, 1} n, g : {0, 1} n {0, 1} k La probabilitá e presa su vettori e t.c. ogni bit é 1 con prob. p, 0 altrimenti Cioé nessun tasso > 1 h(p) é ottenibile. p.20/24
55 Codifica Canale: Parte Inversa Dim. a {0, 1} k definiamo S a := {y {0, 1} n : g(y) = a}. Nota: a S a = {0, 1} n e a S a = 2 n.. p.21/24
56 Codifica Canale: Parte Inversa Dim. a {0, 1} k definiamo S a := {y {0, 1} n : g(y) = a}. Nota: a S a = {0, 1} n e a S a = 2 n. Data stringa binaria e, sia w(e) = peso di e =numero di bit pari a 1 Sia ɛ tale che h(p) h(p ɛ ) < ɛ (Nota ɛ < ɛ) Definiamo e hard se (p ɛ )n w(e) (p ɛ )n e easy altrimenti Nota: Usando Chernoff bound Pr[e easy] = Pr[ w(e) n p > ɛ ] a n (per a > 1).. p.21/24
57 Codifica Canale: Parte Inversa Consideriamo vettore b {0, 1} n con w(b) = αn e (p ɛ )n < αn < (p + ɛ )n. Notando che tutti i vettori di uno stesso peso sono equiprobabili, e che la loro probabilità totale é 1, abbiamo Pr[e = b] 1 ( n αn). p.22/24
58 Codifica Canale: Parte Inversa Consideriamo vettore b {0, 1} n con w(b) = αn e (p ɛ )n < αn < (p + ɛ )n. Notando che tutti i vettori di uno stesso peso sono equiprobabili, e che la loro probabilità totale é 1, abbiamo Pr[e = b] 1 ( n αn) Poiché possiamo assumere p + ɛ 1/2 e ( n αn) é crescente per α 1/2 1 ( αn) 1 n n ((p ɛ )n) )n (2 h(p ɛ ) n c c cost. Quindi Pr[e = b] (2 h(p ɛ )n ) n c. p.22/24
59 Codifica Canale: Parte Inversa Pr[decodifica corretta] = Pr[d. c. quando e easy] + Pr[d. c. quando e hard] a n + Pr[decodifica corretta quando ehard] = a n + P r(a) Pr[y = X(a) + e, e hard] a y S a = a n + 2 k a a n + 2 k a Pr[e = y X(a) é hard] y S a )n n c y S a 2 h(p ɛ = a n + 2 k 2 n 2 h(p ɛ )n n c. p.23/24
60 Codifica Canale: Parte Inversa Pr[decodifica corretta] a n + 2 h(p ɛ )n k+n n c Ricordando che (k n(1 h(p) + ɛ)) e che h(p) h(p ɛ ) < ɛ otteniamo h(p ɛ )n k + n = αn per qualche α > 0, quindi Pr[decodifica corretta] a n + 2 αn n c n 0. p.24/24
Codifica sorgente e canale
Codifica sorgente e canale Codifica sorgente Codifica canale in Canale Compressione Codifica Decodifica Decompress. Rumoroso out Codifica sorgente: comprimere i dati per rimuovere ridondanza Codifica canale:
Dettagli1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità
DettagliCodifica delle sequenze sorgente
Codifica delle sequenze sorgente Sorgente emette sequenza di simboli appartenenti ad un alfabeto X che vengono codificati come sequenze di simboli di un alfabeto D-ario.. p.1/?? Codifica delle sequenze
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
DettagliSTII. Probabilità e proprietà dei logaritmi
STII Durante una trasmissione, il segnale naviga alcuni minuti prima di arrivare a destinazione. Durante il percorso, il segnale è soggetto a rumore, quindi può capitare che il messaggio che è stato inviato
DettagliTEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
DettagliNota: Eventi meno probabili danno maggiore informazione
Entropia Informazione associata a valore x avente probabilitá p(x é i(x = log 2 p(x Nota: Eventi meno probabili danno maggiore informazione Entropia di v.c. X P : informazione media elementi di X H(X =
Dettagli10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore
10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore
DettagliCodifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione
Codifica di canale (dalle dispense e dalle fotocopie) Codici lineari a blocchi Un codice lineare (n,k) è un codice che assegna una parola lunga n ad ogni blocco lungo k. Si dice che il codice abbia un
DettagliLunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27
Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza
DettagliEntropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...
Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliRoberto Maieli La trasmissione dell informazione
Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio
DettagliI teoremi della funzione inversa e della funzione implicita
I teoremi della funzione inversa e della funzione implicita Appunti per il corso di Analisi Matematica 4 G. Mauceri Indice 1 Il teorema della funzione inversa 1 Il teorema della funzione implicita 3 1
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
DettagliCapitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale
Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale 1 Obiettivi: Codici correttori d errore correggere o rivelare errori nella trasmissione di segnali numerici (sequenze di simboli,
DettagliAlgoritmi Randomizzati per parole di peso minimo
Algoritmi Randomizzati per parole di peso minimo Camilla Ferretti Dip. di Scienze Economiche e Sociali, UCSC Piacenza Trento, 10 Marzo 2011 Problema della distanza minima Cerchiamo un algoritmo efficiente
Dettagli01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I
01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
DettagliP(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =
1 Esercizi settimana 3 Esercizio 1. Un urna contiene 8 palline bianche, 4 nere e rosse. Si assuma di vincere e ogni volta che si estragga una pallina nera, si perda 1e per ogni pallina bianca e non succeda
DettagliCompressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.
Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia
DettagliNORMA DI UN VETTORE. Una NORMA VETTORIALE su R n è una funzione. : R n R +
NORMA DI UN VETTORE Una NORMA VETTORIALE su R n è una funzione. : R n R + {0}, che associa ad ogni vettore x R n di componenti x i, i = 1,..., n, uno scalare in modo che valgano le seguenti proprietà:
Dettagli4) Teorema fondamentale della codifica di canale. 6) Definizione di codifica di canale (FEC e ARQ)
Argomenti della Lezione 1) Classificazione dei codici di canale 2) Benefici della codifica di canale 3) Decodifica hard e soft 4) Teorema fondamentale della codifica di canale 5) Classificazione dei codici
DettagliUNIVERSITA` di ROMA TOR VERGATA
UNIVERSITA` di ROMA TOR VERGATA Corso di PS2-Probabilità 2 P.Baldi appello, 7 giugno 200 Corso di Laurea in Matematica Esercizio Siano X, Y v.a. indipendenti di legge Ŵ(2, λ). Calcolare densità e la media
DettagliLa Rappresentazione Dell Informazione
La Rappresentazione Dell Informazione Parte III I codici I Codici Un codice è una funzione che associa ad una sequenza di simboli un significato Un codice serve a: Permettere l elaborazione e la memorizzazione
DettagliPrincipi di Teoria dei Codici
Udine, 24 Febbraio 2005 Principi di Teoria dei Codici Andrea Tonello e-mail: tonello@uniud.it http://www.diegm.uniud.it/tlc/tonello UNIVERSITÀ DEGLI STUDI DI UDINE DIEGM DIPARTIMENTO DI INGEGNERIA ELETTRICA,
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
DettagliFondamenti di Telecomunicazioni Esercizi svolti e da svolgere. 1) A quanto corrisponde su base decimale un guadagno di 31 db? (Risp: = )
Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere A quanto corrisponde su base decimale un guadagno di 3 db? (Risp: = 259 25 2 A quanti watt corrisponde una potenza di - 25 db m? (Risp: 3,25-6
DettagliFUNZIONE DI TRASFERIMENTO ASSOCIATA A UN CODICE CONVOLUZIONALE
FUNZIONE DI TRASFERIMENTO ASSOCIATA A UN CODICE CONVOLUZIONALE La funzione di trasferimento de codice convouzionae fornisce tutte e informazioni riguardo i pesi dei cammini che si dipartono da S 0 e riconfuiscono
DettagliIl secondo teorema di Shannon
Il secondo teorema di Shannon Appunti scritti da Alberto Leporati e-mail: alberto.leporati@unimib.it Dipartimento di Informatica, Sistemistica e Comunicazione (DISCo) Università degli Studi di Milano Bicocca
Dettagli3. TEORIA DELL INFORMAZIONE
3. TEORIA DELL INFORMAZIONE INTRODUZIONE MISURA DI INFORMAZIONE SORGENTE DISCRETA SENZA MEMORIA ENTROPIA DI UNA SORGENTE NUMERICA CODIFICA DI SORGENTE 1 TEOREMA DI SHANNON CODICI UNIVOCAMENTE DECIFRABILI
DettagliRETI DI TELECOMUNICAZIONE
RETI DI TELECOMUNICAZIONE Modelli delle Sorgenti di Traffico Generalità Per la realizzazione di un modello analitico di un sistema di telecomunicazione dobbiamo tenere in considerazione 3 distinte sezioni
DettagliForme bilineari simmetriche
Forme bilineari simmetriche Qui il campo dei coefficienti è sempre R Definizione 1 Sia V uno spazio vettoriale Una forma bilineare su V è una funzione b: V V R tale che v 1, v 2, v 3 V b(v 1 + v 2, v 3
DettagliEsercizi geometria analitica nello spazio. Corso di Laurea in Informatica. Docente: Andrea Loi. Correzione
Esercizi geometria analitica nello spazio Corso di Laurea in Informatica Docente: Andrea Loi Correzione 1. Denotiamo con P 1, P 13, P 3, P 1, P, P 3, P i simmetrici di un punto P rispetto ai piani coordinati
Dettaglinon solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da
NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x
Dettagli0 se y c 1 (y)) se c < y < d. 1 se y d
Capitolo. Parte IX Exercise.. Sia X una variabile aleatoria reale assolutamente continua e sia (a,b) un intervallo aperto (limitato o illimitato) di R, tale che P(X (a,b)) =. Sia ϕ : (a,b) R una funzione
DettagliProblemi e algoritmi. Il che cosa ed il come. Il che cosa ed il come. Il che cosa e il come
Problemi e algoritmi Il che cosa e il come Problema: descrive che cosa si deve calcolare Specifica (di un algoritmo): descrive che cosa calcola un algoritmo Algoritmo: descrive come effettuare un calcolo
DettagliAPPUNTI DI TEORIA DEI CODICI
UNIVERSITÀ DI CATANIA FACOLTÀ DI INGEGNERIA APPUNTI DI TEORIA DEI CODICI Autori: L. Cauchi V. La Terra R. Grasso F. Gullo Coperto da diritti di c copyright Ho letto questi appunti scritti da Lucia Cauchi,
DettagliSoluzioni dei quesiti della maturità scientifica A.S. 2009/2010
Soluzioni dei quesiti della maturità scientifica AS 009/010 Nicola Gigli Sun-Ra Mosconi giugno 010 Quesito 1 Un generico polinomio di grado n si può scrivere nella forma p(x) a 0 + a 1 x + + a n x n dove
Dettagli1 Esercizio - caso particolare di ottimalità
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto
Dettagli1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano
Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una
DettagliParte 12b. Riduzione a forma canonica
Parte 2b. Riduzione a forma canonica A. Savo Appunti del Corso di Geometria 202-3 Indice delle sezioni. Coniche, 2. Esempio di riduzione, 4 3. Teoremi fondamentali, 6 4. Come determinare l equazione canonica,
DettagliComplemento ortogonale e proiezioni
Complemento ortogonale e proiezioni Dicembre 9 Complemento ortogonale di un sottospazio Sie E un sottospazio di R n Definiamo il complemento ortogonale di E come l insieme dei vettori di R n ortogonali
DettagliSistemi sovradeterminati
Sistemi sovradeterminati Sia A una matrice m n ove m > n sia b R m trovare una soluzione del sistema sovradeterminato Ax = b significa cercare di esprimere un vettore di R m come combinazione lineare di
DettagliMa il programma in Fig. 8.2 del libro? Stampa hello, world, dato un input n se e solo se l equazione
Problemi che i calcolatori non possono risolvere E importante sapere se un programma e corretto, cioe fa uello che ci aspettiamo. E facile vedere che il programma Ma il programma in Fig. 8.2 del libro?
DettagliCorso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche. Modulazione A.A Alberto Perotti
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Modulazione A.A. 8-9 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di sistema di comunicazione
DettagliDef. Error-Burst la più lunga sequenza di simboli di E che comincia e finisce con un simbolo diverso da 0.
Burst-Error Correction Le parole di un codice RS(n,t), con n = 2 m 1, su GF(2 m ) possono essere viste come parole binarie di lunghezza mn Sia C una parola codice di RS(n,t). Supponiamo di inviare sul
DettagliCORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013
CORSO DI ANALISI MATEMATICA SOLUZIONI ESERCIZI PROPOSTI 8/03/03 D.BARTOLUCCI, D.GUIDO. La continuità uniforme I ESERCIZIO: Dimostrare che la funzione f(x) = x 3, x A = (, ] non è uniformemente continua
DettagliCorso di Geometria BIAR, BSIR Esercizi 2: soluzioni
Corso di Geometria 2- BIAR, BSIR Esercizi 2: soluzioni Esercizio Calcolare il determinante della matrice 2 3 : 3 2 a) con lo sviluppo lungo la prima riga, b) con lo sviluppo lungo la terza colonna, c)
DettagliX (o equivalentemente rispetto a X n ) è la
Esercizi di Calcolo delle Probabilità della 5 a settimana (Corso di Laurea in Matematica, Università degli Studi di Padova). Esercizio 1. Siano (X n ) n i.i.d. di Bernoulli di parametro p e definiamo per
DettagliCodici Lineari G = [I K P], (1)
Codici Lineari Nel seguito, indicheremo con F un generico campo finito. Come noto, F potrebbe essere l insieme delle cifre binarie F 2 = {0, 1} con le usuali operazioni di prodotto e somma modulo 2. Più
DettagliLezione 17 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 2015 2016 Lezione 17 Ugo Vaccaro Nella Lezione scorsa abbiamo introdotto una classe di codici a correzione di errore (codici di Hamming) in grado di correggere
DettagliDefinizione 1. Una matrice n m a coefficienti in K é una tabella del tipo. ... K m, detto vettore riga i-esimo, ed a im
APPUNTI ed ESERCIZI su matrici, rango e metodo di eliminazione di Gauss Corso di Laurea in Chimica, Facoltà di Scienze MM.FF.NN., UNICAL (Dott.ssa Galati C.) Rende, 23 Aprile 2010 Matrici, rango e metodo
Dettagli2) Codici univocamente decifrabili e codici a prefisso.
Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il
DettagliCapitolo 5 La trasmissione dell informazione
Capitolo 5 La trasmissione dell informazione Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio Destinazione Caratterizzazione
DettagliEsercitazione 6 - Soluzione
Anno Accademico 28-29 Corso di Algebra Lineare e Calcolo Numerico per Ingegneria Meccanica Esercitazione 6 - Soluzione Immagine, nucleo. Teorema di Rouché-Capelli. Esercizio Sia L : R 3 R 3 l applicazione
DettagliLIMITI - ESERCIZI SVOLTI
LIMITI - ESERCIZI SVOLTI ) Verificare mediante la definizione di ite che a) 3 5) = b) = + ) c) 3n n + n+ = + d) 3+ = 3. ) Calcolare utilizzando i teoremi sull algebra dei iti a) 3 + ) b) + c) 0 + d) ±
DettagliCLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI
CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI Consideriamo l insieme R = R {, + } ottenuto aggiungendo all insieme dei numeri reali i simboli e +. Introduciamo in
DettagliTEORIA DELL INFORMAZIONE E CODICI. Sandro Bellini. Politecnico di Milano
TEORIA DELL INFORMAZIONE E CODICI Sandro Bellini Politecnico di Milano Prefazione Queste brevi note sono state scritte per gli studenti del corso di Teoria dell informazione e codici da me tenuto presso
DettagliRaggiungibilità, Controllabilità, Osservabilità e Determinabilità
Raggiungibilità, Controllabilità, Osservabilità e Determinabilità Si determini se i sistemi lineari tempo invarianti ẋ(t) = Ax(t) + Bu(t), Σ c : y(t) = Cx(t) + Du(t). x(k + ) = Ax(k) + Bu(k), Σ d : y(k)
DettagliCalcolo delle Probabilità 2
Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale
DettagliAlcuni Teoremi sulle funzioni continue e uniforme continuità
Alcuni Teoremi sulle funzioni continue e uniforme continuità Teorema 0. Una funzione f(x) è continua in x 0 se e solo se per ogni sucessione {x n } dom(f) con x n x 0 dom(f), risulta f(x n ) f(x 0 ). (Non
DettagliNote sulle Catene di Markov
Note sulle Catene di Markov ELAUT Prof. Giuseppe C. Calafiore Sommario Queste note contengono un estratto schematico ridotto di parte del materiale relativo alle Catene di Markov a tempo continuo e a tempo
Dettagliun elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio;
TEST DI AUTOVALUTAZIONE - SETTIMANA 3 I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. Metodi statistici per la biologia 1 Parte A 1.1 Una variabile casuale
DettagliTecniche di protezione dell informazione
Tecniche di protezione dell informazione 1 Contesto trasmissivo u T st () rt () u R Sorgente sequenze binarie informaz. Rb TX CANALE RX Rb ut st () rt () u R R b Sequenze binarie di informazione trasmesse
DettagliLa Rappresentazione dell Informazione
La Rappresentazione dell Informazione Parte III I codici Codici a.a. 27-28 Un codice è una funzione che associa ad una sequenza di simboli un significato Codice : {entità} {sequenze di simboli} Un codice
DettagliConcetti fondamentali
Concetti fondamentali elemento insieme sequenza tutto si riconduce a questi insieme: esempi {,3,5,7,9} insieme dei numeri dispari positivi minori di dieci {Antonio, Beatrice, Carlo, Daria} insieme dei
Dettagli7.6. Distribuzione Esponenziale. Un n.a. continuo X con densità di probabilità
7.6 Distribuzione Esponenziale. 111 7.6. Distribuzione Esponenziale. Un n.a. continuo X con densità di probabilità { λe λx se x, (76) f(x) = se x
DettagliSomma diretta di sottospazi vettoriali
Capitolo 8 Somma diretta di sottospazi vettoriali 8.1 Introduzione Introduciamo un caso particolare di somma di due sottospazi vettoriali: la somma diretta. Anche questo argomento è stato visto nel corso
Dettagli1) Codici ciclici. 2) Esempi di codici ciclici. 3) Algoritmi di codifica e decodifica. 4) Circuiti di codifica
Argomenti della Lezione ) Codici ciclici 2) Esempi di codici ciclici 3) Algoritmi di codifica e decodifica 4) Circuiti di codifica Codici ciclici Un codice lineare a blocchi (n,k) è ciclico se e solo se
DettagliLeggi congiunte di variabili aleatorie
eggi congiunte di variabili aleatorie CAPIT 6 6. FUNZINI DI DISTRIBUZINE CNGIUNTE Fino a ora abbiamo considerato unicamente le leggi di singole variabili aleatorie. Tuttavia, siamo spesso interessati a
DettagliNella modulazione di ampiezza, si trasmette il segnale. v R (t) = (V 0 + k I x(t)) cos (2πf 0 t).
Cenni alla Modulazione di Ampiezza (AM) Nella modulazione di ampiezza, si trasmette il segnale v(t) = (V 0 + k I x(t)) cos (πf 0 t), dove x(t) è il segnale di informazione, con banda B, e f 0 è la frequenza
DettagliMassimo limite e minimo limite di una funzione
Massimo limite e minimo limite di una funzione Sia f : A R una funzione, e sia p DA). Per ogni r > 0, l insieme ) E f p r) = { fx) x A I r p) \ {p} } è non vuoto; inoltre E f p r ) E f p r ) se 0 < r r.
Dettagli1) Codici convoluzionali. 2) Circuito codificatore. 3) Diagramma a stati e a traliccio. 4) Distanza libera. 5) Algoritmo di Viterbi
Argomenti della Lezione 1) Codici convoluzionali 2) Circuito codificatore 3) Diagramma a stati e a traliccio 4) Distanza libera 5) Algoritmo di Viterbi 1 Codici convoluzionali I codici convoluzionali sono
Dettagli0 < x 3. x 2 mod 5 x 0 mod 3. x 27 mod 7. 1 [7 punti] Risolvere il seguente sistema di congruenze:
Dipartimento di Matematica e Informatica Anno Accademico 05-06 Corso di Laurea in Informatica (L-3) Prova scritta di Matematica Discreta ( CFU) 7 Settembre 06 Parte A Tempo a disposizione Ognuna delle
DettagliFondamenti di Algebra Lineare e Geometria TEMA A
Fondamenti di Algebra Lineare e Geometria Ingegneria Aerospaziale ed Ingegneria dell Energia - Canale B Secondo Appello - luglio TEMA A Risolvere i seguenti esercizi motivando adeguatamente ogni risposta.
DettagliCodici binari decimali
Codici binari decimali Si usano per rappresentare le dieci cifre decimali in binario dato che 2 3 < 10 < di 2 4 occorrono almeno 4 bits Binario Decimale BCD Eccesso-3 Biquinary 1 di 10 0 0 0000 0011 0100001
DettagliCodici. Introduzione. Sia A un insieme finito di simboli e C=A n l insieme di tutte le parole composte da n simboli di A
Codici Introduzione Sia A un insieme finito di simboli e C=A n l insieme di tutte le parole composte da n simboli di A Esempio A={0,1}, C=A 2 ={00,01,10,11} Sia C un insieme finito di N oggetti avente
DettagliLe matrici. Sia K un campo con elemento neutro dell addizione 0 ed elemento neutro della moltiplicazione 1.
Le matrici Sia K un campo con elemento neutro dell addizione 0 ed elemento neutro della moltiplicazione 1. Siano m, n N\{0}. Una matrice m n a coefficienti in K è una tabella di m n elementi di K disposti
DettagliCodici a controllo dell errore per le memorie
Elettronica dei Sistemi Digitali Corso di Laurea in Informatica Crema, Maggio Codici a controllo dell errore per le memorie Laboratorio di Microsistemi Integrati Dipartimento di Elettronica Università
DettagliUniversita degli Studi di Ancona - Facolta di Ingegneria Laurea in Ing. Elettronica (VO) Ing. Informatica e Automatica - Ing. delle Telecomunicazioni
Universita degli Studi di Ancona - Facolta di Ingegneria Laurea in Ing. Elettronica (VO) Ing. Informatica e Automatica - Ing. delle Telecomunicazioni ANALISI NUMERICA - Primo Parziale - TEMA A (Prof. A.M.Perdon)
Dettagli2.2 Alberi di supporto di costo ottimo
. Alberi di supporto di costo ottimo Problemi relativi ad alberi hanno numerose applicazioni: progettazione di reti (comunicazione, teleriscaldamento,...) memorizzazione compatta di sequenze (DNA) diffusione
DettagliLe Funzioni di Bessel
Le Funzioni di Bessel Serie di Laurent del prodotto Siano f, g : C due funzioni olomorfe in un anello := {z C r < z z 0 < R}, r < R. Allora f(z)g(z) è olomorfa in e quindi si potrà scrivere come una serie
Dettagli3) Entropie condizionate, entropie congiunte ed informazione mutua
Argoment della Lezone ) Coppe d varabl aleatore 2) Canale dscreto senza memora 3) Entrope condzonate, entrope congunte ed nformazone mutua 4) Esemp d canal Coppe d varabl aleatore Fno ad ora è stata consderata
Dettaglicarattere a b c d e f cod. var
Codici prefissi Un codice prefisso è un codice in cui nessuna parola codice è prefisso (parte iniziale) di un altra Ogni codice a lunghezza fissa è ovviamente prefisso. Ma anche il codice a lunghezza variabile
Dettagli) la sua densità discreta sarà della forma. p X (0) = 1 2, p X(1) = 1 2,
Esercizi settimana 6 Esercizi applicati Esercizio. Siano X e Y due v.a. discrete indipendenti tali che X B(, ) e Y B(, ), n 0. (i) Si calcoli la legge di X + Y ; (ii) Si calcoli la legge di X Y ; (iii)
DettagliRisoluzione di sistemi lineari
Risoluzione di sistemi lineari Teorema (Rouché-Capelli) Dato il sistema di m equazioni in n incognite Ax = b, con A M at(m, n) b R n x R n [A b] si ha che: matrice dei coefficienti, vettore dei termini
DettagliCorso di Matematica per la Chimica
Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Risoluzione di Equazioni Algebriche Le equazioni algebriche sono equazioni del tipo P(x) = 0 dove P è un polinomio di grado n cioé P(x) = a 1 x n + a 2 x n
DettagliFasci di Coniche. Salvino Giuffrida. 2. Determinare e studiare il fascio Φ delle coniche che passano per A (1, 0) con tangente
1 Fasci di Coniche Salvino Giuffrida 1. Determinare e studiare il fascio Φ delle coniche che passano per O = (0, 0), con tangente l asse y, e per i punti (1, 0), (1, ). Determinare vertice e asse della
DettagliCALCOLO DELLE PROBABILITÀ - 9 giugno 1998 Scrivere le risposte negli appositi spazi Motivare dettagliatamente le risposte su fogli allegati
CALCOLO DELLE PROBABILITÀ - 9 giugno 1998 1. Dati gli eventi A,B,C, ognuno dei quali implica il successivo, e tali che P (A) è metà della probabilità di B, che a sua volta ha probabilità metà di quella
DettagliCalcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale a.a. 2016/17
Calcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale aa 6/ Punteggi: : 3 + 6; : + + + ; 3: + Una scatola contiene monete; 8 di queste sono equilibrate, mentre le
DettagliCrittografia a chiave pubblica
Crittografia a chiave pubblica Barbara Masucci Dipartimento di Informatica Università di Salerno bmasucci@unisa.it http://www.di.unisa.it/professori/masucci Cifrari simmetrici canale insicuro Bob 1 Distribuzione
DettagliAlcuni equivalenti dell Assioma della Scelta
Alcuni equivalenti dell Assioma della Scelta Giugno 2010 Gabriele Gullà Sommario Dimostreremo l equivalenza fra l assioma della scelta ed altri enunciati della matematica piú o meno noti. Enunciati: 1)
DettagliEsercitazione ENS su processi casuali (13 e 14 Maggio 2008)
Esercitazione ES su processi casuali ( e 4 Maggio 2008) D. Donno Esercizio : Calcolo di autovalori e autovettori Si consideri un processo x n somma di un segnale e un disturbo: x n = Ae π 2 n + w n, n
DettagliTeoria dell Informazione
Fondamenti di Informatica per la Sicurezza a.a. 2008/09 Teoria dell Informazione Stefano Ferrari UNIVERSITÀ DEGLI STUDI DI MILANO DIPARTIMENTO DI TECNOLOGIE DELL INFORMAZIONE Stefano Ferrari Università
DettagliCapacità di canale in molte salse
Capacità di canale in molte salse. Bernardini 6 maggio 008 Indice 1 Introduzione 1 Modelli di canale 1.1 Matrice di transizione........................................ 1. Funzione aleatoria..........................................
DettagliAnalisi Matematica di Base, 2a edizione: errata corrige
Analisi Matematica di Base, 2a edizione: errata corrige (ultimo aggiornamento*: 13 marzo 2017) Di norma ogni correzione indicata ha la struttura p/r/e/c ove p e r sono due numeri interi e E e C due testi.
DettagliCOMPLETAMENTO DI SPAZI METRICI
COMPLETAMENTO DI SPAZI METRICI 1. Successioni di Cauchy e spazi metrici completi Definizione 1.1. Una successione x n n N a valori in uno spazio metrico X, d si dice di Cauchy se, per ogni ε > 0 esiste
DettagliDispensa di Teoria dell Informazione
Dispensa di Teoria dell Informazione Lorenzo Simionato e Daniele Turato 2 E-Mail: lorenzo@simionato.org 2 E-Mail: dream85@gmail.com Revisioni Versione preliminare 28 Dicembre 2008 Versione.0 22 Gennaio
Dettagli