CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore."

Transcript

1 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24

2 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente Es. effetto rumore. Input possibili al canale sequenze 101 e 111, input 101, rumore: secondo bit modificato, output: 111; input: 111, rumore: nessuno, output: 111; diverse sequenze in input producono lo stesso output (input confondibili).. p.1/24

3 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente Es. effetto rumore. Input possibili al canale sequenze 101 e 111, input 101, rumore: secondo bit modificato, output: 111; input: 111, rumore: nessuno, output: 111; diverse sequenze in input producono lo stesso output (input confondibili). Obiettivo: proteggere l informazione da eventuali errori di trasmissione legati al rumore. p.1/24

4 Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione. p.2/24

5 Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione Metodo: Aggiungere ridondanza. p.2/24

6 Codifica Canale Obiettivo: Input NON Confondibili correzione errori trasmissione Metodo: Aggiungere ridondanza Nota: impossibile eliminare effetto rumore vogliamo input non confondibili con alta robabilità. p.2/24

7 Canali Canale discreto (alfabeti I/O discreti): (X,, Y) X= alfabeto input al canale Y= alfabeto output al canale Π = [p(y/x)]= matrice delle probabilità di transizione. p.3/24

8 Canali Canale discreto (alfabeti I/O discreti): (X,, Y) X= alfabeto input al canale Y= alfabeto output al canale Π = [p(y/x)]= matrice delle probabilità di transizione Canale discreto senza memoria (DMC) (X, Π, Y): distribuzione probabilità output dipende solo da input corrispondente NON da precedenti input o output.. p.3/24

9 Capacitá Canale Capacità del canale senza memoria: C = max p(x) I(X, Y ). p.4/24

10 Capacitá Canale Capacità del canale senza memoria: C = max p(x) I(X, Y ) Dimostreremo: capacità = massimo numero di bit per uso del canale.. p.4/24

11 Canale senza rumore Trasmette un bit per uso senza errore C = 1. p.5/24

12 Canale senza rumore Trasmette un bit per uso senza errore C = 1 Infatti C = max p(x) I(X, Y ) = max p(x) H(X) H(X/Y ) = max p(x) H(X) = 1 per p(x) = (1/2, 1/2). p.5/24

13 Canale binario simmetrico p p p 1 p 0 1 Π = [ ] p 1 p 1 p p I(X; Y ) = H(Y ) H(Y/X) = H(Y ) x p(x)h(y/x = x) = H(Y ) x p(x)h(p) = H(Y ) h(p). p.6/24

14 Canale binario simmetrico C = max p(x) I(X, Y ) = max p(x) H(Y ) h(p) 1 h(p) p(x) = (1/2, 1/2) p(y = 1) = 1 2 (1 p) p = 1 2 H(Y ) = 1 Quindi C = 1 h(p)bits 1 1/2 1. p.7/24

15 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = p.8/24

16 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = Canale debolmente simmetrico: Ogni riga é permutazione di ogni altra riga; la somma su ogni colonna [ é costante ] 1/3 1/6 1/2 Es. Π = 1/3 1/2 1/6. p.8/24

17 Canali Simmetrici Canale simmetrico: Ogni riga (risp. colonna) é permutazione di ogni altra riga (risp. colonna) Es. Π = Canale debolmente simmetrico: Ogni riga é permutazione di ogni altra riga; la somma su ogni colonna [ é costante ] 1/3 1/6 1/2 Es. Π = 1/3 1/2 1/6 Canale simmetrico Canale debolmente simmetrico. p.8/24

18 Canali (Debolmente) Simmetrici r=riga di Π I(X; Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r). p.9/24

19 Canali (Debolmente) Simmetrici r=riga di Π I(X; Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) Ponendo p(x) = 1/ X per ogni x X risulta p(y) = x p(x)p(y/x) = somma colonna X = 1 Y. p.9/24

20 Canali (Debolmente) Simmetrici r=riga di Π I(X; Y ) = H(Y ) H(Y/X) = H(Y ) H(r) log Y H(r) Ponendo p(x) = 1/ X per ogni x X risulta p(y) = x p(x)p(y/x) = somma colonna X = 1 Y Quindi C = log Y H(r). p.9/24

21 Codifica Canale DMC Codice canale (M, n) per (X, Π, Y): Insieme di indici {1,..., M}. p.10/24

22 Codifica Canale DMC Codice canale (M, n) per (X, Π, Y): Insieme di indici {1,..., M} Funzione codifica X n : {1,..., M} X n. p.10/24

23 Codifica Canale DMC Codice canale (M, n) per (X, Π, Y): Insieme di indici {1,..., M} Funzione codifica X n : {1,..., M} X n Funzione decodifica g : Y n {1,..., M}. p.10/24

24 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = P r{g(y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i). p.11/24

25 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = P r{g(y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) Probabilitá massima di errore: λ (n) = max 1 i M λ i. p.11/24

26 Codifica Canale DMC Probabilitá di errore quando si codifica indice i: λ i = P r{g(y n ) i/x n = i} = y n p(y n /X n (i))i(g(y n ) i) Probabilitá massima di errore: Probabilitá media di errore: λ (n) = max 1 i M λ i P (n) e = 1 M M i=1 λ i. p.11/24

27 Codifica Canali Rumorosi Tasso codice (M, n): R = log M n bit trasm.. p.12/24

28 Codifica Canali Rumorosi Tasso codice (M, n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr, n) con λ (n) 0 per n. p.12/24

29 Codifica Canali Rumorosi Tasso codice (M, n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr, n) con λ (n) 0 per n Si dimostra che: (Teorema di Codifica Canale) (a) ogni tasso R C é ottenibile, (b) nessun tasso R > C é ottenibile. p.12/24

30 Codifica Canali Rumorosi Tasso codice (M, n): R = log M n bit trasm. Tasso R é ottenibile se esiste sequenza di codici ( 2 nr, n) con λ (n) 0 per n Si dimostra che: (Teorema di Codifica Canale) (a) ogni tasso R C é ottenibile, (b) nessun tasso R > C é ottenibile Capacitá = limite superiore di tutti i tassi ottenibili. p.12/24

31 CODIFICA CANALI BSC Strumenti Chernoff bound Sia X una v.c. con alfabeto {0, 1} e d.p P. Siano X 1,..., X n v.c. i.i.d come X. Per ogni λ > 0 [ n P r i=1 X i n ] E[X] λ e λ2 n 2. p.13/24

32 CODIFICA CANALI BSC Strumenti Bound su binomiali Per ogni intero n e α (0, 1) 2 n h(α) ( ) n 2 n h(α) 8πnα(1 α) αn 2πnα(1 α) 2 n h(α) ( ) αn n 8πnα(1 α) i=0 2 n h(α) i. p.14/24

33 CODIFICA CANALI BSC Strumenti Bound su binomiali Per ogni intero n e α (0, 1) 2 n h(α) ( ) n 2 n h(α) 8πnα(1 α) αn 2πnα(1 α) 2 n h(α) ( ) αn n 8πnα(1 α) i=0 2 n h(α) i ( ) αn n i=0 = 2 n[h(α)+o(1)] i. p.14/24

34 CODIFICA CANALI BSC:Definizioni Peso di Hamming di y {0, 1} n : w(y) = {i 0 i < n, y i 0}. p.15/24

35 CODIFICA CANALI BSC:Definizioni Peso di Hamming di y {0, 1} n : w(y) = {i 0 i < n, y i 0} Distanza di Hamming tra y, z {0, 1} n : (y, z) = {i 0 i < n, y i z i }. p.15/24

36 CODIFICA CANALI BSC:Definizioni Peso di Hamming di y {0, 1} n : w(y) = {i 0 i < n, y i 0} Distanza di Hamming tra y, z {0, 1} n : (y, z) = {i 0 i < n, y i z i } Sfera di Hamming di centro y {0, 1} n e raggio r: Ball(y, r) = {z {0, 1} n (y, z) r}. p.15/24

37 CODIFICA CANALI BSC Teorema Il tasso 1 h(p) é ottenibile Dimostrazione Date δ > 0, mostriamo che esiste codice con tasso k/n = 1 h(p) δ per k, n suff. grandi Codice X : {0, 1} k {0, 1} n : formato da 2 k parole random (ogni bit con prob (1/2, 1/2)) Decodifica: Dato y, definiamo g(y) = a {0, 1} k con (X(a), y) minima.. p.16/24

38 CODIFICA CANALI BSC Teorema Il tasso 1 h(p) é ottenibile Dimostrazione Date δ > 0, mostriamo che esiste codice con tasso k/n = 1 h(p) δ per k, n suff. grandi Codice X : {0, 1} k {0, 1} n : formato da 2 k parole random (ogni bit con prob (1/2, 1/2)) Decodifica: Dato y, definiamo g(y) = a {0, 1} k con (X(a), y) minima. Trasmettiamo: X(a) Riceviamo: y = X(a) + z, z =errore (z i = 1 errore in posiz. i). p.16/24

39 CODIFICA CANALI BSC Teorema Il tasso 1 h(p) é ottenibile Dimostrazione Date δ > 0, mostriamo che esiste codice con tasso k/n = 1 h(p) δ per k, n suff. grandi Codice X : {0, 1} k {0, 1} n : formato da 2 k parole random (ogni bit con prob (1/2, 1/2)) Decodifica: Dato y, definiamo g(y) = a {0, 1} k con (X(a), y) minima. Trasmettiamo: X(a) Riceviamo: y = X(a) + z, z =errore (z i = 1 errore in posiz. i). p.16/24

40 CODIFICA CANALI BSC Teorema Il tasso 1 h(p) é ottenibile Dimostrazione Date δ > 0, mostriamo che esiste codice con tasso k/n = 1 h(p) δ per k, n suff. grandi Codice X : {0, 1} k {0, 1} n : formato da 2 k parole random (ogni bit con prob (1/2, 1/2)) Decodifica: Dato y, definiamo g(y) = a {0, 1} k con (X(a), y) minima. Trasmettiamo: X(a) Riceviamo: y = X(a) + z, z =errore (z i = 1 errore in posiz. i). p.16/24

41 CODIFICA CANALI BSC Sia γ > 0 t.c. h(p + γ) = h(p) + δ < h(p) + δ. p.17/24

42 CODIFICA CANALI BSC Sia γ > 0 t.c. h(p + γ) = h(p) + δ < h(p) + δ Ball(y, (p + γ)n) = (p+γ)n ) i=0 2 nh(p+γ) = 2 n(h(p)+δ ) ( n i. p.17/24

43 CODIFICA CANALI BSC Sia γ > 0 t.c. h(p + γ) = h(p) + δ < h(p) + δ Ball(y, (p + γ)n) = (p+γ)n ) i=0 2 nh(p+γ) = 2 n(h(p)+δ ) Per ogni a a P [X(a ) Ball(y, (p + γ)n)] = Ball(y,(p+γ)n) 2 n 2 n(h(p)+δ 1) ( n i. p.17/24

44 CODIFICA CANALI BSC Sia γ > 0 t.c. h(p + γ) = h(p) + δ < h(p) + δ Ball(y, (p + γ)n) = (p+γ)n ) i=0 2 nh(p+γ) = 2 n(h(p)+δ ) Per ogni a a P [X(a ) Ball(y, (p + γ)n)] = Ball(y,(p+γ)n) 2 n 2 n(h(p)+δ 1) P [esiste a a, X(a ) Ball(y, (p + γ)n)] 2 k 2 n(h(p)+δ 1) = 2 n(1 h(p) δ)+n(h(p)+δ 1) = 2 n(δ δ) = a n (a = 2 δ δ > 1) ( n i. p.17/24

45 CODIFICA CANALI BSC Definiamo z {0, 1} n BAD w(z) > (p + γ)n. p.18/24

46 CODIFICA CANALI BSC Definiamo z {0, 1} n BAD w(z) > (p + γ)n ] E = p (pn bits cambiati in media) [ w(z) n (usando Chernoff Bound) P [zbad] = P [w(z) p > γ] 2 γ2 n/2 = c n (per c > 1). p.18/24

47 CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n). p.19/24

48 CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )). p.19/24

49 CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )) g(y) = a ESATTA. p.19/24

50 CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )) g(y) = a ESATTA P [esatta] P [z NON BAD, X(a ) / Ball(y, (p + γ)n)]. p.19/24

51 CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )) g(y) = a ESATTA P [esatta] P [z NON BAD, X(a ) / Ball(y, (p + γ)n)] P [errore] P [z BAD]+P [X(a ) Ball(y, (p + γ)n)] c n + a n. p.19/24

52 CODIFICA CANALI BSC z NON BAD e X(a ) / Ball(y, (p + γ)n) (y, X(a)) < (y, X(a )) g(y) = a ESATTA P [esatta] P [z NON BAD, X(a ) / Ball(y, (p + γ)n)] P [errore] P [z BAD]+P [X(a ) Ball(y, (p + γ)n)] c n + a n P [errore]<ɛ, per n suff. grande. p.19/24

53 Codifica Canale: Parte Inversa Teorema Siano k e n t.c. Allora k n per ogni coppia di funzioni > 1 h(p) + ɛ. lim Pr [g(x(a) + e) = a] = 0 k,n e X : {0, 1} k {0, 1} n, g : {0, 1} n {0, 1} k La probabilitá e presa su vettori e t.c. ogni bit é 1 con prob. p, 0 altrimenti. p.20/24

54 Codifica Canale: Parte Inversa Teorema Siano k e n t.c. Allora k n per ogni coppia di funzioni > 1 h(p) + ɛ. lim Pr [g(x(a) + e) = a] = 0 k,n e X : {0, 1} k {0, 1} n, g : {0, 1} n {0, 1} k La probabilitá e presa su vettori e t.c. ogni bit é 1 con prob. p, 0 altrimenti Cioé nessun tasso > 1 h(p) é ottenibile. p.20/24

55 Codifica Canale: Parte Inversa Dim. a {0, 1} k definiamo S a := {y {0, 1} n : g(y) = a}. Nota: a S a = {0, 1} n e a S a = 2 n.. p.21/24

56 Codifica Canale: Parte Inversa Dim. a {0, 1} k definiamo S a := {y {0, 1} n : g(y) = a}. Nota: a S a = {0, 1} n e a S a = 2 n. Data stringa binaria e, sia w(e) = peso di e =numero di bit pari a 1 Sia ɛ tale che h(p) h(p ɛ ) < ɛ (Nota ɛ < ɛ) Definiamo e hard se (p ɛ )n w(e) (p ɛ )n e easy altrimenti Nota: Usando Chernoff bound Pr[e easy] = Pr[ w(e) n p > ɛ ] a n (per a > 1).. p.21/24

57 Codifica Canale: Parte Inversa Consideriamo vettore b {0, 1} n con w(b) = αn e (p ɛ )n < αn < (p + ɛ )n. Notando che tutti i vettori di uno stesso peso sono equiprobabili, e che la loro probabilità totale é 1, abbiamo Pr[e = b] 1 ( n αn). p.22/24

58 Codifica Canale: Parte Inversa Consideriamo vettore b {0, 1} n con w(b) = αn e (p ɛ )n < αn < (p + ɛ )n. Notando che tutti i vettori di uno stesso peso sono equiprobabili, e che la loro probabilità totale é 1, abbiamo Pr[e = b] 1 ( n αn) Poiché possiamo assumere p + ɛ 1/2 e ( n αn) é crescente per α 1/2 1 ( αn) 1 n n ((p ɛ )n) )n (2 h(p ɛ ) n c c cost. Quindi Pr[e = b] (2 h(p ɛ )n ) n c. p.22/24

59 Codifica Canale: Parte Inversa Pr[decodifica corretta] = Pr[d. c. quando e easy] + Pr[d. c. quando e hard] a n + Pr[decodifica corretta quando ehard] = a n + P r(a) Pr[y = X(a) + e, e hard] a y S a = a n + 2 k a a n + 2 k a Pr[e = y X(a) é hard] y S a )n n c y S a 2 h(p ɛ = a n + 2 k 2 n 2 h(p ɛ )n n c. p.23/24

60 Codifica Canale: Parte Inversa Pr[decodifica corretta] a n + 2 h(p ɛ )n k+n n c Ricordando che (k n(1 h(p) + ɛ)) e che h(p) h(p ɛ ) < ɛ otteniamo h(p ɛ )n k + n = αn per qualche α > 0, quindi Pr[decodifica corretta] a n + 2 αn n c n 0. p.24/24

Codifica sorgente e canale

Codifica sorgente e canale Codifica sorgente e canale Codifica sorgente Codifica canale in Canale Compressione Codifica Decodifica Decompress. Rumoroso out Codifica sorgente: comprimere i dati per rimuovere ridondanza Codifica canale:

Dettagli

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità

Dettagli

Codifica delle sequenze sorgente

Codifica delle sequenze sorgente Codifica delle sequenze sorgente Sorgente emette sequenza di simboli appartenenti ad un alfabeto X che vengono codificati come sequenze di simboli di un alfabeto D-ario.. p.1/?? Codifica delle sequenze

Dettagli

STII/Teoria dell Informazione

STII/Teoria dell Informazione STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione

Dettagli

STII. Probabilità e proprietà dei logaritmi

STII. Probabilità e proprietà dei logaritmi STII Durante una trasmissione, il segnale naviga alcuni minuti prima di arrivare a destinazione. Durante il percorso, il segnale è soggetto a rumore, quindi può capitare che il messaggio che è stato inviato

Dettagli

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio

Dettagli

Nota: Eventi meno probabili danno maggiore informazione

Nota: Eventi meno probabili danno maggiore informazione Entropia Informazione associata a valore x avente probabilitá p(x é i(x = log 2 p(x Nota: Eventi meno probabili danno maggiore informazione Entropia di v.c. X P : informazione media elementi di X H(X =

Dettagli

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore 10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore

Dettagli

Codifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione

Codifica di canale. (dalle dispense e dalle fotocopie) Trasmissione dell Informazione Codifica di canale (dalle dispense e dalle fotocopie) Codici lineari a blocchi Un codice lineare (n,k) è un codice che assegna una parola lunga n ad ogni blocco lungo k. Si dice che il codice abbia un

Dettagli

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza

Dettagli

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata

Dettagli

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

Roberto Maieli La trasmissione dell informazione

Roberto Maieli La trasmissione dell informazione Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio

Dettagli

I teoremi della funzione inversa e della funzione implicita

I teoremi della funzione inversa e della funzione implicita I teoremi della funzione inversa e della funzione implicita Appunti per il corso di Analisi Matematica 4 G. Mauceri Indice 1 Il teorema della funzione inversa 1 Il teorema della funzione implicita 3 1

Dettagli

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media

Dettagli

Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale

Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale 1 Obiettivi: Codici correttori d errore correggere o rivelare errori nella trasmissione di segnali numerici (sequenze di simboli,

Dettagli

Algoritmi Randomizzati per parole di peso minimo

Algoritmi Randomizzati per parole di peso minimo Algoritmi Randomizzati per parole di peso minimo Camilla Ferretti Dip. di Scienze Economiche e Sociali, UCSC Piacenza Trento, 10 Marzo 2011 Problema della distanza minima Cerchiamo un algoritmo efficiente

Dettagli

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I 01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore

Dettagli

Comunicazioni Elettriche Esercizi

Comunicazioni Elettriche Esercizi Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,

Dettagli

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) = 1 Esercizi settimana 3 Esercizio 1. Un urna contiene 8 palline bianche, 4 nere e rosse. Si assuma di vincere e ogni volta che si estragga una pallina nera, si perda 1e per ogni pallina bianca e non succeda

Dettagli

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p. Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia

Dettagli

NORMA DI UN VETTORE. Una NORMA VETTORIALE su R n è una funzione. : R n R +

NORMA DI UN VETTORE. Una NORMA VETTORIALE su R n è una funzione. : R n R + NORMA DI UN VETTORE Una NORMA VETTORIALE su R n è una funzione. : R n R + {0}, che associa ad ogni vettore x R n di componenti x i, i = 1,..., n, uno scalare in modo che valgano le seguenti proprietà:

Dettagli

4) Teorema fondamentale della codifica di canale. 6) Definizione di codifica di canale (FEC e ARQ)

4) Teorema fondamentale della codifica di canale. 6) Definizione di codifica di canale (FEC e ARQ) Argomenti della Lezione 1) Classificazione dei codici di canale 2) Benefici della codifica di canale 3) Decodifica hard e soft 4) Teorema fondamentale della codifica di canale 5) Classificazione dei codici

Dettagli

UNIVERSITA` di ROMA TOR VERGATA

UNIVERSITA` di ROMA TOR VERGATA UNIVERSITA` di ROMA TOR VERGATA Corso di PS2-Probabilità 2 P.Baldi appello, 7 giugno 200 Corso di Laurea in Matematica Esercizio Siano X, Y v.a. indipendenti di legge Ŵ(2, λ). Calcolare densità e la media

Dettagli

La Rappresentazione Dell Informazione

La Rappresentazione Dell Informazione La Rappresentazione Dell Informazione Parte III I codici I Codici Un codice è una funzione che associa ad una sequenza di simboli un significato Un codice serve a: Permettere l elaborazione e la memorizzazione

Dettagli

Principi di Teoria dei Codici

Principi di Teoria dei Codici Udine, 24 Febbraio 2005 Principi di Teoria dei Codici Andrea Tonello e-mail: tonello@uniud.it http://www.diegm.uniud.it/tlc/tonello UNIVERSITÀ DEGLI STUDI DI UDINE DIEGM DIPARTIMENTO DI INGEGNERIA ELETTRICA,

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con

Dettagli

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente

Dettagli

Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere. 1) A quanto corrisponde su base decimale un guadagno di 31 db? (Risp: = )

Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere. 1) A quanto corrisponde su base decimale un guadagno di 31 db? (Risp: = ) Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere A quanto corrisponde su base decimale un guadagno di 3 db? (Risp: = 259 25 2 A quanti watt corrisponde una potenza di - 25 db m? (Risp: 3,25-6

Dettagli

FUNZIONE DI TRASFERIMENTO ASSOCIATA A UN CODICE CONVOLUZIONALE

FUNZIONE DI TRASFERIMENTO ASSOCIATA A UN CODICE CONVOLUZIONALE FUNZIONE DI TRASFERIMENTO ASSOCIATA A UN CODICE CONVOLUZIONALE La funzione di trasferimento de codice convouzionae fornisce tutte e informazioni riguardo i pesi dei cammini che si dipartono da S 0 e riconfuiscono

Dettagli

Il secondo teorema di Shannon

Il secondo teorema di Shannon Il secondo teorema di Shannon Appunti scritti da Alberto Leporati e-mail: alberto.leporati@unimib.it Dipartimento di Informatica, Sistemistica e Comunicazione (DISCo) Università degli Studi di Milano Bicocca

Dettagli

3. TEORIA DELL INFORMAZIONE

3. TEORIA DELL INFORMAZIONE 3. TEORIA DELL INFORMAZIONE INTRODUZIONE MISURA DI INFORMAZIONE SORGENTE DISCRETA SENZA MEMORIA ENTROPIA DI UNA SORGENTE NUMERICA CODIFICA DI SORGENTE 1 TEOREMA DI SHANNON CODICI UNIVOCAMENTE DECIFRABILI

Dettagli

RETI DI TELECOMUNICAZIONE

RETI DI TELECOMUNICAZIONE RETI DI TELECOMUNICAZIONE Modelli delle Sorgenti di Traffico Generalità Per la realizzazione di un modello analitico di un sistema di telecomunicazione dobbiamo tenere in considerazione 3 distinte sezioni

Dettagli

Forme bilineari simmetriche

Forme bilineari simmetriche Forme bilineari simmetriche Qui il campo dei coefficienti è sempre R Definizione 1 Sia V uno spazio vettoriale Una forma bilineare su V è una funzione b: V V R tale che v 1, v 2, v 3 V b(v 1 + v 2, v 3

Dettagli

Esercizi geometria analitica nello spazio. Corso di Laurea in Informatica. Docente: Andrea Loi. Correzione

Esercizi geometria analitica nello spazio. Corso di Laurea in Informatica. Docente: Andrea Loi. Correzione Esercizi geometria analitica nello spazio Corso di Laurea in Informatica Docente: Andrea Loi Correzione 1. Denotiamo con P 1, P 13, P 3, P 1, P, P 3, P i simmetrici di un punto P rispetto ai piani coordinati

Dettagli

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x

Dettagli

0 se y c 1 (y)) se c < y < d. 1 se y d

0 se y c 1 (y)) se c < y < d. 1 se y d Capitolo. Parte IX Exercise.. Sia X una variabile aleatoria reale assolutamente continua e sia (a,b) un intervallo aperto (limitato o illimitato) di R, tale che P(X (a,b)) =. Sia ϕ : (a,b) R una funzione

Dettagli

Problemi e algoritmi. Il che cosa ed il come. Il che cosa ed il come. Il che cosa e il come

Problemi e algoritmi. Il che cosa ed il come. Il che cosa ed il come. Il che cosa e il come Problemi e algoritmi Il che cosa e il come Problema: descrive che cosa si deve calcolare Specifica (di un algoritmo): descrive che cosa calcola un algoritmo Algoritmo: descrive come effettuare un calcolo

Dettagli

APPUNTI DI TEORIA DEI CODICI

APPUNTI DI TEORIA DEI CODICI UNIVERSITÀ DI CATANIA FACOLTÀ DI INGEGNERIA APPUNTI DI TEORIA DEI CODICI Autori: L. Cauchi V. La Terra R. Grasso F. Gullo Coperto da diritti di c copyright Ho letto questi appunti scritti da Lucia Cauchi,

Dettagli

Soluzioni dei quesiti della maturità scientifica A.S. 2009/2010

Soluzioni dei quesiti della maturità scientifica A.S. 2009/2010 Soluzioni dei quesiti della maturità scientifica AS 009/010 Nicola Gigli Sun-Ra Mosconi giugno 010 Quesito 1 Un generico polinomio di grado n si può scrivere nella forma p(x) a 0 + a 1 x + + a n x n dove

Dettagli

1 Esercizio - caso particolare di ottimalità

1 Esercizio - caso particolare di ottimalità Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto

Dettagli

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una

Dettagli

Parte 12b. Riduzione a forma canonica

Parte 12b. Riduzione a forma canonica Parte 2b. Riduzione a forma canonica A. Savo Appunti del Corso di Geometria 202-3 Indice delle sezioni. Coniche, 2. Esempio di riduzione, 4 3. Teoremi fondamentali, 6 4. Come determinare l equazione canonica,

Dettagli

Complemento ortogonale e proiezioni

Complemento ortogonale e proiezioni Complemento ortogonale e proiezioni Dicembre 9 Complemento ortogonale di un sottospazio Sie E un sottospazio di R n Definiamo il complemento ortogonale di E come l insieme dei vettori di R n ortogonali

Dettagli

Sistemi sovradeterminati

Sistemi sovradeterminati Sistemi sovradeterminati Sia A una matrice m n ove m > n sia b R m trovare una soluzione del sistema sovradeterminato Ax = b significa cercare di esprimere un vettore di R m come combinazione lineare di

Dettagli

Ma il programma in Fig. 8.2 del libro? Stampa hello, world, dato un input n se e solo se l equazione

Ma il programma in Fig. 8.2 del libro? Stampa hello, world, dato un input n se e solo se l equazione Problemi che i calcolatori non possono risolvere E importante sapere se un programma e corretto, cioe fa uello che ci aspettiamo. E facile vedere che il programma Ma il programma in Fig. 8.2 del libro?

Dettagli

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche. Modulazione A.A Alberto Perotti

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche. Modulazione A.A Alberto Perotti Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Modulazione A.A. 8-9 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di sistema di comunicazione

Dettagli

Def. Error-Burst la più lunga sequenza di simboli di E che comincia e finisce con un simbolo diverso da 0.

Def. Error-Burst la più lunga sequenza di simboli di E che comincia e finisce con un simbolo diverso da 0. Burst-Error Correction Le parole di un codice RS(n,t), con n = 2 m 1, su GF(2 m ) possono essere viste come parole binarie di lunghezza mn Sia C una parola codice di RS(n,t). Supponiamo di inviare sul

Dettagli

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013 CORSO DI ANALISI MATEMATICA SOLUZIONI ESERCIZI PROPOSTI 8/03/03 D.BARTOLUCCI, D.GUIDO. La continuità uniforme I ESERCIZIO: Dimostrare che la funzione f(x) = x 3, x A = (, ] non è uniformemente continua

Dettagli

Corso di Geometria BIAR, BSIR Esercizi 2: soluzioni

Corso di Geometria BIAR, BSIR Esercizi 2: soluzioni Corso di Geometria 2- BIAR, BSIR Esercizi 2: soluzioni Esercizio Calcolare il determinante della matrice 2 3 : 3 2 a) con lo sviluppo lungo la prima riga, b) con lo sviluppo lungo la terza colonna, c)

Dettagli

X (o equivalentemente rispetto a X n ) è la

X (o equivalentemente rispetto a X n ) è la Esercizi di Calcolo delle Probabilità della 5 a settimana (Corso di Laurea in Matematica, Università degli Studi di Padova). Esercizio 1. Siano (X n ) n i.i.d. di Bernoulli di parametro p e definiamo per

Dettagli

Codici Lineari G = [I K P], (1)

Codici Lineari G = [I K P], (1) Codici Lineari Nel seguito, indicheremo con F un generico campo finito. Come noto, F potrebbe essere l insieme delle cifre binarie F 2 = {0, 1} con le usuali operazioni di prodotto e somma modulo 2. Più

Dettagli

Lezione 17 Ugo Vaccaro

Lezione 17 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 2015 2016 Lezione 17 Ugo Vaccaro Nella Lezione scorsa abbiamo introdotto una classe di codici a correzione di errore (codici di Hamming) in grado di correggere

Dettagli

Definizione 1. Una matrice n m a coefficienti in K é una tabella del tipo. ... K m, detto vettore riga i-esimo, ed a im

Definizione 1. Una matrice n m a coefficienti in K é una tabella del tipo. ... K m, detto vettore riga i-esimo, ed a im APPUNTI ed ESERCIZI su matrici, rango e metodo di eliminazione di Gauss Corso di Laurea in Chimica, Facoltà di Scienze MM.FF.NN., UNICAL (Dott.ssa Galati C.) Rende, 23 Aprile 2010 Matrici, rango e metodo

Dettagli

2) Codici univocamente decifrabili e codici a prefisso.

2) Codici univocamente decifrabili e codici a prefisso. Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il

Dettagli

Capitolo 5 La trasmissione dell informazione

Capitolo 5 La trasmissione dell informazione Capitolo 5 La trasmissione dell informazione Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio Destinazione Caratterizzazione

Dettagli

Esercitazione 6 - Soluzione

Esercitazione 6 - Soluzione Anno Accademico 28-29 Corso di Algebra Lineare e Calcolo Numerico per Ingegneria Meccanica Esercitazione 6 - Soluzione Immagine, nucleo. Teorema di Rouché-Capelli. Esercizio Sia L : R 3 R 3 l applicazione

Dettagli

LIMITI - ESERCIZI SVOLTI

LIMITI - ESERCIZI SVOLTI LIMITI - ESERCIZI SVOLTI ) Verificare mediante la definizione di ite che a) 3 5) = b) = + ) c) 3n n + n+ = + d) 3+ = 3. ) Calcolare utilizzando i teoremi sull algebra dei iti a) 3 + ) b) + c) 0 + d) ±

Dettagli

CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI

CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI Consideriamo l insieme R = R {, + } ottenuto aggiungendo all insieme dei numeri reali i simboli e +. Introduciamo in

Dettagli

TEORIA DELL INFORMAZIONE E CODICI. Sandro Bellini. Politecnico di Milano

TEORIA DELL INFORMAZIONE E CODICI. Sandro Bellini. Politecnico di Milano TEORIA DELL INFORMAZIONE E CODICI Sandro Bellini Politecnico di Milano Prefazione Queste brevi note sono state scritte per gli studenti del corso di Teoria dell informazione e codici da me tenuto presso

Dettagli

Raggiungibilità, Controllabilità, Osservabilità e Determinabilità

Raggiungibilità, Controllabilità, Osservabilità e Determinabilità Raggiungibilità, Controllabilità, Osservabilità e Determinabilità Si determini se i sistemi lineari tempo invarianti ẋ(t) = Ax(t) + Bu(t), Σ c : y(t) = Cx(t) + Du(t). x(k + ) = Ax(k) + Bu(k), Σ d : y(k)

Dettagli

Calcolo delle Probabilità 2

Calcolo delle Probabilità 2 Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale

Dettagli

Alcuni Teoremi sulle funzioni continue e uniforme continuità

Alcuni Teoremi sulle funzioni continue e uniforme continuità Alcuni Teoremi sulle funzioni continue e uniforme continuità Teorema 0. Una funzione f(x) è continua in x 0 se e solo se per ogni sucessione {x n } dom(f) con x n x 0 dom(f), risulta f(x n ) f(x 0 ). (Non

Dettagli

Note sulle Catene di Markov

Note sulle Catene di Markov Note sulle Catene di Markov ELAUT Prof. Giuseppe C. Calafiore Sommario Queste note contengono un estratto schematico ridotto di parte del materiale relativo alle Catene di Markov a tempo continuo e a tempo

Dettagli

un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio;

un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio; TEST DI AUTOVALUTAZIONE - SETTIMANA 3 I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. Metodi statistici per la biologia 1 Parte A 1.1 Una variabile casuale

Dettagli

Tecniche di protezione dell informazione

Tecniche di protezione dell informazione Tecniche di protezione dell informazione 1 Contesto trasmissivo u T st () rt () u R Sorgente sequenze binarie informaz. Rb TX CANALE RX Rb ut st () rt () u R R b Sequenze binarie di informazione trasmesse

Dettagli

La Rappresentazione dell Informazione

La Rappresentazione dell Informazione La Rappresentazione dell Informazione Parte III I codici Codici a.a. 27-28 Un codice è una funzione che associa ad una sequenza di simboli un significato Codice : {entità} {sequenze di simboli} Un codice

Dettagli

Concetti fondamentali

Concetti fondamentali Concetti fondamentali elemento insieme sequenza tutto si riconduce a questi insieme: esempi {,3,5,7,9} insieme dei numeri dispari positivi minori di dieci {Antonio, Beatrice, Carlo, Daria} insieme dei

Dettagli

7.6. Distribuzione Esponenziale. Un n.a. continuo X con densità di probabilità

7.6. Distribuzione Esponenziale. Un n.a. continuo X con densità di probabilità 7.6 Distribuzione Esponenziale. 111 7.6. Distribuzione Esponenziale. Un n.a. continuo X con densità di probabilità { λe λx se x, (76) f(x) = se x

Dettagli

Somma diretta di sottospazi vettoriali

Somma diretta di sottospazi vettoriali Capitolo 8 Somma diretta di sottospazi vettoriali 8.1 Introduzione Introduciamo un caso particolare di somma di due sottospazi vettoriali: la somma diretta. Anche questo argomento è stato visto nel corso

Dettagli

1) Codici ciclici. 2) Esempi di codici ciclici. 3) Algoritmi di codifica e decodifica. 4) Circuiti di codifica

1) Codici ciclici. 2) Esempi di codici ciclici. 3) Algoritmi di codifica e decodifica. 4) Circuiti di codifica Argomenti della Lezione ) Codici ciclici 2) Esempi di codici ciclici 3) Algoritmi di codifica e decodifica 4) Circuiti di codifica Codici ciclici Un codice lineare a blocchi (n,k) è ciclico se e solo se

Dettagli

Leggi congiunte di variabili aleatorie

Leggi congiunte di variabili aleatorie eggi congiunte di variabili aleatorie CAPIT 6 6. FUNZINI DI DISTRIBUZINE CNGIUNTE Fino a ora abbiamo considerato unicamente le leggi di singole variabili aleatorie. Tuttavia, siamo spesso interessati a

Dettagli

Nella modulazione di ampiezza, si trasmette il segnale. v R (t) = (V 0 + k I x(t)) cos (2πf 0 t).

Nella modulazione di ampiezza, si trasmette il segnale. v R (t) = (V 0 + k I x(t)) cos (2πf 0 t). Cenni alla Modulazione di Ampiezza (AM) Nella modulazione di ampiezza, si trasmette il segnale v(t) = (V 0 + k I x(t)) cos (πf 0 t), dove x(t) è il segnale di informazione, con banda B, e f 0 è la frequenza

Dettagli

Massimo limite e minimo limite di una funzione

Massimo limite e minimo limite di una funzione Massimo limite e minimo limite di una funzione Sia f : A R una funzione, e sia p DA). Per ogni r > 0, l insieme ) E f p r) = { fx) x A I r p) \ {p} } è non vuoto; inoltre E f p r ) E f p r ) se 0 < r r.

Dettagli

1) Codici convoluzionali. 2) Circuito codificatore. 3) Diagramma a stati e a traliccio. 4) Distanza libera. 5) Algoritmo di Viterbi

1) Codici convoluzionali. 2) Circuito codificatore. 3) Diagramma a stati e a traliccio. 4) Distanza libera. 5) Algoritmo di Viterbi Argomenti della Lezione 1) Codici convoluzionali 2) Circuito codificatore 3) Diagramma a stati e a traliccio 4) Distanza libera 5) Algoritmo di Viterbi 1 Codici convoluzionali I codici convoluzionali sono

Dettagli

0 < x 3. x 2 mod 5 x 0 mod 3. x 27 mod 7. 1 [7 punti] Risolvere il seguente sistema di congruenze:

0 < x 3. x 2 mod 5 x 0 mod 3. x 27 mod 7. 1 [7 punti] Risolvere il seguente sistema di congruenze: Dipartimento di Matematica e Informatica Anno Accademico 05-06 Corso di Laurea in Informatica (L-3) Prova scritta di Matematica Discreta ( CFU) 7 Settembre 06 Parte A Tempo a disposizione Ognuna delle

Dettagli

Fondamenti di Algebra Lineare e Geometria TEMA A

Fondamenti di Algebra Lineare e Geometria TEMA A Fondamenti di Algebra Lineare e Geometria Ingegneria Aerospaziale ed Ingegneria dell Energia - Canale B Secondo Appello - luglio TEMA A Risolvere i seguenti esercizi motivando adeguatamente ogni risposta.

Dettagli

Codici binari decimali

Codici binari decimali Codici binari decimali Si usano per rappresentare le dieci cifre decimali in binario dato che 2 3 < 10 < di 2 4 occorrono almeno 4 bits Binario Decimale BCD Eccesso-3 Biquinary 1 di 10 0 0 0000 0011 0100001

Dettagli

Codici. Introduzione. Sia A un insieme finito di simboli e C=A n l insieme di tutte le parole composte da n simboli di A

Codici. Introduzione. Sia A un insieme finito di simboli e C=A n l insieme di tutte le parole composte da n simboli di A Codici Introduzione Sia A un insieme finito di simboli e C=A n l insieme di tutte le parole composte da n simboli di A Esempio A={0,1}, C=A 2 ={00,01,10,11} Sia C un insieme finito di N oggetti avente

Dettagli

Le matrici. Sia K un campo con elemento neutro dell addizione 0 ed elemento neutro della moltiplicazione 1.

Le matrici. Sia K un campo con elemento neutro dell addizione 0 ed elemento neutro della moltiplicazione 1. Le matrici Sia K un campo con elemento neutro dell addizione 0 ed elemento neutro della moltiplicazione 1. Siano m, n N\{0}. Una matrice m n a coefficienti in K è una tabella di m n elementi di K disposti

Dettagli

Codici a controllo dell errore per le memorie

Codici a controllo dell errore per le memorie Elettronica dei Sistemi Digitali Corso di Laurea in Informatica Crema, Maggio Codici a controllo dell errore per le memorie Laboratorio di Microsistemi Integrati Dipartimento di Elettronica Università

Dettagli

Universita degli Studi di Ancona - Facolta di Ingegneria Laurea in Ing. Elettronica (VO) Ing. Informatica e Automatica - Ing. delle Telecomunicazioni

Universita degli Studi di Ancona - Facolta di Ingegneria Laurea in Ing. Elettronica (VO) Ing. Informatica e Automatica - Ing. delle Telecomunicazioni Universita degli Studi di Ancona - Facolta di Ingegneria Laurea in Ing. Elettronica (VO) Ing. Informatica e Automatica - Ing. delle Telecomunicazioni ANALISI NUMERICA - Primo Parziale - TEMA A (Prof. A.M.Perdon)

Dettagli

2.2 Alberi di supporto di costo ottimo

2.2 Alberi di supporto di costo ottimo . Alberi di supporto di costo ottimo Problemi relativi ad alberi hanno numerose applicazioni: progettazione di reti (comunicazione, teleriscaldamento,...) memorizzazione compatta di sequenze (DNA) diffusione

Dettagli

Le Funzioni di Bessel

Le Funzioni di Bessel Le Funzioni di Bessel Serie di Laurent del prodotto Siano f, g : C due funzioni olomorfe in un anello := {z C r < z z 0 < R}, r < R. Allora f(z)g(z) è olomorfa in e quindi si potrà scrivere come una serie

Dettagli

3) Entropie condizionate, entropie congiunte ed informazione mutua

3) Entropie condizionate, entropie congiunte ed informazione mutua Argoment della Lezone ) Coppe d varabl aleatore 2) Canale dscreto senza memora 3) Entrope condzonate, entrope congunte ed nformazone mutua 4) Esemp d canal Coppe d varabl aleatore Fno ad ora è stata consderata

Dettagli

carattere a b c d e f cod. var

carattere a b c d e f cod. var Codici prefissi Un codice prefisso è un codice in cui nessuna parola codice è prefisso (parte iniziale) di un altra Ogni codice a lunghezza fissa è ovviamente prefisso. Ma anche il codice a lunghezza variabile

Dettagli

) la sua densità discreta sarà della forma. p X (0) = 1 2, p X(1) = 1 2,

) la sua densità discreta sarà della forma. p X (0) = 1 2, p X(1) = 1 2, Esercizi settimana 6 Esercizi applicati Esercizio. Siano X e Y due v.a. discrete indipendenti tali che X B(, ) e Y B(, ), n 0. (i) Si calcoli la legge di X + Y ; (ii) Si calcoli la legge di X Y ; (iii)

Dettagli

Risoluzione di sistemi lineari

Risoluzione di sistemi lineari Risoluzione di sistemi lineari Teorema (Rouché-Capelli) Dato il sistema di m equazioni in n incognite Ax = b, con A M at(m, n) b R n x R n [A b] si ha che: matrice dei coefficienti, vettore dei termini

Dettagli

Corso di Matematica per la Chimica

Corso di Matematica per la Chimica Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Risoluzione di Equazioni Algebriche Le equazioni algebriche sono equazioni del tipo P(x) = 0 dove P è un polinomio di grado n cioé P(x) = a 1 x n + a 2 x n

Dettagli

Fasci di Coniche. Salvino Giuffrida. 2. Determinare e studiare il fascio Φ delle coniche che passano per A (1, 0) con tangente

Fasci di Coniche. Salvino Giuffrida. 2. Determinare e studiare il fascio Φ delle coniche che passano per A (1, 0) con tangente 1 Fasci di Coniche Salvino Giuffrida 1. Determinare e studiare il fascio Φ delle coniche che passano per O = (0, 0), con tangente l asse y, e per i punti (1, 0), (1, ). Determinare vertice e asse della

Dettagli

CALCOLO DELLE PROBABILITÀ - 9 giugno 1998 Scrivere le risposte negli appositi spazi Motivare dettagliatamente le risposte su fogli allegati

CALCOLO DELLE PROBABILITÀ - 9 giugno 1998 Scrivere le risposte negli appositi spazi Motivare dettagliatamente le risposte su fogli allegati CALCOLO DELLE PROBABILITÀ - 9 giugno 1998 1. Dati gli eventi A,B,C, ognuno dei quali implica il successivo, e tali che P (A) è metà della probabilità di B, che a sua volta ha probabilità metà di quella

Dettagli

Calcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale a.a. 2016/17

Calcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale a.a. 2016/17 Calcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale aa 6/ Punteggi: : 3 + 6; : + + + ; 3: + Una scatola contiene monete; 8 di queste sono equilibrate, mentre le

Dettagli

Crittografia a chiave pubblica

Crittografia a chiave pubblica Crittografia a chiave pubblica Barbara Masucci Dipartimento di Informatica Università di Salerno bmasucci@unisa.it http://www.di.unisa.it/professori/masucci Cifrari simmetrici canale insicuro Bob 1 Distribuzione

Dettagli

Alcuni equivalenti dell Assioma della Scelta

Alcuni equivalenti dell Assioma della Scelta Alcuni equivalenti dell Assioma della Scelta Giugno 2010 Gabriele Gullà Sommario Dimostreremo l equivalenza fra l assioma della scelta ed altri enunciati della matematica piú o meno noti. Enunciati: 1)

Dettagli

Esercitazione ENS su processi casuali (13 e 14 Maggio 2008)

Esercitazione ENS su processi casuali (13 e 14 Maggio 2008) Esercitazione ES su processi casuali ( e 4 Maggio 2008) D. Donno Esercizio : Calcolo di autovalori e autovettori Si consideri un processo x n somma di un segnale e un disturbo: x n = Ae π 2 n + w n, n

Dettagli

Teoria dell Informazione

Teoria dell Informazione Fondamenti di Informatica per la Sicurezza a.a. 2008/09 Teoria dell Informazione Stefano Ferrari UNIVERSITÀ DEGLI STUDI DI MILANO DIPARTIMENTO DI TECNOLOGIE DELL INFORMAZIONE Stefano Ferrari Università

Dettagli

Capacità di canale in molte salse

Capacità di canale in molte salse Capacità di canale in molte salse. Bernardini 6 maggio 008 Indice 1 Introduzione 1 Modelli di canale 1.1 Matrice di transizione........................................ 1. Funzione aleatoria..........................................

Dettagli

Analisi Matematica di Base, 2a edizione: errata corrige

Analisi Matematica di Base, 2a edizione: errata corrige Analisi Matematica di Base, 2a edizione: errata corrige (ultimo aggiornamento*: 13 marzo 2017) Di norma ogni correzione indicata ha la struttura p/r/e/c ove p e r sono due numeri interi e E e C due testi.

Dettagli

COMPLETAMENTO DI SPAZI METRICI

COMPLETAMENTO DI SPAZI METRICI COMPLETAMENTO DI SPAZI METRICI 1. Successioni di Cauchy e spazi metrici completi Definizione 1.1. Una successione x n n N a valori in uno spazio metrico X, d si dice di Cauchy se, per ogni ε > 0 esiste

Dettagli

Dispensa di Teoria dell Informazione

Dispensa di Teoria dell Informazione Dispensa di Teoria dell Informazione Lorenzo Simionato e Daniele Turato 2 E-Mail: lorenzo@simionato.org 2 E-Mail: dream85@gmail.com Revisioni Versione preliminare 28 Dicembre 2008 Versione.0 22 Gennaio

Dettagli