Comunicazioni Elettriche II

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Comunicazioni Elettriche II"

Transcript

1 Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A

2 Teoria dell informazione Esercitazione 3

3 Teoria dell informazione Sorgente Codificatore di sorgente Codificatore di canale Canale Destinazione La minima velocità di trasmissione ottenibile nella compressione dati: Entropia H [unità informative, es. bits] La massima velocità di trasmissione ottenibile nella trasmissione dati: Capacità di Canale C [unità informative / unità di tempo, es. bits/sec]

4 Entropia - Definizione Una sorgente dati può essere rappresentata da una variabile aleatoria X, avente dominio di definizione Ω X X:{x Ω X } p X (X) è la Probability Mass Function (PMF) di X.

5 Entropia Significato(i) L entropia ha vari significati: - L informazione media ottenibile osservando le realizzazioni di una v.a. - L incertezza media sulla v.a. prima di osservarne le realizzazioni. - L incertezza media rimossa dalla v.a. dopo l osservazione delle sue realizzazioni - Il numero medio di unità informative (bit) necessario per rappresentare opportunamente la sorgente dati di origine

6 Entropia di un sorgente discreta

7 Entropia di una sorgente binaria X è una sorgente tale che Ω X ={0, 1} e: p X 1 p X 0 H ( X) = qlog 2 ( q) ( 1 q)log 2 ( 1 q) 1 ( ) = q ( ) =1 q 1/2

8 Entropia e codifica di una sorgente binaria equiprobabile Se le realizzazioni di X sono equiprobabili (q = 1/2), H(X) è massima e pari ad 1 bit, ovvero si ha bisogno, in media, di un bit per codificare ogni realizzazione della sorgente. In questo caso, le possibili realizzazioni sono due (la sorgente è binaria), quindi si utilizza esattamente 1 bit per ogni realizzazione.

9 Entropia e codifica di una sorgente binaria non equiprobabile Valutare il numero medio di bit necessario per codificare una sorgente binaria non equiprobabile, caratterizzata da q = 0.1. ü Definizione di entropia: H(X) = 0.1*log *log = 0.47 bit ü Si ha bisogno, in media, di 0.47 bit per codificare ogni realizzazione della sorgente. Implementare un possibile codice binario che rappresenti in maniera efficiente tale sorgente: ü Un codice, in cui le realizzazioni vengono codificate a coppie. Ad esempio: Realizzazioni Codice Associato non ottimizzato n bit = [p(0,0)*1+p(0,1)*2+p(1,0)*3+p(1,1)*3] / 2 = = [0.9* *0.1* *0.9* *0.1*3]/2 = bit > 0.47 bit

10 Entropia e codifica di una sorgente non binaria, non equiprobabile X è una sorgente tale che Ω X ={a 1, a 2, a 3, a 4 } e: Valutare l entropia, e un possibile codice binario di rappresentazione. ü Un possibile codice che rappresenta le realizzazioni di X con un numero medio di bit pari a 1.75: Realizzazioni Codice Associato a 1 0 a 2 10 a a n bit = [p(a 1 )*1+p(a 2 )*2+p(a 3 )*3+p(a 4 )*3] / 1 = 1.75 bits

11 Entropia congiunta e entropia condizionata Legame tra entropia congiunta e entropia condizionata! H(X,Y )= H(X)+ H(Y / X)= H(Y )+ H(X /Y ) Nota:! H(Y / X) H(X /Y )! H(X) H(X /Y )= H(Y ) H(Y / X)

12 Esempio! (X,Y ) p(x, y) Calcola: H(X), H(Y) H(X Y), H(Y X) H(X,Y) H(Y) H(Y X) I(X,Y) Sia X\Y /3 1/ /3 p(x=0) = 1/3 + 1/3 = 2/3 p(x=1) = 0 + 1/3 = 1/3 p(y=0) = 1/3 + 0 = 1/3 p(y=1) = 1/3 + 1/3 = 2/3 H(Y X) H(X Y)

13 Entropia relativa Entropia relativa detta anche distanza di Kullback-Leibler tra due PMF p X (x) e q X (x) è definita come segue D(p q) = x Ω X p(x)log p(x) q(x) 0log 0 0 = 0; 0log 0 q = 0; plog p 0 = Quindi se esiste un simbolo per il quale p(x)>0 e q(x)=0 si ha D(p q) = Si dimostra che l entropia relativa è sempre positiva e pari a 0 se e solo se p=q Tuttavia non è simmetrica

14 Esempio Considera le distribuzioni in tabella per la sorgente ternaria X. Calcola: H(p), H(q) D(p q), D(q p) Symbol p(x) q(x) a 1/2 1/3 b 1/4 1/3 c 1/4 1/3 Mostra un esempio di due distribuzioni p e q per le quali D(p q) = D(q p) Symbol p(x) q(x) a z 1-z b 1-z z

15 Esercizio MATLAB 1: Entropia di una sorgente binaria Scrivere uno script MATLAB che produca un grafico rappresentante l entropia H(X) di una sorgente binaria X, al variare della PMF della sorgente stessa.

16 Esercizio MATLAB 2: Entropia di una sorgente discreta generica Scrivere uno script MATLAB che produca il calcolo dell entropia H(X) di una sorgente discreta X. Lo script deve prevedere la possibilità di scelta, da parte di un generico utente: della cardinalità della sorgente (numero di realizzazioni) della PMF della sorgente Inoltre, lo script deve prevedere il possibile errore dell utente nell immissione dei dati (ad es., sulla somma totale della probabilità), e reagire in modo opportuno. Nota: utilizzare il comando help di MATLAB per ottenere informazioni sulle funzioni input( ) e fprintf( ).

17 Esercizio MATLAB 3: Entropia relativa Produrre uno script che effettui il calcolo dell entropia relativa D(p q) tra due distribuzioni p(x) e q(x) di una sorgente binaria X. Considerando q(x) : Pr(x q =0)=[0:.1:1], graficare, nella stessa figura, l andamento di D(p q) al variare di Pr(x q = 0), nei seguenti casi: 1) p(x) uniforme 2) p(x) non uniforme e tale che Pr(x p =0) = 1/3; 3) p(x) non uniforme e tale che Pr(x p =0) = 2/3; Per i tre casi del punto precedente, mostrare nella stessa figura, ma in un numero di subplot opportuno, le curve ottenute calcolando D(p q) e D(q p), mostrando la proprietà di antisimmetria dell entropia relativa (in generale D(p q) D(q p).

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 6 Teorema della codifica di sorgente Si consideri

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Capacità del canale discreto Teoria dell informazione Sorgente Codificatore di sorgente

Dettagli

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria

Dettagli

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio

Dettagli

Modello di sistema di comunicazione

Modello di sistema di comunicazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

Sicurezza di un Cifrario (C. Shannon)

Sicurezza di un Cifrario (C. Shannon) La teoria di Shannon segretezza perfetta sicurezza computazionale Sicurezza di un Cifrario (C. Shannon) SEGRETEZZA PERFETTA Un Cifrario è detto perfetto, o assolutamente sicuro, se, dopo aver intercettatto

Dettagli

10 Proprietà di Equipartizione Asintotica

10 Proprietà di Equipartizione Asintotica FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della

Dettagli

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore. CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore

Dettagli

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente

Dettagli

STII/Teoria dell Informazione

STII/Teoria dell Informazione STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione

Dettagli

Comunicazioni Elettriche Esercizi

Comunicazioni Elettriche Esercizi Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 10 Esercizio 1 Sia data una trasmissione di

Dettagli

Nota: Eventi meno probabili danno maggiore informazione

Nota: Eventi meno probabili danno maggiore informazione Entropia Informazione associata a valore x avente probabilitá p(x é i(x = log 2 p(x Nota: Eventi meno probabili danno maggiore informazione Entropia di v.c. X P : informazione media elementi di X H(X =

Dettagli

8 Derivati dell entropia

8 Derivati dell entropia (F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta

Dettagli

Roberto Maieli La trasmissione dell informazione

Roberto Maieli La trasmissione dell informazione Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio

Dettagli

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2004-05 Alberto Perotti DELEN-DAUIN Esperimento casuale Esperimento suscettibile di più

Dettagli

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore. CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente p. 1/39 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore

Dettagli

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2006-07 Alberto Perotti Esperimento casuale Esperimento suscettibile di più risultati

Dettagli

Fondamenti dell Informatica

Fondamenti dell Informatica Informatica e Comunicazione Digitale (sede di Taranto) Fondamenti dell Informatica a.a. 2015-2016 Programma 2015-2016 1. Teoria dell Informazione 2. Algoritmi e problema 3. Algebra di Boole 4. La Macchina

Dettagli

Elementi di teoria dell informazione e della trasmissione

Elementi di teoria dell informazione e della trasmissione VERSIONE 19.4.01 Elementi di teoria dell informazione e della trasmissione Introduzione Efficienza nell uso dei supporti Quantità di informazione ed entropia La caratterizzazione statistica dei canali

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Codifica di canale Il codificatore di canale Bits della sorgente Codificatore di canale

Dettagli

LA CODIFICA. CANALE IDEALE E REALE

LA CODIFICA. CANALE IDEALE E REALE LA CODIFICA. CANALE IDEALE E REALE L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale:

Dettagli

Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere. 1) A quanto corrisponde su base decimale un guadagno di 31 db? (Risp: = )

Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere. 1) A quanto corrisponde su base decimale un guadagno di 31 db? (Risp: = ) Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere A quanto corrisponde su base decimale un guadagno di 3 db? (Risp: = 259 25 2 A quanti watt corrisponde una potenza di - 25 db m? (Risp: 3,25-6

Dettagli

Sorgenti discrete e informazione

Sorgenti discrete e informazione Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con

Dettagli

Variabili aleatorie: parte 1. 1 Definizione di variabile aleatoria e misurabilitá

Variabili aleatorie: parte 1. 1 Definizione di variabile aleatoria e misurabilitá Statistica e analisi dei dati Data: 11 Aprile 2016 Variabili aleatorie: parte 1 Docente: Prof. Giuseppe Boccignone Scriba: Noemi Tentori 1 Definizione di variabile aleatoria e misurabilitá Informalmente,

Dettagli

Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni

Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Corso di Laurea in Ingegneria Informatica corso di Telecomunicazioni (Prof. G. Giunta) (editing a cura dell ing. F. Benedetto) Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Esame

Dettagli

Codifica sorgente e canale

Codifica sorgente e canale Codifica sorgente e canale Codifica sorgente Codifica canale in Canale Compressione Codifica Decodifica Decompress. Rumoroso out Codifica sorgente: comprimere i dati per rimuovere ridondanza Codifica canale:

Dettagli

Esercizi 6 - Variabili aleatorie vettoriali, distribuzioni congiunte

Esercizi 6 - Variabili aleatorie vettoriali, distribuzioni congiunte Esercizi - Variabili aleatorie vettoriali, distribuzioni congiunte Esercizio. X e Y sono v.a. sullo stesso spazio di probabilità (Ω, E, P). X segue la distribuzione geometrica modificata di parametro p

Dettagli

DISTRIBUZIONI DI PROBABILITA (parte 2) 1 / 27

DISTRIBUZIONI DI PROBABILITA (parte 2) 1 / 27 DISTRIBUZIONI DI PROBABILITA (parte 2) 1 / 27 Funzione di ripartizione per variabili casuali discrete 2 / 27 Data una variabile casuale discreta possiamo calcolare, analogamente al caso continuo, la probabilità

Dettagli

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione. Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x

Dettagli

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore 10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore

Dettagli

Quale polinomio locatore ottiene il decodificatore? Quale parola propone in uscita? Commentare la scelta del decodificatore.

Quale polinomio locatore ottiene il decodificatore? Quale parola propone in uscita? Commentare la scelta del decodificatore. TIT - Esame del 21/1/2016 Una parola di BCH primitivo (15,11) con j 0 =1, è ricevuta con il bit c 4 errato Qual è il potere correttore del codice? Scrivere la Key Equation Determinare il polinomio locatore

Dettagli

Calcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012

Calcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012 Fisciano, 10/1/2012 Esercizio 1 Un esperimento consiste nel generare a caso un vettore di interi (x 1, x 2, x 3, x 4 ), dove x i {1, 2, 3, 4, 5, 6} i. (i) Si individui lo spazio campionario, determinandone

Dettagli

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata

Dettagli

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I 01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore

Dettagli

INFORMAZIONE E COMPLESSITA

INFORMAZIONE E COMPLESSITA INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze

Dettagli

Teoria della probabilità Variabili casuali

Teoria della probabilità Variabili casuali Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità Variabili casuali A.A. 2008-09 Alberto Perotti DELEN-DAUIN Variabile casuale Una variabile

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Esercitazione 16 Segnali d immagine I Esercizio: Rapporto d aspetto Si calcoli il rapporto

Dettagli

Informazione, Entropia e Probabilità

Informazione, Entropia e Probabilità Informazione, Entropia e Probabilità Alessandro Lenci Università di Pisa, Dipartimento di Linguistica Via Santa Maria, 36, 56100 Pisa, Italy alessandro.lenci@ilc.cnr.it Linguaggio e comunicazione - LO042

Dettagli

Variabili casuali. - di Massimo Cristallo -

Variabili casuali. - di Massimo Cristallo - Università degli Studi di Basilicata Facoltà di Economia Corso di Laurea in Economia Aziendale - a.a. 2012/2013 lezioni di statistica del 16 e 27 maggio 2013 - di Massimo Cristallo - Variabili casuali

Dettagli

Unità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9.

Unità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9. Unità 30 Sommario Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi Bibliografia [Bel] -- [Ros] 9.3 [Pap] -- 1 Auto-informazione di un evento Prima di effettuare un esperimento

Dettagli

Teoria dell Informazione

Teoria dell Informazione Fondamenti di Informatica per la Sicurezza a.a. 2008/09 Teoria dell Informazione Stefano Ferrari UNIVERSITÀ DEGLI STUDI DI MILANO DIPARTIMENTO DI TECNOLOGIE DELL INFORMAZIONE Stefano Ferrari Università

Dettagli

Esercizi su variabili aleatorie discrete

Esercizi su variabili aleatorie discrete Esercizi su variabili aleatorie discrete Esercizio 1. Data la variabile aleatoria discreta X, caratterizzata dalla seguente rappresentazione nello spazio degli stati: 1 0,25 X = { 0 0,50 1 0,25 calcolare

Dettagli

Variabili casuali multidimensionali

Variabili casuali multidimensionali Probabilità e Statistica Esercitazioni a.a. 2006/2007 C.d.L.: Ingegneria per l Ambiente ed il Territorio, Ingegneria Civile, Ingegneria Gestionale, Ingegneria dell Informazione C.d.L.S.: Ingegneria Civile

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

Codifica binaria: - numeri naturali -

Codifica binaria: - numeri naturali - Codifica binaria: - numeri naturali - Ingegneria Meccanica e dei Materiali Università degli Studi di Brescia Prof. Massimiliano Giacomin Tipologie di codici Per la rappresentazione di: caratteri alfabetici

Dettagli

Corso di Calcolatori Elettronici I

Corso di Calcolatori Elettronici I Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica Roberto Canonico Università degli Studi di Napoli Federico II A.A. 2016-2017 Roberto Canonico Corso di Calcolatori Elettronici

Dettagli

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media

Dettagli

Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni. Esercitazioni del corso di. Telecomunicazioni

Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni. Esercitazioni del corso di. Telecomunicazioni Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni Esercitazioni del corso di Telecomunicazioni Corso di laurea in Ingegneria Gestionale Anno Accademico 2013-2014 Ing. Alfonso

Dettagli

Prova di esame di Teoria dei Segnali

Prova di esame di Teoria dei Segnali 10 aprile 2018 Prova di esame di Teoria dei Segnali Parte quantitativa Candidato: Esercizio A Un canale binario simmetrico è caratterizzato { da una probabilità di errore p (x1 ) = 0.1 P e = 0.2 e probabilità

Dettagli

Capitolo 5 La trasmissione dell informazione

Capitolo 5 La trasmissione dell informazione Capitolo 5 La trasmissione dell informazione Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio Destinazione Caratterizzazione

Dettagli

Informazione e sua rappresentazione: codifica. Il concetto di informazione

Informazione e sua rappresentazione: codifica. Il concetto di informazione Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Roberto Canonico Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso

Dettagli

Variabili aleatorie parte 2. 1 Definizione di funzione di ripartizione o funzione cumulativa (CDF)

Variabili aleatorie parte 2. 1 Definizione di funzione di ripartizione o funzione cumulativa (CDF) Statistica e analisi dei dati Data: 11 aprile 2016 Variabili aleatorie parte 2 Docente: Prof. Giuseppe Boccignone Scriba: Alessandra Birlini 1 Definizione di funzione di ripartizione o funzione cumulativa

Dettagli

Informazione e sua rappresentazione: codifica

Informazione e sua rappresentazione: codifica Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso

Dettagli

Fondamenti di Informatica. Cosa è l informazione. A cosa serve. Prof.V.L.Plantamura Informatica e Comunicazione Digitale a.a.

Fondamenti di Informatica. Cosa è l informazione. A cosa serve. Prof.V.L.Plantamura Informatica e Comunicazione Digitale a.a. Fondaenti di Inforatica Prof.V.L.Plantaura Inforatica e Counicazione Digitale a.a. 2005-2006 Cosa è l inforazione L inforazione è qualcosa che si possiede e si può dare ad un altro senza perderne il possesso.

Dettagli

Capitolo 4 Strato Fisico- Modellazione delle Sorgenti d Informazione e Codificazione di Sorgente

Capitolo 4 Strato Fisico- Modellazione delle Sorgenti d Informazione e Codificazione di Sorgente Capitolo 4 Strato Fisico- Modellazione delle Sorgenti d Informazione e Codificazione di Sorgente 1 Sorgenti d Informazione- Generalità Per valutare le prestazioni di un Sistema di TLC, è necessario descrivere

Dettagli

Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A (STII(A))

Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A (STII(A)) STIIA Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A STIIA Classe: Matricole Pari Docente: Prof. Luisa Gargano Testo principale: T. Cover, J. Thomas, Elements of Information Theory,

Dettagli

Teoria delle Decisioni Bayesiana

Teoria delle Decisioni Bayesiana Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 14 gennaio 2009 Sommario Introduzione Teoria delle decisioni Bayesiana - nel continuo Classificazione

Dettagli

L Aritmetica del Calcolatore

L Aritmetica del Calcolatore L Aritmetica del Calcolatore Luca Gemignani luca.gemignani@unipi.it 23 febbraio 2018 Indice Lezione 1: Rappresentazione in Base e Numeri di Macchina. 1 Lezione 2: Aritmetica di Macchina. 3 Lezione 1: Rappresentazione

Dettagli

VARIABILI CASUALI. Fino ad ora abbiamo definito:

VARIABILI CASUALI. Fino ad ora abbiamo definito: VARIABILI CASUALI Fino ad ora abbiamo definito: Lo SPAZIO CAMPIONARIO Ω : Come totalità dei possibili risultati di un esperimento Gli EVENTI : Come sottoinsiemi dello spazio campionario La FUNZIONE DI

Dettagli

Teoria dell Informazione

Teoria dell Informazione Corso di Laurea Magistrale in Scienze dell Informazione Editoriale, Pubblica e Sociale Teoria dell Informazione Cosa è l informazione L informazione è qualcosa che si possiede e si può dare ad un altro

Dettagli

Elementi di informatica

Elementi di informatica Elementi di informatica problema della rappresentazione dei valori delle informazioni la rappresentazione deve essere effettuata attraverso un insieme finito di simboli disponibili il numero di simboli

Dettagli

3. TEORIA DELL INFORMAZIONE

3. TEORIA DELL INFORMAZIONE 3. TEORIA DELL INFORMAZIONE INTRODUZIONE MISURA DI INFORMAZIONE SORGENTE DISCRETA SENZA MEMORIA ENTROPIA DI UNA SORGENTE NUMERICA CODIFICA DI SORGENTE 1 TEOREMA DI SHANNON CODICI UNIVOCAMENTE DECIFRABILI

Dettagli

Architettura degli Elaboratori

Architettura degli Elaboratori Architettura degli Elaboratori Rappresentazione dell Informazione Barbara Masucci Cosa studiamo oggi Ø Un moderno elaboratore è un sistema elettronico digitale programmabile Ø Il suo comportamento è flessibile

Dettagli

L informazione numerica

L informazione numerica L informazione numerica Sorgenti di informazione Abbiamo esaminato delle sorgenti di informazione analogiche (audio, video). Abbiamo visto come trasmetterle a distanza per mezzo di sistemi analogici. Come

Dettagli

(h + 1)y + hz = 1. 1 [5 punti] Determinare le eventuali soluzioni del seguente sistema di congruenze: 2x 5 mod 3 3x 2 mod 5.

(h + 1)y + hz = 1. 1 [5 punti] Determinare le eventuali soluzioni del seguente sistema di congruenze: 2x 5 mod 3 3x 2 mod 5. Dipartimento di Matematica e Informatica Anno Accademico 07-08 Corso di Laurea in Informatica (L-) Prova scritta di Matematica Discreta ( CFU) 8 Luglio 08 [5 punti] Determinare le eventuali soluzioni del

Dettagli

La teoria dell informazione

La teoria dell informazione Intelligenza artificiale, informatica, linguistica, scienze umane e molte altre discipline concorrono a formare il campo che oggi si definisce informatica umanistica Informatica Informazione+automatica

Dettagli

Fondamenti di Informatica. Cosa è l informazione. Informazione. Informatica e Comunicazione Digitale

Fondamenti di Informatica. Cosa è l informazione. Informazione. Informatica e Comunicazione Digitale Inforatica e Counicazione Digitale Fondaenti di Inforatica rof.ssa E. Gentile a.a. 20-202 Cosa è l inforazione L inforazione è qualcosa che si possiede e si può dare ad un altro senza perderne il possesso.

Dettagli

Complementi di Matematica e Calcolo Numerico A.A Laboratorio 4 - Polinomi e Interpolazione polinomiale

Complementi di Matematica e Calcolo Numerico A.A Laboratorio 4 - Polinomi e Interpolazione polinomiale Complementi di Matematica e Calcolo Numerico A.A. 2015-2016 Laboratorio 4 - Polinomi e Interpolazione polinomiale Polinomi e vettori: Consideriamo particolari funzioni di una variabile reale che siano

Dettagli

Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04

Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04 Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04 LU 1/3 Esempi di vita reale : calcolo delle probabilità, statistica descrittiva e statistica inferenziale. Lancio dado/moneta: definizione

Dettagli

Introduzione al modello Uniforme

Introduzione al modello Uniforme Teoria dei Fenomeni Aleatori 1 AA 01/13 Introduzione al modello Uniforme Esempio: conversione Analogico/Digitale Errore di quantizzazione Ampiezza Continua Discreta x t x q t Tempo Discreto Continuo 0

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Segnale vocale e segnale telefonico Segnale vocale I segnali vocali sono costituiti

Dettagli

Crittanalisi dei cifrari simmetrici. Crittografia classica

Crittanalisi dei cifrari simmetrici. Crittografia classica Crittanalisi dei cifrari simmetrici Sostituzione monoalfabetica di caratteri Sostituzione polialfabetica di caratteri One-time pad Cifrario perfetto Cifrario composto robustezza sicurezza perfetta sicurezza

Dettagli

Lezione 1, 2 e 3 Ugo Vaccaro

Lezione 1, 2 e 3 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 08 09 Lezione, e 3 Ugo Vaccaro Per i nostri scopi, una sorgente di informazione è una sequenza di variabili casuali X, X,..., X i,... le quali assumono valori

Dettagli

Introduzione alla codifica entropica

Introduzione alla codifica entropica Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta

Dettagli

Teoria dell informazione

Teoria dell informazione Teoria dell informazione Giuseppe Ruggeri Università Mediterranea di Reggio Calabria Italy Outline Cos è l informazione? E possibile misurare l informazione? Limiti matematici nella rappresentazione dell

Dettagli

Università degli Studi di Ferrara Corso di Laurea in Chimica - A.A

Università degli Studi di Ferrara Corso di Laurea in Chimica - A.A Università degli Studi di Ferrara Corso di Laurea in Chimica - A.A. 2018-2019 Programmazione Lezione 12A Esercizi in MATLAB Docente: Lorenzo Caruso lorenzo.caruso@unife.it Nelle lezioni precedenti Matlab:

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

MASB AA10/11 21/01/11 test #1 1

MASB AA10/11 21/01/11 test #1 1 MASB 0/06/11 AA010011test #1. Esercizio 1. Illustrare lo schema generale di un apparecchiatura per l acquisizione di segnali spontanei, descrivendo brevemente i diversi componenti. Fornire una descrizione

Dettagli

Esercizi sulla rappresentazione dell informazione

Esercizi sulla rappresentazione dell informazione Esercizi sulla rappresentazione dell informazione Esercizio 1A Trovare la rappresentazione binaria di 56,83 in virgola fissa quattro bit di precisione. Soluzione 1A: La rappresentazione binaria di 56,83

Dettagli

Fondamenti di Informatica. Cosa è l informazione. A cosa serve. Prof. V.L. Plantamura Informatica e Comunicazione Digitale a.a.

Fondamenti di Informatica. Cosa è l informazione. A cosa serve. Prof. V.L. Plantamura Informatica e Comunicazione Digitale a.a. Fondaenti di Inforatica Prof. V.L. Plantaura Inforatica e Counicazione Digitale a.a. 2006-2007 Cosa è l inforazione L inforazione è qualcosa che si possiede e si può dare ad un altro senza perderne il

Dettagli

La codifica binaria: concetti fondamentali

La codifica binaria: concetti fondamentali La codifica binaria: concetti fondamentali Ingegneria Meccanica e dei Materiali Università degli Studi di Brescia Prof. Massimiliano Giacomin ... Algoritmi, dati e risultati sono informazioni Informatica

Dettagli

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una

Dettagli

un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio;

un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio; TEST DI AUTOVALUTAZIONE - SETTIMANA 3 I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. Metodi statistici per la biologia 1 Parte A 1.1 Una variabile casuale

Dettagli

2. Introduzione alla probabilità

2. Introduzione alla probabilità . Introduzione alla probabilità Carla Seatzu, 8 Marzo 008 Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari: è l insieme Ω di tutti i possibili esiti

Dettagli

1 Esercizio - caso particolare di ottimalità

1 Esercizio - caso particolare di ottimalità Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto

Dettagli

Complessità di Kolmogorov

Complessità di Kolmogorov (FX) Teoria dell Informazione e della Trasmissione Complessità di Kolmogorov Docente: Nicolò Cesa-Bianchi versione maggio 206 La teoria dell informazione secondo Shannon, introdotta nel 948, si basa sulla

Dettagli

assuma valori in un determinato intervallo è data dall integrale della sua densità ( = )=

assuma valori in un determinato intervallo è data dall integrale della sua densità ( = )= VARIABILI ALEATORIE CONTINUE Esistono parecchi fenomeni reali per la cui descrizione le variabili aleatorie discrete non sono adatte. Per esempio è necessaria una variabile aleatoria continua ovvero una

Dettagli

2) Codici univocamente decifrabili e codici a prefisso.

2) Codici univocamente decifrabili e codici a prefisso. Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il

Dettagli

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale

Dettagli

Integrazione numerica

Integrazione numerica Integrazione numerica Lucia Gastaldi DICATAM - Sez. di Matematica, http://lucia-gastaldi.unibs.it Indice 1 Formule di quadratura semplici e composite Formule di quadratura Grado di precisione Formule di

Dettagli

Trasmissione dell informazione

Trasmissione dell informazione Università degli Studi di Roma Tor Vergata Facoltà di Ingegneria Corso di Ingegneria Medica Trasmissione dell informazione La comunicazione Si tratta di un processo attraverso il quale due o più entità

Dettagli

Generazione di Numeri Casuali- Parte 2

Generazione di Numeri Casuali- Parte 2 Esercitazione con generatori di numeri casuali Seconda parte Sommario Trasformazioni di Variabili Aleatorie Trasformazione non lineare: numeri casuali di tipo Lognormale Trasformazioni affini Numeri casuali

Dettagli