Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A (STII(A))

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A (STII(A))"

Transcript

1 STIIA Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A STIIA Classe: Matricole Pari Docente: Prof. Luisa Gargano Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley p. /29

2 Prove di esame Prova scritta comprendente domande di teoria ed esercizi Prova orale di norma facoltativa p. 2/29

3 Teoria dell Informazione The fundamental problem of communication is that of reproducing at one point either exactly or approximately a message selected at another point. Claude Shannon p. 3/29

4 Uno scenario esemplificativo Sonda Cassini: invia immagini dallo spazio Trasmissione: Segnale naviga molti minuti per arrivare, soggetto a rumore distorsione per raggi cosmici, attivitá solare,... 0 p p p p 0 Domanda: Come mai possimo vedere in modo chiaro le immagini trasmesse dalle sonde? p. 4/29

5 Uno scenario esemplificativo Compact Disk: Tantissimi dati memorizzati su piccolo CD Riproduzione: Ottima anche se CD graffiato Domanda: Come mai tanti dati memorizzati e nessuna distorsione anche se CD é graffiato? p. 5/29

6 Idea di base Non si trattano i dati da trasmettere, memorizzare,... direttamente, ma dopo averli trasformati eliminando la ridondanza efficienza aggiungendo ridondanza utile protezione dal rumore C. Shannon, 948 p. /29

7 Cosa si intende per Informazione? Il contenuto di informazione non ha nulla a che vedere col contenuto del messaggio, ma col numero di 0 e, necessari per trasmetterlo/memorizzarlo. La natura del messaggio numeri, musica, immagini é irrilevante. Curiositá. Nell articolo originale di Shannon 948 compare per la prima volta il termine bit binary unit. p. 7/29

8 In questo corso Come misurare l informazione Quanti bit servono per memorizzare dati? Mostreremo come possiamo comprimere l informazione di una sorgente al suo valore minimo teorico Es. Questo File x = 20, 8 KB File compresso gzip, 8 x/3 KB; stessa informazione e mostreremo un tradeoff tra la compressione dati e la distorsione Cosa fare se l informazione é alterata da errori? Mostreremo il Teorema di codifica canale: é possible ottenere una comunicazione quasi perfetta dell informazione su canali rumorosi. p. 8/29

9 Implicazioni La portata della scoperta di Shannon è enorme: essa ha rivoluzionato non solo le comunicazioni, ma anche tutti i processi di elaborazione dei dati. Il topo elettromeccanico di Shannon Theseus è stato uno dei primi tentativi di "insegnare" ad una macchina ad imparare In later years, his ideas spread beyond the fields of communications engineering and computer science, taking root in cryptography, the mathematics of probability and even investment theory. In biology, it has become second nature to think of DNA replication and hormonal signaling in terms of information New York Times Obituary, 200. p. 9/29

10 Applicazioni Le idee di Shannon hanno trasformato il mondo Comunicazione 948: Compressione dati, trasmissione su canali rumorosi Fisica 948: Relazioni tra entropia e termodinamica Matematica: Calcolo delle probabilitá e Statistica Informatica: Sistemi di elaborazione, Complessitá Economia: Gambling e Investimenti in Borsa p. 0/29

11 Applicazioni e la trasformazione continua. Comunicazione Oggi: Reti di calcolatori, reti wireless, sistemi P2P, Network Coding Fisica Oggi: trasmissione ed elaborazione degli stati quantici Bioinformatica: studio del DNA... p. 0/29

12 Prerequisiti Calcolo delle Probabilitá p. /29

13 Variabili casuali v.c. X v.c. con alfabeto X distribuita secondo P X P : per ogni x X ; px = Pr{X = x}, Nota: px 0 x X e x X px = p. 2/29

14 Variabili casuali v.c. X v.c. con alfabeto X distribuita secondo P X P : per ogni x X ; px = Pr{X = x}, Nota: px 0 x X e x X px = Es.: X = {, 2, 4} P = p = /2, p2 = /4, p4 = /4 2 4 X = p. 2/29

15 Variabili casuali v.c. X v.c. con alfabeto X distribuita secondo P X P : per ogni x X ; px = Pr{X = x}, Nota: px 0 x X e x X px = Es.Testo in inglese: X = {a,b,...,z, spazio }, P = pa = 0.058, pb = 0.03,...,p spazio = 0.93 a b... z spazio X = p. 2/29

16 Valore Atteso Valore medio di X v.c. con alfabeto X R e X P : E[X] = x X x px Es.: X = E[X] = /2 + 2/4 + 4/4 = 2 Es. Dado: X = E[X] = = 7 2 p. 3/29

17 Funzione di v.c. X f funzione reale, fx: v.c. su {fx x X }, E[fX] = x X pxfx Es.: X 2 = X = E[X] = , E[X 2 ] = 9 Y = log 2 PX E[Y ] = E [ ] log 2 PX = log = log p. 4/29

18 Consideriamo due V.c. X,Y. Distribuzione congiunta su X, Y : px,y = Pr{X = x,y = y}, x X,y Y X,Y indipendenti: px,y = pxpy, X X,y Y Probabilitá marginali: px = y px,y, py = x Prx,y. Probabilitá condizionali: py/x = pxy/px p. 5/29

19 Disuguaglianze utili: riepilogo Disuguaglianza di Markov Media Probabilitá: v.c. X 0, Pr{X k E[X]} k Chernoff Bound: X,...,X n v.c. iid indipendenti ed identicamente distribuite con valor medio µ { n i= Pr X } i µ n ǫ e ǫ2 n/2 Legge debole dei grandi numeri: X,...,X n,... v.c. iid con valor medio µ { n i= lim n Pr X } i µ n ǫ = 0 p. /29

20 Entropia Cruciale: determinare la quantitá di randomness di una d.p. X=v.c. discreta su X e d.p. px = Pr{X = x}, x X. Es. Lancio moneta M, moneta truccata MT, dado D t c t c... M =,MT = 3,D = Vogliamo una misura HX della randomness/incertezza sull esito di X o informazione che otteniamo in media conoscendo il valore assunto da X Deve risultare HMT < HM < HD p. 7/29

21 Contenuto di Informazione Informazione associata a valore x avente probabilitá px é M = MT = t 2 t 4 ix = log 2 px c, it = ic = 2 c, it = 2, ic = log = 2 log Eventi poco probabili danno maggiore informazione p. 8/29

22 Entropia Entropia di X: Informazione media degli elementi di X HX = x X pxix = x X px log 2 px M = t 2 c 2,MT = t 4 c 3 4,D = HM = 2 2 log 2 = 2 2 = HMT = 4 log log 3 4 = log log 3 < HD = log = + log 3 HMT < HM < HD p. 9/29

23 Significato operativo Entropia: Numero di bit per rappresentare l informazione Esempio Una persona assiste ad una corsa di cavalli a cui partecipano 8 cavalli tutti ugualmente favoriti. Quanti bit servono per indicare il vincitore? Calcoliamo l entropia di X : X = H X = 8 8 lg 8 = lg 8 = p. 20/29

24 Corsa di cavalli con diverse prob. vittoria X = Codifica deve tener conto delle diverse probabilità. : 0 2 : 0 3 : 0 4 : 0 5 : 0 0 : 0 7 : 0 8 : p. 2/29

25 Qualè il numero atteso di bit utilizzati per codificare il nome del vincitore? # bits parola codice probabilitá di vittoria = = = 8 = 2 HX = 2 lg 2+ 4 lg 4+ 8 lg 8+ lg +4 4 lg 4 = 2 p. 22/29

26 Esempio 2 Supponiamo di voler indovinare un valore x tra,...2 m, con domande del tipo é x i? Ricerca binaria: m domande per ogni valore {, 2, 3, 4} x 2? {, 2} x? {3, 4} x 3? {} {2} {3} {4} p. 23/29

27 Supponiamo di voler indovinare il valore della v.c X =. /2 /4 /8 /8 Quante domande dobbiamo porre in media? p. 24/29

28 Costruiamo un albero di decisione /2 /4 /8 /8 x? {} /2 /4 /4 x 2? {2} 3 4 /2 /2 x 3? {3} {4} p. 25/29

29 nx = numero di domande nel caso in cui X = x. In media il numero di domande è : x X Se X = nxpx = = 7 4 = H X HX = 4 4 log 4 = log 4 = 2 In generale il minimo numero medio di domande del tipo x D X? è compreso tra HX e HX + p. 2/29

STII/Teoria dell Informazione

STII/Teoria dell Informazione STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì

Dettagli

10 Proprietà di Equipartizione Asintotica

10 Proprietà di Equipartizione Asintotica FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della

Dettagli

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

Modello di sistema di comunicazione

Modello di sistema di comunicazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

Nota: Eventi meno probabili danno maggiore informazione

Nota: Eventi meno probabili danno maggiore informazione Entropia Informazione associata a valore x avente probabilitá p(x é i(x = log 2 p(x Nota: Eventi meno probabili danno maggiore informazione Entropia di v.c. X P : informazione media elementi di X H(X =

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 3 Teoria dell informazione Sorgente Codificatore

Dettagli

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore. CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore

Dettagli

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio

Dettagli

8 Derivati dell entropia

8 Derivati dell entropia (F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Capacità del canale discreto Teoria dell informazione Sorgente Codificatore di sorgente

Dettagli

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media

Dettagli

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore. CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente p. 1/39 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria

Dettagli

Codifica sorgente e canale

Codifica sorgente e canale Codifica sorgente e canale Codifica sorgente Codifica canale in Canale Compressione Codifica Decodifica Decompress. Rumoroso out Codifica sorgente: comprimere i dati per rimuovere ridondanza Codifica canale:

Dettagli

Codifica delle sequenze sorgente

Codifica delle sequenze sorgente Codifica delle sequenze sorgente Sorgente emette sequenza di simboli appartenenti ad un alfabeto X che vengono codificati come sequenze di simboli di un alfabeto D-ario.. p.1/?? Codifica delle sequenze

Dettagli

Sorgenti discrete e informazione

Sorgenti discrete e informazione Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un

Dettagli

INFORMAZIONE E COMPLESSITA

INFORMAZIONE E COMPLESSITA INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze

Dettagli

La teoria dell informazione

La teoria dell informazione La teoria dell informazione Perché la teoria dell informazione è importante per la linguistica computazionale 2005 Isabella Chiari 1 Informatica Informazione+automatica = informatica Trattamento automatico

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore

Dettagli

Sicurezza di un Cifrario (C. Shannon)

Sicurezza di un Cifrario (C. Shannon) La teoria di Shannon segretezza perfetta sicurezza computazionale Sicurezza di un Cifrario (C. Shannon) SEGRETEZZA PERFETTA Un Cifrario è detto perfetto, o assolutamente sicuro, se, dopo aver intercettatto

Dettagli

Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni

Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Corso di Laurea in Ingegneria Informatica corso di Telecomunicazioni (Prof. G. Giunta) (editing a cura dell ing. F. Benedetto) Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Esame

Dettagli

La teoria dell informazione

La teoria dell informazione Intelligenza artificiale, informatica, linguistica, scienze umane e molte altre discipline concorrono a formare il campo che oggi si definisce informatica umanistica Informatica Informazione+automatica

Dettagli

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza

Dettagli

La Teoria dell Informazione. Il termine calore. Le origini. Cosa intendiamo quando usiamo il termine informazione?

La Teoria dell Informazione. Il termine calore. Le origini. Cosa intendiamo quando usiamo il termine informazione? La Teoria dell Informazione Cosa intendiamo quando usiamo il termine informazione? Ogni termine del linguaggio scientifico deve essere preciso ed univoco. Polisemia vs Monosemia Il termine calore 1. «Renzo

Dettagli

CP210 Introduzione alla Probabilità: Esame 2

CP210 Introduzione alla Probabilità: Esame 2 Dipartimento di Matematica, Roma Tre Pietro Caputo 2018-19, II semestre 9 luglio, 2019 CP210 Introduzione alla Probabilità: Esame 2 Cognome Nome Matricola Firma Nota: 1. L unica cosa che si può usare durante

Dettagli

Statistica. Congiunte. Capitolo 5. Distribuzioni di Probabilità. Chap 5-1. Statistics for Business and Economics, 6e 2007 Pearson Education, Inc.

Statistica. Congiunte. Capitolo 5. Distribuzioni di Probabilità. Chap 5-1. Statistics for Business and Economics, 6e 2007 Pearson Education, Inc. Statistica Capitolo 5 Distribuzioni di Probabilità Congiunte Statistics for Business and Economics, 6e 2007 Pearson Education, Inc. Chap 5-1 Distribuzione di Probabilità Congiunta Una variabile casuale

Dettagli

Introduzione alla codifica entropica

Introduzione alla codifica entropica Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta

Dettagli

Elementi di teoria dell informazione e della trasmissione

Elementi di teoria dell informazione e della trasmissione VERSIONE 19.4.01 Elementi di teoria dell informazione e della trasmissione Introduzione Efficienza nell uso dei supporti Quantità di informazione ed entropia La caratterizzazione statistica dei canali

Dettagli

Fondamenti dell Informatica

Fondamenti dell Informatica Informatica e Comunicazione Digitale (sede di Taranto) Fondamenti dell Informatica a.a. 2015-2016 Programma 2015-2016 1. Teoria dell Informazione 2. Algoritmi e problema 3. Algebra di Boole 4. La Macchina

Dettagli

Informazione, Entropia e Probabilità

Informazione, Entropia e Probabilità Informazione, Entropia e Probabilità Alessandro Lenci Università di Pisa, Dipartimento di Linguistica Via Santa Maria, 36, 56100 Pisa, Italy alessandro.lenci@ilc.cnr.it Linguaggio e comunicazione - LO042

Dettagli

Probabilità e Statistica

Probabilità e Statistica Probabilità e Statistica Variabili Casuali multidimensionali Marco Pietro Longhi C.d.L.: Ingegneria Elettronica e delle Telecomunicazioni, Ingegneria Informatica a.s. 2/29 Marco Pietro Longhi Prob. e Stat.

Dettagli

Calcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012

Calcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012 Fisciano, 10/1/2012 Esercizio 1 Un esperimento consiste nel generare a caso un vettore di interi (x 1, x 2, x 3, x 4 ), dove x i {1, 2, 3, 4, 5, 6} i. (i) Si individui lo spazio campionario, determinandone

Dettagli

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente

Dettagli

Modelli probabilistici variabili casuali

Modelli probabilistici variabili casuali Modelli probabilistici variabili casuali Le variabili casuali costituiscono il legame tra il calcolo della probabilità e gli strumenti di statistica descrittiva visti fino ad ora. Idea: pensiamo al ripetersi

Dettagli

Calcolo delle Probabilità 2

Calcolo delle Probabilità 2 Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale

Dettagli

Variabili casuali multidimensionali

Variabili casuali multidimensionali Variabili casuali multidimensionali Variabili casuali multidimensionali: k-ple ordinate di variabili casuali unidimensionali definite sullo stesso spazio di probabilità X = (X 1,..., X k ) Funzione di

Dettagli

LA CODIFICA. CANALE IDEALE E REALE

LA CODIFICA. CANALE IDEALE E REALE LA CODIFICA. CANALE IDEALE E REALE L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale:

Dettagli

Proprietà asintotiche dello stimatore OLS

Proprietà asintotiche dello stimatore OLS Università di Pavia Proprietà asintotiche dello stimatore OLS Eduardo Rossi Sequenze Consideriamo un infinita sequenza di variabili indicizzate con i numeri naturali: X 1, X 2, X 3,...,X N,... = {X N }

Dettagli

SHANNON, L INVENZIONE DEL TRANSISTOR E L ALBA DELL ERA INFORMATICA

SHANNON, L INVENZIONE DEL TRANSISTOR E L ALBA DELL ERA INFORMATICA SHANNON, L INVENZIONE DEL TRANSISTOR E L ALBA DELL ERA INFORMATICA Andrea Mennucci 1 & Sanjoy K. Mitter 2 1 Scuola Normale Superiore, Pisa 2 Massachusetts Institute of Technology, Cambridge BergamoScienza,

Dettagli

Bayes, PDF, CDF. Renato Mainetti

Bayes, PDF, CDF. Renato Mainetti Bayes, PDF, CDF Renato Mainetti Importiamo i dati di un esperimento Censimento volatili isola di Nim: 100 volatili vivono su quest isola 30 piccioni marroni (classe 1) 20 piccioni bianchi (classe 2) 10

Dettagli

STATISTICA: esercizi svolti sulle VARIABILI CASUALI

STATISTICA: esercizi svolti sulle VARIABILI CASUALI STATISTICA: esercizi svolti sulle VARIABILI CASUALI VARIABILI CASUALI 2 VARIABILI CASUALI. Variabili casuali generiche. Si supponga che un dado truccato, formato da sei facce contrassegnate dai numeri

Dettagli

SHANNON, L INVENZIONE DEL TRANSISTOR E L ALBA DELL ERA INFORMATICA

SHANNON, L INVENZIONE DEL TRANSISTOR E L ALBA DELL ERA INFORMATICA SHANNON, L INVENZIONE DEL TRANSISTOR E L ALBA DELL ERA INFORMATICA Andrea Mennucci 1 & Sanjoy K. Mitter 2 1 Scuola Normale Superiore, Pisa 2 Massachusetts Institute of Technology, Cambridge BergamoScienza,

Dettagli

! X (92) X n. P ( X n X ) =0 (94)

! X (92) X n. P ( X n X ) =0 (94) Convergenza in robabilità Definizione 2 Data una successione X 1,X 2,...,X n,... di numeri aleatori e un numero aleatorio X diremo che X n tende in probabilità a X escriveremo X n! X (92) se fissati comunque

Dettagli

CP210 Introduzione alla Probabilità: Esonero 2

CP210 Introduzione alla Probabilità: Esonero 2 Dipartimento di Matematica, Roma Tre Pietro Caputo 218-19, II semestre 4 giugno, 219 CP21 Introduzione alla Probabilità: Esonero 2 Cognome Nome Matricola Firma Nota: 1. L unica cosa che si può usare durante

Dettagli

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17 II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile

Dettagli

DISTRIBUZIONI DI PROBABILITA (parte 1) 1 / 19

DISTRIBUZIONI DI PROBABILITA (parte 1) 1 / 19 DISTRIBUZIONI DI PROBABILITA (parte 1) 1 / 19 Variabili casuali (o aleatorie) 2 / 19 Disponendo di metodi corretti per raccogliere i dati e costruire i campioni data una popolazione, i valori numerici

Dettagli

CP110 Probabilità: Esonero 2. Testo e soluzione

CP110 Probabilità: Esonero 2. Testo e soluzione Dipartimento di Matematica, Roma Tre Pietro Caputo 2011-12, II semestre 29 maggio, 2012 CP110 Probabilità: Esonero 2 Testo e soluzione 1. (8 punti) La freccia lanciata da un arco è distribuita uniformemente

Dettagli

Elaborazione dell informazione. Elaborazione dell informazione. Rappresentazione dei numeri INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042)

Elaborazione dell informazione. Elaborazione dell informazione. Rappresentazione dei numeri INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042) Elaborazione dell informazione INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042) Elaborazione di informazione prevede una codifica come: Dato: insieme di simboli rappresentati su un supporto Negli elaboratori:

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con

Dettagli

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione. Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

STII. Probabilità e proprietà dei logaritmi

STII. Probabilità e proprietà dei logaritmi STII Durante una trasmissione, il segnale naviga alcuni minuti prima di arrivare a destinazione. Durante il percorso, il segnale è soggetto a rumore, quindi può capitare che il messaggio che è stato inviato

Dettagli

Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza

Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza CALCOLO DELLE PROBABILITÀ E STATISTICA ESAME DEL 16/06/2016 NOME: COGNOME: MATRICOLA: Esercizio 1 Cinque lettere

Dettagli

Esame di Calcolo delle Probabilità del 4 luglio 2006 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).

Esame di Calcolo delle Probabilità del 4 luglio 2006 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Esame di Calcolo delle Probabilità del 4 luglio 26 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Cognome Nome Matricola Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale Attenzione:

Dettagli

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità

Dettagli

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea) 10.4 Convergenze 166 10.4.3. Convergenza in Probabilità. Definizione 10.2. Data una successione X 1, X 2,...,,... di vettori aleatori e un vettore aleatorio X aventi tutti la stessa dimensione k diremo

Dettagli

Roberto Maieli La trasmissione dell informazione

Roberto Maieli La trasmissione dell informazione Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio

Dettagli

Esame di AM2 & EAP (270/04) a.a. 2009/10

Esame di AM2 & EAP (270/04) a.a. 2009/10 Quarto appello del 16 Luglio 2010 1. Un urna contiene delle palline numerate e distribuite in seguente maniera: Vengono estratte due palline senza rimpiazzo e siano X e Y rispettivamente il numero della

Dettagli

Comunicazioni Elettriche Esercizi

Comunicazioni Elettriche Esercizi Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,

Dettagli

La media campionaria. MEDIA CAMPIONARIA Date n v.a. X 1,..., X n indipendenti e identicamente distribuite (in breve i.i.d.), la v.a.

La media campionaria. MEDIA CAMPIONARIA Date n v.a. X 1,..., X n indipendenti e identicamente distribuite (in breve i.i.d.), la v.a. La media MEDIA CAMPIONARIA Date n v.a. X 1,..., X n indipendenti e identicamente distribuite (in breve i.i.d.), la v.a. X n = 1 n è detta media. n X i, i=1 In altre parole, se le X 1,...,X n sono il risultato

Dettagli

Risultati X P(X) TTT 0 1/8 TTC 1 1/8 TCT 1 1/8 CTT 1 1/8 TCC 2 1/8 CTC 2 1/8 CCT 2 1/8 CCC 3 1/8 X P(X) F(X) 0 1/8 1/8 1 3/8 4/8 2 3/8 7/8 3 1/8 1

Risultati X P(X) TTT 0 1/8 TTC 1 1/8 TCT 1 1/8 CTT 1 1/8 TCC 2 1/8 CTC 2 1/8 CCT 2 1/8 CCC 3 1/8 X P(X) F(X) 0 1/8 1/8 1 3/8 4/8 2 3/8 7/8 3 1/8 1 Esercizio 1 Determinare la distribuzione di probabilità e la funzione di ripartizione della v.c. discreta X = numero di croci in 3 lanci di una moneta. Calcolare F(-1), F(1.5), F(300). Risultati X P(X)

Dettagli

Scritto del

Scritto del Dip. di Ingegneria, Univ. Roma Tre Prof. E. Scoppola, Dott.M. Quattropani Probabilità e Statistica, 17-18, I semestre Settembre 18 Scritto del - 9-18 Cognome Nome Matricola Esercizio 1. Un urna contiene

Dettagli

5. Analisi dei dati di output

5. Analisi dei dati di output Anno accademico 2006/07 Analisi dei dati di Output Y 1, Y 2,..., Y m : output della simulazione. Le variabili casuali Y 1, Y 2,..., Y m non sono in generale indipendenti Se supponiamo però di avere effettuato

Dettagli

POPOLAZIONE E CAMPIONI

POPOLAZIONE E CAMPIONI p. 1/2 POPOLAZIONE E CAMPIONI POPOLAZIONE insieme di tutti quegli elementi che hanno almeno una caratteristica comune (persone, oggetti,misure, osservazioni). Consideriamo il caso di caratteristiche associate

Dettagli

Tutorato di Complementi di Analisi Matematica e Statistica 26 maggio 2016

Tutorato di Complementi di Analisi Matematica e Statistica 26 maggio 2016 Tutorato di Complementi di Analisi Matematica e Statistica 26 maggio 2016 Esercizi possibili di probabilità e statistica Notazioni: U(a, b) è la distribuzione di probabilità uniforma nell intervallo (a,

Dettagli

Elementi di Teoria della Probabilità

Elementi di Teoria della Probabilità Elementi di Teoria della Probabilità Alcune definizioni iniziali: Fenomeno casuale: fenomeno ripetibile (almeno in teoria) infinite volte che può manifestarsi in diverse modalità, imprevedibili singolarmente,

Dettagli

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016 Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 205/206 20 Settembre 206 Esercizio. Un dado equilibrato viene lanciato ripetutamente. Indichiamo con X n il risultato dell n-esimo

Dettagli

Prova Scritta di Probabilità e Statistica Cognome: Laurea in Matematica

Prova Scritta di Probabilità e Statistica Cognome: Laurea in Matematica Prova Scritta di Probabilità e Statistica Cognome: Laurea in Matematica Nome: 25 febbraio 2013 Matricola: ESERCIZIO 1. Si mostri la seguente formula di disintegrazione per la probabilità condizionata:

Dettagli

Variabili Casuali multidimensionali

Variabili Casuali multidimensionali Probabilità e Statistica Esercitazioni a.a. 27/2 C.d.L.: Ingegneria Elettronica e delle Telecomunicazioni, Ingegneria Informatica Variabili Casuali multidimensionali Marco Pietro Longhi Probabilità e Statistica

Dettagli

INFORMAZIONI. p. 1/23

INFORMAZIONI. p. 1/23 p. 1/23 INFORMAZIONI Prossime lezioni Giorno Ora Dove Giovedi 11/02 14:30 Laboratorio (via Loredan) Martedi 16/02 14:30 P50 Lunedi 22/02 09:30 P50 Martedi 23/02 14:30 P50 Giovedi 25/02 14:30 Aula informatica

Dettagli

Esame di Calcolo delle Probabilità del 11 dicembre 2007 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).

Esame di Calcolo delle Probabilità del 11 dicembre 2007 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Esame di Calcolo delle Probabilità del dicembre 27 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Cognome Nome Matricola Es. Es. 2 Es. Es. 4 Somma Voto finale Attenzione:

Dettagli

III Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2018/19

III Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2018/19 III Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 8/9 Martedì luglio 9 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile

Dettagli

Teoria dell Informazione II Anno Accademico Lezione 6-7

Teoria dell Informazione II Anno Accademico Lezione 6-7 Teoria dell Informazione II Anno Accademico 2017 2018 Lezione 6-7 Ugo Vaccaro ( ) 1 2 n Data una variabile casuale X = che assume valori i, con probabilità p p 1 p 2 p i, per i = 1,...,n, n vogliamo studiare

Dettagli

Teoria dell Informazione

Teoria dell Informazione Corso di Laurea Magistrale in Scienze dell Informazione Editoriale, Pubblica e Sociale Teoria dell Informazione Cosa è l informazione L informazione è qualcosa che si possiede e si può dare ad un altro

Dettagli

Informatica, Informazione e Telecomunicazioni. La codifica dell informazione. Supporto e informazione. Il concetto di informazione

Informatica, Informazione e Telecomunicazioni. La codifica dell informazione. Supporto e informazione. Il concetto di informazione La codifica dell informazione Fondamenti di Informatica A Ingegneria Gestionale Università degli Studi di Brescia Docente: Prof. Alfonso Gerevini Informatica, Informazione e Telecomunicazioni l informatica

Dettagli

V Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2012/13 Nome: 18 ottobre

V Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2012/13 Nome: 18 ottobre V Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 202/ Nome: 8 ottobre 20 Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile usare

Dettagli

Informatica, Informazione e Telecomunicazioni. La codifica dell informazione. Il concetto di informazione. Supporto e informazione

Informatica, Informazione e Telecomunicazioni. La codifica dell informazione. Il concetto di informazione. Supporto e informazione La codifica dell informazione Elementi di Informatica e Programmazione Ingegneria Gestionale Università degli Studi di Brescia Docente: Prof. Ivan Serina Prof. Alfonso Gerevini Informatica, Informazione

Dettagli

) la sua densità discreta sarà della forma. p X (0) = 1 2, p X(1) = 1 2,

) la sua densità discreta sarà della forma. p X (0) = 1 2, p X(1) = 1 2, Esercizi settimana 6 Esercizi applicati Esercizio. Siano X e Y due v.a. discrete indipendenti tali che X B(, ) e Y B(, ), n 0. (i) Si calcoli la legge di X + Y ; (ii) Si calcoli la legge di X Y ; (iii)

Dettagli

Matematica con elementi di Informatica

Matematica con elementi di Informatica Variabili aleatorie Matematica con elementi di Informatica Tiziano Vargiolu Dipartimento di Matematica vargiolu@math.unipd.it Corso di Laurea Magistrale in Chimica e Tecnologie Farmaceutiche Anno Accademico

Dettagli

ESERCIZI HLAFO ALFIE MIMUN

ESERCIZI HLAFO ALFIE MIMUN ESERCIZI HLAFO ALFIE MIMUN December, 27. Testo degli esercizi Risolvere i seguenti problemi: () Siano X, X 2, X 3 variabili aleatorie i.i.d. bernulliane di media.5 e siano Y, Y 2, Y 3, Y 4 variabili aleatorie

Dettagli

Crittografia Moderna. Segretezza Perfetta: nozioni

Crittografia Moderna. Segretezza Perfetta: nozioni Crittografia Moderna Segretezza Perfetta: nozioni Segretezza perfetta Ci occuperemo di schemi di cifratura perfettamente sicuri Avversari di potere computazionale illimitato confidenzialità / riservatezza

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (2)

Computazione per l interazione naturale: fondamenti probabilistici (2) Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it

Dettagli

Probabilità e Statistica

Probabilità e Statistica Probabilità e Statistica Stima puntuale di parametri Marco Pietro Longhi C.d.L.: Ingegneria Elettronica e delle Telecomunicazioni, Ingegneria Informatica a.s. 018/019 Marco Pietro Longhi Prob. e Stat.

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

Esercizi di Calcolo delle Probabilità

Esercizi di Calcolo delle Probabilità Esercizi di Calcolo delle Probabilità Versione del 1/05/005 Corso di Statistica Anno Accademico 00/05 Antonio Giannitrapani, Simone Paoletti Calcolo delle probabilità Esercizio 1. Un dado viene lanciato

Dettagli

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p. Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia

Dettagli

Frequenza lettere in inglese

Frequenza lettere in inglese Frequenza lettere in inglese Sequenza random (entropia log 27 = 4.75): XFOML RXKHRJFFJUJ ZLPWCFWKCYJ FFJEYVKCQSGHYDĚ Sequenza basata su frequenze (entropia circa 4.1): OCRO HLI RGWR NMIELWIS EU LL NBNESEBYAĚ

Dettagli

5. Analisi dei dati di output

5. Analisi dei dati di output Anno accademico 2008/09 Analisi dei dati di Output Y 1, Y 2,..., Y m : output della simulazione. Le variabili casuali Y 1, Y 2,..., Y m non sono in generale indipendenti Se supponiamo però di avere effettuato

Dettagli

Statistica 28/10/09 Gruppo H-Z Programma ed esercizi svolti

Statistica 28/10/09 Gruppo H-Z Programma ed esercizi svolti ) Statistica 8/1/9 Gruppo H-Z Programma ed esercizi svolti Coppie ( X, Y di variabili aleatorie (v.a.) X e Y considerate congiuntamente pag. 1 Rappresentazioni grafiche di una coppia ( X, Y ) di v.a. pag.

Dettagli

15 Informazione e Predizione

15 Informazione e Predizione (FX) Teoria dell Informazione e della Trasmissione 5 Informazione e Predizione Docente: Nicolò Cesa-Bianchi versione 4 maggio 03 Consideriamo una sorgente X, p. Dallo studio della codifica sorgente, sappiamo

Dettagli

01GSZ Tecniche di protezione dell informazione

01GSZ Tecniche di protezione dell informazione Politecnico di Torino III Facoltà Ingegneria dell informazione 01GSZ Tecniche di protezione dell informazione CORSO DI LAUREA SPECIALISTICA IN INGEGNERIA DELLE TELECOMUNICAZIONI PRIMO ANNO, IV PERIODO

Dettagli

Teoria dell informazione

Teoria dell informazione Teoria dell informazione Giuseppe Ruggeri Università Mediterranea di Reggio Calabria Italy Outline Cos è l informazione? E possibile misurare l informazione? Limiti matematici nella rappresentazione dell

Dettagli

Esercizi Teoria della Probabilità

Esercizi Teoria della Probabilità Esercizi Teoria della Probabilità Esercizio 1 Durante un corso universitario, uno studente prova a svolgere una serie di esercizi. La risposta agli esercizi è di tipo binario (SI/NO). Supponendo la completa

Dettagli

Campionamento di variabili aleatorie. Andrea Marin Università Ca' Foscari Venezia Corso di Probabilità e Statistica a.a. 2009/2010

Campionamento di variabili aleatorie. Andrea Marin Università Ca' Foscari Venezia Corso di Probabilità e Statistica a.a. 2009/2010 Campionamento di variabili aleatorie Andrea Marin Università Ca' Foscari Venezia Corso di Probabilità e Statistica a.a. 2009/2010 Premessa Soluzione della prima esercitazione: l'analisi teorica Richiami:

Dettagli

Sperimentazioni di Fisica I mod. A Statistica - Lezione 3

Sperimentazioni di Fisica I mod. A Statistica - Lezione 3 Sperimentazioni di Fisica I mod. A Statistica - Lezione 3 A Garfagnini, M Mazzocco, C Sada Dipartimento di Fisica G. Galilei, Università di Padova AA 2014/2015 Elementi di Teoria della Probabilità L ineliminabile

Dettagli

ECONOMETRIA: Laboratorio I

ECONOMETRIA: Laboratorio I ECONOMETRIA: Laboratorio I Luca De Angelis CLASS - Università di Bologna Programma Laboratorio I Valori attesi e varianze Test di ipotesi Stima di un modello lineare attraverso OLS Valore atteso Data una

Dettagli

Probabilità: teoremi e distribuzioni

Probabilità: teoremi e distribuzioni Probabilità: teoremi e distribuzioni OBIETTIVO DIDATTICO DELLA LEZIONE Illustrare le più importanti distribuzioni di probabilità che vengono utilizzate in statistica Distribuzioni di probabilità 1. La

Dettagli

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3 CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3 Dott.ssa Antonella Costanzo a.costanzo@unicas.it Esercizio 1. La variabile casuale normale Da un analisi di bilancio è emerso che, durante i giorni feriali

Dettagli