Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A (STII(A))
|
|
- Massimiliano Corsini
- 5 anni fa
- Visualizzazioni
Transcript
1 STIIA Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A STIIA Classe: Matricole Pari Docente: Prof. Luisa Gargano Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley p. /29
2 Prove di esame Prova scritta comprendente domande di teoria ed esercizi Prova orale di norma facoltativa p. 2/29
3 Teoria dell Informazione The fundamental problem of communication is that of reproducing at one point either exactly or approximately a message selected at another point. Claude Shannon p. 3/29
4 Uno scenario esemplificativo Sonda Cassini: invia immagini dallo spazio Trasmissione: Segnale naviga molti minuti per arrivare, soggetto a rumore distorsione per raggi cosmici, attivitá solare,... 0 p p p p 0 Domanda: Come mai possimo vedere in modo chiaro le immagini trasmesse dalle sonde? p. 4/29
5 Uno scenario esemplificativo Compact Disk: Tantissimi dati memorizzati su piccolo CD Riproduzione: Ottima anche se CD graffiato Domanda: Come mai tanti dati memorizzati e nessuna distorsione anche se CD é graffiato? p. 5/29
6 Idea di base Non si trattano i dati da trasmettere, memorizzare,... direttamente, ma dopo averli trasformati eliminando la ridondanza efficienza aggiungendo ridondanza utile protezione dal rumore C. Shannon, 948 p. /29
7 Cosa si intende per Informazione? Il contenuto di informazione non ha nulla a che vedere col contenuto del messaggio, ma col numero di 0 e, necessari per trasmetterlo/memorizzarlo. La natura del messaggio numeri, musica, immagini é irrilevante. Curiositá. Nell articolo originale di Shannon 948 compare per la prima volta il termine bit binary unit. p. 7/29
8 In questo corso Come misurare l informazione Quanti bit servono per memorizzare dati? Mostreremo come possiamo comprimere l informazione di una sorgente al suo valore minimo teorico Es. Questo File x = 20, 8 KB File compresso gzip, 8 x/3 KB; stessa informazione e mostreremo un tradeoff tra la compressione dati e la distorsione Cosa fare se l informazione é alterata da errori? Mostreremo il Teorema di codifica canale: é possible ottenere una comunicazione quasi perfetta dell informazione su canali rumorosi. p. 8/29
9 Implicazioni La portata della scoperta di Shannon è enorme: essa ha rivoluzionato non solo le comunicazioni, ma anche tutti i processi di elaborazione dei dati. Il topo elettromeccanico di Shannon Theseus è stato uno dei primi tentativi di "insegnare" ad una macchina ad imparare In later years, his ideas spread beyond the fields of communications engineering and computer science, taking root in cryptography, the mathematics of probability and even investment theory. In biology, it has become second nature to think of DNA replication and hormonal signaling in terms of information New York Times Obituary, 200. p. 9/29
10 Applicazioni Le idee di Shannon hanno trasformato il mondo Comunicazione 948: Compressione dati, trasmissione su canali rumorosi Fisica 948: Relazioni tra entropia e termodinamica Matematica: Calcolo delle probabilitá e Statistica Informatica: Sistemi di elaborazione, Complessitá Economia: Gambling e Investimenti in Borsa p. 0/29
11 Applicazioni e la trasformazione continua. Comunicazione Oggi: Reti di calcolatori, reti wireless, sistemi P2P, Network Coding Fisica Oggi: trasmissione ed elaborazione degli stati quantici Bioinformatica: studio del DNA... p. 0/29
12 Prerequisiti Calcolo delle Probabilitá p. /29
13 Variabili casuali v.c. X v.c. con alfabeto X distribuita secondo P X P : per ogni x X ; px = Pr{X = x}, Nota: px 0 x X e x X px = p. 2/29
14 Variabili casuali v.c. X v.c. con alfabeto X distribuita secondo P X P : per ogni x X ; px = Pr{X = x}, Nota: px 0 x X e x X px = Es.: X = {, 2, 4} P = p = /2, p2 = /4, p4 = /4 2 4 X = p. 2/29
15 Variabili casuali v.c. X v.c. con alfabeto X distribuita secondo P X P : per ogni x X ; px = Pr{X = x}, Nota: px 0 x X e x X px = Es.Testo in inglese: X = {a,b,...,z, spazio }, P = pa = 0.058, pb = 0.03,...,p spazio = 0.93 a b... z spazio X = p. 2/29
16 Valore Atteso Valore medio di X v.c. con alfabeto X R e X P : E[X] = x X x px Es.: X = E[X] = /2 + 2/4 + 4/4 = 2 Es. Dado: X = E[X] = = 7 2 p. 3/29
17 Funzione di v.c. X f funzione reale, fx: v.c. su {fx x X }, E[fX] = x X pxfx Es.: X 2 = X = E[X] = , E[X 2 ] = 9 Y = log 2 PX E[Y ] = E [ ] log 2 PX = log = log p. 4/29
18 Consideriamo due V.c. X,Y. Distribuzione congiunta su X, Y : px,y = Pr{X = x,y = y}, x X,y Y X,Y indipendenti: px,y = pxpy, X X,y Y Probabilitá marginali: px = y px,y, py = x Prx,y. Probabilitá condizionali: py/x = pxy/px p. 5/29
19 Disuguaglianze utili: riepilogo Disuguaglianza di Markov Media Probabilitá: v.c. X 0, Pr{X k E[X]} k Chernoff Bound: X,...,X n v.c. iid indipendenti ed identicamente distribuite con valor medio µ { n i= Pr X } i µ n ǫ e ǫ2 n/2 Legge debole dei grandi numeri: X,...,X n,... v.c. iid con valor medio µ { n i= lim n Pr X } i µ n ǫ = 0 p. /29
20 Entropia Cruciale: determinare la quantitá di randomness di una d.p. X=v.c. discreta su X e d.p. px = Pr{X = x}, x X. Es. Lancio moneta M, moneta truccata MT, dado D t c t c... M =,MT = 3,D = Vogliamo una misura HX della randomness/incertezza sull esito di X o informazione che otteniamo in media conoscendo il valore assunto da X Deve risultare HMT < HM < HD p. 7/29
21 Contenuto di Informazione Informazione associata a valore x avente probabilitá px é M = MT = t 2 t 4 ix = log 2 px c, it = ic = 2 c, it = 2, ic = log = 2 log Eventi poco probabili danno maggiore informazione p. 8/29
22 Entropia Entropia di X: Informazione media degli elementi di X HX = x X pxix = x X px log 2 px M = t 2 c 2,MT = t 4 c 3 4,D = HM = 2 2 log 2 = 2 2 = HMT = 4 log log 3 4 = log log 3 < HD = log = + log 3 HMT < HM < HD p. 9/29
23 Significato operativo Entropia: Numero di bit per rappresentare l informazione Esempio Una persona assiste ad una corsa di cavalli a cui partecipano 8 cavalli tutti ugualmente favoriti. Quanti bit servono per indicare il vincitore? Calcoliamo l entropia di X : X = H X = 8 8 lg 8 = lg 8 = p. 20/29
24 Corsa di cavalli con diverse prob. vittoria X = Codifica deve tener conto delle diverse probabilità. : 0 2 : 0 3 : 0 4 : 0 5 : 0 0 : 0 7 : 0 8 : p. 2/29
25 Qualè il numero atteso di bit utilizzati per codificare il nome del vincitore? # bits parola codice probabilitá di vittoria = = = 8 = 2 HX = 2 lg 2+ 4 lg 4+ 8 lg 8+ lg +4 4 lg 4 = 2 p. 22/29
26 Esempio 2 Supponiamo di voler indovinare un valore x tra,...2 m, con domande del tipo é x i? Ricerca binaria: m domande per ogni valore {, 2, 3, 4} x 2? {, 2} x? {3, 4} x 3? {} {2} {3} {4} p. 23/29
27 Supponiamo di voler indovinare il valore della v.c X =. /2 /4 /8 /8 Quante domande dobbiamo porre in media? p. 24/29
28 Costruiamo un albero di decisione /2 /4 /8 /8 x? {} /2 /4 /4 x 2? {2} 3 4 /2 /2 x 3? {3} {4} p. 25/29
29 nx = numero di domande nel caso in cui X = x. In media il numero di domande è : x X Se X = nxpx = = 7 4 = H X HX = 4 4 log 4 = log 4 = 2 In generale il minimo numero medio di domande del tipo x D X? è compreso tra HX e HX + p. 2/29
STII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì
Dettagli10 Proprietà di Equipartizione Asintotica
FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliModello di sistema di comunicazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliNota: Eventi meno probabili danno maggiore informazione
Entropia Informazione associata a valore x avente probabilitá p(x é i(x = log 2 p(x Nota: Eventi meno probabili danno maggiore informazione Entropia di v.c. X P : informazione media elementi di X H(X =
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 3 Teoria dell informazione Sorgente Codificatore
DettagliCODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore
DettagliTEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
Dettagli8 Derivati dell entropia
(F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Capacità del canale discreto Teoria dell informazione Sorgente Codificatore di sorgente
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
DettagliCODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente p. 1/39 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria
DettagliCodifica sorgente e canale
Codifica sorgente e canale Codifica sorgente Codifica canale in Canale Compressione Codifica Decodifica Decompress. Rumoroso out Codifica sorgente: comprimere i dati per rimuovere ridondanza Codifica canale:
DettagliCodifica delle sequenze sorgente
Codifica delle sequenze sorgente Sorgente emette sequenza di simboli appartenenti ad un alfabeto X che vengono codificati come sequenze di simboli di un alfabeto D-ario.. p.1/?? Codifica delle sequenze
DettagliSorgenti discrete e informazione
Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un
DettagliINFORMAZIONE E COMPLESSITA
INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze
DettagliLa teoria dell informazione
La teoria dell informazione Perché la teoria dell informazione è importante per la linguistica computazionale 2005 Isabella Chiari 1 Informatica Informazione+automatica = informatica Trattamento automatico
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore
DettagliSicurezza di un Cifrario (C. Shannon)
La teoria di Shannon segretezza perfetta sicurezza computazionale Sicurezza di un Cifrario (C. Shannon) SEGRETEZZA PERFETTA Un Cifrario è detto perfetto, o assolutamente sicuro, se, dopo aver intercettatto
DettagliSoluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni
Corso di Laurea in Ingegneria Informatica corso di Telecomunicazioni (Prof. G. Giunta) (editing a cura dell ing. F. Benedetto) Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Esame
DettagliLa teoria dell informazione
Intelligenza artificiale, informatica, linguistica, scienze umane e molte altre discipline concorrono a formare il campo che oggi si definisce informatica umanistica Informatica Informazione+automatica
DettagliLunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27
Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza
DettagliLa Teoria dell Informazione. Il termine calore. Le origini. Cosa intendiamo quando usiamo il termine informazione?
La Teoria dell Informazione Cosa intendiamo quando usiamo il termine informazione? Ogni termine del linguaggio scientifico deve essere preciso ed univoco. Polisemia vs Monosemia Il termine calore 1. «Renzo
DettagliCP210 Introduzione alla Probabilità: Esame 2
Dipartimento di Matematica, Roma Tre Pietro Caputo 2018-19, II semestre 9 luglio, 2019 CP210 Introduzione alla Probabilità: Esame 2 Cognome Nome Matricola Firma Nota: 1. L unica cosa che si può usare durante
DettagliStatistica. Congiunte. Capitolo 5. Distribuzioni di Probabilità. Chap 5-1. Statistics for Business and Economics, 6e 2007 Pearson Education, Inc.
Statistica Capitolo 5 Distribuzioni di Probabilità Congiunte Statistics for Business and Economics, 6e 2007 Pearson Education, Inc. Chap 5-1 Distribuzione di Probabilità Congiunta Una variabile casuale
DettagliIntroduzione alla codifica entropica
Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta
DettagliElementi di teoria dell informazione e della trasmissione
VERSIONE 19.4.01 Elementi di teoria dell informazione e della trasmissione Introduzione Efficienza nell uso dei supporti Quantità di informazione ed entropia La caratterizzazione statistica dei canali
DettagliFondamenti dell Informatica
Informatica e Comunicazione Digitale (sede di Taranto) Fondamenti dell Informatica a.a. 2015-2016 Programma 2015-2016 1. Teoria dell Informazione 2. Algoritmi e problema 3. Algebra di Boole 4. La Macchina
DettagliInformazione, Entropia e Probabilità
Informazione, Entropia e Probabilità Alessandro Lenci Università di Pisa, Dipartimento di Linguistica Via Santa Maria, 36, 56100 Pisa, Italy alessandro.lenci@ilc.cnr.it Linguaggio e comunicazione - LO042
DettagliProbabilità e Statistica
Probabilità e Statistica Variabili Casuali multidimensionali Marco Pietro Longhi C.d.L.: Ingegneria Elettronica e delle Telecomunicazioni, Ingegneria Informatica a.s. 2/29 Marco Pietro Longhi Prob. e Stat.
DettagliCalcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012
Fisciano, 10/1/2012 Esercizio 1 Un esperimento consiste nel generare a caso un vettore di interi (x 1, x 2, x 3, x 4 ), dove x i {1, 2, 3, 4, 5, 6} i. (i) Si individui lo spazio campionario, determinandone
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
DettagliModelli probabilistici variabili casuali
Modelli probabilistici variabili casuali Le variabili casuali costituiscono il legame tra il calcolo della probabilità e gli strumenti di statistica descrittiva visti fino ad ora. Idea: pensiamo al ripetersi
DettagliCalcolo delle Probabilità 2
Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale
DettagliVariabili casuali multidimensionali
Variabili casuali multidimensionali Variabili casuali multidimensionali: k-ple ordinate di variabili casuali unidimensionali definite sullo stesso spazio di probabilità X = (X 1,..., X k ) Funzione di
DettagliLA CODIFICA. CANALE IDEALE E REALE
LA CODIFICA. CANALE IDEALE E REALE L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale:
DettagliProprietà asintotiche dello stimatore OLS
Università di Pavia Proprietà asintotiche dello stimatore OLS Eduardo Rossi Sequenze Consideriamo un infinita sequenza di variabili indicizzate con i numeri naturali: X 1, X 2, X 3,...,X N,... = {X N }
DettagliSHANNON, L INVENZIONE DEL TRANSISTOR E L ALBA DELL ERA INFORMATICA
SHANNON, L INVENZIONE DEL TRANSISTOR E L ALBA DELL ERA INFORMATICA Andrea Mennucci 1 & Sanjoy K. Mitter 2 1 Scuola Normale Superiore, Pisa 2 Massachusetts Institute of Technology, Cambridge BergamoScienza,
DettagliBayes, PDF, CDF. Renato Mainetti
Bayes, PDF, CDF Renato Mainetti Importiamo i dati di un esperimento Censimento volatili isola di Nim: 100 volatili vivono su quest isola 30 piccioni marroni (classe 1) 20 piccioni bianchi (classe 2) 10
DettagliSTATISTICA: esercizi svolti sulle VARIABILI CASUALI
STATISTICA: esercizi svolti sulle VARIABILI CASUALI VARIABILI CASUALI 2 VARIABILI CASUALI. Variabili casuali generiche. Si supponga che un dado truccato, formato da sei facce contrassegnate dai numeri
DettagliSHANNON, L INVENZIONE DEL TRANSISTOR E L ALBA DELL ERA INFORMATICA
SHANNON, L INVENZIONE DEL TRANSISTOR E L ALBA DELL ERA INFORMATICA Andrea Mennucci 1 & Sanjoy K. Mitter 2 1 Scuola Normale Superiore, Pisa 2 Massachusetts Institute of Technology, Cambridge BergamoScienza,
Dettagli! X (92) X n. P ( X n X ) =0 (94)
Convergenza in robabilità Definizione 2 Data una successione X 1,X 2,...,X n,... di numeri aleatori e un numero aleatorio X diremo che X n tende in probabilità a X escriveremo X n! X (92) se fissati comunque
DettagliCP210 Introduzione alla Probabilità: Esonero 2
Dipartimento di Matematica, Roma Tre Pietro Caputo 218-19, II semestre 4 giugno, 219 CP21 Introduzione alla Probabilità: Esonero 2 Cognome Nome Matricola Firma Nota: 1. L unica cosa che si può usare durante
DettagliII Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17
II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile
DettagliDISTRIBUZIONI DI PROBABILITA (parte 1) 1 / 19
DISTRIBUZIONI DI PROBABILITA (parte 1) 1 / 19 Variabili casuali (o aleatorie) 2 / 19 Disponendo di metodi corretti per raccogliere i dati e costruire i campioni data una popolazione, i valori numerici
DettagliCP110 Probabilità: Esonero 2. Testo e soluzione
Dipartimento di Matematica, Roma Tre Pietro Caputo 2011-12, II semestre 29 maggio, 2012 CP110 Probabilità: Esonero 2 Testo e soluzione 1. (8 punti) La freccia lanciata da un arco è distribuita uniformemente
DettagliElaborazione dell informazione. Elaborazione dell informazione. Rappresentazione dei numeri INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042)
Elaborazione dell informazione INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042) Elaborazione di informazione prevede una codifica come: Dato: insieme di simboli rappresentati su un supporto Negli elaboratori:
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con
DettagliInformatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.
Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliSTII. Probabilità e proprietà dei logaritmi
STII Durante una trasmissione, il segnale naviga alcuni minuti prima di arrivare a destinazione. Durante il percorso, il segnale è soggetto a rumore, quindi può capitare che il messaggio che è stato inviato
DettagliCorso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza
Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza CALCOLO DELLE PROBABILITÀ E STATISTICA ESAME DEL 16/06/2016 NOME: COGNOME: MATRICOLA: Esercizio 1 Cinque lettere
DettagliEsame di Calcolo delle Probabilità del 4 luglio 2006 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).
Esame di Calcolo delle Probabilità del 4 luglio 26 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Cognome Nome Matricola Es. 1 Es. 2 Es. 3 Es. 4 Somma Voto finale Attenzione:
Dettagli1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità
DettagliP ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)
10.4 Convergenze 166 10.4.3. Convergenza in Probabilità. Definizione 10.2. Data una successione X 1, X 2,...,,... di vettori aleatori e un vettore aleatorio X aventi tutti la stessa dimensione k diremo
DettagliRoberto Maieli La trasmissione dell informazione
Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio
DettagliEsame di AM2 & EAP (270/04) a.a. 2009/10
Quarto appello del 16 Luglio 2010 1. Un urna contiene delle palline numerate e distribuite in seguente maniera: Vengono estratte due palline senza rimpiazzo e siano X e Y rispettivamente il numero della
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
DettagliLa media campionaria. MEDIA CAMPIONARIA Date n v.a. X 1,..., X n indipendenti e identicamente distribuite (in breve i.i.d.), la v.a.
La media MEDIA CAMPIONARIA Date n v.a. X 1,..., X n indipendenti e identicamente distribuite (in breve i.i.d.), la v.a. X n = 1 n è detta media. n X i, i=1 In altre parole, se le X 1,...,X n sono il risultato
DettagliRisultati X P(X) TTT 0 1/8 TTC 1 1/8 TCT 1 1/8 CTT 1 1/8 TCC 2 1/8 CTC 2 1/8 CCT 2 1/8 CCC 3 1/8 X P(X) F(X) 0 1/8 1/8 1 3/8 4/8 2 3/8 7/8 3 1/8 1
Esercizio 1 Determinare la distribuzione di probabilità e la funzione di ripartizione della v.c. discreta X = numero di croci in 3 lanci di una moneta. Calcolare F(-1), F(1.5), F(300). Risultati X P(X)
DettagliScritto del
Dip. di Ingegneria, Univ. Roma Tre Prof. E. Scoppola, Dott.M. Quattropani Probabilità e Statistica, 17-18, I semestre Settembre 18 Scritto del - 9-18 Cognome Nome Matricola Esercizio 1. Un urna contiene
Dettagli5. Analisi dei dati di output
Anno accademico 2006/07 Analisi dei dati di Output Y 1, Y 2,..., Y m : output della simulazione. Le variabili casuali Y 1, Y 2,..., Y m non sono in generale indipendenti Se supponiamo però di avere effettuato
DettagliPOPOLAZIONE E CAMPIONI
p. 1/2 POPOLAZIONE E CAMPIONI POPOLAZIONE insieme di tutti quegli elementi che hanno almeno una caratteristica comune (persone, oggetti,misure, osservazioni). Consideriamo il caso di caratteristiche associate
DettagliTutorato di Complementi di Analisi Matematica e Statistica 26 maggio 2016
Tutorato di Complementi di Analisi Matematica e Statistica 26 maggio 2016 Esercizi possibili di probabilità e statistica Notazioni: U(a, b) è la distribuzione di probabilità uniforma nell intervallo (a,
DettagliElementi di Teoria della Probabilità
Elementi di Teoria della Probabilità Alcune definizioni iniziali: Fenomeno casuale: fenomeno ripetibile (almeno in teoria) infinite volte che può manifestarsi in diverse modalità, imprevedibili singolarmente,
DettagliProva scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016
Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 205/206 20 Settembre 206 Esercizio. Un dado equilibrato viene lanciato ripetutamente. Indichiamo con X n il risultato dell n-esimo
DettagliProva Scritta di Probabilità e Statistica Cognome: Laurea in Matematica
Prova Scritta di Probabilità e Statistica Cognome: Laurea in Matematica Nome: 25 febbraio 2013 Matricola: ESERCIZIO 1. Si mostri la seguente formula di disintegrazione per la probabilità condizionata:
DettagliVariabili Casuali multidimensionali
Probabilità e Statistica Esercitazioni a.a. 27/2 C.d.L.: Ingegneria Elettronica e delle Telecomunicazioni, Ingegneria Informatica Variabili Casuali multidimensionali Marco Pietro Longhi Probabilità e Statistica
DettagliINFORMAZIONI. p. 1/23
p. 1/23 INFORMAZIONI Prossime lezioni Giorno Ora Dove Giovedi 11/02 14:30 Laboratorio (via Loredan) Martedi 16/02 14:30 P50 Lunedi 22/02 09:30 P50 Martedi 23/02 14:30 P50 Giovedi 25/02 14:30 Aula informatica
DettagliEsame di Calcolo delle Probabilità del 11 dicembre 2007 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).
Esame di Calcolo delle Probabilità del dicembre 27 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Cognome Nome Matricola Es. Es. 2 Es. Es. 4 Somma Voto finale Attenzione:
DettagliIII Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2018/19
III Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 8/9 Martedì luglio 9 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile
DettagliTeoria dell Informazione II Anno Accademico Lezione 6-7
Teoria dell Informazione II Anno Accademico 2017 2018 Lezione 6-7 Ugo Vaccaro ( ) 1 2 n Data una variabile casuale X = che assume valori i, con probabilità p p 1 p 2 p i, per i = 1,...,n, n vogliamo studiare
DettagliTeoria dell Informazione
Corso di Laurea Magistrale in Scienze dell Informazione Editoriale, Pubblica e Sociale Teoria dell Informazione Cosa è l informazione L informazione è qualcosa che si possiede e si può dare ad un altro
DettagliInformatica, Informazione e Telecomunicazioni. La codifica dell informazione. Supporto e informazione. Il concetto di informazione
La codifica dell informazione Fondamenti di Informatica A Ingegneria Gestionale Università degli Studi di Brescia Docente: Prof. Alfonso Gerevini Informatica, Informazione e Telecomunicazioni l informatica
DettagliV Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2012/13 Nome: 18 ottobre
V Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 202/ Nome: 8 ottobre 20 Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile usare
DettagliInformatica, Informazione e Telecomunicazioni. La codifica dell informazione. Il concetto di informazione. Supporto e informazione
La codifica dell informazione Elementi di Informatica e Programmazione Ingegneria Gestionale Università degli Studi di Brescia Docente: Prof. Ivan Serina Prof. Alfonso Gerevini Informatica, Informazione
Dettagli) la sua densità discreta sarà della forma. p X (0) = 1 2, p X(1) = 1 2,
Esercizi settimana 6 Esercizi applicati Esercizio. Siano X e Y due v.a. discrete indipendenti tali che X B(, ) e Y B(, ), n 0. (i) Si calcoli la legge di X + Y ; (ii) Si calcoli la legge di X Y ; (iii)
DettagliMatematica con elementi di Informatica
Variabili aleatorie Matematica con elementi di Informatica Tiziano Vargiolu Dipartimento di Matematica vargiolu@math.unipd.it Corso di Laurea Magistrale in Chimica e Tecnologie Farmaceutiche Anno Accademico
DettagliESERCIZI HLAFO ALFIE MIMUN
ESERCIZI HLAFO ALFIE MIMUN December, 27. Testo degli esercizi Risolvere i seguenti problemi: () Siano X, X 2, X 3 variabili aleatorie i.i.d. bernulliane di media.5 e siano Y, Y 2, Y 3, Y 4 variabili aleatorie
DettagliCrittografia Moderna. Segretezza Perfetta: nozioni
Crittografia Moderna Segretezza Perfetta: nozioni Segretezza perfetta Ci occuperemo di schemi di cifratura perfettamente sicuri Avversari di potere computazionale illimitato confidenzialità / riservatezza
DettagliComputazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it
DettagliProbabilità e Statistica
Probabilità e Statistica Stima puntuale di parametri Marco Pietro Longhi C.d.L.: Ingegneria Elettronica e delle Telecomunicazioni, Ingegneria Informatica a.s. 018/019 Marco Pietro Longhi Prob. e Stat.
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliEsercizi di Calcolo delle Probabilità
Esercizi di Calcolo delle Probabilità Versione del 1/05/005 Corso di Statistica Anno Accademico 00/05 Antonio Giannitrapani, Simone Paoletti Calcolo delle probabilità Esercizio 1. Un dado viene lanciato
DettagliCompressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.
Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia
DettagliFrequenza lettere in inglese
Frequenza lettere in inglese Sequenza random (entropia log 27 = 4.75): XFOML RXKHRJFFJUJ ZLPWCFWKCYJ FFJEYVKCQSGHYDĚ Sequenza basata su frequenze (entropia circa 4.1): OCRO HLI RGWR NMIELWIS EU LL NBNESEBYAĚ
Dettagli5. Analisi dei dati di output
Anno accademico 2008/09 Analisi dei dati di Output Y 1, Y 2,..., Y m : output della simulazione. Le variabili casuali Y 1, Y 2,..., Y m non sono in generale indipendenti Se supponiamo però di avere effettuato
DettagliStatistica 28/10/09 Gruppo H-Z Programma ed esercizi svolti
) Statistica 8/1/9 Gruppo H-Z Programma ed esercizi svolti Coppie ( X, Y di variabili aleatorie (v.a.) X e Y considerate congiuntamente pag. 1 Rappresentazioni grafiche di una coppia ( X, Y ) di v.a. pag.
Dettagli15 Informazione e Predizione
(FX) Teoria dell Informazione e della Trasmissione 5 Informazione e Predizione Docente: Nicolò Cesa-Bianchi versione 4 maggio 03 Consideriamo una sorgente X, p. Dallo studio della codifica sorgente, sappiamo
Dettagli01GSZ Tecniche di protezione dell informazione
Politecnico di Torino III Facoltà Ingegneria dell informazione 01GSZ Tecniche di protezione dell informazione CORSO DI LAUREA SPECIALISTICA IN INGEGNERIA DELLE TELECOMUNICAZIONI PRIMO ANNO, IV PERIODO
DettagliTeoria dell informazione
Teoria dell informazione Giuseppe Ruggeri Università Mediterranea di Reggio Calabria Italy Outline Cos è l informazione? E possibile misurare l informazione? Limiti matematici nella rappresentazione dell
DettagliEsercizi Teoria della Probabilità
Esercizi Teoria della Probabilità Esercizio 1 Durante un corso universitario, uno studente prova a svolgere una serie di esercizi. La risposta agli esercizi è di tipo binario (SI/NO). Supponendo la completa
DettagliCampionamento di variabili aleatorie. Andrea Marin Università Ca' Foscari Venezia Corso di Probabilità e Statistica a.a. 2009/2010
Campionamento di variabili aleatorie Andrea Marin Università Ca' Foscari Venezia Corso di Probabilità e Statistica a.a. 2009/2010 Premessa Soluzione della prima esercitazione: l'analisi teorica Richiami:
DettagliSperimentazioni di Fisica I mod. A Statistica - Lezione 3
Sperimentazioni di Fisica I mod. A Statistica - Lezione 3 A Garfagnini, M Mazzocco, C Sada Dipartimento di Fisica G. Galilei, Università di Padova AA 2014/2015 Elementi di Teoria della Probabilità L ineliminabile
DettagliECONOMETRIA: Laboratorio I
ECONOMETRIA: Laboratorio I Luca De Angelis CLASS - Università di Bologna Programma Laboratorio I Valori attesi e varianze Test di ipotesi Stima di un modello lineare attraverso OLS Valore atteso Data una
DettagliProbabilità: teoremi e distribuzioni
Probabilità: teoremi e distribuzioni OBIETTIVO DIDATTICO DELLA LEZIONE Illustrare le più importanti distribuzioni di probabilità che vengono utilizzate in statistica Distribuzioni di probabilità 1. La
DettagliCORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3
CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3 Dott.ssa Antonella Costanzo a.costanzo@unicas.it Esercizio 1. La variabile casuale normale Da un analisi di bilancio è emerso che, durante i giorni feriali
Dettagli