10 Proprietà di Equipartizione Asintotica

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "10 Proprietà di Equipartizione Asintotica"

Transcript

1 FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della codifica canale utilizziamo più simboli di ingresso per codificare un messaggio da trasmettere. Per far ciò, estendiamo il modello di canale in modo da considerare la trasmissione di sequenze di simboli. La n-esima estensione di un canale X, Y, py x è il canale X n, Y n, py n x n. La quantità py n x n indica la probabilità di ottenere in uscita la sequenza y n Y n quando è stata trasmessa la sequenza x n X n. Dato che il canale è senza memoria, vale py n x n = py n y n, x n py n y n 2, x n py x n = Un codice canale di tipo M, n per il canale X, Y, py x è definito da: n py t x t. t= Un insieme di M messaggi, indicati con {,..., M}. Una funzione di codifica x n : {,..., M} X n. Una funzione di decodifica g : Y n {,..., M}. Dato un codice canale, la probabilità di errore di decodifica del messaggio i è definita come λ i = P gy n i X n = x n i dove X n, Y n sono variabili casuali che indicano i simboli trasmessi e quelli ricevuti. aggregare le probabilità di errore di singoli messaggi in due modi: Possiamo λ n = P n e max i=,...,m λ i = M M i= λ i probabilità massima di errore probabilità media di errore dove, ovviamente P n e λ n. Il tasso di trasmissione di un codice di tipo M, n è dato dal rapporto tutti i logaritmi in questa dispensa sono in base 2 R = log M n fra lunghezza in bit del messaggio e numero di simboli della sua codifica. Il tasso quindi rappresenta il numero di bit che il codice trasmette per uso del canale. Un tasso R è raggiungibile se esiste una sequenza di codici di tipo 2 nr, n, per n =, 2,... tale che lim λn = 0.

2 Per capire i concetti di tasso e raggiungibilità, supponiamo che il canale sia binario X = Y = {0, } e non abbia rumore. Allora usando codifiche di n bit posso trasmettere M = 2 n messaggi tasso di trasmissione pari a uno con probabilità di errore pari a zero. Se aggiungo rumore nel canale, allora per tenere la probabilità di errore sotto controllo devo ridurre il numero di messaggi, passando da 2 n a 2 nr per un qualche R <, che rappresenta appunto il tasso di trasmissione. Infine, come nel caso del primo teorema di Shannon, è ragionevole pensare che al crescere di n, e corrispondentemente del numero di messaggi 2 nr, la probabilità di errore raggiunga asintoticamente il valore minimo a parità di tasso di trasmissione R. Preliminarmente allo studio del secondo teorema di Shannon, introduciamo la proprietà di equipartizione asintotica AEP. Cominciamo col rammentare la legge dei grandi numeri. Teorema Per ogni sequenza X, X 2,... di variabili casuali indipendenti e identicamente distribuite con valore atteso µ <, per ogni > 0, vale lim P n X t µ n > = 0. t= In altre parole, se il campione è di taglia n sufficientemente grande rispetto ad, allora con alta probabilità la media campionaria è entro una distanza dal valore atteso. La proprietà AEP può essere dimostrata come un corollario della legge dei grandi numeri. Corollario 2 AEP Per ogni sequenza X, X 2,... di variabili casuali indipendenti e identicamente distribuite con valore atteso finito e per ogni > 0, vale lim P n log px px n HX > = 0. dove HX è l entropia della distribuzione di ciascuna delle X t. Dimostrazione. Introduciamo le variabili casuali Z, Z 2,... con Z t = log px t. Dato che funzioni di variabili casuali indipendenti e identicamente distribuite sono variabili casuali ancora i.i.d., ne deduciamo che Z, Z 2,... sono anch esse indipendenti e identicamente distribuite. Inoltre, n log px px n = n n log pxt = n t= n Z t. Dato che per ogni t vale E[Z t ] = HX t = HX, possiamo applicare la legge dei grandi numeri alle Z t ottenendo la tesi. Si noti che nella definizione di AEP compaiono delle quantità px t. Queste sono variabili casuali, funzioni delle X t, il cui valore è la probabilità calcolata in un punto casuale X t. Un modo più intuitivo di interpretare AEP è attraverso la nozione di insieme tipico. A n } {x,..., x n X n : 2 HX+ px px n 2 HX t= 2

3 Dato che { x,..., x n X n : } n log px px n HX A n vediamo subito che AEP implica lim P A n = e quindi per n abbastanza grande vale P A n >. In altre parole, asintoticamente le sequenze nell insieme tipico hanno tutte la stessa la probabilità pari a 2 HX, mentre la probabilità delle altre sequenze va a zero. Due altre proprietà notevoli dell insieme tipico sono le seguenti. Teorema 3 Siano X, X 2,... variabili casuali indipendenti e identicamente distribuite e sia A n l insieme tipico corrispondente.. Per ogni n, A n HX+ 2 n. 2. Per ogni n abbastanza grande vale A n HX 2 n. Dimostrazione. Ricordando che px n = px px n, cominciamo col dimostrare la prima proprietà. Abbiamo che = px n x n X n px n x n A n x n A n = A n 2 HX+ 2 HX+. per definizione di A n Per dimostrare la seconda proprietà osserviamo che per ogni n abbastanza grande vale P A n >, come avevamo già dimostrato. Quindi, per questi n abbiamo che < P A n = px n x n A n x n A n = A n 2 2 HX HX. per definizione di A n 3

4 Per la dimostrazione del secondo teorema di Shannon useremo una nozione un po più complessa di quella di insieme tipico, ovvero la nozione di insieme congiuntamente tipico. Però è possibile già sviluppare dell intuizione sul legame fra capacità o informazione mutua massimale e tasso di trasmissione utilizzando gli insiemi tipici. Fissiamo un canale X, Y, py x e una qualunque distribuzione px su X. Abbiamo dimostrato che l insieme tipico per px contiene all incirca 2 nhx sequenze x n X n. Anche l insieme tipico per py contiene quindi circa 2 nhy sequenze y n Y n. Si può dimostrare che se trasmettiamo una sequenza x n qualsiasi dall insieme tipico, a causa del rumore osserveremo con probabilità pressoché uguale una fra circa 2 nhy X sequenze tipiche y n Y n. Quindi, il numero massimo di x n distinte che posso trasmettere in modo tale che gli insiemi corrispondenti in Y n, ciascuno di cardinalità circa 2 nhy X, non si sovrappongano è 2 nhy 2 nhy X = 2n HY HY X = 2 nix,y. Posso utilizzare queste 2 nix,y sequenze per codificare altrettanti messaggi. Il tasso del codice che ottengo è log 2nIX,Y R = = IX, Y. n Siano X, Y variabili casuali con valori in X Y e distribuzione congiunta px, Y. Siano X n = X,..., X n e Y n = Y,..., Y n le variabili casuali associate alle estrazioni indipendenti di n coppie X, Y,..., X n, Y n. Quindi, P X n = x n, Y n = y n = n p x i, y i = px n, y n. Per ogni > 0, l insieme congiuntamente tipico B n è definito come { B n = x n, y n X n Y n : n log px n HX, n log py n HY, } n log px n, y n HX, Y. i= Lemma 4 Per ogni > 0 valgono le seguenti proprietà. lim P B n =. 2. Se X n ha distribuzione P X n = x n = i px i dove px è la marginale di X, e Ỹ n ha distribuzione PỸ n = y n = i py i dove py è la marginale di Y allora, per ogni n, P Xn, Ỹ n B n 2 IX,Y 3. 4

5 Dimostrazione. Usando un argomentazione del tutto simile a quella utilizzata per la dimostrazione dell analogo enunciato relativo a A n, applichiamo tre volte la legge dei grandi numeri in modo da ottenere che, per ogni δ > 0 fissato, n n n P n log 2 px n HX > δ 3 n 2 n n 2 n 3 n n 3 [A] P n log 2 py n HY > [B] δ 3 P n log 2 px n, Y n HX, Y > [C] δ 3. Quindi, per ogni n max{n, n 2, n 3 }, se indichiamo con B n l insieme complemento di B n, Abbiamo appena dimostrato che P B n = P [A] [B] [C] P[A] + P[B] + P[C] δ. lim P B n = 0 da cui otteniamo lim P B n =. Per la seconda parte, osserviamo che P Xn, Ỹ n B n = x n,y n B n x n,y n B n px n py n 2 HX 2 HY = B n HX+HY 2 2 dove la disuguaglianza vale perché x n, y n B n implica che px n 2 2 HY. Infine notiamo che = px n, y n px n, y n B n 2 x n,y n X n Y n x n,y n B n in quanto x n, y n B n implica px n, y n 2 HX,Y +. Quindi B n HX,Y 2 che sostituito in conclude la dimostrazione. HX HX,Y + e py n 5

8 Derivati dell entropia

8 Derivati dell entropia (F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta

Dettagli

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore. CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente p. 1/39 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore

Dettagli

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

STII/Teoria dell Informazione

STII/Teoria dell Informazione STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione

Dettagli

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì

Dettagli

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità

Dettagli

Codifica delle sequenze sorgente

Codifica delle sequenze sorgente Codifica delle sequenze sorgente Sorgente emette sequenza di simboli appartenenti ad un alfabeto X che vengono codificati come sequenze di simboli di un alfabeto D-ario.. p.1/?? Codifica delle sequenze

Dettagli

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore. CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore

Dettagli

Proprietà di equipartizione asintotica e sue applicazioni nella teoria dell informazione

Proprietà di equipartizione asintotica e sue applicazioni nella teoria dell informazione UNIVERSITÀ DEGLI STUDI DI PADOVA FACOLTÀ DI INGEGNERIA Corso di Laurea in INGEGNERIA DELL INFORMAZIONE Proprietà di equipartizione asintotica e sue applicazioni nella teoria dell informazione Relatore

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria

Dettagli

Codifica sorgente e canale

Codifica sorgente e canale Codifica sorgente e canale Codifica sorgente Codifica canale in Canale Compressione Codifica Decodifica Decompress. Rumoroso out Codifica sorgente: comprimere i dati per rimuovere ridondanza Codifica canale:

Dettagli

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media

Dettagli

Rischio statistico e sua analisi

Rischio statistico e sua analisi F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello

Dettagli

Lezione 11 Ugo Vaccaro

Lezione 11 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 207 208 Lezione Ugo Vaccaro Abbiamo visto finora che in vari problemi collegati alla codifica di emissioni di una sorgente di informazione la entropia H(P )

Dettagli

Modello di sistema di comunicazione

Modello di sistema di comunicazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente

Dettagli

Il teorema di dualità forte

Il teorema di dualità forte Complementi di Algoritmi e Strutture Dati Il teorema di dualità forte Docente: Nicolò Cesa-Bianchi versione 13 maggio 2018 Ricordiamo la formulazione del problema di programmazione lineare nella sua forma

Dettagli

Alcuni complementi di teoria dell integrazione.

Alcuni complementi di teoria dell integrazione. Alcuni complementi di teoria dell integrazione. In ciò che segue si suppone di avere uno spazio di misura (,, µ) 1 Sia f una funzione misurabile su un insieme di misura positiva tale che f 0. Se fdµ =

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore

Dettagli

IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero

IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero Il teorema degli zeri è fondamentale per determinare se una funzione continua in un intervallo chiuso [ a ; b ] si annulla in almeno un punto interno

Dettagli

Dimostrazione. Indichiamo con α e β (finiti o infiniti) gli estremi dell intervallo I. Poniamo

Dimostrazione. Indichiamo con α e β (finiti o infiniti) gli estremi dell intervallo I. Poniamo C.6 Funzioni continue Pag. 114 Dimostrazione del Corollario 4.25 Corollario 4.25 Sia f continua in un intervallo I. Supponiamo che f ammetta, per x tendente a ciascuno degli estremi dell intervallo, iti

Dettagli

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una

Dettagli

CP410: Esonero 1, 31 ottobre 2013

CP410: Esonero 1, 31 ottobre 2013 Dipartimento di Matematica, Roma Tre Pietro Caputo 2013-14, I semestre 31 ottobre, 2013 CP410: Esonero 1, 31 ottobre 2013 Cognome Nome Matricola Firma 1. Fare un esempio di successione di variabili aleatorie

Dettagli

ANALISI 1 - Teoremi e dimostrazioni vari

ANALISI 1 - Teoremi e dimostrazioni vari ANALISI 1 - Teoremi e dimostrazioni vari Sommario Proprietà dell estremo superiore per R... 2 Definitivamente... 2 Successioni convergenti... 2 Successioni monotone... 2 Teorema di esistenza del limite

Dettagli

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018. Giovanni Lafratta

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018. Giovanni Lafratta Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018 Giovanni Lafratta ii Indice 1 Spazi, Disegni e Strategie Campionarie 1 2 Campionamento casuale

Dettagli

Sicurezza di un Cifrario (C. Shannon)

Sicurezza di un Cifrario (C. Shannon) La teoria di Shannon segretezza perfetta sicurezza computazionale Sicurezza di un Cifrario (C. Shannon) SEGRETEZZA PERFETTA Un Cifrario è detto perfetto, o assolutamente sicuro, se, dopo aver intercettatto

Dettagli

15 Informazione e Predizione

15 Informazione e Predizione (FX) Teoria dell Informazione e della Trasmissione 5 Informazione e Predizione Docente: Nicolò Cesa-Bianchi versione 4 maggio 03 Consideriamo una sorgente X, p. Dallo studio della codifica sorgente, sappiamo

Dettagli

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza

Dettagli

Alcune nozioni di calcolo differenziale

Alcune nozioni di calcolo differenziale Alcune nozioni di calcolo differenziale G. Mastroeni, M. Pappalardo 1 Limiti per funzioni di piu variabili Supporremo noti i principali concetti algebrici e topologici relativi alla struttura dello spazio

Dettagli

Proprietà asintotiche dello stimatore OLS

Proprietà asintotiche dello stimatore OLS Università di Pavia Proprietà asintotiche dello stimatore OLS Eduardo Rossi Sequenze Consideriamo un infinita sequenza di variabili indicizzate con i numeri naturali: X 1, X 2, X 3,...,X N,... = {X N }

Dettagli

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea) 10.4 Convergenze 166 10.4.3. Convergenza in Probabilità. Definizione 10.2. Data una successione X 1, X 2,...,,... di vettori aleatori e un vettore aleatorio X aventi tutti la stessa dimensione k diremo

Dettagli

Appunti sui Codici di Reed Muller. Giovanni Barbarino

Appunti sui Codici di Reed Muller. Giovanni Barbarino Appunti sui Codici di Reed Muller Giovanni Barbarino Capitolo 1 Codici di Reed-Muller I codici di Reed-Muller sono codici lineari su F q legati alle valutazioni dei polinomi sullo spazio affine. Per semplicità

Dettagli

Introduzione alla codifica entropica

Introduzione alla codifica entropica Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta

Dettagli

Il secondo teorema di Shannon

Il secondo teorema di Shannon Il secondo teorema di Shannon Appunti scritti da Alberto Leporati e-mail: alberto.leporati@unimib.it Dipartimento di Informatica, Sistemistica e Comunicazione (DISCo) Università degli Studi di Milano Bicocca

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con

Dettagli

INFORMAZIONE E COMPLESSITA

INFORMAZIONE E COMPLESSITA INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze

Dettagli

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata

Dettagli

Si dimostri che la (*) possiede un unica soluzione (u n ) limitata.

Si dimostri che la (*) possiede un unica soluzione (u n ) limitata. Scuola Normale Superiore, ammissione al IV anno del corso ordinario Prova scritta di Analisi Matematica per Fisica, Informatica, Matematica 26 Agosto 2 Esercizio. Siano (a n ) e (b n ) successioni di numeri

Dettagli

Elementi di Probabilità e Statistica - 052AA - A.A

Elementi di Probabilità e Statistica - 052AA - A.A Elementi di Probabilità e Statistica - 05AA - A.A. 014-015 Prima prova di verifica intermedia - 9 aprile 015 Problema 1. Dati due eventi A, B, su uno spazio probabilizzato (Ω, F, P), diciamo che A è in

Dettagli

11. Misure con segno.

11. Misure con segno. 11. Misure con segno. 11.1. Misure con segno. Sia Ω un insieme non vuoto e sia A una σ-algebra in Ω. Definizione 11.1.1. (Misura con segno). Si chiama misura con segno su A ogni funzione ϕ : A R verificante

Dettagli

Integrali impropri - svolgimento degli esercizi

Integrali impropri - svolgimento degli esercizi Integrali impropri - svolgimento degli esercizi La funzione integranda è continua su [, + e quindi localmente integrabile. Esaminiamone il segno: si ha < < sin5 > log 2 + 2 log log 2 + log 2 > ; quindi

Dettagli

Crittografia Moderna. Segretezza Perfetta: nozioni

Crittografia Moderna. Segretezza Perfetta: nozioni Crittografia Moderna Segretezza Perfetta: nozioni Segretezza perfetta Ci occuperemo di schemi di cifratura perfettamente sicuri Avversari di potere computazionale illimitato confidenzialità / riservatezza

Dettagli

Fondamenti dell Informatica

Fondamenti dell Informatica Informatica e Comunicazione Digitale (sede di Taranto) Fondamenti dell Informatica a.a. 2015-2016 Programma 2015-2016 1. Teoria dell Informazione 2. Algoritmi e problema 3. Algebra di Boole 4. La Macchina

Dettagli

Densità di probabilità del prodotto di due variabili casuali distribuite uniformemente

Densità di probabilità del prodotto di due variabili casuali distribuite uniformemente Firenze - Dip. di Fisica 2 agosto 2008 Densità di probabilità del prodotto di due variabili casuali distribuite uniformemente In questa dispensa, che presentiamo a semplice titolo di esercizio e applicazione

Dettagli

ESERCIZI HLAFO ALFIE MIMUN

ESERCIZI HLAFO ALFIE MIMUN ESERCIZI HLAFO ALFIE MIMUN December, 27. Testo degli esercizi Risolvere i seguenti problemi: () Siano X, X 2, X 3 variabili aleatorie i.i.d. bernulliane di media.5 e siano Y, Y 2, Y 3, Y 4 variabili aleatorie

Dettagli

Comunicazioni Elettriche Esercizi

Comunicazioni Elettriche Esercizi Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,

Dettagli

5. Analisi dei dati di output

5. Analisi dei dati di output Anno accademico 2006/07 Analisi dei dati di Output Y 1, Y 2,..., Y m : output della simulazione. Le variabili casuali Y 1, Y 2,..., Y m non sono in generale indipendenti Se supponiamo però di avere effettuato

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 206 207 Lezione 4 Ugo Vaccaro Nella lezione scorsa abbiamo derivato il seguente risultato. Teorema Per ogni codifica UD per una sorgente DSSM con alfabeto sorgente

Dettagli

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016 Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 205/206 20 Settembre 206 Esercizio. Un dado equilibrato viene lanciato ripetutamente. Indichiamo con X n il risultato dell n-esimo

Dettagli

Sviluppi e derivate delle funzioni elementari

Sviluppi e derivate delle funzioni elementari Sviluppi e derivate delle funzioni elementari In queste pagine dimostriamo gli sviluppi del prim ordine e le formule di derivazioni delle principali funzioni elementari. Utilizzeremo le uguaglianze lim

Dettagli

Teoria dell Informazione II Anno Accademico Lezione 6-7

Teoria dell Informazione II Anno Accademico Lezione 6-7 Teoria dell Informazione II Anno Accademico 2017 2018 Lezione 6-7 Ugo Vaccaro ( ) 1 2 n Data una variabile casuale X = che assume valori i, con probabilità p p 1 p 2 p i, per i = 1,...,n, n vogliamo studiare

Dettagli

Capitolo 5 Campi finiti

Capitolo 5 Campi finiti Capitolo 5 Campi finiti Definizione 5.1. Un campo finito K (cioè composto da un numero finito di elementi) si dice campo di Galois. Il numero dei suoi elementi si dice ordine e si denota con K. Un campo

Dettagli

COMPLETAMENTO DI SPAZI METRICI

COMPLETAMENTO DI SPAZI METRICI COMPLETAMENTO DI SPAZI METRICI 1. Successioni di Cauchy e spazi metrici completi Definizione 1.1. Una successione x n n N a valori in uno spazio metrico X, d si dice di Cauchy se, per ogni ε > 0 esiste

Dettagli

Esercizi settimana 4. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3

Esercizi settimana 4. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3 1 Esercizi settimana Esercizi applicati Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 3 di ottenere testa. Se scegliete la prima moneta vincete 10 punti se esce testa e punti

Dettagli

NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE

NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE ROBERTO GIAMBÒ 1. DEFINIZIONI E PRIME PROPRIETÀ In queste note saranno presentate alcune proprietà principali delle funzioni convesse di una variabile

Dettagli

Massimo limite e minimo limite di una funzione

Massimo limite e minimo limite di una funzione Massimo limite e minimo limite di una funzione Sia f : A R una funzione, e sia p DA). Per ogni r > 0, l insieme ) E f p r) = { fx) x A I r p) \ {p} } è non vuoto; inoltre E f p r ) E f p r ) se 0 < r r.

Dettagli

Calcolo delle Probabilità 2

Calcolo delle Probabilità 2 Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale

Dettagli

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore 10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore

Dettagli

Esercizi: fascicolo 4

Esercizi: fascicolo 4 Esercizi: fascicolo 4 Esercizio 1 Dimostrare le seguenti proprietà (1), (2) e (3): (1) X 1 = 0 X 0; (2) X L 1 (Ω, P ), λ R λx 1 = λ X 1 ; (3) X, Y L 1 (Ω, P ) X + Y 1 X 1 + Y 1. Esercizio 2 Si estraggono

Dettagli

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p. Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia

Dettagli

! X (92) X n. P ( X n X ) =0 (94)

! X (92) X n. P ( X n X ) =0 (94) Convergenza in robabilità Definizione 2 Data una successione X 1,X 2,...,X n,... di numeri aleatori e un numero aleatorio X diremo che X n tende in probabilità a X escriveremo X n! X (92) se fissati comunque

Dettagli

Forme indeterminate e limiti notevoli

Forme indeterminate e limiti notevoli Forme indeterminate e iti notevoli Limiti e continuità Forme indeterminate e iti notevoli Forme indeterminate Teorema di sostituzione Limiti notevoli Altre forme indeterminate 2 2006 Politecnico di Torino

Dettagli

Conversione Analogico/Digitale

Conversione Analogico/Digitale Conversione Analogico/Digitale 1 Fondamenti di Segnali e Trasmissione Conversione analogico/digitale (A/D) Per rappresentare numericamente un segnale continuo nel tempo e nelle ampiezze è necessario: Campionare

Dettagli

I Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

I Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17 I Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 3 gennaio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile

Dettagli

Corso di Analisi Numerica

Corso di Analisi Numerica Corso di Laurea in Ingegneria Informatica Corso di 3 - PROBLEMI DI INTERPOLAZIONE Lucio Demeio Dipartimento di Scienze Matematiche 1 Interpolazione: Polinomio di Lagrange 2 3 Introduzione Problemi di interpolazione

Dettagli

VETTORI DI VARIABILI ALEATORIE

VETTORI DI VARIABILI ALEATORIE VETTOI DI VAIABILI ALEATOIE E. DI NADO 1. Funzioni di ripartizione congiunte e marginali Definizione 1.1. Siano X 1, X 2,..., X n v.a. definite su uno stesso spazio di probabilità (Ω, F, P ). La n-pla

Dettagli

1 Funzioni reali di una variabile reale

1 Funzioni reali di una variabile reale 1 Funzioni reali di una variabile reale Qualche definizione e qualche esempio che risulteranno utili più avanti Durante tutto questo corso studieremo funzioni reali di una variabile reale, cioè Si ha f

Dettagli

Esercizi settimana 5. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3

Esercizi settimana 5. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3 1 Esercizi settimana 5 Esercizi applicati Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 3 di ottenere testa. Se scegliete la prima moneta vincete 10 punti se esce testa e punti

Dettagli

STII. Probabilità e proprietà dei logaritmi

STII. Probabilità e proprietà dei logaritmi STII Durante una trasmissione, il segnale naviga alcuni minuti prima di arrivare a destinazione. Durante il percorso, il segnale è soggetto a rumore, quindi può capitare che il messaggio che è stato inviato

Dettagli

Successioni numeriche (II)

Successioni numeriche (II) Successioni numeriche (II) Hynek Kovarik Università di Brescia Analisi A Hynek Kovarik (Università di Brescia) Successioni (II) Analisi A 1 / 52 Forme indeterminate associate a funzioni razionali fratte:

Dettagli

Dualitá in Programmazione Lineare e alcune conseguenze

Dualitá in Programmazione Lineare e alcune conseguenze Dualitá in Programmazione Lineare e alcune conseguenze Giacomo Zambelli 1 Dualitá per problemi in forma standard Si consideri il seguente problema di PL in forma standard: z = max c x Ax = b (1) ove A

Dettagli

Informazione, Entropia e Probabilità

Informazione, Entropia e Probabilità Informazione, Entropia e Probabilità Alessandro Lenci Università di Pisa, Dipartimento di Linguistica Via Santa Maria, 36, 56100 Pisa, Italy alessandro.lenci@ilc.cnr.it Linguaggio e comunicazione - LO042

Dettagli

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017. Giovanni Lafratta

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017. Giovanni Lafratta Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017 Giovanni Lafratta ii Indice 1 Spazi, Disegni e Strategie Campionarie 1 2 Campionamento casuale

Dettagli

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x 4. Geometria di R 3. Questo paragrafo è molto simile al paragrafo : tratta infatti delle proprietà geometriche elementari dello spazio R 3. Per assegnare delle coordinate nello spazio, fissiamo innanzitutto

Dettagli

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x 4. Geometria di R 3. Questo paragrafo è molto simile al paragrafo : tratta infatti delle proprietà geometriche elementari dello spazio R 3. Per assegnare delle coordinate nello spazio, fissiamo innanzitutto

Dettagli

APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a

APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof FPodestà, aa 003-004 Sia V uno spazio vettoriale e sia f : V V una applicazione lineare una tale applicazione da uno spazio vettoriale in se stesso è chiamata

Dettagli

Geometria e Topologia I (U1-4) 2006-mag-10 61

Geometria e Topologia I (U1-4) 2006-mag-10 61 Geometria e Topologia I (U1-4) 2006-mag-10 61 (15.9) Teorema. Consideriamo il piano affine. Se A A 2 (K) è un punto e r una retta che non passa per A, allora esiste unica la retta per A che non interseca

Dettagli

CP410: Esame 2, 30 gennaio Testo e soluzione

CP410: Esame 2, 30 gennaio Testo e soluzione Dipartimento di Matematica, Roma Tre Pietro Caputo 23-4, I semestre 3 gennaio, 24 CP4: Esame 2, 3 gennaio 24 Testo e soluzione Cognome Nome Matricola Firma . Per ogni n N, sia X n la variabile aleatoria

Dettagli

Le derivate parziali

Le derivate parziali Sia f(x, y) una funzione definita in un insieme aperto A R 2 e sia P 0 = x 0, y 0 un punto di A. Essendo A un aperto, esiste un intorno I(P 0, δ) A. Preso un punto P(x, y) I(P 0, δ), P P 0, possiamo definire

Dettagli

VARIABILI CASUALI CONTINUE

VARIABILI CASUALI CONTINUE p. 1/1 VARIABILI CASUALI CONTINUE Una variabile casuale continua può assumere tutti gli infiniti valori appartenenti ad un intervallo di numeri reali. p. 1/1 VARIABILI CASUALI CONTINUE Una variabile casuale

Dettagli

Support Vector Machines

Support Vector Machines F94) Metodi statistici per l apprendimento Support Vector Machines Docente: Nicolò Cesa-Bianchi versione 28 maggio 208 La Support Vector Machine d ora in poi SVM) è un algoritmo di apprendimento per classificatori

Dettagli

CP110 Probabilità: esame del 18 settembre 2017

CP110 Probabilità: esame del 18 settembre 2017 Dipartimento di Matematica, Roma Tre Pietro Caputo 206-7, II semestre 8 settembre, 207 CP0 Probabilità: esame del 8 settembre 207 Cognome Nome Matricola Firma Nota:. L unica cosa che si puo usare durante

Dettagli

8. Completamento di uno spazio di misura.

8. Completamento di uno spazio di misura. 8. Completamento di uno spazio di misura. 8.1. Spazi di misura. Spazi di misura completi. Definizione 8.1.1. (Spazio misurabile). Si chiama spazio misurabile ogni coppia ordinata (Ω, A), dove Ω è un insieme

Dettagli

Disuguaglianza di Cramér-Rao

Disuguaglianza di Cramér-Rao Disuguaglianza di Cramér-Rao (Appunti per gli studenti Silvano Holzer Dipartimento di Scienze Economiche, Aziendali, Matematiche e Statistiche Bruno de Finetti Università degli studi di Trieste Un esperimento

Dettagli

Esame di Calcolo delle Probabilità del 12 dicembre 2005 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).

Esame di Calcolo delle Probabilità del 12 dicembre 2005 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Esame di Calcolo delle Probabilità del 2 dicembre 2005 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Cognome Nome Matricola Es. Es. 2 Es. 3 Es. 4 Somma Voto parziale Prima

Dettagli

Calcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012

Calcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012 Fisciano, 10/1/2012 Esercizio 1 Un esperimento consiste nel generare a caso un vettore di interi (x 1, x 2, x 3, x 4 ), dove x i {1, 2, 3, 4, 5, 6} i. (i) Si individui lo spazio campionario, determinandone

Dettagli

CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI

CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI Consideriamo l insieme R = R {, + } ottenuto aggiungendo all insieme dei numeri reali i simboli e +. Introduciamo in

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Laurea in Ingegneria Gestionale Sede di Fermo Corso di 3 - PROBLEMI DI INTERPOLAZIONE Introduzione Problemi di interpolazione Supponiamo di avere un insieme di dati che rappresentano misurazioni

Dettagli

Statistica Inferenziale

Statistica Inferenziale Statistica Inferenziale Prof. Raffaella Folgieri Email: folgieri@mtcube.com aa 2009/2010 Riepilogo lezione 5 Abbiamo visto: Modelli probabilistici nel continuo Distribuzione uniforme continua Distribuzione

Dettagli

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07 PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 006/07 Esercizio 1 Prova scritta del 16/1/006 In un ufficio postale lavorano due impiegati che svolgono lo stesso compito in maniera indipendente, sbrigando

Dettagli

Distribuzioni campionarie

Distribuzioni campionarie Le distribuzioni campionarie sono quelle che derivano dalla presenza di campioni i.i.d. a distribuzione normale. Definizione. Se X è una v.a. avente distribuzione N(0, ), allora Y = X ha distribuzione

Dettagli

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x

Dettagli

LOGICA MATEMATICA PER INFORMATICA (A.A. 12/13)

LOGICA MATEMATICA PER INFORMATICA (A.A. 12/13) LOGICA MATEMATICA PER INFORMATICA (A.A. 12/13) DISPENSA N. 3 Sommario. Introduciamo il Calcolo dei Predicati del I ordine e ne dimostriamo le proprietà fondamentali. Discutiamo il trattamento dell identità

Dettagli

La codifica digitale

La codifica digitale La codifica digitale Codifica digitale Il computer e il sistema binario Il computer elabora esclusivamente numeri. Ogni immagine, ogni suono, ogni informazione per essere compresa e rielaborata dal calcolatore

Dettagli

Mattia Zanella. Ferrara, April

Mattia Zanella. Ferrara, April Department of Mathematical Sciences Politecnico di Torino, Italy http://www.mattiazanella.eu Ferrara, April 5 217 Programma della lezione Seminario I Introduzione a Matlab U(, 1): metodo di inversione

Dettagli

Corso di Statistica - Prof. Fabio Zucca IV Appello - 5 febbraio Esercizio 1

Corso di Statistica - Prof. Fabio Zucca IV Appello - 5 febbraio Esercizio 1 Corso di Statistica - Prof. Fabio Zucca IV Appello - 5 febbraio 2015 Nome e cognome: Matricola: c I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. 8994

Dettagli

Statistica Applicata all edilizia: Stime e stimatori

Statistica Applicata all edilizia: Stime e stimatori Statistica Applicata all edilizia E-mail: orietta.nicolis@unibg.it 15 marzo 2011 Statistica Applicata all edilizia: Indice 1 2 Statistica Applicata all edilizia: Uno dei problemi principali della statistica

Dettagli

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I 01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore

Dettagli

Esercizi di Elementi di Teoria degli Insiemi, Parte 1 Fabrizio Anelli

Esercizi di Elementi di Teoria degli Insiemi, Parte 1 Fabrizio Anelli Esercizi di Elementi di Teoria degli Insiemi, Parte 1 Fabrizio Anelli Lezione 1, Esercizio 1 Dimostrare che per le coppie di Kuratowski vale che (a, b) = (a, b ) a = a b = b. Perché i due insiemi {{a},

Dettagli