10 Proprietà di Equipartizione Asintotica
|
|
- Fiora Calabrese
- 5 anni fa
- Visualizzazioni
Transcript
1 FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della codifica canale utilizziamo più simboli di ingresso per codificare un messaggio da trasmettere. Per far ciò, estendiamo il modello di canale in modo da considerare la trasmissione di sequenze di simboli. La n-esima estensione di un canale X, Y, py x è il canale X n, Y n, py n x n. La quantità py n x n indica la probabilità di ottenere in uscita la sequenza y n Y n quando è stata trasmessa la sequenza x n X n. Dato che il canale è senza memoria, vale py n x n = py n y n, x n py n y n 2, x n py x n = Un codice canale di tipo M, n per il canale X, Y, py x è definito da: n py t x t. t= Un insieme di M messaggi, indicati con {,..., M}. Una funzione di codifica x n : {,..., M} X n. Una funzione di decodifica g : Y n {,..., M}. Dato un codice canale, la probabilità di errore di decodifica del messaggio i è definita come λ i = P gy n i X n = x n i dove X n, Y n sono variabili casuali che indicano i simboli trasmessi e quelli ricevuti. aggregare le probabilità di errore di singoli messaggi in due modi: Possiamo λ n = P n e max i=,...,m λ i = M M i= λ i probabilità massima di errore probabilità media di errore dove, ovviamente P n e λ n. Il tasso di trasmissione di un codice di tipo M, n è dato dal rapporto tutti i logaritmi in questa dispensa sono in base 2 R = log M n fra lunghezza in bit del messaggio e numero di simboli della sua codifica. Il tasso quindi rappresenta il numero di bit che il codice trasmette per uso del canale. Un tasso R è raggiungibile se esiste una sequenza di codici di tipo 2 nr, n, per n =, 2,... tale che lim λn = 0.
2 Per capire i concetti di tasso e raggiungibilità, supponiamo che il canale sia binario X = Y = {0, } e non abbia rumore. Allora usando codifiche di n bit posso trasmettere M = 2 n messaggi tasso di trasmissione pari a uno con probabilità di errore pari a zero. Se aggiungo rumore nel canale, allora per tenere la probabilità di errore sotto controllo devo ridurre il numero di messaggi, passando da 2 n a 2 nr per un qualche R <, che rappresenta appunto il tasso di trasmissione. Infine, come nel caso del primo teorema di Shannon, è ragionevole pensare che al crescere di n, e corrispondentemente del numero di messaggi 2 nr, la probabilità di errore raggiunga asintoticamente il valore minimo a parità di tasso di trasmissione R. Preliminarmente allo studio del secondo teorema di Shannon, introduciamo la proprietà di equipartizione asintotica AEP. Cominciamo col rammentare la legge dei grandi numeri. Teorema Per ogni sequenza X, X 2,... di variabili casuali indipendenti e identicamente distribuite con valore atteso µ <, per ogni > 0, vale lim P n X t µ n > = 0. t= In altre parole, se il campione è di taglia n sufficientemente grande rispetto ad, allora con alta probabilità la media campionaria è entro una distanza dal valore atteso. La proprietà AEP può essere dimostrata come un corollario della legge dei grandi numeri. Corollario 2 AEP Per ogni sequenza X, X 2,... di variabili casuali indipendenti e identicamente distribuite con valore atteso finito e per ogni > 0, vale lim P n log px px n HX > = 0. dove HX è l entropia della distribuzione di ciascuna delle X t. Dimostrazione. Introduciamo le variabili casuali Z, Z 2,... con Z t = log px t. Dato che funzioni di variabili casuali indipendenti e identicamente distribuite sono variabili casuali ancora i.i.d., ne deduciamo che Z, Z 2,... sono anch esse indipendenti e identicamente distribuite. Inoltre, n log px px n = n n log pxt = n t= n Z t. Dato che per ogni t vale E[Z t ] = HX t = HX, possiamo applicare la legge dei grandi numeri alle Z t ottenendo la tesi. Si noti che nella definizione di AEP compaiono delle quantità px t. Queste sono variabili casuali, funzioni delle X t, il cui valore è la probabilità calcolata in un punto casuale X t. Un modo più intuitivo di interpretare AEP è attraverso la nozione di insieme tipico. A n } {x,..., x n X n : 2 HX+ px px n 2 HX t= 2
3 Dato che { x,..., x n X n : } n log px px n HX A n vediamo subito che AEP implica lim P A n = e quindi per n abbastanza grande vale P A n >. In altre parole, asintoticamente le sequenze nell insieme tipico hanno tutte la stessa la probabilità pari a 2 HX, mentre la probabilità delle altre sequenze va a zero. Due altre proprietà notevoli dell insieme tipico sono le seguenti. Teorema 3 Siano X, X 2,... variabili casuali indipendenti e identicamente distribuite e sia A n l insieme tipico corrispondente.. Per ogni n, A n HX+ 2 n. 2. Per ogni n abbastanza grande vale A n HX 2 n. Dimostrazione. Ricordando che px n = px px n, cominciamo col dimostrare la prima proprietà. Abbiamo che = px n x n X n px n x n A n x n A n = A n 2 HX+ 2 HX+. per definizione di A n Per dimostrare la seconda proprietà osserviamo che per ogni n abbastanza grande vale P A n >, come avevamo già dimostrato. Quindi, per questi n abbiamo che < P A n = px n x n A n x n A n = A n 2 2 HX HX. per definizione di A n 3
4 Per la dimostrazione del secondo teorema di Shannon useremo una nozione un po più complessa di quella di insieme tipico, ovvero la nozione di insieme congiuntamente tipico. Però è possibile già sviluppare dell intuizione sul legame fra capacità o informazione mutua massimale e tasso di trasmissione utilizzando gli insiemi tipici. Fissiamo un canale X, Y, py x e una qualunque distribuzione px su X. Abbiamo dimostrato che l insieme tipico per px contiene all incirca 2 nhx sequenze x n X n. Anche l insieme tipico per py contiene quindi circa 2 nhy sequenze y n Y n. Si può dimostrare che se trasmettiamo una sequenza x n qualsiasi dall insieme tipico, a causa del rumore osserveremo con probabilità pressoché uguale una fra circa 2 nhy X sequenze tipiche y n Y n. Quindi, il numero massimo di x n distinte che posso trasmettere in modo tale che gli insiemi corrispondenti in Y n, ciascuno di cardinalità circa 2 nhy X, non si sovrappongano è 2 nhy 2 nhy X = 2n HY HY X = 2 nix,y. Posso utilizzare queste 2 nix,y sequenze per codificare altrettanti messaggi. Il tasso del codice che ottengo è log 2nIX,Y R = = IX, Y. n Siano X, Y variabili casuali con valori in X Y e distribuzione congiunta px, Y. Siano X n = X,..., X n e Y n = Y,..., Y n le variabili casuali associate alle estrazioni indipendenti di n coppie X, Y,..., X n, Y n. Quindi, P X n = x n, Y n = y n = n p x i, y i = px n, y n. Per ogni > 0, l insieme congiuntamente tipico B n è definito come { B n = x n, y n X n Y n : n log px n HX, n log py n HY, } n log px n, y n HX, Y. i= Lemma 4 Per ogni > 0 valgono le seguenti proprietà. lim P B n =. 2. Se X n ha distribuzione P X n = x n = i px i dove px è la marginale di X, e Ỹ n ha distribuzione PỸ n = y n = i py i dove py è la marginale di Y allora, per ogni n, P Xn, Ỹ n B n 2 IX,Y 3. 4
5 Dimostrazione. Usando un argomentazione del tutto simile a quella utilizzata per la dimostrazione dell analogo enunciato relativo a A n, applichiamo tre volte la legge dei grandi numeri in modo da ottenere che, per ogni δ > 0 fissato, n n n P n log 2 px n HX > δ 3 n 2 n n 2 n 3 n n 3 [A] P n log 2 py n HY > [B] δ 3 P n log 2 px n, Y n HX, Y > [C] δ 3. Quindi, per ogni n max{n, n 2, n 3 }, se indichiamo con B n l insieme complemento di B n, Abbiamo appena dimostrato che P B n = P [A] [B] [C] P[A] + P[B] + P[C] δ. lim P B n = 0 da cui otteniamo lim P B n =. Per la seconda parte, osserviamo che P Xn, Ỹ n B n = x n,y n B n x n,y n B n px n py n 2 HX 2 HY = B n HX+HY 2 2 dove la disuguaglianza vale perché x n, y n B n implica che px n 2 2 HY. Infine notiamo che = px n, y n px n, y n B n 2 x n,y n X n Y n x n,y n B n in quanto x n, y n B n implica px n, y n 2 HX,Y +. Quindi B n HX,Y 2 che sostituito in conclude la dimostrazione. HX HX,Y + e py n 5
8 Derivati dell entropia
(F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta
DettagliCODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente p. 1/39 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
DettagliTEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì
Dettagli1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità
DettagliCodifica delle sequenze sorgente
Codifica delle sequenze sorgente Sorgente emette sequenza di simboli appartenenti ad un alfabeto X che vengono codificati come sequenze di simboli di un alfabeto D-ario.. p.1/?? Codifica delle sequenze
DettagliCODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore
DettagliProprietà di equipartizione asintotica e sue applicazioni nella teoria dell informazione
UNIVERSITÀ DEGLI STUDI DI PADOVA FACOLTÀ DI INGEGNERIA Corso di Laurea in INGEGNERIA DELL INFORMAZIONE Proprietà di equipartizione asintotica e sue applicazioni nella teoria dell informazione Relatore
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria
DettagliCodifica sorgente e canale
Codifica sorgente e canale Codifica sorgente Codifica canale in Canale Compressione Codifica Decodifica Decompress. Rumoroso out Codifica sorgente: comprimere i dati per rimuovere ridondanza Codifica canale:
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
DettagliRischio statistico e sua analisi
F94 Metodi statistici per l apprendimento Rischio statistico e sua analisi Docente: Nicolò Cesa-Bianchi versione 7 aprile 018 Per analizzare un algoritmo di apprendimento dobbiamo costruire un modello
DettagliLezione 11 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 207 208 Lezione Ugo Vaccaro Abbiamo visto finora che in vari problemi collegati alla codifica di emissioni di una sorgente di informazione la entropia H(P )
DettagliModello di sistema di comunicazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
DettagliIl teorema di dualità forte
Complementi di Algoritmi e Strutture Dati Il teorema di dualità forte Docente: Nicolò Cesa-Bianchi versione 13 maggio 2018 Ricordiamo la formulazione del problema di programmazione lineare nella sua forma
DettagliAlcuni complementi di teoria dell integrazione.
Alcuni complementi di teoria dell integrazione. In ciò che segue si suppone di avere uno spazio di misura (,, µ) 1 Sia f una funzione misurabile su un insieme di misura positiva tale che f 0. Se fdµ =
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore
DettagliIL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero
IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero Il teorema degli zeri è fondamentale per determinare se una funzione continua in un intervallo chiuso [ a ; b ] si annulla in almeno un punto interno
DettagliDimostrazione. Indichiamo con α e β (finiti o infiniti) gli estremi dell intervallo I. Poniamo
C.6 Funzioni continue Pag. 114 Dimostrazione del Corollario 4.25 Corollario 4.25 Sia f continua in un intervallo I. Supponiamo che f ammetta, per x tendente a ciascuno degli estremi dell intervallo, iti
Dettagli1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano
Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una
DettagliCP410: Esonero 1, 31 ottobre 2013
Dipartimento di Matematica, Roma Tre Pietro Caputo 2013-14, I semestre 31 ottobre, 2013 CP410: Esonero 1, 31 ottobre 2013 Cognome Nome Matricola Firma 1. Fare un esempio di successione di variabili aleatorie
DettagliANALISI 1 - Teoremi e dimostrazioni vari
ANALISI 1 - Teoremi e dimostrazioni vari Sommario Proprietà dell estremo superiore per R... 2 Definitivamente... 2 Successioni convergenti... 2 Successioni monotone... 2 Teorema di esistenza del limite
DettagliConcetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018. Giovanni Lafratta
Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018 Giovanni Lafratta ii Indice 1 Spazi, Disegni e Strategie Campionarie 1 2 Campionamento casuale
DettagliSicurezza di un Cifrario (C. Shannon)
La teoria di Shannon segretezza perfetta sicurezza computazionale Sicurezza di un Cifrario (C. Shannon) SEGRETEZZA PERFETTA Un Cifrario è detto perfetto, o assolutamente sicuro, se, dopo aver intercettatto
Dettagli15 Informazione e Predizione
(FX) Teoria dell Informazione e della Trasmissione 5 Informazione e Predizione Docente: Nicolò Cesa-Bianchi versione 4 maggio 03 Consideriamo una sorgente X, p. Dallo studio della codifica sorgente, sappiamo
DettagliLunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27
Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza
DettagliAlcune nozioni di calcolo differenziale
Alcune nozioni di calcolo differenziale G. Mastroeni, M. Pappalardo 1 Limiti per funzioni di piu variabili Supporremo noti i principali concetti algebrici e topologici relativi alla struttura dello spazio
DettagliProprietà asintotiche dello stimatore OLS
Università di Pavia Proprietà asintotiche dello stimatore OLS Eduardo Rossi Sequenze Consideriamo un infinita sequenza di variabili indicizzate con i numeri naturali: X 1, X 2, X 3,...,X N,... = {X N }
DettagliP ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)
10.4 Convergenze 166 10.4.3. Convergenza in Probabilità. Definizione 10.2. Data una successione X 1, X 2,...,,... di vettori aleatori e un vettore aleatorio X aventi tutti la stessa dimensione k diremo
DettagliAppunti sui Codici di Reed Muller. Giovanni Barbarino
Appunti sui Codici di Reed Muller Giovanni Barbarino Capitolo 1 Codici di Reed-Muller I codici di Reed-Muller sono codici lineari su F q legati alle valutazioni dei polinomi sullo spazio affine. Per semplicità
DettagliIntroduzione alla codifica entropica
Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta
DettagliIl secondo teorema di Shannon
Il secondo teorema di Shannon Appunti scritti da Alberto Leporati e-mail: alberto.leporati@unimib.it Dipartimento di Informatica, Sistemistica e Comunicazione (DISCo) Università degli Studi di Milano Bicocca
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con
DettagliINFORMAZIONE E COMPLESSITA
INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze
DettagliEntropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...
Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata
DettagliSi dimostri che la (*) possiede un unica soluzione (u n ) limitata.
Scuola Normale Superiore, ammissione al IV anno del corso ordinario Prova scritta di Analisi Matematica per Fisica, Informatica, Matematica 26 Agosto 2 Esercizio. Siano (a n ) e (b n ) successioni di numeri
DettagliElementi di Probabilità e Statistica - 052AA - A.A
Elementi di Probabilità e Statistica - 05AA - A.A. 014-015 Prima prova di verifica intermedia - 9 aprile 015 Problema 1. Dati due eventi A, B, su uno spazio probabilizzato (Ω, F, P), diciamo che A è in
Dettagli11. Misure con segno.
11. Misure con segno. 11.1. Misure con segno. Sia Ω un insieme non vuoto e sia A una σ-algebra in Ω. Definizione 11.1.1. (Misura con segno). Si chiama misura con segno su A ogni funzione ϕ : A R verificante
DettagliIntegrali impropri - svolgimento degli esercizi
Integrali impropri - svolgimento degli esercizi La funzione integranda è continua su [, + e quindi localmente integrabile. Esaminiamone il segno: si ha < < sin5 > log 2 + 2 log log 2 + log 2 > ; quindi
DettagliCrittografia Moderna. Segretezza Perfetta: nozioni
Crittografia Moderna Segretezza Perfetta: nozioni Segretezza perfetta Ci occuperemo di schemi di cifratura perfettamente sicuri Avversari di potere computazionale illimitato confidenzialità / riservatezza
DettagliFondamenti dell Informatica
Informatica e Comunicazione Digitale (sede di Taranto) Fondamenti dell Informatica a.a. 2015-2016 Programma 2015-2016 1. Teoria dell Informazione 2. Algoritmi e problema 3. Algebra di Boole 4. La Macchina
DettagliDensità di probabilità del prodotto di due variabili casuali distribuite uniformemente
Firenze - Dip. di Fisica 2 agosto 2008 Densità di probabilità del prodotto di due variabili casuali distribuite uniformemente In questa dispensa, che presentiamo a semplice titolo di esercizio e applicazione
DettagliESERCIZI HLAFO ALFIE MIMUN
ESERCIZI HLAFO ALFIE MIMUN December, 27. Testo degli esercizi Risolvere i seguenti problemi: () Siano X, X 2, X 3 variabili aleatorie i.i.d. bernulliane di media.5 e siano Y, Y 2, Y 3, Y 4 variabili aleatorie
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
Dettagli5. Analisi dei dati di output
Anno accademico 2006/07 Analisi dei dati di Output Y 1, Y 2,..., Y m : output della simulazione. Le variabili casuali Y 1, Y 2,..., Y m non sono in generale indipendenti Se supponiamo però di avere effettuato
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 206 207 Lezione 4 Ugo Vaccaro Nella lezione scorsa abbiamo derivato il seguente risultato. Teorema Per ogni codifica UD per una sorgente DSSM con alfabeto sorgente
DettagliProva scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016
Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 205/206 20 Settembre 206 Esercizio. Un dado equilibrato viene lanciato ripetutamente. Indichiamo con X n il risultato dell n-esimo
DettagliSviluppi e derivate delle funzioni elementari
Sviluppi e derivate delle funzioni elementari In queste pagine dimostriamo gli sviluppi del prim ordine e le formule di derivazioni delle principali funzioni elementari. Utilizzeremo le uguaglianze lim
DettagliTeoria dell Informazione II Anno Accademico Lezione 6-7
Teoria dell Informazione II Anno Accademico 2017 2018 Lezione 6-7 Ugo Vaccaro ( ) 1 2 n Data una variabile casuale X = che assume valori i, con probabilità p p 1 p 2 p i, per i = 1,...,n, n vogliamo studiare
DettagliCapitolo 5 Campi finiti
Capitolo 5 Campi finiti Definizione 5.1. Un campo finito K (cioè composto da un numero finito di elementi) si dice campo di Galois. Il numero dei suoi elementi si dice ordine e si denota con K. Un campo
DettagliCOMPLETAMENTO DI SPAZI METRICI
COMPLETAMENTO DI SPAZI METRICI 1. Successioni di Cauchy e spazi metrici completi Definizione 1.1. Una successione x n n N a valori in uno spazio metrico X, d si dice di Cauchy se, per ogni ε > 0 esiste
DettagliEsercizi settimana 4. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3
1 Esercizi settimana Esercizi applicati Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 3 di ottenere testa. Se scegliete la prima moneta vincete 10 punti se esce testa e punti
DettagliNOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE
NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE ROBERTO GIAMBÒ 1. DEFINIZIONI E PRIME PROPRIETÀ In queste note saranno presentate alcune proprietà principali delle funzioni convesse di una variabile
DettagliMassimo limite e minimo limite di una funzione
Massimo limite e minimo limite di una funzione Sia f : A R una funzione, e sia p DA). Per ogni r > 0, l insieme ) E f p r) = { fx) x A I r p) \ {p} } è non vuoto; inoltre E f p r ) E f p r ) se 0 < r r.
DettagliCalcolo delle Probabilità 2
Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale
Dettagli10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore
10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore
DettagliEsercizi: fascicolo 4
Esercizi: fascicolo 4 Esercizio 1 Dimostrare le seguenti proprietà (1), (2) e (3): (1) X 1 = 0 X 0; (2) X L 1 (Ω, P ), λ R λx 1 = λ X 1 ; (3) X, Y L 1 (Ω, P ) X + Y 1 X 1 + Y 1. Esercizio 2 Si estraggono
DettagliCompressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.
Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia
Dettagli! X (92) X n. P ( X n X ) =0 (94)
Convergenza in robabilità Definizione 2 Data una successione X 1,X 2,...,X n,... di numeri aleatori e un numero aleatorio X diremo che X n tende in probabilità a X escriveremo X n! X (92) se fissati comunque
DettagliForme indeterminate e limiti notevoli
Forme indeterminate e iti notevoli Limiti e continuità Forme indeterminate e iti notevoli Forme indeterminate Teorema di sostituzione Limiti notevoli Altre forme indeterminate 2 2006 Politecnico di Torino
DettagliConversione Analogico/Digitale
Conversione Analogico/Digitale 1 Fondamenti di Segnali e Trasmissione Conversione analogico/digitale (A/D) Per rappresentare numericamente un segnale continuo nel tempo e nelle ampiezze è necessario: Campionare
DettagliI Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17
I Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 3 gennaio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile
DettagliCorso di Analisi Numerica
Corso di Laurea in Ingegneria Informatica Corso di 3 - PROBLEMI DI INTERPOLAZIONE Lucio Demeio Dipartimento di Scienze Matematiche 1 Interpolazione: Polinomio di Lagrange 2 3 Introduzione Problemi di interpolazione
DettagliVETTORI DI VARIABILI ALEATORIE
VETTOI DI VAIABILI ALEATOIE E. DI NADO 1. Funzioni di ripartizione congiunte e marginali Definizione 1.1. Siano X 1, X 2,..., X n v.a. definite su uno stesso spazio di probabilità (Ω, F, P ). La n-pla
Dettagli1 Funzioni reali di una variabile reale
1 Funzioni reali di una variabile reale Qualche definizione e qualche esempio che risulteranno utili più avanti Durante tutto questo corso studieremo funzioni reali di una variabile reale, cioè Si ha f
DettagliEsercizi settimana 5. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3
1 Esercizi settimana 5 Esercizi applicati Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 3 di ottenere testa. Se scegliete la prima moneta vincete 10 punti se esce testa e punti
DettagliSTII. Probabilità e proprietà dei logaritmi
STII Durante una trasmissione, il segnale naviga alcuni minuti prima di arrivare a destinazione. Durante il percorso, il segnale è soggetto a rumore, quindi può capitare che il messaggio che è stato inviato
DettagliSuccessioni numeriche (II)
Successioni numeriche (II) Hynek Kovarik Università di Brescia Analisi A Hynek Kovarik (Università di Brescia) Successioni (II) Analisi A 1 / 52 Forme indeterminate associate a funzioni razionali fratte:
DettagliDualitá in Programmazione Lineare e alcune conseguenze
Dualitá in Programmazione Lineare e alcune conseguenze Giacomo Zambelli 1 Dualitá per problemi in forma standard Si consideri il seguente problema di PL in forma standard: z = max c x Ax = b (1) ove A
DettagliInformazione, Entropia e Probabilità
Informazione, Entropia e Probabilità Alessandro Lenci Università di Pisa, Dipartimento di Linguistica Via Santa Maria, 36, 56100 Pisa, Italy alessandro.lenci@ilc.cnr.it Linguaggio e comunicazione - LO042
DettagliConcetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017. Giovanni Lafratta
Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017 Giovanni Lafratta ii Indice 1 Spazi, Disegni e Strategie Campionarie 1 2 Campionamento casuale
Dettaglimisura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x
4. Geometria di R 3. Questo paragrafo è molto simile al paragrafo : tratta infatti delle proprietà geometriche elementari dello spazio R 3. Per assegnare delle coordinate nello spazio, fissiamo innanzitutto
Dettaglimisura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x
4. Geometria di R 3. Questo paragrafo è molto simile al paragrafo : tratta infatti delle proprietà geometriche elementari dello spazio R 3. Per assegnare delle coordinate nello spazio, fissiamo innanzitutto
DettagliAPPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a
APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof FPodestà, aa 003-004 Sia V uno spazio vettoriale e sia f : V V una applicazione lineare una tale applicazione da uno spazio vettoriale in se stesso è chiamata
DettagliGeometria e Topologia I (U1-4) 2006-mag-10 61
Geometria e Topologia I (U1-4) 2006-mag-10 61 (15.9) Teorema. Consideriamo il piano affine. Se A A 2 (K) è un punto e r una retta che non passa per A, allora esiste unica la retta per A che non interseca
DettagliCP410: Esame 2, 30 gennaio Testo e soluzione
Dipartimento di Matematica, Roma Tre Pietro Caputo 23-4, I semestre 3 gennaio, 24 CP4: Esame 2, 3 gennaio 24 Testo e soluzione Cognome Nome Matricola Firma . Per ogni n N, sia X n la variabile aleatoria
DettagliLe derivate parziali
Sia f(x, y) una funzione definita in un insieme aperto A R 2 e sia P 0 = x 0, y 0 un punto di A. Essendo A un aperto, esiste un intorno I(P 0, δ) A. Preso un punto P(x, y) I(P 0, δ), P P 0, possiamo definire
DettagliVARIABILI CASUALI CONTINUE
p. 1/1 VARIABILI CASUALI CONTINUE Una variabile casuale continua può assumere tutti gli infiniti valori appartenenti ad un intervallo di numeri reali. p. 1/1 VARIABILI CASUALI CONTINUE Una variabile casuale
DettagliSupport Vector Machines
F94) Metodi statistici per l apprendimento Support Vector Machines Docente: Nicolò Cesa-Bianchi versione 28 maggio 208 La Support Vector Machine d ora in poi SVM) è un algoritmo di apprendimento per classificatori
DettagliCP110 Probabilità: esame del 18 settembre 2017
Dipartimento di Matematica, Roma Tre Pietro Caputo 206-7, II semestre 8 settembre, 207 CP0 Probabilità: esame del 8 settembre 207 Cognome Nome Matricola Firma Nota:. L unica cosa che si puo usare durante
Dettagli8. Completamento di uno spazio di misura.
8. Completamento di uno spazio di misura. 8.1. Spazi di misura. Spazi di misura completi. Definizione 8.1.1. (Spazio misurabile). Si chiama spazio misurabile ogni coppia ordinata (Ω, A), dove Ω è un insieme
DettagliDisuguaglianza di Cramér-Rao
Disuguaglianza di Cramér-Rao (Appunti per gli studenti Silvano Holzer Dipartimento di Scienze Economiche, Aziendali, Matematiche e Statistiche Bruno de Finetti Università degli studi di Trieste Un esperimento
DettagliEsame di Calcolo delle Probabilità del 12 dicembre 2005 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).
Esame di Calcolo delle Probabilità del 2 dicembre 2005 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova). Cognome Nome Matricola Es. Es. 2 Es. 3 Es. 4 Somma Voto parziale Prima
DettagliCalcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012
Fisciano, 10/1/2012 Esercizio 1 Un esperimento consiste nel generare a caso un vettore di interi (x 1, x 2, x 3, x 4 ), dove x i {1, 2, 3, 4, 5, 6} i. (i) Si individui lo spazio campionario, determinandone
DettagliCLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI
CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI Consideriamo l insieme R = R {, + } ottenuto aggiungendo all insieme dei numeri reali i simboli e +. Introduciamo in
DettagliCorso di Calcolo Numerico
Corso di Laurea in Ingegneria Gestionale Sede di Fermo Corso di 3 - PROBLEMI DI INTERPOLAZIONE Introduzione Problemi di interpolazione Supponiamo di avere un insieme di dati che rappresentano misurazioni
DettagliStatistica Inferenziale
Statistica Inferenziale Prof. Raffaella Folgieri Email: folgieri@mtcube.com aa 2009/2010 Riepilogo lezione 5 Abbiamo visto: Modelli probabilistici nel continuo Distribuzione uniforme continua Distribuzione
DettagliPROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07
PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 006/07 Esercizio 1 Prova scritta del 16/1/006 In un ufficio postale lavorano due impiegati che svolgono lo stesso compito in maniera indipendente, sbrigando
DettagliDistribuzioni campionarie
Le distribuzioni campionarie sono quelle che derivano dalla presenza di campioni i.i.d. a distribuzione normale. Definizione. Se X è una v.a. avente distribuzione N(0, ), allora Y = X ha distribuzione
Dettaglinon solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da
NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x
DettagliLOGICA MATEMATICA PER INFORMATICA (A.A. 12/13)
LOGICA MATEMATICA PER INFORMATICA (A.A. 12/13) DISPENSA N. 3 Sommario. Introduciamo il Calcolo dei Predicati del I ordine e ne dimostriamo le proprietà fondamentali. Discutiamo il trattamento dell identità
DettagliLa codifica digitale
La codifica digitale Codifica digitale Il computer e il sistema binario Il computer elabora esclusivamente numeri. Ogni immagine, ogni suono, ogni informazione per essere compresa e rielaborata dal calcolatore
DettagliMattia Zanella. Ferrara, April
Department of Mathematical Sciences Politecnico di Torino, Italy http://www.mattiazanella.eu Ferrara, April 5 217 Programma della lezione Seminario I Introduzione a Matlab U(, 1): metodo di inversione
DettagliCorso di Statistica - Prof. Fabio Zucca IV Appello - 5 febbraio Esercizio 1
Corso di Statistica - Prof. Fabio Zucca IV Appello - 5 febbraio 2015 Nome e cognome: Matricola: c I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. 8994
DettagliStatistica Applicata all edilizia: Stime e stimatori
Statistica Applicata all edilizia E-mail: orietta.nicolis@unibg.it 15 marzo 2011 Statistica Applicata all edilizia: Indice 1 2 Statistica Applicata all edilizia: Uno dei problemi principali della statistica
Dettagli01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I
01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore
DettagliEsercizi di Elementi di Teoria degli Insiemi, Parte 1 Fabrizio Anelli
Esercizi di Elementi di Teoria degli Insiemi, Parte 1 Fabrizio Anelli Lezione 1, Esercizio 1 Dimostrare che per le coppie di Kuratowski vale che (a, b) = (a, b ) a = a b = b. Perché i due insiemi {{a},
Dettagli