..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
|
|
- Ilario Bonifacio Mantovani
- 7 anni fa
- Visualizzazioni
Transcript
1 Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente può produrre; C : codice o sequenza di bit che rappresentano il messaggio ; n i : lunghezza in bit del codice C X i ; k : probabilità che la sorgente X produca il simbolo ; i, X j x k, x l : probabilità (congiunta) che la sorgente X produca i simboli x k e x l rispettivamente negli istanti i e j ; sorgente stazionaria: sorgente per cui valga K =cost k ; la probabilità del simbolo si pone per definizione ; sorgente senza memoria: sorgente per cui valga i, X j x l, x m = i x l j x m i, j, k, l I =log : informazione del simbolo di una sorgente stazionaria. Nota che la base del logaritmo è 2 (anche in seguito, se non diversamente specificato); H X =E [ I ]= i= n= n i i= : entropia di una sorgente stazionaria; : costo medio di un codice; 2 n i : disuguaglianza di Kraft; i= univoca decodificabilità di un codice: ogni codice è univocamente associato ad un messaggio; immediata decodificabilità di un codice: nessun codice è l'inizio di un altro (condizione sufficiente all'univoca decodificabilità); codice ottimo: un codice univocamente decodificabile C è ottimo se C ' C univocamente decodificabile n C ' nc ; entropia condizionata: H X Y = y j = i= entropia congiunta: H X,Y = i= Y Y ;, Y, Y ; entropia di una sorgente con memoria: H X = lim H X k X k, X k 2,... X k l ; l sorgente di arkov con memoria m : sorgente per cui vale P x k x k, x k 2,... x k m =P x k x k, x k 2,... x k m ; entropia di una sorgente di arkov con memoria m :
2 H X = H X k X k, X k 2,... X k m ; definizione alternativa dell'entropia: X = lim L L H X, X,..., X ; k k k L distribuzione condizionata delle probabilità dei simboli all'uscita di un canale (caso discreto): X ; densità di probabilità dei simboli all'uscita di un canale (caso continuo) p Y X ; canale binario simmetrico (BSC): canale con alfabeto d'ingresso e di uscita {0,} e probabilità di errore identica per i due simboli. Il canale è completamente definito nota la probabilità 0= p ed il parametro ; canale additivo gaussiano discreto: canale con alfabeto d'ingresso discreto {x,...x }, x,... x R ed uscita continua Y = X N, N ~ N, 2 ; canale binario con cancellazione: canale con alfabeto d'ingresso {0,} e di uscita {0,, E }, X E 0= X E =, X 0= X 0 =0. Dimostrazioni Teorema della massima entropia X sorgente d'informazione discreta, stazionaria, senza memoria; {x,..., x } alfabeto di X con possibili messaggi; H X log H X = i = H X = i = H X = i = H X =log i = H X log= i = i = Per la disuguaglianza del logaritmo, ln x x, si può anche scrivere: H X log i = e
3 H X log i = H X log loge loge H X log 0 H X log, c.v.d. log e i = e La disuguaglianza di Kraft è condizione sufficiente all'esistenza di un codice immediatamente decodificabile Le stesse del teorema precedente, inoltre: C codici che rappresentano ; n i lunghezze dei codici C ; n n 2... n ; vale la disuguaglianza di Kraft. E' sempre possibile costruire un codice immediatamente decodificabile che rispetti la disuguaglianza di Kraft. Si scelgano arbitrariamente gli n bit di C x. Si scelgano arbitrariamente gli n 2 bit di C x 2 in modo che non inizino con la sequenza di C x. Si scelgano arbitrariamente gli n 3 bit di C x 3 in modo che non inizino né con la sequenza di C x né con quella di C x 2. E' possibile scrivere in questo modo tutti i codici fino a C x se: numerocombinazioni totali numerocombinazioni già usate 2 n 2 n 2 n 2n... 2n 2 n 2 2 n... 2 n 2 n 2 2 n 2 n 2 n i i= ossia se la disuguaglianza di Kraft è rispettata.
4 La disuguaglianza di Kraft è condizione necessaria all'univoca decodificabilità di un codice Le stesse del teorema precedente, inoltre: C è univocamente decodificabile. C rispetta la disuguaglianza di Kraft. Se C è univocamente decodificabile si può sempre costruire un altro codice i cui messaggi sono sequenze di N messaggi originali. Si definisce il nuovo alfabeto, i nuovi codice e le loro lunghezze come segue:, 2,..., N C,C 2,...,C N n i,n i 2,...,n in Si definisce inoltre la massima lunghezza n max =max n i,n i2,...,n i N. Per il nuovo codice vale la seguente uguaglianza: i=0 2 n N i = i =0 i2=0.. 2 n i n i2...n in i N =0 L'uguaglianza è una forma della definizione della potenza di polinomio. La stessa scrittura può assumere anche una terza forma: i =0 i2=0.. i N =0 N n 2 n i n i2...n max in = A n 2 n n= dove A n è il numero di messaggi con lunghezza totale n, che varia da bit a N n max bit. Perchè il nuovo codice sia univocamente decodificabile, deve essere A n 2 n, quindi: N n max n= ossia: N n max A n 2 n 2 n 2 n n= N n max A n 2 n N n max n= 2 n N i N nmax i=0 i=0 2 n i N N nmax L'ultima disuguaglianza, in particolare, deve valere per ogni N, quindi: N. In particolare deve valere per
5 2 n i i=0 che è la disuguaglianza di Kraft, il che dimostra che ogni codice univocamente decodificabile la rispetta. Primo Teorema di Shannon Le stesse del teorema precedente. Se un codice è univocamente decodificabile allora n H X. Per definizione, vale: H X n= i= n i i= H X n= [log i= n ] i H X n= i= 2 n i Utilizzando la disuguaglianza del logaritmo posso scrivere: 2 H X n n i e i= H X n i= 2 n i loge i= H X n log e[ 2 n i ] i= log e Per la disuguaglianza di Kraft 2 n i 0, quindi: i = H X n 0 ossia: H X n c.v.d. Ottimalità del codice di Huffmann per sorgenti senza memoria (traccia) X sorgente d'informazione discreta, stazionaria, senza memoria; {x,..., x } alfabeto di X con possibili messaggi;
6 C codici che rappresentano prodotti con l'algoritmo di Huffmann; n i lunghezze dei codici C ; C è ottimo. Traccia della dimostrazione Si dimostra il lemma seguente: Tra i codici ottimi ce n'è almeno uno che se x j allora n i n j ; per i due messaggi meno probabili, ad esempio x e x vale n =n e i rispettivi codici differiscono solo per l'ultimo bit. Se C è ottimo e rispetta il lemma, gli ultimi due codici avranno la stessa lunghezza e differiranno per l'ultimo bit, quindi la lunghezza media sarà calcolabile come: n= i= 2 n i = n i n [ x x ] i= Se fosse possibile codificare i messaggi x,... x 2 in modo ottimo, C sarebbe ottimo. A questo scopo è possibile costruire una nuova fonte X ' che abbia come alfabeto i messaggi {x,... x 2, x x } dove x x è un messaggio di probabilità x x che rappresenta sia x che x. X ' sarà codificata con un nuovo codice C ' identico a C per i primi 2 messaggi e che codifichi x x con gli n bit in comune in C. Per come è costruito, C ' è ottimo se fosse possibile codificare in modo ottimo i primi 3 messaggi; si può quindi continuare in maniera analoga ricorsivamente fino a provare che C è ottimo. Inoltre la lunghezza media di C ' è calcolabile come: n ' =n x x Quindi la differenza tra le lunghezze medie: n n ' = x x non dipende dai particolari simboli scelti. Entropia condizionata media La media dell'entropia condizionata può essere calcolata come: N H X Y = y j= N j= N i= j = i = Y Y Y Y a per la definizione di probabilità condizionata si può scrivere
7 P A B=P A,B P A, B=P B P A B quindi la scrittura precedente diventa: P B N, Y i= j = Y Quest'ultima forma si prende come definizione di entropia condizionata media: N H X Y =,Y i = j = Y. L'entropia condizionata è minore o uguale all'entropia semplice H X Y H X N H X Y H X =,Y i = j= Per il teorema della somma: N H X Y H X =,Y i = j= Y i= Y i= N j = N H X Y H X =,Y [log i = j= Y ] X i N P H X Y H X =,Y [log X i = j= Y ] N H X Y H X =,Y [log P y X i Y j i= j=,y ] Per la disuguaglianza del logaritmo si può anche scrivere: N H X Y H X,Y [ P x P y X i Y j i = j=,y ]log e N H X Y H X i= j= H X Y H X log e log e H X Y H X 0 quindi H X Y H X c.v.d. N log e,y log e i = j = Entropia congiunta di variabili indipendenti Se X Y allora,y = quindi N H X, Y = i= j=, Y
8 N H X, Y = i= j= H X, Y = i= H X, Y =H X H Y j= N j= i= N Formula alternativa dell'entropia congiunta ossia Dal momento che P A B=P A,B P A, B=P B P A B l'espressione dell'entropia P B congiunta si può riscrivere nella forma: N H X, Y = i= j= N H X, Y = i= j= N H X, Y = i= j=,y, Y, Y Y,Y H X, Y = i= H X, Y =H X H Y X i= N j= i= N j=, Y Y,Y Y Definizione alternativa dell'entropia per sorgente con memoria X sorgente d'informazione discreta, stazionaria, di arkov con memoria m ; Le due definizioni di entropia sono equivalenti. La definizione alternativa di entropia è X = L H X, X,..., X k k k L al tendere di L all'infinito. Questa definizione può essere scritta nella forma: X = L H X k X k,..., X k L L H X k,..., X k L X = L H X k X k,..., X k L L H X k X k 2,..., X k L L H X k 2,..., X k L Si può continuare in questo modo per L passi supponendo L L2 : X = L [ H X k X k,..., X k L...H X k L X k L,..., X k L] L H X k L,..., X k L
9 Inoltre, considerando che i termini della prima sommatoria sono tutti uguali per stazionarietà, si può scrivere: X = L m L Quindi, per L : H X k X k,..., X k L L H X k L,..., X k L X = H X k X k,..., X k L che è la prima definizione di entropia. Primo teorema di Shannon per sorgenti con memoria Si suppone di codificare L messaggi consecutivi ( x vettore dei messaggi) da una fonte X con un codice univocamente decodificabile. Siano i gli L messaggi x alfabeto di una nuova sorgente, Y, che può quindi essere a sua volta codificata. Le lunghezze n y i =n x dei messaggi devono soddisfare l'uguaglianza di Kraft: L 2 n x. = D'altra parte, è sempre vero che: X n= L H x n L dove n= P L x n. La scrittura può essere esplicitata come segue: = L X n= P L x = P L x n = L X n= P L x [log = n x ] i L X n= L = X n L = zero, quindi: n X. L L 2 n ed utilizzando la disuguaglianza del logaritmo: 2 n ma per Kraft il secondo membro può al più uguagliare
TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
Dettagli1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità
DettagliModello di sistema di comunicazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
Dettagli1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano
Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una
DettagliLunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27
Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore
Dettagli10 Proprietà di Equipartizione Asintotica
FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 3 Teoria dell informazione Sorgente Codificatore
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Capacità del canale discreto Teoria dell informazione Sorgente Codificatore di sorgente
DettagliCompressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.
Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì
Dettagli2. (3p) Qual è la probabilità che un cliente acquisti un componente difettoso?
1 COMPITO A Esercizio 1 Una ditta produce componenti meccaniche di precisione in lotti che contengono l 1% di componenti difettosi. Ogni componente viene testato prima di essere venduto al cliente, con
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria
Dettagli8 Derivati dell entropia
(F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta
DettagliIntroduzione alla codifica entropica
Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
DettagliTeoria dell informazione
Teoria dell informazione Giuseppe Ruggeri Università Mediterranea di Reggio Calabria Italy Outline Cos è l informazione? E possibile misurare l informazione? Limiti matematici nella rappresentazione dell
DettagliNotazione posizionale. Codifica binaria. Rappresentazioni medianti basi diverse. Multipli del byte
Codifica binaria Rappresentazione di numeri Notazione di tipo posizionale (come la notazione decimale). Ogni numero è rappresentato da una sequenza di simboli Il valore del numero dipende non solo dalla
Dettagli10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore
10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore
DettagliUniversità degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1
Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1 Lezione 1 - Mercoledì 27 Settembre 2017 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,
DettagliLezione 11 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 207 208 Lezione Ugo Vaccaro Abbiamo visto finora che in vari problemi collegati alla codifica di emissioni di una sorgente di informazione la entropia H(P )
DettagliPotenze reali, esponenziali e logaritmi
Potenze reali, esponenziali e logaritmi Lezione per Studenti di Agraria Università di Bologna (Università di Bologna) Potenze reali, esponenziali e logaritmi 1 / 14 Potenza ad esponente intero positivo
DettagliCalcolo delle Probabilità 2
Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
DettagliCodifica binaria. Rappresentazioni medianti basi diverse
Codifica binaria Rappresentazione di numeri Notazione di tipo posizionale (come la notazione decimale). Ogni numero è rappresentato da una sequenza di simboli Il valore del numero dipende non solo dalla
Dettagli1 Esercizio - caso particolare di ottimalità
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto
DettagliConversione binario-ottale/esadecimale. Conversione binario-ottale/esadecimale. Rappresentazione di Numeri Interi Positivi (numeri naturali)
Conversione binario-ottale/esadecimale Conversione binario-ottale/esadecimale Nella rappresentazione ottale (B=8) si usano gli 8 simboli,, 2, 3, 4, 5, 6, 7 In quella esadecimale (B=6) i 6 simboli,, 2,
DettagliUnità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9.
Unità 30 Sommario Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi Bibliografia [Bel] -- [Ros] 9.3 [Pap] -- 1 Auto-informazione di un evento Prima di effettuare un esperimento
DettagliLaboratorio di Chimica Fisica. Analisi Statistica
Università degli Studi di Bari Dipartimento di Chimica 9 giugno F.Mavelli- Laboratorio Chimica Fisica - a.a. 3-4 F.Mavelli Laboratorio di Chimica Fisica a.a. 3-4 Analisi Statistica dei Dati Analisi Statistica
Dettagli2) Codici univocamente decifrabili e codici a prefisso.
Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliSorgenti discrete e informazione
Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un
DettagliLA CODIFICA. CANALE IDEALE E REALE
LA CODIFICA. CANALE IDEALE E REALE L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale:
DettagliCapitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale
Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale 1 Obiettivi: Codici correttori d errore correggere o rivelare errori nella trasmissione di segnali numerici (sequenze di simboli,
DettagliRipasso segnali e processi casuali. Trasmissione dell Informazione
Ripasso segnali e processi casuali 1 Breve ripasso di segnali e trasformate Dato un segnale s(t), la sua densità spettrale si calcola come dove S(f) è la trasformata di Fourier. L energia di un segnale
DettagliCorso di Calcolatori Elettronici I
Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica Roberto Canonico Università degli Studi di Napoli Federico II A.A. 2016-2017 Roberto Canonico Corso di Calcolatori Elettronici
Dettagli9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita
9. Test del χ 2 e test di Smirnov-Kolmogorov 9. Stimatori di massima verosimiglianza per distribuzioni con densità finita Supponiamo di avere un campione statistico X,..., X n e di sapere che esso è relativo
DettagliSoluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni
Corso di Laurea in Ingegneria Informatica corso di Telecomunicazioni (Prof. G. Giunta) (editing a cura dell ing. F. Benedetto) Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Esame
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 6 Teorema della codifica di sorgente Si consideri
DettagliEsercizi settimana 4. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3
1 Esercizi settimana Esercizi applicati Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 3 di ottenere testa. Se scegliete la prima moneta vincete 10 punti se esce testa e punti
DettagliTeoria dei Fenomeni Aleatori AA 2012/13. Il Concetto di Distribuzione Condizionata
Il Concetto di Distribuzione Condizionata Se B è un evento, la probabilità di un evento A condizionata a B vale: ponendo: P A B P A B P B A x si giunge al concetto di distribuzione condizionata della v.a.
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliLaurea triennale in INFORMATICA, Corso di CALCOLO DELLE PROBABILITÀ COMPITO - 2 luglio FOGLIO RISPOSTE
Laurea triennale in INFORMATICA, Corso di CALCOLO DELLE PROBABILITÀ COMPITO - 2 luglio 202 - FOGLIO RISPOSTE NOME e COGNOME SOLUZIONI CANALE: G. Nappo VOTO: N.B. Scrivere le risposte dei vari punti degli
DettagliCorso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prova del
Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (69AA) A.A. 06/7 - Prova del 07-07-07 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate. Problema
DettagliScrivere su ogni foglio NOME e COGNOME. Le risposte devono essere giustificate sui fogli protocollo e riportate nel foglio RISPOSTE.
Corso di Laurea Triennale in Matematica Calcolo delle Probabilità I (docenti G. Nappo, F. Spizzichino) Prova di giovedi febbraio 2005 (tempo a disposizione: 3 ore). consegna compiti e inizio orale Lunedì
DettagliUniversità degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1
Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1 Lezione 1 - Martedì 23 Settembre 2014 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,
DettagliRappresentazione dell informazione. Gabriella Trucco
Rappresentazione dell informazione Gabriella Trucco Simboli e alfabeto Per formalizzare dati (numeri, caratteri, immagini, suoni, ) si utilizzano successioni di simboli scelti da un insieme finito detto
DettagliCORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3
CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3 Dott.ssa Antonella Costanzo a.costanzo@unicas.it Esercizio 1. La variabile casuale normale Da un analisi di bilancio è emerso che, durante i giorni feriali
Dettagliλ è detto intensità e rappresenta il numero di eventi che si
ESERCITAZIONE N 1 STUDIO DI UN SISTEMA DI CODA M/M/1 1. Introduzione Per poter studiare un sistema di coda occorre necessariamente simulare gli arrivi, le partenze e i tempi di ingresso nel sistema e di
DettagliProbabilità e Statistica
Diario delle lezioni e del tutorato di Probabilità e Statistica a.a. 2014/2015 www.mat.uniroma2.it/~caramell/did 1415/ps.htm 02/03/2015 - Lezioni 1, 2 Breve introduzione al corso. Fenomeni deterministici
DettagliSicurezza di un Cifrario (C. Shannon)
La teoria di Shannon segretezza perfetta sicurezza computazionale Sicurezza di un Cifrario (C. Shannon) SEGRETEZZA PERFETTA Un Cifrario è detto perfetto, o assolutamente sicuro, se, dopo aver intercettatto
DettagliProbabilità e Statistica
Diario delle lezioni e del tutorato di Probabilità e Statistica a.a. 2013/2014 www.mat.uniroma2.it/~caramell/did 1314/ps.htm 04/03/2014 - Lezioni 1, 2 Breve introduzione al corso. Fenomeni deterministici
DettagliBrevi richiami su variabili aleatorie e processi stocastici
Appendice Parte 9, 1 Brevi richiami su variabili aleatorie e processi stocastici Richiami di teoria della probabilita` Appendice Parte 9, 2 Esperimento casuale: analisi degli elementi caratteristici dei
DettagliII Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17
II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile
DettagliEntropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...
Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata
DettagliTrasmissione numerica: Compito del 22/07/2008
Trasmissione numerica: Compito del /07/008 1 Esercizio1 Sia dato un sistema di trasmissione numerica che utilizza un impulso di trasmissione g(t) a radice di coseno rialzato, e una costellazione PAM con
DettagliTeoria dei Fenomeni Aleatori AA 2012/13. Il Concetto di Distribuzione Condizionata ( )
Il Concetto di Distribuzione Condizionata Se B è un evento, la probabilità di un evento A condizionata a B vale: ponendo: P A B = ( ) P A B P B A = { x} si giunge al concetto di distribuzione condizionata
DettagliCODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore
Dettaglicarattere a b c d e f cod. var
Codici prefissi Un codice prefisso è un codice in cui nessuna parola codice è prefisso (parte iniziale) di un altra Ogni codice a lunghezza fissa è ovviamente prefisso. Ma anche il codice a lunghezza variabile
DettagliEsercitazione del 06/03/2012 Istituzioni di Calcolo delle Probabilità
Esercitazione del 6/3/ Istituzioni di Calcolo delle Probabilità David Barbato barbato@math.unipd.it Esercizio. E la notte di San Lorenzo, Alessandra decide di andare a vedere le stelle cadenti. Osserverà
DettagliDerivate. Rette per uno e per due punti. Rette per uno e per due punti
Introduzione Rette per uno e per due punti Rette per uno e per due punti Rette secanti e tangenti Derivata d una funzione in un punto successive Derivabilità a destra e a sinistra Rette per uno e per due
DettagliCANALE STAZIONARIO CANALE TEMPO INVARIANTE
CANALE STAZIONARIO Si parla di un Canale Stazionario quando i fenomeni che avvengono possono essere modellati da processi casuali e le proprietà statistiche di tali processi sono indipendenti dal tempo.
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con
Dettagli9. Sistemi di Modulazione Numerica in banda traslata. Modulo TLC:TRASMISSIONI Modulazione numerica in banda traslata
1 9. Sistemi di Modulazione Numerica in banda traslata Modulazione QAM (analogica) 2 Modulazione QAM (Quadrature Amplitude Modulation; modulazione di ampiezza con portanti in quadratura) è un tipo di modulazione
DettagliSoluzioniagliesercizi Capitolo 2 Soluzione 2.1. Soluzione 2.2. Soluzione 2.3. Soluzione 2.4.
I Soluzioni agli esercizi apitolo 2 Soluzione 2.. Partendo dall espressione a destra dell uguale si applica ripetutamente il teorema di e Morgan ed infine la proprietà distributiva. Soluzione 2.2. cb +
DettagliSistemi di Telecomunicazioni
Sistemi di Telecomunicazioni Corso di Laurea Specialistica in Ingegneria delle Telecomunicazioni (DM 70) A.A. 014-015 Pietro Guccione Contenuti Teoria dell Informazione Basi della Teoria dell informazione
DettagliStima dei parametri. La v.c. multipla (X 1, X 2,.., X n ) ha probabilità (o densità): Le f( ) sono uguali per tutte le v.c.
Stima dei parametri Sia il carattere X rappresentato da una variabile casuale (v.c.) che si distribuisce secondo la funzione di probabilità f(x). Per investigare su tale carattere si estrae un campione
DettagliSegnali (processi) aleatori (casuali)
Segnali (processi) aleatori (casuali) Definizione di processo aleatorio Descrizione statistica di un processo aleatorio Media, potenza, varianza Autocorrelazione e autocovarianza Filtraggio di un processo
Dettagli( t) NR( t) NR( t) ( t)
prof Valerio CURCIO Simulazione del prezzo del petrolio 1 1. Processi stocastici stazionari e non stazionari dall analisi del prezzo del petrolio Quello che vogliamo fare in questo articolo è un analisi
DettagliCorso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2006-07 Alberto Perotti Esperimento casuale Esperimento suscettibile di più risultati
Dettagli1) Canali discreti con memoria. 2) Modello di Gilbert e Elliott. 3) Modello di Fritchman. 4) Modello ad N stati
Argomenti della Lezione 1) Canali discreti con memoria 2) Modello di Gilbert e Elliott 3) Modello di Fritchman 4) Modello ad N stati 1 Molti canali di comunicazione reali hanno un comortamento variabile
Dettagli1 Entropia: Riepilogo
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 30 maggio 2006 Argomento: Entropia. Costruzione del modello di una sorgente. Codifica di Huffman. Scribes: Galato Filippo, Pesce Daniele,
DettagliCodici binari decimali
Codici binari decimali Si usano per rappresentare le dieci cifre decimali in binario dato che 2 3 < 10 < di 2 4 occorrono almeno 4 bits Binario Decimale BCD Eccesso-3 Biquinary 1 di 10 0 0 0000 0011 0100001
DettagliVariabili casuali multidimensionali
Capitolo 1 Variabili casuali multidimensionali Definizione 1.1 Le variabili casuali multidimensionali sono k-ple ordinate di variabili casuali unidimensionali definite sullo stesso spazio di probabilità.
DettagliBLAND-ALTMAN PLOT. + X 2i 2 la differenza ( d ) tra le due misure per ognuno degli n campioni; d i. X i. = X 1i. X 2i
BLAND-ALTMAN PLOT Il metodo di J. M. Bland e D. G. Altman è finalizzato alla verifica se due tecniche di misura sono comparabili. Resta da comprendere cosa si intenda con il termine metodi comparabili
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 206 207 Lezione 4 Ugo Vaccaro Nella lezione scorsa abbiamo derivato il seguente risultato. Teorema Per ogni codifica UD per una sorgente DSSM con alfabeto sorgente
DettagliLezione 1, 2 e 3 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 08 09 Lezione, e 3 Ugo Vaccaro Per i nostri scopi, una sorgente di informazione è una sequenza di variabili casuali X, X,..., X i,... le quali assumono valori
Dettagliassuma valori in un determinato intervallo è data dall integrale della sua densità ( = )=
VARIABILI ALEATORIE CONTINUE Esistono parecchi fenomeni reali per la cui descrizione le variabili aleatorie discrete non sono adatte. Per esempio è necessaria una variabile aleatoria continua ovvero una
DettagliProbabilità e Statistica
Diario delle lezioni e del tutorato di Probabilità e Statistica a.a. 2012/2013 www.mat.uniroma2.it/~caramell/did 1213/ps.htm 05/03/2013 - Lezioni 1, 2, 3 Breve introduzione al corso. Fenomeni deterministici
DettagliRapida Nota sulla Rappresentazione dei Caratteri
TECNOLOGIA DIGITALE TECNOLOGIA DIGITALE (segue) CPU, memoria centrale e dispositivi sono realizzati con tecnologia elettronica digitale Dati ed operazioni vengono codificati tramite sequenze di bit 8 bit
DettagliVETTORI DI VARIABILI ALEATORIE
VETTOI DI VAIABILI ALEATOIE E. DI NADO 1. Funzioni di ripartizione congiunte e marginali Definizione 1.1. Siano X 1, X 2,..., X n v.a. definite su uno stesso spazio di probabilità (Ω, F, P ). La n-pla
DettagliSezione Prima Derivate di funzioni elementari: quadro riassuntivo e regole di derivazione. = ( n) lim x
Capitolo USO DELLE DERIVATE IN ECONOMIA Sezione Prima Derivate di funzioni elementari: quadro riassuntivo e regole di derivazione Si definisce derivata della funzione y f() nel punto 0 del suo insieme
DettagliUniversità degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1
Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1 Lezione 1 - Mercoledì 28 Settembre 2016 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,
Dettagli1 Serie temporali. 1.1 Processi MA
1 Serie temporali Un processo stocastico 1 {X t, t T }, dove T = N o T = Z, si dice stazionario se (X 1,..., X n ) e (X k+1,...,x k+n ) hanno la stessa distribuzione per ogni n 1 e per ogni k T. Un processo
DettagliTECNOLOGIA DIGITALE. TECNOLOGIA DIGITALE (segue)
TECNOLOGIA DIGITALE CPU, memoria centrale e dispositivi sono realizzati con tecnologia elettronica digitale Dati ed operazioni vengono codificati a partire da due valori distinti di grandezze elettriche:
Dettagli7. Trasmissione Numerica in Banda Traslata
1 INFO-COM Dpt. Dipartimento di Scienza e Tecnica dell Informazione e della Comunicazione Università degli Studi di Roma La Sapienza 7. Trasmissione Numerica in Banda Traslata TELECOMUNICAZIONI per Ingegneria
DettagliLa Rappresentazione dell Informazione
La Rappresentazione dell Informazione Maurizio Palesi Sommario In questo documento sarà trattato il modo in cui, in un calcolatore, vengono rappresentati i vari generi di informazione (testi, numeri interi,
DettagliAlgebra di Boole. Fondamenti di Informatica per Meccanici Energetici - Biomedici 1. Politecnico di Torino Ottobre Mr. Boole. Variabile booleana
Fondamenti di Informatica per Meccanici Energetici - iomedici 1 Mr. oole lgebra di oole George oole: Matematico inglese del XIX secolo lgebra che descrive le leggi del pensiero Logica da cui è possibile
DettagliCalcolo delle Probabilità e Statistica Matematica previsioni 2003/04
Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04 LU 1/3 Esempi di vita reale : calcolo delle probabilità, statistica descrittiva e statistica inferenziale. Lancio dado/moneta: definizione
DettagliAlgoritmi e Complessità
Algoritmi e Complessità Università di Camerino Corso di Laurea in Informatica (tecnologie informatiche) III periodo didattico Docente: Emanuela Merelli Email:emanuela.merelli@unicam.it a.a. 2002-03 e.merelli
DettagliRappresentazione in virgola fissa (fixed-point) Rappresentazione di Numeri Reali. Conversione decimale-binario di numeri non interi
Rappresentazione di Numeri Reali Un numero reale è una grandezza continua Può assumere infiniti valori In una rappresentazione di lunghezza limitata, deve di solito essere approssimato. Esistono due forme
DettagliEsperimentazioni di Fisica 1. Prova scritta del 9 luglio 2015 SOLUZIONI
Esperimentazioni di Fisica 1 Prova scritta del 9 luglio 2015 SOLUZIONI Esp-1 Prova di Esame Secondo appello - Page 2 of 8 09/07/2015 1. (12 Punti) Quesito. La grandezza y è aspettata dipendere in modo
Dettagli4.11 Massimi e minimi relativi per funzioni di più variabili
5. Determinare, al variare del parametro a R, la natura delle seguenti forme quadratiche: (i) Φ(x, y, z) = x 2 + 2axy + y 2 + 2axz + z 2, (ii) Φ(x, y, z, t) = 2x 2 + ay 2 z 2 t 2 + 2xz + 4yt + 2azt. 4.11
DettagliTutorato di Complementi di Analisi Matematica e Statistica 26 maggio 2016
Tutorato di Complementi di Analisi Matematica e Statistica 26 maggio 2016 Esercizi possibili di probabilità e statistica Notazioni: U(a, b) è la distribuzione di probabilità uniforma nell intervallo (a,
DettagliSTII. Probabilità e proprietà dei logaritmi
STII Durante una trasmissione, il segnale naviga alcuni minuti prima di arrivare a destinazione. Durante il percorso, il segnale è soggetto a rumore, quindi può capitare che il messaggio che è stato inviato
DettagliIndici di posizione e dispersione per distribuzioni di variabili aleatorie
Indici di posizione e dispersione per distribuzioni di variabili aleatorie 12 maggio 2017 Consideriamo i principali indici statistici che caratterizzano una distribuzione: indici di posizione, che forniscono
Dettagli