..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i"

Transcript

1 Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente può produrre; C : codice o sequenza di bit che rappresentano il messaggio ; n i : lunghezza in bit del codice C X i ; k : probabilità che la sorgente X produca il simbolo ; i, X j x k, x l : probabilità (congiunta) che la sorgente X produca i simboli x k e x l rispettivamente negli istanti i e j ; sorgente stazionaria: sorgente per cui valga K =cost k ; la probabilità del simbolo si pone per definizione ; sorgente senza memoria: sorgente per cui valga i, X j x l, x m = i x l j x m i, j, k, l I =log : informazione del simbolo di una sorgente stazionaria. Nota che la base del logaritmo è 2 (anche in seguito, se non diversamente specificato); H X =E [ I ]= i= n= n i i= : entropia di una sorgente stazionaria; : costo medio di un codice; 2 n i : disuguaglianza di Kraft; i= univoca decodificabilità di un codice: ogni codice è univocamente associato ad un messaggio; immediata decodificabilità di un codice: nessun codice è l'inizio di un altro (condizione sufficiente all'univoca decodificabilità); codice ottimo: un codice univocamente decodificabile C è ottimo se C ' C univocamente decodificabile n C ' nc ; entropia condizionata: H X Y = y j = i= entropia congiunta: H X,Y = i= Y Y ;, Y, Y ; entropia di una sorgente con memoria: H X = lim H X k X k, X k 2,... X k l ; l sorgente di arkov con memoria m : sorgente per cui vale P x k x k, x k 2,... x k m =P x k x k, x k 2,... x k m ; entropia di una sorgente di arkov con memoria m :

2 H X = H X k X k, X k 2,... X k m ; definizione alternativa dell'entropia: X = lim L L H X, X,..., X ; k k k L distribuzione condizionata delle probabilità dei simboli all'uscita di un canale (caso discreto): X ; densità di probabilità dei simboli all'uscita di un canale (caso continuo) p Y X ; canale binario simmetrico (BSC): canale con alfabeto d'ingresso e di uscita {0,} e probabilità di errore identica per i due simboli. Il canale è completamente definito nota la probabilità 0= p ed il parametro ; canale additivo gaussiano discreto: canale con alfabeto d'ingresso discreto {x,...x }, x,... x R ed uscita continua Y = X N, N ~ N, 2 ; canale binario con cancellazione: canale con alfabeto d'ingresso {0,} e di uscita {0,, E }, X E 0= X E =, X 0= X 0 =0. Dimostrazioni Teorema della massima entropia X sorgente d'informazione discreta, stazionaria, senza memoria; {x,..., x } alfabeto di X con possibili messaggi; H X log H X = i = H X = i = H X = i = H X =log i = H X log= i = i = Per la disuguaglianza del logaritmo, ln x x, si può anche scrivere: H X log i = e

3 H X log i = H X log loge loge H X log 0 H X log, c.v.d. log e i = e La disuguaglianza di Kraft è condizione sufficiente all'esistenza di un codice immediatamente decodificabile Le stesse del teorema precedente, inoltre: C codici che rappresentano ; n i lunghezze dei codici C ; n n 2... n ; vale la disuguaglianza di Kraft. E' sempre possibile costruire un codice immediatamente decodificabile che rispetti la disuguaglianza di Kraft. Si scelgano arbitrariamente gli n bit di C x. Si scelgano arbitrariamente gli n 2 bit di C x 2 in modo che non inizino con la sequenza di C x. Si scelgano arbitrariamente gli n 3 bit di C x 3 in modo che non inizino né con la sequenza di C x né con quella di C x 2. E' possibile scrivere in questo modo tutti i codici fino a C x se: numerocombinazioni totali numerocombinazioni già usate 2 n 2 n 2 n 2n... 2n 2 n 2 2 n... 2 n 2 n 2 2 n 2 n 2 n i i= ossia se la disuguaglianza di Kraft è rispettata.

4 La disuguaglianza di Kraft è condizione necessaria all'univoca decodificabilità di un codice Le stesse del teorema precedente, inoltre: C è univocamente decodificabile. C rispetta la disuguaglianza di Kraft. Se C è univocamente decodificabile si può sempre costruire un altro codice i cui messaggi sono sequenze di N messaggi originali. Si definisce il nuovo alfabeto, i nuovi codice e le loro lunghezze come segue:, 2,..., N C,C 2,...,C N n i,n i 2,...,n in Si definisce inoltre la massima lunghezza n max =max n i,n i2,...,n i N. Per il nuovo codice vale la seguente uguaglianza: i=0 2 n N i = i =0 i2=0.. 2 n i n i2...n in i N =0 L'uguaglianza è una forma della definizione della potenza di polinomio. La stessa scrittura può assumere anche una terza forma: i =0 i2=0.. i N =0 N n 2 n i n i2...n max in = A n 2 n n= dove A n è il numero di messaggi con lunghezza totale n, che varia da bit a N n max bit. Perchè il nuovo codice sia univocamente decodificabile, deve essere A n 2 n, quindi: N n max n= ossia: N n max A n 2 n 2 n 2 n n= N n max A n 2 n N n max n= 2 n N i N nmax i=0 i=0 2 n i N N nmax L'ultima disuguaglianza, in particolare, deve valere per ogni N, quindi: N. In particolare deve valere per

5 2 n i i=0 che è la disuguaglianza di Kraft, il che dimostra che ogni codice univocamente decodificabile la rispetta. Primo Teorema di Shannon Le stesse del teorema precedente. Se un codice è univocamente decodificabile allora n H X. Per definizione, vale: H X n= i= n i i= H X n= [log i= n ] i H X n= i= 2 n i Utilizzando la disuguaglianza del logaritmo posso scrivere: 2 H X n n i e i= H X n i= 2 n i loge i= H X n log e[ 2 n i ] i= log e Per la disuguaglianza di Kraft 2 n i 0, quindi: i = H X n 0 ossia: H X n c.v.d. Ottimalità del codice di Huffmann per sorgenti senza memoria (traccia) X sorgente d'informazione discreta, stazionaria, senza memoria; {x,..., x } alfabeto di X con possibili messaggi;

6 C codici che rappresentano prodotti con l'algoritmo di Huffmann; n i lunghezze dei codici C ; C è ottimo. Traccia della dimostrazione Si dimostra il lemma seguente: Tra i codici ottimi ce n'è almeno uno che se x j allora n i n j ; per i due messaggi meno probabili, ad esempio x e x vale n =n e i rispettivi codici differiscono solo per l'ultimo bit. Se C è ottimo e rispetta il lemma, gli ultimi due codici avranno la stessa lunghezza e differiranno per l'ultimo bit, quindi la lunghezza media sarà calcolabile come: n= i= 2 n i = n i n [ x x ] i= Se fosse possibile codificare i messaggi x,... x 2 in modo ottimo, C sarebbe ottimo. A questo scopo è possibile costruire una nuova fonte X ' che abbia come alfabeto i messaggi {x,... x 2, x x } dove x x è un messaggio di probabilità x x che rappresenta sia x che x. X ' sarà codificata con un nuovo codice C ' identico a C per i primi 2 messaggi e che codifichi x x con gli n bit in comune in C. Per come è costruito, C ' è ottimo se fosse possibile codificare in modo ottimo i primi 3 messaggi; si può quindi continuare in maniera analoga ricorsivamente fino a provare che C è ottimo. Inoltre la lunghezza media di C ' è calcolabile come: n ' =n x x Quindi la differenza tra le lunghezze medie: n n ' = x x non dipende dai particolari simboli scelti. Entropia condizionata media La media dell'entropia condizionata può essere calcolata come: N H X Y = y j= N j= N i= j = i = Y Y Y Y a per la definizione di probabilità condizionata si può scrivere

7 P A B=P A,B P A, B=P B P A B quindi la scrittura precedente diventa: P B N, Y i= j = Y Quest'ultima forma si prende come definizione di entropia condizionata media: N H X Y =,Y i = j = Y. L'entropia condizionata è minore o uguale all'entropia semplice H X Y H X N H X Y H X =,Y i = j= Per il teorema della somma: N H X Y H X =,Y i = j= Y i= Y i= N j = N H X Y H X =,Y [log i = j= Y ] X i N P H X Y H X =,Y [log X i = j= Y ] N H X Y H X =,Y [log P y X i Y j i= j=,y ] Per la disuguaglianza del logaritmo si può anche scrivere: N H X Y H X,Y [ P x P y X i Y j i = j=,y ]log e N H X Y H X i= j= H X Y H X log e log e H X Y H X 0 quindi H X Y H X c.v.d. N log e,y log e i = j = Entropia congiunta di variabili indipendenti Se X Y allora,y = quindi N H X, Y = i= j=, Y

8 N H X, Y = i= j= H X, Y = i= H X, Y =H X H Y j= N j= i= N Formula alternativa dell'entropia congiunta ossia Dal momento che P A B=P A,B P A, B=P B P A B l'espressione dell'entropia P B congiunta si può riscrivere nella forma: N H X, Y = i= j= N H X, Y = i= j= N H X, Y = i= j=,y, Y, Y Y,Y H X, Y = i= H X, Y =H X H Y X i= N j= i= N j=, Y Y,Y Y Definizione alternativa dell'entropia per sorgente con memoria X sorgente d'informazione discreta, stazionaria, di arkov con memoria m ; Le due definizioni di entropia sono equivalenti. La definizione alternativa di entropia è X = L H X, X,..., X k k k L al tendere di L all'infinito. Questa definizione può essere scritta nella forma: X = L H X k X k,..., X k L L H X k,..., X k L X = L H X k X k,..., X k L L H X k X k 2,..., X k L L H X k 2,..., X k L Si può continuare in questo modo per L passi supponendo L L2 : X = L [ H X k X k,..., X k L...H X k L X k L,..., X k L] L H X k L,..., X k L

9 Inoltre, considerando che i termini della prima sommatoria sono tutti uguali per stazionarietà, si può scrivere: X = L m L Quindi, per L : H X k X k,..., X k L L H X k L,..., X k L X = H X k X k,..., X k L che è la prima definizione di entropia. Primo teorema di Shannon per sorgenti con memoria Si suppone di codificare L messaggi consecutivi ( x vettore dei messaggi) da una fonte X con un codice univocamente decodificabile. Siano i gli L messaggi x alfabeto di una nuova sorgente, Y, che può quindi essere a sua volta codificata. Le lunghezze n y i =n x dei messaggi devono soddisfare l'uguaglianza di Kraft: L 2 n x. = D'altra parte, è sempre vero che: X n= L H x n L dove n= P L x n. La scrittura può essere esplicitata come segue: = L X n= P L x = P L x n = L X n= P L x [log = n x ] i L X n= L = X n L = zero, quindi: n X. L L 2 n ed utilizzando la disuguaglianza del logaritmo: 2 n ma per Kraft il secondo membro può al più uguagliare

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio

Dettagli

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità

Dettagli

Modello di sistema di comunicazione

Modello di sistema di comunicazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una

Dettagli

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza

Dettagli

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore

Dettagli

10 Proprietà di Equipartizione Asintotica

10 Proprietà di Equipartizione Asintotica FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 3 Teoria dell informazione Sorgente Codificatore

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Capacità del canale discreto Teoria dell informazione Sorgente Codificatore di sorgente

Dettagli

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p. Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì

Dettagli

2. (3p) Qual è la probabilità che un cliente acquisti un componente difettoso?

2. (3p) Qual è la probabilità che un cliente acquisti un componente difettoso? 1 COMPITO A Esercizio 1 Una ditta produce componenti meccaniche di precisione in lotti che contengono l 1% di componenti difettosi. Ogni componente viene testato prima di essere venduto al cliente, con

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria

Dettagli

8 Derivati dell entropia

8 Derivati dell entropia (F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta

Dettagli

Introduzione alla codifica entropica

Introduzione alla codifica entropica Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta

Dettagli

Comunicazioni Elettriche Esercizi

Comunicazioni Elettriche Esercizi Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,

Dettagli

Teoria dell informazione

Teoria dell informazione Teoria dell informazione Giuseppe Ruggeri Università Mediterranea di Reggio Calabria Italy Outline Cos è l informazione? E possibile misurare l informazione? Limiti matematici nella rappresentazione dell

Dettagli

Notazione posizionale. Codifica binaria. Rappresentazioni medianti basi diverse. Multipli del byte

Notazione posizionale. Codifica binaria. Rappresentazioni medianti basi diverse. Multipli del byte Codifica binaria Rappresentazione di numeri Notazione di tipo posizionale (come la notazione decimale). Ogni numero è rappresentato da una sequenza di simboli Il valore del numero dipende non solo dalla

Dettagli

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore 10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore

Dettagli

Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1

Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1 Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1 Lezione 1 - Mercoledì 27 Settembre 2017 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,

Dettagli

Lezione 11 Ugo Vaccaro

Lezione 11 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 207 208 Lezione Ugo Vaccaro Abbiamo visto finora che in vari problemi collegati alla codifica di emissioni di una sorgente di informazione la entropia H(P )

Dettagli

Potenze reali, esponenziali e logaritmi

Potenze reali, esponenziali e logaritmi Potenze reali, esponenziali e logaritmi Lezione per Studenti di Agraria Università di Bologna (Università di Bologna) Potenze reali, esponenziali e logaritmi 1 / 14 Potenza ad esponente intero positivo

Dettagli

Calcolo delle Probabilità 2

Calcolo delle Probabilità 2 Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale

Dettagli

STII/Teoria dell Informazione

STII/Teoria dell Informazione STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione

Dettagli

Codifica binaria. Rappresentazioni medianti basi diverse

Codifica binaria. Rappresentazioni medianti basi diverse Codifica binaria Rappresentazione di numeri Notazione di tipo posizionale (come la notazione decimale). Ogni numero è rappresentato da una sequenza di simboli Il valore del numero dipende non solo dalla

Dettagli

1 Esercizio - caso particolare di ottimalità

1 Esercizio - caso particolare di ottimalità Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto

Dettagli

Conversione binario-ottale/esadecimale. Conversione binario-ottale/esadecimale. Rappresentazione di Numeri Interi Positivi (numeri naturali)

Conversione binario-ottale/esadecimale. Conversione binario-ottale/esadecimale. Rappresentazione di Numeri Interi Positivi (numeri naturali) Conversione binario-ottale/esadecimale Conversione binario-ottale/esadecimale Nella rappresentazione ottale (B=8) si usano gli 8 simboli,, 2, 3, 4, 5, 6, 7 In quella esadecimale (B=6) i 6 simboli,, 2,

Dettagli

Unità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9.

Unità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9. Unità 30 Sommario Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi Bibliografia [Bel] -- [Ros] 9.3 [Pap] -- 1 Auto-informazione di un evento Prima di effettuare un esperimento

Dettagli

Laboratorio di Chimica Fisica. Analisi Statistica

Laboratorio di Chimica Fisica. Analisi Statistica Università degli Studi di Bari Dipartimento di Chimica 9 giugno F.Mavelli- Laboratorio Chimica Fisica - a.a. 3-4 F.Mavelli Laboratorio di Chimica Fisica a.a. 3-4 Analisi Statistica dei Dati Analisi Statistica

Dettagli

2) Codici univocamente decifrabili e codici a prefisso.

2) Codici univocamente decifrabili e codici a prefisso. Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

Sorgenti discrete e informazione

Sorgenti discrete e informazione Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un

Dettagli

LA CODIFICA. CANALE IDEALE E REALE

LA CODIFICA. CANALE IDEALE E REALE LA CODIFICA. CANALE IDEALE E REALE L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale:

Dettagli

Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale

Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale 1 Obiettivi: Codici correttori d errore correggere o rivelare errori nella trasmissione di segnali numerici (sequenze di simboli,

Dettagli

Ripasso segnali e processi casuali. Trasmissione dell Informazione

Ripasso segnali e processi casuali. Trasmissione dell Informazione Ripasso segnali e processi casuali 1 Breve ripasso di segnali e trasformate Dato un segnale s(t), la sua densità spettrale si calcola come dove S(f) è la trasformata di Fourier. L energia di un segnale

Dettagli

Corso di Calcolatori Elettronici I

Corso di Calcolatori Elettronici I Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica Roberto Canonico Università degli Studi di Napoli Federico II A.A. 2016-2017 Roberto Canonico Corso di Calcolatori Elettronici

Dettagli

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita 9. Test del χ 2 e test di Smirnov-Kolmogorov 9. Stimatori di massima verosimiglianza per distribuzioni con densità finita Supponiamo di avere un campione statistico X,..., X n e di sapere che esso è relativo

Dettagli

Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni

Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Corso di Laurea in Ingegneria Informatica corso di Telecomunicazioni (Prof. G. Giunta) (editing a cura dell ing. F. Benedetto) Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Esame

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 6 Teorema della codifica di sorgente Si consideri

Dettagli

Esercizi settimana 4. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3

Esercizi settimana 4. Esercizi applicati. Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 2 3 1 Esercizi settimana Esercizi applicati Esercizio 1. Si considerino tre monete truccate, ognuna con probabilità 3 di ottenere testa. Se scegliete la prima moneta vincete 10 punti se esce testa e punti

Dettagli

Teoria dei Fenomeni Aleatori AA 2012/13. Il Concetto di Distribuzione Condizionata

Teoria dei Fenomeni Aleatori AA 2012/13. Il Concetto di Distribuzione Condizionata Il Concetto di Distribuzione Condizionata Se B è un evento, la probabilità di un evento A condizionata a B vale: ponendo: P A B P A B P B A x si giunge al concetto di distribuzione condizionata della v.a.

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

Laurea triennale in INFORMATICA, Corso di CALCOLO DELLE PROBABILITÀ COMPITO - 2 luglio FOGLIO RISPOSTE

Laurea triennale in INFORMATICA, Corso di CALCOLO DELLE PROBABILITÀ COMPITO - 2 luglio FOGLIO RISPOSTE Laurea triennale in INFORMATICA, Corso di CALCOLO DELLE PROBABILITÀ COMPITO - 2 luglio 202 - FOGLIO RISPOSTE NOME e COGNOME SOLUZIONI CANALE: G. Nappo VOTO: N.B. Scrivere le risposte dei vari punti degli

Dettagli

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prova del

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prova del Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (69AA) A.A. 06/7 - Prova del 07-07-07 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate. Problema

Dettagli

Scrivere su ogni foglio NOME e COGNOME. Le risposte devono essere giustificate sui fogli protocollo e riportate nel foglio RISPOSTE.

Scrivere su ogni foglio NOME e COGNOME. Le risposte devono essere giustificate sui fogli protocollo e riportate nel foglio RISPOSTE. Corso di Laurea Triennale in Matematica Calcolo delle Probabilità I (docenti G. Nappo, F. Spizzichino) Prova di giovedi febbraio 2005 (tempo a disposizione: 3 ore). consegna compiti e inizio orale Lunedì

Dettagli

Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1

Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1 Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1 Lezione 1 - Martedì 23 Settembre 2014 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,

Dettagli

Rappresentazione dell informazione. Gabriella Trucco

Rappresentazione dell informazione. Gabriella Trucco Rappresentazione dell informazione Gabriella Trucco Simboli e alfabeto Per formalizzare dati (numeri, caratteri, immagini, suoni, ) si utilizzano successioni di simboli scelti da un insieme finito detto

Dettagli

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3 CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3 Dott.ssa Antonella Costanzo a.costanzo@unicas.it Esercizio 1. La variabile casuale normale Da un analisi di bilancio è emerso che, durante i giorni feriali

Dettagli

λ è detto intensità e rappresenta il numero di eventi che si

λ è detto intensità e rappresenta il numero di eventi che si ESERCITAZIONE N 1 STUDIO DI UN SISTEMA DI CODA M/M/1 1. Introduzione Per poter studiare un sistema di coda occorre necessariamente simulare gli arrivi, le partenze e i tempi di ingresso nel sistema e di

Dettagli

Probabilità e Statistica

Probabilità e Statistica Diario delle lezioni e del tutorato di Probabilità e Statistica a.a. 2014/2015 www.mat.uniroma2.it/~caramell/did 1415/ps.htm 02/03/2015 - Lezioni 1, 2 Breve introduzione al corso. Fenomeni deterministici

Dettagli

Sicurezza di un Cifrario (C. Shannon)

Sicurezza di un Cifrario (C. Shannon) La teoria di Shannon segretezza perfetta sicurezza computazionale Sicurezza di un Cifrario (C. Shannon) SEGRETEZZA PERFETTA Un Cifrario è detto perfetto, o assolutamente sicuro, se, dopo aver intercettatto

Dettagli

Probabilità e Statistica

Probabilità e Statistica Diario delle lezioni e del tutorato di Probabilità e Statistica a.a. 2013/2014 www.mat.uniroma2.it/~caramell/did 1314/ps.htm 04/03/2014 - Lezioni 1, 2 Breve introduzione al corso. Fenomeni deterministici

Dettagli

Brevi richiami su variabili aleatorie e processi stocastici

Brevi richiami su variabili aleatorie e processi stocastici Appendice Parte 9, 1 Brevi richiami su variabili aleatorie e processi stocastici Richiami di teoria della probabilita` Appendice Parte 9, 2 Esperimento casuale: analisi degli elementi caratteristici dei

Dettagli

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17 II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile

Dettagli

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata

Dettagli

Trasmissione numerica: Compito del 22/07/2008

Trasmissione numerica: Compito del 22/07/2008 Trasmissione numerica: Compito del /07/008 1 Esercizio1 Sia dato un sistema di trasmissione numerica che utilizza un impulso di trasmissione g(t) a radice di coseno rialzato, e una costellazione PAM con

Dettagli

Teoria dei Fenomeni Aleatori AA 2012/13. Il Concetto di Distribuzione Condizionata ( )

Teoria dei Fenomeni Aleatori AA 2012/13. Il Concetto di Distribuzione Condizionata ( ) Il Concetto di Distribuzione Condizionata Se B è un evento, la probabilità di un evento A condizionata a B vale: ponendo: P A B = ( ) P A B P B A = { x} si giunge al concetto di distribuzione condizionata

Dettagli

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore. CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore

Dettagli

carattere a b c d e f cod. var

carattere a b c d e f cod. var Codici prefissi Un codice prefisso è un codice in cui nessuna parola codice è prefisso (parte iniziale) di un altra Ogni codice a lunghezza fissa è ovviamente prefisso. Ma anche il codice a lunghezza variabile

Dettagli

Esercitazione del 06/03/2012 Istituzioni di Calcolo delle Probabilità

Esercitazione del 06/03/2012 Istituzioni di Calcolo delle Probabilità Esercitazione del 6/3/ Istituzioni di Calcolo delle Probabilità David Barbato barbato@math.unipd.it Esercizio. E la notte di San Lorenzo, Alessandra decide di andare a vedere le stelle cadenti. Osserverà

Dettagli

Derivate. Rette per uno e per due punti. Rette per uno e per due punti

Derivate. Rette per uno e per due punti. Rette per uno e per due punti Introduzione Rette per uno e per due punti Rette per uno e per due punti Rette secanti e tangenti Derivata d una funzione in un punto successive Derivabilità a destra e a sinistra Rette per uno e per due

Dettagli

CANALE STAZIONARIO CANALE TEMPO INVARIANTE

CANALE STAZIONARIO CANALE TEMPO INVARIANTE CANALE STAZIONARIO Si parla di un Canale Stazionario quando i fenomeni che avvengono possono essere modellati da processi casuali e le proprietà statistiche di tali processi sono indipendenti dal tempo.

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con

Dettagli

9. Sistemi di Modulazione Numerica in banda traslata. Modulo TLC:TRASMISSIONI Modulazione numerica in banda traslata

9. Sistemi di Modulazione Numerica in banda traslata. Modulo TLC:TRASMISSIONI Modulazione numerica in banda traslata 1 9. Sistemi di Modulazione Numerica in banda traslata Modulazione QAM (analogica) 2 Modulazione QAM (Quadrature Amplitude Modulation; modulazione di ampiezza con portanti in quadratura) è un tipo di modulazione

Dettagli

Soluzioniagliesercizi Capitolo 2 Soluzione 2.1. Soluzione 2.2. Soluzione 2.3. Soluzione 2.4.

Soluzioniagliesercizi Capitolo 2 Soluzione 2.1. Soluzione 2.2. Soluzione 2.3. Soluzione 2.4. I Soluzioni agli esercizi apitolo 2 Soluzione 2.. Partendo dall espressione a destra dell uguale si applica ripetutamente il teorema di e Morgan ed infine la proprietà distributiva. Soluzione 2.2. cb +

Dettagli

Sistemi di Telecomunicazioni

Sistemi di Telecomunicazioni Sistemi di Telecomunicazioni Corso di Laurea Specialistica in Ingegneria delle Telecomunicazioni (DM 70) A.A. 014-015 Pietro Guccione Contenuti Teoria dell Informazione Basi della Teoria dell informazione

Dettagli

Stima dei parametri. La v.c. multipla (X 1, X 2,.., X n ) ha probabilità (o densità): Le f( ) sono uguali per tutte le v.c.

Stima dei parametri. La v.c. multipla (X 1, X 2,.., X n ) ha probabilità (o densità): Le f( ) sono uguali per tutte le v.c. Stima dei parametri Sia il carattere X rappresentato da una variabile casuale (v.c.) che si distribuisce secondo la funzione di probabilità f(x). Per investigare su tale carattere si estrae un campione

Dettagli

Segnali (processi) aleatori (casuali)

Segnali (processi) aleatori (casuali) Segnali (processi) aleatori (casuali) Definizione di processo aleatorio Descrizione statistica di un processo aleatorio Media, potenza, varianza Autocorrelazione e autocovarianza Filtraggio di un processo

Dettagli

( t) NR( t) NR( t) ( t)

( t) NR( t) NR( t) ( t) prof Valerio CURCIO Simulazione del prezzo del petrolio 1 1. Processi stocastici stazionari e non stazionari dall analisi del prezzo del petrolio Quello che vogliamo fare in questo articolo è un analisi

Dettagli

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2006-07 Alberto Perotti Esperimento casuale Esperimento suscettibile di più risultati

Dettagli

1) Canali discreti con memoria. 2) Modello di Gilbert e Elliott. 3) Modello di Fritchman. 4) Modello ad N stati

1) Canali discreti con memoria. 2) Modello di Gilbert e Elliott. 3) Modello di Fritchman. 4) Modello ad N stati Argomenti della Lezione 1) Canali discreti con memoria 2) Modello di Gilbert e Elliott 3) Modello di Fritchman 4) Modello ad N stati 1 Molti canali di comunicazione reali hanno un comortamento variabile

Dettagli

1 Entropia: Riepilogo

1 Entropia: Riepilogo Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 30 maggio 2006 Argomento: Entropia. Costruzione del modello di una sorgente. Codifica di Huffman. Scribes: Galato Filippo, Pesce Daniele,

Dettagli

Codici binari decimali

Codici binari decimali Codici binari decimali Si usano per rappresentare le dieci cifre decimali in binario dato che 2 3 < 10 < di 2 4 occorrono almeno 4 bits Binario Decimale BCD Eccesso-3 Biquinary 1 di 10 0 0 0000 0011 0100001

Dettagli

Variabili casuali multidimensionali

Variabili casuali multidimensionali Capitolo 1 Variabili casuali multidimensionali Definizione 1.1 Le variabili casuali multidimensionali sono k-ple ordinate di variabili casuali unidimensionali definite sullo stesso spazio di probabilità.

Dettagli

BLAND-ALTMAN PLOT. + X 2i 2 la differenza ( d ) tra le due misure per ognuno degli n campioni; d i. X i. = X 1i. X 2i

BLAND-ALTMAN PLOT. + X 2i 2 la differenza ( d ) tra le due misure per ognuno degli n campioni; d i. X i. = X 1i. X 2i BLAND-ALTMAN PLOT Il metodo di J. M. Bland e D. G. Altman è finalizzato alla verifica se due tecniche di misura sono comparabili. Resta da comprendere cosa si intenda con il termine metodi comparabili

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 206 207 Lezione 4 Ugo Vaccaro Nella lezione scorsa abbiamo derivato il seguente risultato. Teorema Per ogni codifica UD per una sorgente DSSM con alfabeto sorgente

Dettagli

Lezione 1, 2 e 3 Ugo Vaccaro

Lezione 1, 2 e 3 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 08 09 Lezione, e 3 Ugo Vaccaro Per i nostri scopi, una sorgente di informazione è una sequenza di variabili casuali X, X,..., X i,... le quali assumono valori

Dettagli

assuma valori in un determinato intervallo è data dall integrale della sua densità ( = )=

assuma valori in un determinato intervallo è data dall integrale della sua densità ( = )= VARIABILI ALEATORIE CONTINUE Esistono parecchi fenomeni reali per la cui descrizione le variabili aleatorie discrete non sono adatte. Per esempio è necessaria una variabile aleatoria continua ovvero una

Dettagli

Probabilità e Statistica

Probabilità e Statistica Diario delle lezioni e del tutorato di Probabilità e Statistica a.a. 2012/2013 www.mat.uniroma2.it/~caramell/did 1213/ps.htm 05/03/2013 - Lezioni 1, 2, 3 Breve introduzione al corso. Fenomeni deterministici

Dettagli

Rapida Nota sulla Rappresentazione dei Caratteri

Rapida Nota sulla Rappresentazione dei Caratteri TECNOLOGIA DIGITALE TECNOLOGIA DIGITALE (segue) CPU, memoria centrale e dispositivi sono realizzati con tecnologia elettronica digitale Dati ed operazioni vengono codificati tramite sequenze di bit 8 bit

Dettagli

VETTORI DI VARIABILI ALEATORIE

VETTORI DI VARIABILI ALEATORIE VETTOI DI VAIABILI ALEATOIE E. DI NADO 1. Funzioni di ripartizione congiunte e marginali Definizione 1.1. Siano X 1, X 2,..., X n v.a. definite su uno stesso spazio di probabilità (Ω, F, P ). La n-pla

Dettagli

Sezione Prima Derivate di funzioni elementari: quadro riassuntivo e regole di derivazione. = ( n) lim x

Sezione Prima Derivate di funzioni elementari: quadro riassuntivo e regole di derivazione. = ( n) lim x Capitolo USO DELLE DERIVATE IN ECONOMIA Sezione Prima Derivate di funzioni elementari: quadro riassuntivo e regole di derivazione Si definisce derivata della funzione y f() nel punto 0 del suo insieme

Dettagli

Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1

Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1 Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1 Lezione 1 - Mercoledì 28 Settembre 2016 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,

Dettagli

1 Serie temporali. 1.1 Processi MA

1 Serie temporali. 1.1 Processi MA 1 Serie temporali Un processo stocastico 1 {X t, t T }, dove T = N o T = Z, si dice stazionario se (X 1,..., X n ) e (X k+1,...,x k+n ) hanno la stessa distribuzione per ogni n 1 e per ogni k T. Un processo

Dettagli

TECNOLOGIA DIGITALE. TECNOLOGIA DIGITALE (segue)

TECNOLOGIA DIGITALE. TECNOLOGIA DIGITALE (segue) TECNOLOGIA DIGITALE CPU, memoria centrale e dispositivi sono realizzati con tecnologia elettronica digitale Dati ed operazioni vengono codificati a partire da due valori distinti di grandezze elettriche:

Dettagli

7. Trasmissione Numerica in Banda Traslata

7. Trasmissione Numerica in Banda Traslata 1 INFO-COM Dpt. Dipartimento di Scienza e Tecnica dell Informazione e della Comunicazione Università degli Studi di Roma La Sapienza 7. Trasmissione Numerica in Banda Traslata TELECOMUNICAZIONI per Ingegneria

Dettagli

La Rappresentazione dell Informazione

La Rappresentazione dell Informazione La Rappresentazione dell Informazione Maurizio Palesi Sommario In questo documento sarà trattato il modo in cui, in un calcolatore, vengono rappresentati i vari generi di informazione (testi, numeri interi,

Dettagli

Algebra di Boole. Fondamenti di Informatica per Meccanici Energetici - Biomedici 1. Politecnico di Torino Ottobre Mr. Boole. Variabile booleana

Algebra di Boole. Fondamenti di Informatica per Meccanici Energetici - Biomedici 1. Politecnico di Torino Ottobre Mr. Boole. Variabile booleana Fondamenti di Informatica per Meccanici Energetici - iomedici 1 Mr. oole lgebra di oole George oole: Matematico inglese del XIX secolo lgebra che descrive le leggi del pensiero Logica da cui è possibile

Dettagli

Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04

Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04 Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04 LU 1/3 Esempi di vita reale : calcolo delle probabilità, statistica descrittiva e statistica inferenziale. Lancio dado/moneta: definizione

Dettagli

Algoritmi e Complessità

Algoritmi e Complessità Algoritmi e Complessità Università di Camerino Corso di Laurea in Informatica (tecnologie informatiche) III periodo didattico Docente: Emanuela Merelli Email:emanuela.merelli@unicam.it a.a. 2002-03 e.merelli

Dettagli

Rappresentazione in virgola fissa (fixed-point) Rappresentazione di Numeri Reali. Conversione decimale-binario di numeri non interi

Rappresentazione in virgola fissa (fixed-point) Rappresentazione di Numeri Reali. Conversione decimale-binario di numeri non interi Rappresentazione di Numeri Reali Un numero reale è una grandezza continua Può assumere infiniti valori In una rappresentazione di lunghezza limitata, deve di solito essere approssimato. Esistono due forme

Dettagli

Esperimentazioni di Fisica 1. Prova scritta del 9 luglio 2015 SOLUZIONI

Esperimentazioni di Fisica 1. Prova scritta del 9 luglio 2015 SOLUZIONI Esperimentazioni di Fisica 1 Prova scritta del 9 luglio 2015 SOLUZIONI Esp-1 Prova di Esame Secondo appello - Page 2 of 8 09/07/2015 1. (12 Punti) Quesito. La grandezza y è aspettata dipendere in modo

Dettagli

4.11 Massimi e minimi relativi per funzioni di più variabili

4.11 Massimi e minimi relativi per funzioni di più variabili 5. Determinare, al variare del parametro a R, la natura delle seguenti forme quadratiche: (i) Φ(x, y, z) = x 2 + 2axy + y 2 + 2axz + z 2, (ii) Φ(x, y, z, t) = 2x 2 + ay 2 z 2 t 2 + 2xz + 4yt + 2azt. 4.11

Dettagli

Tutorato di Complementi di Analisi Matematica e Statistica 26 maggio 2016

Tutorato di Complementi di Analisi Matematica e Statistica 26 maggio 2016 Tutorato di Complementi di Analisi Matematica e Statistica 26 maggio 2016 Esercizi possibili di probabilità e statistica Notazioni: U(a, b) è la distribuzione di probabilità uniforma nell intervallo (a,

Dettagli

STII. Probabilità e proprietà dei logaritmi

STII. Probabilità e proprietà dei logaritmi STII Durante una trasmissione, il segnale naviga alcuni minuti prima di arrivare a destinazione. Durante il percorso, il segnale è soggetto a rumore, quindi può capitare che il messaggio che è stato inviato

Dettagli

Indici di posizione e dispersione per distribuzioni di variabili aleatorie

Indici di posizione e dispersione per distribuzioni di variabili aleatorie Indici di posizione e dispersione per distribuzioni di variabili aleatorie 12 maggio 2017 Consideriamo i principali indici statistici che caratterizzano una distribuzione: indici di posizione, che forniscono

Dettagli