E una teoria matematica che tratta l aspetto simbolico dell informazione

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "E una teoria matematica che tratta l aspetto simbolico dell informazione"

Transcript

1 Che cos è la teoria dell informazione? E una teoria matematica che tratta l asetto simbolico dell informazione La teoria dell informazione ha origine nel 948 con la ubblicazione da arte di C. E. Shannon di A Mathematical theory of Communication Inizia un aroccio quantitativo alla nozione di informazione Viene introdotto un modello di un sistema di comunicazione in cui comare una sorgente di informazione ed una di rumore

2 Che cos è la teoria della codifica? E nata con la teoria dell informazione. E una teoria matematica che tratta il rocesso di raresentazione dell informazione in un dato formato (codifica) ed il rocesso inverso di recuero dell informazione nel suo formato originario (decodifica). La teoria della codifica fa uso della teoria dei numeri e dell algebra astratta. 2

3 Modello generale di un sistema di comunicazione/memorizzazione 3

4 Sistema di comunicazione digitale L obiettivo di ogni sistema di comunicazione è: La riroduzione di un messaggio emesso da una sorgente nel luogo dove l utente dell informazione è ubicato La distanza tra sorgente e utente uò essere: - COSIDEREVOLE (come nel caso delle trasmissioni intercontinentali) - MOLTO PICCOLA (come nella memorizzazione e recuero di dati usando l unità disco di un comuter) Informazione Sorgente S Messaggio astratto Segnale fisico D Destinazione 4

5 Sistema di comunicazione digitale Il canale di comunicazione ermette il trasorto dell informazione attraverso l utilizzo di tre risorse: - Potenza - Banda - Temo I disositivi di comunicazione ermettono di inviare l informazione attraverso il canale sfruttando le seguenti risorse: - Potenza di funzionamento (assorbita er calcoli, amlificazione, memorizzazione, ) - Memoria - Comlessità - Peso Le risorse del canale e dei disositivi devono essere utilizzate nel modo iù efficiente ossibile. Esistono vari comromessi tra risorse. 5

6 Rete di telecomunicazioni nodo (disositivo) collegamento 6

7 Pila Protocollare L'Oen Systems Interconnection (o modello OSI) è uno standard er reti di calcolatori roosto nel 978 dall'international Organization for Standardization (ISO). Codifica di sorgente e codifica crittografica Codifica di canale e modulazione 7

8 Sorgenti discrete stazionarie 8

9 Sorgenti e messaggi informativi Come misurare la quantità d informazione emessa da una sorgente? L uscita di una sorgente (il messaggio) consiste in una sequenza di simboli scelti in un insieme finito (l alfabeto di sorgente) Un meccanismo robabilistico regola l emissione di simboli consecutivi nel messaggio 9

10 Sorgenti e messaggi informativi Messaggi diversi in genere trasortano quantità diverse di informazione Si deve definire er la sorgente una quantità d informazione media (ETROPIA) l unità di misura dell informazione è il bit, che corrisonde all informazione associata all emissione di uno tra i due simboli equirobabili l entroia della sorgente raresenta il minimo numero medio di simboli binari (digit) che è necessario er raresentare ogni simbolo del messaggio 0

11 Sorgenti e messaggi informativi L uscita della sorgente uò dunque essere sostituita da una stringa di simboli binari che trasortano la stessa quantità di informazione ed hanno un numero medio di digit er simbolo della sorgente originaria vicino quanto desiderato all entroia della sorgente Il canale di comunicazione è il mezzo fisico usato er connettere la sorgente d informazione con il suo utente

12 Sorgenti e messaggi informativi I canali discreti senza memoria sono secificati da una legge robabilistica che lega i simboli dell alfabeto di ingresso al canale ai simboli dell alfabeto d uscita al canale stesso Un unto imortante è la conoscenza del massimo flusso di informazione media che uò attraversare il canale in modo affidabile: si arriva così alla definizione di caacità di canale ed al roblema di calcolarla 2

13 Sorgenti e messaggi informativi Il teorema della codifica di canale collega i concetti di entroia di una sorgente e caacità di un canale, stabilendo cosa significhi trasmissione affidabile e indicando come ottenerla 3

14 Variabili aleatorie e rocessi stocastici L ingresso e l uscita di uno qualsiasi dei blocchi di un sistema di comunicazione digitale uò essere modellizzato tramite una variabile aleatoria o, iù in generale, un rocesso stocastico. Se il sistema è senza memoria è sufficiente utilizzare come modello una variabile aleatoria. Si consideri un eserimento stocastico in cui ω raresenta il risultato di una determinata osservazione; ω viene anche detto camione. L insieme costituito da tutti i camioni ω è detto sazio dei camioni. Una variabile aleatoria (ω) è un numero reale che viene assegnato ad ogni risultato ω di un eserimento stocastico. Analogamente una variabile aleatoria (ω) è una funzione misurabile che maa lo sazio dei camioni nell insieme dei numeri reali.

15 Sorgenti discrete senza memoria Alfabeto: insieme formato da simboli: { } A = x i i= Messaggio: è una sequenza finita o semi-infinita di simboli dell alfabeto. SORGETE DISCRETA STOCASTICA: Una sorgente discreta senza memoria è modellizzabile come una variabile aleatoria discreta a valori in A. Una sorgente discreta è un disositivo che emette messaggi attraverso la selezione di simboli dell alfabeto A, secondo una assegnata massa di robabilità: { } i i= = P ( x i i ) 5

16 Misura dell autoinformazione Definiamo il contenuto informativo (autoinformazione) legato all evento elementare =x i come: I ( x ) i = loga i a = base del logaritmo, determina l unità di misura di Se a=e (base del logaritmo naturale), si misura in nat I Se a=2 allora si misura in bit (binary unit) In tal caso si ha: ( ) x i e la corretta identificazione di uno tra due simboli equirobabili orta una quantità d informazione unitaria. el seguito si assume imlicitamente a=2. I ( ) I x i ( x ) = I( x ) = 2 2 log 2 = I ( ) x i 6

17 Prorietà dell autoinformazione I ( x i ) L autoinformazione è una funzione continua di P(=x i ). (P) I( x ) 0, e I( x ) = 0 se = j j j 0 (P2) 7

18 Prorietà dell autoinformazione L autoinformazione I ( x i ) associata al simbolo i-esimo dell alfabeto di sorgente è legata alla incertezza riguardo la sua emissione (maggiore incertezza => maggiore informazione): I ( x ) > I( x ) se < j i j i (P3) L autoinformazione associata all emissione di due simboli indiendenti è la somma delle due autoinformazioni: Se P ( x, x ) = P( x ) P( x ) allora I( x, x ) = I( x ) + I( x i j i j i j i j ) (P4) 8

19 Misura dell informazione: ETROPIA dell alfabeto di sorgente ( ) Partendo dalla definizione di e calcolandone il valore atteso, si uò caratterizzare la variabile aleatoria che modellizza la sorgente tramite la quantità: I x i H ( ) = E I( x ) x { } = ( ) = x I x i i i i= i= i log i H() è chiamata ETROPIA di sorgente e, er come è definita, indica il contenuto informativo medio di. H() si misura in bit/simbolo Utilizzeremo all occorrenza la notazione: H ( ) = H (, 2,..., ) 9

20 Prorietà dell informazione media (entroia) Continuità: l informazione media H ( ) associata alla variabile aleatoria è una funzione continua della massa di robabilità k della variabile aleatoria. (P) on negatività: H( ) 0 (P2) 20

21 Prorietà dell informazione media (entroia) Esandibilità: H + (, 2,..., ) = H (, 2,...,,0) (P3) Massimalità: H (, 2,..., ) H,,..., (P4) 2

22 Monotonicità: (P5) Prorietà dell informazione media (entroia) Prorietà dell informazione media (entroia) < +,...,,,...,, H H 22 Concavità: è una funzione concava. (P6) ),...,, ( 2 H

23 Prorietà dell informazione media (entroia) el seguito verrà utilizzata la convenzione: 0 log 0 = a 0 Che è una conseguenza del fatto che: lim x log x = 0 x + a 0 23

24 Esemio. Entroia er il caso = 2, con robabilità generiche: = = q = e 2 si calcola cosi : 2 H ( + ( ) = log )log = H 2 ( ) 24

25 Esemio.2 Entroia di un alfabeto di sorgente comosto da = 4 simboli aventi le robabilità: si calcola cosi : = /2, 2 = /4, 3 = 4 = /8 H ( ) = log log log 2 8 = Entroia nel caso di alfabeto di sorgente con simboli equirobabili, er generico bit/simbolo si calcola cosi : H ( ) = i= log 2 = log 2 25

26 Esemio.3 Sia la variabile aleatoria associata al lancio di un dado non truccato. Calcolare l entroia di. Soluzione: La variabile aleatoria ha distribuzione di robabilità uniforme con: i =, i 6 =,2,...,6 6 H( ) = i log = log2 6 = log2 i = i i= 6 6 = ln6 ln 2 = 2.58 bit / simbolo ricordando la formula del cambio di base er i logaritmi: log log a x = log b b x a 26

27 Limiti dell'entroia Le rorietà (P2) e (P4) ossono essere riscritte definendo i limiti er l entroia: 0 H() log In articolare si ha H() = 0 se esiste k tale che k =. Inoltre si ha H() = log, se è una variabile aleatoria discreta uniformemente distribuita, cioè k =/. Infatti: ricordando che : k = = e k = k =, e utilizzando la differenza : H ( ) log = k = k log k k = k log k = log = k k 27

28 Limiti dell'entroia - cont. ln y y, er y > 0, Utilizziamo: che diventa uguaglianza er y=0 Uguaglianza se: = k ovvero: = (simboli equirobabili) k 28

29 Interretazione del termine Bit bit (binary unit): unità di misura dell'informazione. Può avere qualsiasi valore reale non negativo. el assato era indicato come "binit". bit (binary digit): indica una variabile discreta (binaria) che uò avere due soli valori ossibili comunemente indicati con "0" e "". Può avere soltanto valori interi che stanno ad indicare quante variabili binarie vengono utilizzate. el assato era indicato come "bigit". Dall'esemio. si vede come una sorgente binaria (che emette dei binary digit) ha un contenuto medio di informazione H() ari ad bit/simbolo (binary unit) se e solo se i due simboli "0" ed "" sono equirobabili. Allo stesso modo, il contenuto di informazione I(x ) del singolo evento x =0 è ari ad bit se e solo se P(x )=/2.

30 Libri di Testo Ernestina Cianca, Mauro De Sanctis, Marina Ruggieri, Information and Coding: Theory Overview, Design, Alications and Exercices, ARACE editrice, Italy, ISB , May R. G. Gallager, Information Theory and Reliable Communication, John Wiley & Sons, ew York, 968. Andrew J. Viterbi, Jim K. Omura, Princiles of Digital Communication and Coding, McGraw-Hill, 979. T. M. Cover, J. A. Thomas, Elements of Information Theory, John Wiley & Sons, ew York, 99. Steven Roman, Coding and Information Theory, Sringer, ew York, 992.

31 Riferimenti Harry yquist, Certain Factors Affecting Telegrah Seed, The Bell System Technical Journal, Aril 924. Harry yquist, Certain Toics in Telegrah Transmission Theory, A.I.E.E. Transactions, vol. 47, Aril 928. R. V. L. Hartley, Transmission of Information, The Bell System Technical Journal, vol. 3, , July 928. Claude E. Shannon, A Mathematical Theory of Communication, The Bell System Technical Journal, vol. 27, and , July - October 948. Claude E. Shannon, Communication Theory of Secrecy Systems, The Bell System Technical Journal, vol. 28, , October 949. R. W. Hamming, Error Detecting and Error Correcting Codes, The Bell System Technical Journal, vol. 29, 950.

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio

Dettagli

STII/Teoria dell Informazione

STII/Teoria dell Informazione STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione

Dettagli

La Teoria dell Informazione. Il termine calore. Le origini. Cosa intendiamo quando usiamo il termine informazione?

La Teoria dell Informazione. Il termine calore. Le origini. Cosa intendiamo quando usiamo il termine informazione? La Teoria dell Informazione Cosa intendiamo quando usiamo il termine informazione? Ogni termine del linguaggio scientifico deve essere preciso ed univoco. Polisemia vs Monosemia Il termine calore 1. «Renzo

Dettagli

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

1) Canali discreti con memoria. 2) Modello di Gilbert e Elliott. 3) Modello di Fritchman. 4) Modello ad N stati

1) Canali discreti con memoria. 2) Modello di Gilbert e Elliott. 3) Modello di Fritchman. 4) Modello ad N stati Argomenti della Lezione 1) Canali discreti con memoria 2) Modello di Gilbert e Elliott 3) Modello di Fritchman 4) Modello ad N stati 1 Molti canali di comunicazione reali hanno un comortamento variabile

Dettagli

Modello di sistema di comunicazione

Modello di sistema di comunicazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

Roberto Maieli La trasmissione dell informazione

Roberto Maieli La trasmissione dell informazione Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio

Dettagli

RICHIAMI di CALCOLO delle PROBABILITA

RICHIAMI di CALCOLO delle PROBABILITA Facoltà di Ingegneria - Università di Bologna Anno Accademico: 00/ TECNICA ED ECONOMIA DEI TRASPORTI Docente: Marino Lui RICHIAMI di CALCOLO delle PROBABILITA PROBABILITA Ci sono fenomeni che non si osso

Dettagli

Sorgenti discrete e informazione

Sorgenti discrete e informazione Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un

Dettagli

La teoria dell informazione

La teoria dell informazione La teoria dell informazione Perché la teoria dell informazione è importante per la linguistica computazionale 2005 Isabella Chiari 1 Informatica Informazione+automatica = informatica Trattamento automatico

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì

Dettagli

Esercizi con martingale Pietro Caputo 23 novembre 2006

Esercizi con martingale Pietro Caputo 23 novembre 2006 Esercizi con martingale Pietro Cauto 23 novembre 2006 Esercizio 1. Sia {X n } la asseggiata aleatoria simmetrica su Z con X 0 = 0, vale a dire che Z k = X k X k 1, k = 1, 2,... sono indiendenti e valgono

Dettagli

INFORMAZIONE E COMPLESSITA

INFORMAZIONE E COMPLESSITA INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze

Dettagli

La codifica digitale

La codifica digitale La codifica digitale Codifica digitale Il computer e il sistema binario Il computer elabora esclusivamente numeri. Ogni immagine, ogni suono, ogni informazione per essere compresa e rielaborata dal calcolatore

Dettagli

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità

Dettagli

Note di Teoria della Probabilità.

Note di Teoria della Probabilità. Note di Teoria della Probabilità. In queste brevi note, si richiameranno alcuni risultati di Teoria della Probabilità, riguardanti le conseguenze elementari delle definizioni di probabilità e σ-algebra.

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

2) Codici univocamente decifrabili e codici a prefisso.

2) Codici univocamente decifrabili e codici a prefisso. Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il

Dettagli

La teoria dell informazione

La teoria dell informazione Intelligenza artificiale, informatica, linguistica, scienze umane e molte altre discipline concorrono a formare il campo che oggi si definisce informatica umanistica Informatica Informazione+automatica

Dettagli

Teoria dell informazione

Teoria dell informazione Teoria dell informazione Giuseppe Ruggeri Università Mediterranea di Reggio Calabria Italy Outline Cos è l informazione? E possibile misurare l informazione? Limiti matematici nella rappresentazione dell

Dettagli

Note sulla Definizione Assiomatica della Probabilita

Note sulla Definizione Assiomatica della Probabilita Note sulla Definizione Assiomatica della Probabilita 1 I diagrammi di Wenn forniscono un metodo grafico er visualizzare i concetti fondamentali del calcolo delle robabilità. In questa raresentazione una

Dettagli

10 Proprietà di Equipartizione Asintotica

10 Proprietà di Equipartizione Asintotica FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della

Dettagli

Corso di Fondamenti di Telecomunicazioni

Corso di Fondamenti di Telecomunicazioni Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE Prof. Giovanni Schembra 1 Argomenti della lezione Definizioni: Sorgente di informazione Sistema di comunicazione Segnali trasmissivi determinati

Dettagli

Aritmetica dei Calcolatori Elettronici

Aritmetica dei Calcolatori Elettronici Aritmetica dei Calcolatori Elettronici Prof. Orazio Mirabella L informazione Analogica Segnale analogico: variabile continua assume un numero infinito di valori entro l intervallo di variazione intervallo

Dettagli

La probabilità. f n. evidentemente è 0 ( E)

La probabilità. f n. evidentemente è 0 ( E) La robabilità Definizione - Eserimento aleatorio Ogni fenomeno del mondo reale al quale associare una situazione di incertezza. Es: Lancio di un dado, estrazioni numeri della tombola, ecc. Definizione

Dettagli

TEORIA DELLA PROBABILITÁ

TEORIA DELLA PROBABILITÁ TEORIA DELLA PROBABILITÁ Cenni storici i rimi arocci alla teoria della robabilità sono della metà del XVII secolo (Pascal, Fermat, Bernoulli) gli ambiti di alicazione sono i giochi d azzardo e roblemi

Dettagli

Corso di Calcolatori Elettronici I

Corso di Calcolatori Elettronici I Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica Roberto Canonico Università degli Studi di Napoli Federico II A.A. 2016-2017 Roberto Canonico Corso di Calcolatori Elettronici

Dettagli

La Rappresentazione dell Informazione

La Rappresentazione dell Informazione La Rappresentazione dell Informazione Informatica B AA 2014 / 2015 6 Ottobre 2015 Giacomo Boracchi giacomo.boracchi@polimi.it Cos è l Informatica? Scienza della rappresentazione e dell elaborazione dell

Dettagli

Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE

Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE 1 Argomenti della lezione Definizioni: Sorgente di informazione Sistema di comunicazione Segnali trasmissivi determinati e aleatori Architettura

Dettagli

Il concetto di informazione

Il concetto di informazione Il concetto di informazione Qualunque informazione è definita tramite tre caratteristiche fondamentali: 1. Valore indica il particolare elemento assunto dall informazione 2. Tipo indica l insieme degli

Dettagli

Esercizi proposti - Gruppo 7

Esercizi proposti - Gruppo 7 Argomenti di Matematica er l Ingegneria - Volume I - Esercizi roosti Esercizi roosti - Gruo 7 1) Verificare che ognuina delle seguenti coie di numeri razionali ( ) r + 1, r + 1, r Q {0} r ha la rorietà

Dettagli

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

L evoluzione del digitale. Prof. Sandro Zappatore DITEN - Scuola Politecnica Università di Genova

L evoluzione del digitale. Prof. Sandro Zappatore DITEN - Scuola Politecnica Università di Genova L evoluzione del digitale Prof. Sandro Zappatore DITEN - Scuola Politecnica Università di Genova Le origini del digitale Harry Nyquist Studio del rumore termico Teorema del campionamento Studio dei fattori

Dettagli

L informazione numerica

L informazione numerica L informazione numerica Sorgenti di informazione Abbiamo esaminato delle sorgenti di informazione analogiche (audio, video). Abbiamo visto come trasmetterle a distanza per mezzo di sistemi analogici. Come

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 10 Esercizio 1 Sia data una trasmissione di

Dettagli

CALCOLO DELLE PROBABILITÀ. 1. La probabilità che una candela accesa si spenga è p = 1, perché è assolutamente certo che si esaurirà.

CALCOLO DELLE PROBABILITÀ. 1. La probabilità che una candela accesa si spenga è p = 1, perché è assolutamente certo che si esaurirà. CALCOLO DELLE PROBABILITÀ -Definizione di robabilità -Legge additiva (eventi disgiunti) -Probabilità totale -Eventi comosti -Eventi indiendenti -Legge moltilicativa -Probabilità comoste - -Definizione

Dettagli

Unità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9.

Unità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9. Unità 30 Sommario Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi Bibliografia [Bel] -- [Ros] 9.3 [Pap] -- 1 Auto-informazione di un evento Prima di effettuare un esperimento

Dettagli

Informazione e sua rappresentazione: codifica

Informazione e sua rappresentazione: codifica Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso

Dettagli

Informazione e sua rappresentazione: codifica. Il concetto di informazione

Informazione e sua rappresentazione: codifica. Il concetto di informazione Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Roberto Canonico Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso

Dettagli

SISTEMI A CODA MARKOVIANI TEMPO-DISCRETI

SISTEMI A CODA MARKOVIANI TEMPO-DISCRETI SISTEMI A CODA MARKOVIANI TEMPO-DISCRETI La sequenza di variabili aleatorie xi, i.. n, forma una catena di Markov temodiscreta se er ogni n e er tutti i valori assunti dalle variabili aleatorie si ha P(xn

Dettagli

Programma di Matematica Anno Scolastico 2014/2015 Classe 2M

Programma di Matematica Anno Scolastico 2014/2015 Classe 2M Programma di Matematica Anno Scolastico 04/05 Classe M Modulo : Richiami calcolo letterale Il rodotto notevole di una somma er una di erenza (a+b)(a (a + b) : Cubo di un binomio (a + b) : b): Quadrato

Dettagli

Probabilità e tempi medi di assorbimento

Probabilità e tempi medi di assorbimento Probabilità e temi medi di assorbimento 6.1 Probabilità di assorbimento Consideriamo una catena con un numero finito di stati che indichiamo con S = {1, 2,... r}. Sia C una classe chiusa di S. Se la catena

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 3 Teoria dell informazione Sorgente Codificatore

Dettagli

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore. CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore

Dettagli

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2004-05 Alberto Perotti DELEN-DAUIN Esperimento casuale Esperimento suscettibile di più

Dettagli

Capitolo 2. Funzioni

Capitolo 2. Funzioni Caitolo 2 Funzioni 2.1. De nizioni Un concetto di fondamentale imortanza è quello di funzione. roosito la seguente de nizione: Vale a questo De nizione 10 Dati due insiemi (non vuoti) X e Y, si chiama

Dettagli

Note sulla Definizione Assiomatica della Probabilita

Note sulla Definizione Assiomatica della Probabilita ote sulla efinizione ssiomatica della Probabilita La totalità delle varie modalità con cui si uò resentare un fenomeno casuale sono raresentate dai unti di uno sazio. Un sottoinsieme qualunque dello sazio

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore

Dettagli

Calcolo delle Probabilità e Statistica, Ing. Informatica e dell Automazione, a.a. 2009/10 Prova scritta del 21/7/2010

Calcolo delle Probabilità e Statistica, Ing. Informatica e dell Automazione, a.a. 2009/10 Prova scritta del 21/7/2010 Calcolo delle Probabilità e Statistica, Ing. Informatica e dell Automazione, a.a. 009/0 Prova scritta del /7/00 Nota. E obbligatorio sia scegliere le risoste (numeriche, o le formule nali a seconda del

Dettagli

Architettura degli Elaboratori

Architettura degli Elaboratori Architettura degli Elaboratori Rappresentazione dell Informazione Barbara Masucci Cosa studiamo oggi Ø Un moderno elaboratore è un sistema elettronico digitale programmabile Ø Il suo comportamento è flessibile

Dettagli

Anno accademico Presentazione del Corso di Teoria dei Segnali Docente: G.Poggi

Anno accademico Presentazione del Corso di Teoria dei Segnali Docente: G.Poggi Anno accademico 2014-2015 Presentazione del Corso di Teoria dei Segnali Docente: G.Poggi Informazioni generali sul docente E-mail: poggi@unina.it Sito Web: https://www.docenti.unina.it/giovanni.poggi http://wpage.unina.it/verdoliv/tds/

Dettagli

Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni. Esercitazioni del corso di. Telecomunicazioni

Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni. Esercitazioni del corso di. Telecomunicazioni Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni Esercitazioni del corso di Telecomunicazioni Corso di laurea in Ingegneria Gestionale Anno Accademico 2013-2014 Ing. Alfonso

Dettagli

Comunicazioni Elettriche Esercizi

Comunicazioni Elettriche Esercizi Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,

Dettagli

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2006-07 Alberto Perotti Esperimento casuale Esperimento suscettibile di più risultati

Dettagli

CANALE STAZIONARIO CANALE TEMPO INVARIANTE

CANALE STAZIONARIO CANALE TEMPO INVARIANTE CANALE STAZIONARIO Si parla di un Canale Stazionario quando i fenomeni che avvengono possono essere modellati da processi casuali e le proprietà statistiche di tali processi sono indipendenti dal tempo.

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Capacità del canale discreto Teoria dell informazione Sorgente Codificatore di sorgente

Dettagli

CP110 Probabilità: Esame 2 settembre 2013 Testo e soluzione

CP110 Probabilità: Esame 2 settembre 2013 Testo e soluzione Diartimento di Matematica, Roma Tre Pietro Cauto 212-13, II semestre 2 settembre, 213 CP11 Probabilità: Esame 2 settembre 213 Testo e soluzione 1. (6 ts) Abbiamo due mazzi di carte francesi, il mazzo A

Dettagli

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione. Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x

Dettagli

01GSZ Tecniche di protezione dell informazione

01GSZ Tecniche di protezione dell informazione Politecnico di Torino III Facoltà Ingegneria dell informazione 01GSZ Tecniche di protezione dell informazione CORSO DI LAUREA SPECIALISTICA IN INGEGNERIA DELLE TELECOMUNICAZIONI PRIMO ANNO, IV PERIODO

Dettagli

Informazione e sua rappresentazione: codifica

Informazione e sua rappresentazione: codifica Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica ing. Alessandro Cilardo Corso di Laurea in Ingegneria Biomedica Il concetto di informazione Qualunque informazione è definita

Dettagli

CdL in Medicina Veterinaria - STPA AA

CdL in Medicina Veterinaria - STPA AA CdL in Medicina Veterinaria - STPA AA 2007-08 La rappresentazione delle informazioni Che cosa è un informazione? "Per la teoria dell'informazione è abbastanza facile identificare alcune delle ipotesi che

Dettagli

Teoria dell Informazione

Teoria dell Informazione Corso di Laurea Magistrale in Scienze dell Informazione Editoriale, Pubblica e Sociale Teoria dell Informazione Cosa è l informazione L informazione è qualcosa che si possiede e si può dare ad un altro

Dettagli

MATHESIS. Sezioni di Napoli e C.mare di Stabia. Scuola Estiva di Formazione - Secondo Ciclo di Istruzione La Matematica dell incerto

MATHESIS. Sezioni di Napoli e C.mare di Stabia. Scuola Estiva di Formazione - Secondo Ciclo di Istruzione La Matematica dell incerto MATHESIS Sezioni di Naoli e C.mare di Stabia Scuola Estiva di Formazione - Secondo Ciclo di Istruzione La Matematica dell incerto Ferdinando Casolaro ferdinando.casolaro@unina.it Insegnamento della Probabilità

Dettagli

Sicurezza di un Cifrario (C. Shannon)

Sicurezza di un Cifrario (C. Shannon) La teoria di Shannon segretezza perfetta sicurezza computazionale Sicurezza di un Cifrario (C. Shannon) SEGRETEZZA PERFETTA Un Cifrario è detto perfetto, o assolutamente sicuro, se, dopo aver intercettatto

Dettagli

Capitolo 5 La trasmissione dell informazione

Capitolo 5 La trasmissione dell informazione Capitolo 5 La trasmissione dell informazione Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio Destinazione Caratterizzazione

Dettagli

Elaborazione dell informazione. Elaborazione dell informazione. Rappresentazione dei numeri INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042)

Elaborazione dell informazione. Elaborazione dell informazione. Rappresentazione dei numeri INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042) Elaborazione dell informazione INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042) Elaborazione di informazione prevede una codifica come: Dato: insieme di simboli rappresentati su un supporto Negli elaboratori:

Dettagli

1) Codici convoluzionali. 2) Circuito codificatore. 3) Diagramma a stati e a traliccio. 4) Distanza libera. 5) Algoritmo di Viterbi

1) Codici convoluzionali. 2) Circuito codificatore. 3) Diagramma a stati e a traliccio. 4) Distanza libera. 5) Algoritmo di Viterbi Argomenti della Lezione 1) Codici convoluzionali 2) Circuito codificatore 3) Diagramma a stati e a traliccio 4) Distanza libera 5) Algoritmo di Viterbi 1 Codici convoluzionali I codici convoluzionali sono

Dettagli

Modulo 1 I numeri. Università degli Studi di Salerno

Modulo 1 I numeri. Università degli Studi di Salerno Modulo 1 I numeri Università degli Studi di Salerno Corso di Laurea in Scienze della Comunicazione Informatica generale Docente: Angela Peduto A.A. 2004/2005 Codifica dei numeri Il sistema di numerazione

Dettagli

La rappresentazione delle Informazioni

La rappresentazione delle Informazioni La rappresentazione delle Informazioni Nella vita di tutti i giorni siamo abituati ad avere a che fare con vari tipi di informazioni, di natura e forma diversa, così come siamo abituati a diverse rappresentazioni

Dettagli

Elementi di teoria dell informazione e della trasmissione

Elementi di teoria dell informazione e della trasmissione VERSIONE 19.4.01 Elementi di teoria dell informazione e della trasmissione Introduzione Efficienza nell uso dei supporti Quantità di informazione ed entropia La caratterizzazione statistica dei canali

Dettagli

Corso di Architettura degli Elaboratori

Corso di Architettura degli Elaboratori Corso di Architettura degli Elaboratori Codifica dell'informazione: Numeri Binari (lucidi originali della Prof.ssa Zacchi e del Prof. Balossino) Dipartimento di Informatica Università degli Studi di Torino

Dettagli

Comportamento asintotico delle Catene di Markov

Comportamento asintotico delle Catene di Markov Comortamento asintotico delle Catene di Markov In queste note analizzeremo il comortamento asintotico della catene di Markov a temo discreto omogenee, con sazio degli stati di dimensione finita. I risultati

Dettagli

LA CODIFICA. CANALE IDEALE E REALE

LA CODIFICA. CANALE IDEALE E REALE LA CODIFICA. CANALE IDEALE E REALE L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale:

Dettagli

L informazione e la sua codifica (cap. 2, Intr. ai Sist.. Informatici) Corso di Architetture dell Informazione e della Comunicazione

L informazione e la sua codifica (cap. 2, Intr. ai Sist.. Informatici) Corso di Architetture dell Informazione e della Comunicazione L informazione e la sua codifica (cap. 2, Intr. ai Sist.. Informatici) Corso di Architetture dell Informazione e della Comunicazione Informazione e Informatica Informatica e telecomunicazione Cos è l informatica?

Dettagli

LICEO SCIENTIFICO STATALE G. MARCONI FOGGIA

LICEO SCIENTIFICO STATALE G. MARCONI FOGGIA LICEO SCIENTIFICO STATALE G. MARCONI FOGGIA PROGRAMMA DI MATEMATICA Classe VB Anno Scolastico 014-015 Insegnante: Prof.ssa La Salandra Incoronata 1 Nozioni di topologia su Intervalli; Estremo superiore

Dettagli

Stazionarietà. IDENTIFICAZIONE dei MODELLI e ANALISI dei DATI. Lezione 3: Processi Stocastici 3-1

Stazionarietà. IDENTIFICAZIONE dei MODELLI e ANALISI dei DATI. Lezione 3: Processi Stocastici 3-1 IDENTIFICAZIONE dei MODELLI e ANALISI dei DATI Lezione 3: Processi Stocastici Motivazioni Esempi Definizione Dualitá Stazionarietà 3-1 Motivazioni In molti settori scientifici sia tecnologici che economico-sociali

Dettagli

Fondamenti dell Informatica

Fondamenti dell Informatica Informatica e Comunicazione Digitale (sede di Taranto) Fondamenti dell Informatica a.a. 2015-2016 Programma 2015-2016 1. Teoria dell Informazione 2. Algoritmi e problema 3. Algebra di Boole 4. La Macchina

Dettagli

1 Entropia: Riepilogo

1 Entropia: Riepilogo Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 30 maggio 2006 Argomento: Entropia. Costruzione del modello di una sorgente. Codifica di Huffman. Scribes: Galato Filippo, Pesce Daniele,

Dettagli

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una

Dettagli

Programma del corso. Rappresentazione delle Informazioni. Introduzione agli algoritmi. Architettura del calcolatore

Programma del corso. Rappresentazione delle Informazioni. Introduzione agli algoritmi. Architettura del calcolatore Programma del corso Introduzione agli algoritmi Rappresentazione delle Informazioni Architettura del calcolatore Reti di Calcolatori (Reti Locali, Internet) Elementi di Programmazione Rappresentazione

Dettagli

Informazione e sua rappresentazione: codifica

Informazione e sua rappresentazione: codifica Corso di Calcolatori Elettronici I A.A. 2010-2011 Informazione e sua rappresentazione: codifica Lezione 1-2 Università degli Studi di Napoli Federico II Facoltà di Ingegneria Informazione Quale è il centravanti

Dettagli

Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A (STII(A))

Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A (STII(A)) STIIA Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A STIIA Classe: Matricole Pari Docente: Prof. Luisa Gargano Testo principale: T. Cover, J. Thomas, Elements of Information Theory,

Dettagli

Conversione Analogico/Digitale

Conversione Analogico/Digitale Conversione Analogico/Digitale 1 Fondamenti di Segnali e Trasmissione Conversione analogico/digitale (A/D) Per rappresentare numericamente un segnale continuo nel tempo e nelle ampiezze è necessario: Campionare

Dettagli

Codice binario. Codice. Codifica - numeri naturali. Codifica - numeri naturali. Alfabeto binario: costituito da due simboli

Codice binario. Codice. Codifica - numeri naturali. Codifica - numeri naturali. Alfabeto binario: costituito da due simboli Codice La relazione che associa ad ogni successione ben formata di simboli di un alfabeto il dato corrispondente è detta codice. Un codice mette quindi in relazione le successioni di simboli con il significato

Dettagli

Informatica per le discipline umanistiche 2

Informatica per le discipline umanistiche 2 Informatica per le discipline umanistiche 2 Rappresentazione dell informazione Rappresentazione dell informazione Informatica: studio sistematico degli algoritmi che descrivono e trasformano l informazione:

Dettagli

Analogico vs. Digitale. LEZIONE II La codifica binaria. Analogico vs digitale. Analogico. Digitale

Analogico vs. Digitale. LEZIONE II La codifica binaria. Analogico vs digitale. Analogico. Digitale Analogico vs. Digitale LEZIONE II La codifica binaria Analogico Segnale che può assumere infiniti valori con continuità Digitale Segnale che può assumere solo valori discreti Analogico vs digitale Il computer

Dettagli

Codici binari decimali

Codici binari decimali Codici binari decimali Si usano per rappresentare le dieci cifre decimali in binario dato che 2 3 < 10 < di 2 4 occorrono almeno 4 bits Binario Decimale BCD Eccesso-3 Biquinary 1 di 10 0 0 0000 0011 0100001

Dettagli

La Rappresentazione dell Informazione

La Rappresentazione dell Informazione La Rappresentazione dell Informazione Parte III I codici Codici a.a. 27-28 Un codice è una funzione che associa ad una sequenza di simboli un significato Codice : {entità} {sequenze di simboli} Un codice

Dettagli

8 Derivati dell entropia

8 Derivati dell entropia (F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta

Dettagli

Codici convoluzionali

Codici convoluzionali Codici convoluzionali (dalle dispense e dal libro) Codici convoluzionali I codici lineari a blocchi sono caratterizzati dal fatto che il processo di codifica è senza memoria. I codici convoluzionali invece

Dettagli

1.2e: La codifica Digitale dei Numeri

1.2e: La codifica Digitale dei Numeri Prof. Alberto Postiglione Dipartimento di Scienze della Comunicazione Facoltà di Lettere e Filosofia Università degli Studi di Salerno : La codifica Digitale dei Numeri Informatica Generale (Corso di Studio

Dettagli

Variabili aleatorie. Variabili aleatorie e variabili statistiche

Variabili aleatorie. Variabili aleatorie e variabili statistiche Variabili aleatorie Variabili aleatorie e variabili statistiche Nelle prime lezioni, abbiamo visto il concetto di variabile statistica : Un oggetto o evento del mondo reale veniva associato a una certa

Dettagli

Introduzione ai sistemi informatici

Introduzione ai sistemi informatici Donatella Sciuto, Giacomo Buonanno, William Fornaciari, Luca Mari Introduzione ai sistemi informatici seconda edizione, McGraw-Hill H 9619 Donatella Sciuto Giacomo Buonanno William Fornaciari Luca Mari

Dettagli

Teoria dell Informazione

Teoria dell Informazione Fondamenti di Informatica per la Sicurezza a.a. 2008/09 Teoria dell Informazione Stefano Ferrari UNIVERSITÀ DEGLI STUDI DI MILANO DIPARTIMENTO DI TECNOLOGIE DELL INFORMAZIONE Stefano Ferrari Università

Dettagli

Sezioni d urto. Prof. Sergio Petrera Università degli Studi dell Aquila. 11 giugno La regola d oro di Fermi e la sezione d urto di Born

Sezioni d urto. Prof. Sergio Petrera Università degli Studi dell Aquila. 11 giugno La regola d oro di Fermi e la sezione d urto di Born Sezioni d urto Prof. Sergio Petrera Università degli Studi dell Aquila giugno 008 La regola d oro di Fermi e la sezione d urto di Born La regola d oro di Fermi si ricava in Meccanica Quantistica Non Relativistica

Dettagli

Appunti del corso di Informatica 1 (IN110 Fondamenti) 5 Rappresentazione delle informazioni

Appunti del corso di Informatica 1 (IN110 Fondamenti) 5 Rappresentazione delle informazioni Università di Roma Tre Dipartimento di Matematica e Fisica Corso di Laurea in Matematica Appunti del corso di Informatica 1 (IN110 Fondamenti) 5 Rappresentazione delle informazioni Marco Liverani (liverani@mat.uniroma3.it)

Dettagli