E una teoria matematica che tratta l aspetto simbolico dell informazione
|
|
- Roberto Gianni
- 5 anni fa
- Visualizzazioni
Transcript
1 Che cos è la teoria dell informazione? E una teoria matematica che tratta l asetto simbolico dell informazione La teoria dell informazione ha origine nel 948 con la ubblicazione da arte di C. E. Shannon di A Mathematical theory of Communication Inizia un aroccio quantitativo alla nozione di informazione Viene introdotto un modello di un sistema di comunicazione in cui comare una sorgente di informazione ed una di rumore
2 Che cos è la teoria della codifica? E nata con la teoria dell informazione. E una teoria matematica che tratta il rocesso di raresentazione dell informazione in un dato formato (codifica) ed il rocesso inverso di recuero dell informazione nel suo formato originario (decodifica). La teoria della codifica fa uso della teoria dei numeri e dell algebra astratta. 2
3 Modello generale di un sistema di comunicazione/memorizzazione 3
4 Sistema di comunicazione digitale L obiettivo di ogni sistema di comunicazione è: La riroduzione di un messaggio emesso da una sorgente nel luogo dove l utente dell informazione è ubicato La distanza tra sorgente e utente uò essere: - COSIDEREVOLE (come nel caso delle trasmissioni intercontinentali) - MOLTO PICCOLA (come nella memorizzazione e recuero di dati usando l unità disco di un comuter) Informazione Sorgente S Messaggio astratto Segnale fisico D Destinazione 4
5 Sistema di comunicazione digitale Il canale di comunicazione ermette il trasorto dell informazione attraverso l utilizzo di tre risorse: - Potenza - Banda - Temo I disositivi di comunicazione ermettono di inviare l informazione attraverso il canale sfruttando le seguenti risorse: - Potenza di funzionamento (assorbita er calcoli, amlificazione, memorizzazione, ) - Memoria - Comlessità - Peso Le risorse del canale e dei disositivi devono essere utilizzate nel modo iù efficiente ossibile. Esistono vari comromessi tra risorse. 5
6 Rete di telecomunicazioni nodo (disositivo) collegamento 6
7 Pila Protocollare L'Oen Systems Interconnection (o modello OSI) è uno standard er reti di calcolatori roosto nel 978 dall'international Organization for Standardization (ISO). Codifica di sorgente e codifica crittografica Codifica di canale e modulazione 7
8 Sorgenti discrete stazionarie 8
9 Sorgenti e messaggi informativi Come misurare la quantità d informazione emessa da una sorgente? L uscita di una sorgente (il messaggio) consiste in una sequenza di simboli scelti in un insieme finito (l alfabeto di sorgente) Un meccanismo robabilistico regola l emissione di simboli consecutivi nel messaggio 9
10 Sorgenti e messaggi informativi Messaggi diversi in genere trasortano quantità diverse di informazione Si deve definire er la sorgente una quantità d informazione media (ETROPIA) l unità di misura dell informazione è il bit, che corrisonde all informazione associata all emissione di uno tra i due simboli equirobabili l entroia della sorgente raresenta il minimo numero medio di simboli binari (digit) che è necessario er raresentare ogni simbolo del messaggio 0
11 Sorgenti e messaggi informativi L uscita della sorgente uò dunque essere sostituita da una stringa di simboli binari che trasortano la stessa quantità di informazione ed hanno un numero medio di digit er simbolo della sorgente originaria vicino quanto desiderato all entroia della sorgente Il canale di comunicazione è il mezzo fisico usato er connettere la sorgente d informazione con il suo utente
12 Sorgenti e messaggi informativi I canali discreti senza memoria sono secificati da una legge robabilistica che lega i simboli dell alfabeto di ingresso al canale ai simboli dell alfabeto d uscita al canale stesso Un unto imortante è la conoscenza del massimo flusso di informazione media che uò attraversare il canale in modo affidabile: si arriva così alla definizione di caacità di canale ed al roblema di calcolarla 2
13 Sorgenti e messaggi informativi Il teorema della codifica di canale collega i concetti di entroia di una sorgente e caacità di un canale, stabilendo cosa significhi trasmissione affidabile e indicando come ottenerla 3
14 Variabili aleatorie e rocessi stocastici L ingresso e l uscita di uno qualsiasi dei blocchi di un sistema di comunicazione digitale uò essere modellizzato tramite una variabile aleatoria o, iù in generale, un rocesso stocastico. Se il sistema è senza memoria è sufficiente utilizzare come modello una variabile aleatoria. Si consideri un eserimento stocastico in cui ω raresenta il risultato di una determinata osservazione; ω viene anche detto camione. L insieme costituito da tutti i camioni ω è detto sazio dei camioni. Una variabile aleatoria (ω) è un numero reale che viene assegnato ad ogni risultato ω di un eserimento stocastico. Analogamente una variabile aleatoria (ω) è una funzione misurabile che maa lo sazio dei camioni nell insieme dei numeri reali.
15 Sorgenti discrete senza memoria Alfabeto: insieme formato da simboli: { } A = x i i= Messaggio: è una sequenza finita o semi-infinita di simboli dell alfabeto. SORGETE DISCRETA STOCASTICA: Una sorgente discreta senza memoria è modellizzabile come una variabile aleatoria discreta a valori in A. Una sorgente discreta è un disositivo che emette messaggi attraverso la selezione di simboli dell alfabeto A, secondo una assegnata massa di robabilità: { } i i= = P ( x i i ) 5
16 Misura dell autoinformazione Definiamo il contenuto informativo (autoinformazione) legato all evento elementare =x i come: I ( x ) i = loga i a = base del logaritmo, determina l unità di misura di Se a=e (base del logaritmo naturale), si misura in nat I Se a=2 allora si misura in bit (binary unit) In tal caso si ha: ( ) x i e la corretta identificazione di uno tra due simboli equirobabili orta una quantità d informazione unitaria. el seguito si assume imlicitamente a=2. I ( ) I x i ( x ) = I( x ) = 2 2 log 2 = I ( ) x i 6
17 Prorietà dell autoinformazione I ( x i ) L autoinformazione è una funzione continua di P(=x i ). (P) I( x ) 0, e I( x ) = 0 se = j j j 0 (P2) 7
18 Prorietà dell autoinformazione L autoinformazione I ( x i ) associata al simbolo i-esimo dell alfabeto di sorgente è legata alla incertezza riguardo la sua emissione (maggiore incertezza => maggiore informazione): I ( x ) > I( x ) se < j i j i (P3) L autoinformazione associata all emissione di due simboli indiendenti è la somma delle due autoinformazioni: Se P ( x, x ) = P( x ) P( x ) allora I( x, x ) = I( x ) + I( x i j i j i j i j ) (P4) 8
19 Misura dell informazione: ETROPIA dell alfabeto di sorgente ( ) Partendo dalla definizione di e calcolandone il valore atteso, si uò caratterizzare la variabile aleatoria che modellizza la sorgente tramite la quantità: I x i H ( ) = E I( x ) x { } = ( ) = x I x i i i i= i= i log i H() è chiamata ETROPIA di sorgente e, er come è definita, indica il contenuto informativo medio di. H() si misura in bit/simbolo Utilizzeremo all occorrenza la notazione: H ( ) = H (, 2,..., ) 9
20 Prorietà dell informazione media (entroia) Continuità: l informazione media H ( ) associata alla variabile aleatoria è una funzione continua della massa di robabilità k della variabile aleatoria. (P) on negatività: H( ) 0 (P2) 20
21 Prorietà dell informazione media (entroia) Esandibilità: H + (, 2,..., ) = H (, 2,...,,0) (P3) Massimalità: H (, 2,..., ) H,,..., (P4) 2
22 Monotonicità: (P5) Prorietà dell informazione media (entroia) Prorietà dell informazione media (entroia) < +,...,,,...,, H H 22 Concavità: è una funzione concava. (P6) ),...,, ( 2 H
23 Prorietà dell informazione media (entroia) el seguito verrà utilizzata la convenzione: 0 log 0 = a 0 Che è una conseguenza del fatto che: lim x log x = 0 x + a 0 23
24 Esemio. Entroia er il caso = 2, con robabilità generiche: = = q = e 2 si calcola cosi : 2 H ( + ( ) = log )log = H 2 ( ) 24
25 Esemio.2 Entroia di un alfabeto di sorgente comosto da = 4 simboli aventi le robabilità: si calcola cosi : = /2, 2 = /4, 3 = 4 = /8 H ( ) = log log log 2 8 = Entroia nel caso di alfabeto di sorgente con simboli equirobabili, er generico bit/simbolo si calcola cosi : H ( ) = i= log 2 = log 2 25
26 Esemio.3 Sia la variabile aleatoria associata al lancio di un dado non truccato. Calcolare l entroia di. Soluzione: La variabile aleatoria ha distribuzione di robabilità uniforme con: i =, i 6 =,2,...,6 6 H( ) = i log = log2 6 = log2 i = i i= 6 6 = ln6 ln 2 = 2.58 bit / simbolo ricordando la formula del cambio di base er i logaritmi: log log a x = log b b x a 26
27 Limiti dell'entroia Le rorietà (P2) e (P4) ossono essere riscritte definendo i limiti er l entroia: 0 H() log In articolare si ha H() = 0 se esiste k tale che k =. Inoltre si ha H() = log, se è una variabile aleatoria discreta uniformemente distribuita, cioè k =/. Infatti: ricordando che : k = = e k = k =, e utilizzando la differenza : H ( ) log = k = k log k k = k log k = log = k k 27
28 Limiti dell'entroia - cont. ln y y, er y > 0, Utilizziamo: che diventa uguaglianza er y=0 Uguaglianza se: = k ovvero: = (simboli equirobabili) k 28
29 Interretazione del termine Bit bit (binary unit): unità di misura dell'informazione. Può avere qualsiasi valore reale non negativo. el assato era indicato come "binit". bit (binary digit): indica una variabile discreta (binaria) che uò avere due soli valori ossibili comunemente indicati con "0" e "". Può avere soltanto valori interi che stanno ad indicare quante variabili binarie vengono utilizzate. el assato era indicato come "bigit". Dall'esemio. si vede come una sorgente binaria (che emette dei binary digit) ha un contenuto medio di informazione H() ari ad bit/simbolo (binary unit) se e solo se i due simboli "0" ed "" sono equirobabili. Allo stesso modo, il contenuto di informazione I(x ) del singolo evento x =0 è ari ad bit se e solo se P(x )=/2.
30 Libri di Testo Ernestina Cianca, Mauro De Sanctis, Marina Ruggieri, Information and Coding: Theory Overview, Design, Alications and Exercices, ARACE editrice, Italy, ISB , May R. G. Gallager, Information Theory and Reliable Communication, John Wiley & Sons, ew York, 968. Andrew J. Viterbi, Jim K. Omura, Princiles of Digital Communication and Coding, McGraw-Hill, 979. T. M. Cover, J. A. Thomas, Elements of Information Theory, John Wiley & Sons, ew York, 99. Steven Roman, Coding and Information Theory, Sringer, ew York, 992.
31 Riferimenti Harry yquist, Certain Factors Affecting Telegrah Seed, The Bell System Technical Journal, Aril 924. Harry yquist, Certain Toics in Telegrah Transmission Theory, A.I.E.E. Transactions, vol. 47, Aril 928. R. V. L. Hartley, Transmission of Information, The Bell System Technical Journal, vol. 3, , July 928. Claude E. Shannon, A Mathematical Theory of Communication, The Bell System Technical Journal, vol. 27, and , July - October 948. Claude E. Shannon, Communication Theory of Secrecy Systems, The Bell System Technical Journal, vol. 28, , October 949. R. W. Hamming, Error Detecting and Error Correcting Codes, The Bell System Technical Journal, vol. 29, 950.
TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
DettagliLa Teoria dell Informazione. Il termine calore. Le origini. Cosa intendiamo quando usiamo il termine informazione?
La Teoria dell Informazione Cosa intendiamo quando usiamo il termine informazione? Ogni termine del linguaggio scientifico deve essere preciso ed univoco. Polisemia vs Monosemia Il termine calore 1. «Renzo
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
Dettagli1) Canali discreti con memoria. 2) Modello di Gilbert e Elliott. 3) Modello di Fritchman. 4) Modello ad N stati
Argomenti della Lezione 1) Canali discreti con memoria 2) Modello di Gilbert e Elliott 3) Modello di Fritchman 4) Modello ad N stati 1 Molti canali di comunicazione reali hanno un comortamento variabile
DettagliModello di sistema di comunicazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliRoberto Maieli La trasmissione dell informazione
Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio
DettagliRICHIAMI di CALCOLO delle PROBABILITA
Facoltà di Ingegneria - Università di Bologna Anno Accademico: 00/ TECNICA ED ECONOMIA DEI TRASPORTI Docente: Marino Lui RICHIAMI di CALCOLO delle PROBABILITA PROBABILITA Ci sono fenomeni che non si osso
DettagliSorgenti discrete e informazione
Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un
DettagliLa teoria dell informazione
La teoria dell informazione Perché la teoria dell informazione è importante per la linguistica computazionale 2005 Isabella Chiari 1 Informatica Informazione+automatica = informatica Trattamento automatico
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì
DettagliEsercizi con martingale Pietro Caputo 23 novembre 2006
Esercizi con martingale Pietro Cauto 23 novembre 2006 Esercizio 1. Sia {X n } la asseggiata aleatoria simmetrica su Z con X 0 = 0, vale a dire che Z k = X k X k 1, k = 1, 2,... sono indiendenti e valgono
DettagliINFORMAZIONE E COMPLESSITA
INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze
DettagliLa codifica digitale
La codifica digitale Codifica digitale Il computer e il sistema binario Il computer elabora esclusivamente numeri. Ogni immagine, ogni suono, ogni informazione per essere compresa e rielaborata dal calcolatore
Dettagli1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità
DettagliNote di Teoria della Probabilità.
Note di Teoria della Probabilità. In queste brevi note, si richiameranno alcuni risultati di Teoria della Probabilità, riguardanti le conseguenze elementari delle definizioni di probabilità e σ-algebra.
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
Dettagli2) Codici univocamente decifrabili e codici a prefisso.
Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il
DettagliLa teoria dell informazione
Intelligenza artificiale, informatica, linguistica, scienze umane e molte altre discipline concorrono a formare il campo che oggi si definisce informatica umanistica Informatica Informazione+automatica
DettagliTeoria dell informazione
Teoria dell informazione Giuseppe Ruggeri Università Mediterranea di Reggio Calabria Italy Outline Cos è l informazione? E possibile misurare l informazione? Limiti matematici nella rappresentazione dell
DettagliNote sulla Definizione Assiomatica della Probabilita
Note sulla Definizione Assiomatica della Probabilita 1 I diagrammi di Wenn forniscono un metodo grafico er visualizzare i concetti fondamentali del calcolo delle robabilità. In questa raresentazione una
Dettagli10 Proprietà di Equipartizione Asintotica
FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della
DettagliCorso di Fondamenti di Telecomunicazioni
Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE Prof. Giovanni Schembra 1 Argomenti della lezione Definizioni: Sorgente di informazione Sistema di comunicazione Segnali trasmissivi determinati
DettagliAritmetica dei Calcolatori Elettronici
Aritmetica dei Calcolatori Elettronici Prof. Orazio Mirabella L informazione Analogica Segnale analogico: variabile continua assume un numero infinito di valori entro l intervallo di variazione intervallo
DettagliLa probabilità. f n. evidentemente è 0 ( E)
La robabilità Definizione - Eserimento aleatorio Ogni fenomeno del mondo reale al quale associare una situazione di incertezza. Es: Lancio di un dado, estrazioni numeri della tombola, ecc. Definizione
DettagliTEORIA DELLA PROBABILITÁ
TEORIA DELLA PROBABILITÁ Cenni storici i rimi arocci alla teoria della robabilità sono della metà del XVII secolo (Pascal, Fermat, Bernoulli) gli ambiti di alicazione sono i giochi d azzardo e roblemi
DettagliCorso di Calcolatori Elettronici I
Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica Roberto Canonico Università degli Studi di Napoli Federico II A.A. 2016-2017 Roberto Canonico Corso di Calcolatori Elettronici
DettagliLa Rappresentazione dell Informazione
La Rappresentazione dell Informazione Informatica B AA 2014 / 2015 6 Ottobre 2015 Giacomo Boracchi giacomo.boracchi@polimi.it Cos è l Informatica? Scienza della rappresentazione e dell elaborazione dell
DettagliCorso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE
Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE 1 Argomenti della lezione Definizioni: Sorgente di informazione Sistema di comunicazione Segnali trasmissivi determinati e aleatori Architettura
DettagliIl concetto di informazione
Il concetto di informazione Qualunque informazione è definita tramite tre caratteristiche fondamentali: 1. Valore indica il particolare elemento assunto dall informazione 2. Tipo indica l insieme degli
DettagliEsercizi proposti - Gruppo 7
Argomenti di Matematica er l Ingegneria - Volume I - Esercizi roosti Esercizi roosti - Gruo 7 1) Verificare che ognuina delle seguenti coie di numeri razionali ( ) r + 1, r + 1, r Q {0} r ha la rorietà
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliL evoluzione del digitale. Prof. Sandro Zappatore DITEN - Scuola Politecnica Università di Genova
L evoluzione del digitale Prof. Sandro Zappatore DITEN - Scuola Politecnica Università di Genova Le origini del digitale Harry Nyquist Studio del rumore termico Teorema del campionamento Studio dei fattori
DettagliL informazione numerica
L informazione numerica Sorgenti di informazione Abbiamo esaminato delle sorgenti di informazione analogiche (audio, video). Abbiamo visto come trasmetterle a distanza per mezzo di sistemi analogici. Come
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 10 Esercizio 1 Sia data una trasmissione di
DettagliCALCOLO DELLE PROBABILITÀ. 1. La probabilità che una candela accesa si spenga è p = 1, perché è assolutamente certo che si esaurirà.
CALCOLO DELLE PROBABILITÀ -Definizione di robabilità -Legge additiva (eventi disgiunti) -Probabilità totale -Eventi comosti -Eventi indiendenti -Legge moltilicativa -Probabilità comoste - -Definizione
DettagliUnità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9.
Unità 30 Sommario Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi Bibliografia [Bel] -- [Ros] 9.3 [Pap] -- 1 Auto-informazione di un evento Prima di effettuare un esperimento
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliInformazione e sua rappresentazione: codifica. Il concetto di informazione
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Roberto Canonico Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliSISTEMI A CODA MARKOVIANI TEMPO-DISCRETI
SISTEMI A CODA MARKOVIANI TEMPO-DISCRETI La sequenza di variabili aleatorie xi, i.. n, forma una catena di Markov temodiscreta se er ogni n e er tutti i valori assunti dalle variabili aleatorie si ha P(xn
DettagliProgramma di Matematica Anno Scolastico 2014/2015 Classe 2M
Programma di Matematica Anno Scolastico 04/05 Classe M Modulo : Richiami calcolo letterale Il rodotto notevole di una somma er una di erenza (a+b)(a (a + b) : Cubo di un binomio (a + b) : b): Quadrato
DettagliProbabilità e tempi medi di assorbimento
Probabilità e temi medi di assorbimento 6.1 Probabilità di assorbimento Consideriamo una catena con un numero finito di stati che indichiamo con S = {1, 2,... r}. Sia C una classe chiusa di S. Se la catena
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 3 Teoria dell informazione Sorgente Codificatore
DettagliCODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore
DettagliCorso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2004-05 Alberto Perotti DELEN-DAUIN Esperimento casuale Esperimento suscettibile di più
DettagliCapitolo 2. Funzioni
Caitolo 2 Funzioni 2.1. De nizioni Un concetto di fondamentale imortanza è quello di funzione. roosito la seguente de nizione: Vale a questo De nizione 10 Dati due insiemi (non vuoti) X e Y, si chiama
DettagliNote sulla Definizione Assiomatica della Probabilita
ote sulla efinizione ssiomatica della Probabilita La totalità delle varie modalità con cui si uò resentare un fenomeno casuale sono raresentate dai unti di uno sazio. Un sottoinsieme qualunque dello sazio
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore
DettagliCalcolo delle Probabilità e Statistica, Ing. Informatica e dell Automazione, a.a. 2009/10 Prova scritta del 21/7/2010
Calcolo delle Probabilità e Statistica, Ing. Informatica e dell Automazione, a.a. 009/0 Prova scritta del /7/00 Nota. E obbligatorio sia scegliere le risoste (numeriche, o le formule nali a seconda del
DettagliArchitettura degli Elaboratori
Architettura degli Elaboratori Rappresentazione dell Informazione Barbara Masucci Cosa studiamo oggi Ø Un moderno elaboratore è un sistema elettronico digitale programmabile Ø Il suo comportamento è flessibile
DettagliAnno accademico Presentazione del Corso di Teoria dei Segnali Docente: G.Poggi
Anno accademico 2014-2015 Presentazione del Corso di Teoria dei Segnali Docente: G.Poggi Informazioni generali sul docente E-mail: poggi@unina.it Sito Web: https://www.docenti.unina.it/giovanni.poggi http://wpage.unina.it/verdoliv/tds/
DettagliDipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni. Esercitazioni del corso di. Telecomunicazioni
Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni Esercitazioni del corso di Telecomunicazioni Corso di laurea in Ingegneria Gestionale Anno Accademico 2013-2014 Ing. Alfonso
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
DettagliCorso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2006-07 Alberto Perotti Esperimento casuale Esperimento suscettibile di più risultati
DettagliCANALE STAZIONARIO CANALE TEMPO INVARIANTE
CANALE STAZIONARIO Si parla di un Canale Stazionario quando i fenomeni che avvengono possono essere modellati da processi casuali e le proprietà statistiche di tali processi sono indipendenti dal tempo.
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Capacità del canale discreto Teoria dell informazione Sorgente Codificatore di sorgente
DettagliCP110 Probabilità: Esame 2 settembre 2013 Testo e soluzione
Diartimento di Matematica, Roma Tre Pietro Cauto 212-13, II semestre 2 settembre, 213 CP11 Probabilità: Esame 2 settembre 213 Testo e soluzione 1. (6 ts) Abbiamo due mazzi di carte francesi, il mazzo A
DettagliInformatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.
Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x
Dettagli01GSZ Tecniche di protezione dell informazione
Politecnico di Torino III Facoltà Ingegneria dell informazione 01GSZ Tecniche di protezione dell informazione CORSO DI LAUREA SPECIALISTICA IN INGEGNERIA DELLE TELECOMUNICAZIONI PRIMO ANNO, IV PERIODO
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica ing. Alessandro Cilardo Corso di Laurea in Ingegneria Biomedica Il concetto di informazione Qualunque informazione è definita
DettagliCdL in Medicina Veterinaria - STPA AA
CdL in Medicina Veterinaria - STPA AA 2007-08 La rappresentazione delle informazioni Che cosa è un informazione? "Per la teoria dell'informazione è abbastanza facile identificare alcune delle ipotesi che
DettagliTeoria dell Informazione
Corso di Laurea Magistrale in Scienze dell Informazione Editoriale, Pubblica e Sociale Teoria dell Informazione Cosa è l informazione L informazione è qualcosa che si possiede e si può dare ad un altro
DettagliMATHESIS. Sezioni di Napoli e C.mare di Stabia. Scuola Estiva di Formazione - Secondo Ciclo di Istruzione La Matematica dell incerto
MATHESIS Sezioni di Naoli e C.mare di Stabia Scuola Estiva di Formazione - Secondo Ciclo di Istruzione La Matematica dell incerto Ferdinando Casolaro ferdinando.casolaro@unina.it Insegnamento della Probabilità
DettagliSicurezza di un Cifrario (C. Shannon)
La teoria di Shannon segretezza perfetta sicurezza computazionale Sicurezza di un Cifrario (C. Shannon) SEGRETEZZA PERFETTA Un Cifrario è detto perfetto, o assolutamente sicuro, se, dopo aver intercettatto
DettagliCapitolo 5 La trasmissione dell informazione
Capitolo 5 La trasmissione dell informazione Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio Destinazione Caratterizzazione
DettagliElaborazione dell informazione. Elaborazione dell informazione. Rappresentazione dei numeri INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042)
Elaborazione dell informazione INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042) Elaborazione di informazione prevede una codifica come: Dato: insieme di simboli rappresentati su un supporto Negli elaboratori:
Dettagli1) Codici convoluzionali. 2) Circuito codificatore. 3) Diagramma a stati e a traliccio. 4) Distanza libera. 5) Algoritmo di Viterbi
Argomenti della Lezione 1) Codici convoluzionali 2) Circuito codificatore 3) Diagramma a stati e a traliccio 4) Distanza libera 5) Algoritmo di Viterbi 1 Codici convoluzionali I codici convoluzionali sono
DettagliModulo 1 I numeri. Università degli Studi di Salerno
Modulo 1 I numeri Università degli Studi di Salerno Corso di Laurea in Scienze della Comunicazione Informatica generale Docente: Angela Peduto A.A. 2004/2005 Codifica dei numeri Il sistema di numerazione
DettagliLa rappresentazione delle Informazioni
La rappresentazione delle Informazioni Nella vita di tutti i giorni siamo abituati ad avere a che fare con vari tipi di informazioni, di natura e forma diversa, così come siamo abituati a diverse rappresentazioni
DettagliElementi di teoria dell informazione e della trasmissione
VERSIONE 19.4.01 Elementi di teoria dell informazione e della trasmissione Introduzione Efficienza nell uso dei supporti Quantità di informazione ed entropia La caratterizzazione statistica dei canali
DettagliCorso di Architettura degli Elaboratori
Corso di Architettura degli Elaboratori Codifica dell'informazione: Numeri Binari (lucidi originali della Prof.ssa Zacchi e del Prof. Balossino) Dipartimento di Informatica Università degli Studi di Torino
DettagliComportamento asintotico delle Catene di Markov
Comortamento asintotico delle Catene di Markov In queste note analizzeremo il comortamento asintotico della catene di Markov a temo discreto omogenee, con sazio degli stati di dimensione finita. I risultati
DettagliLA CODIFICA. CANALE IDEALE E REALE
LA CODIFICA. CANALE IDEALE E REALE L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale:
DettagliL informazione e la sua codifica (cap. 2, Intr. ai Sist.. Informatici) Corso di Architetture dell Informazione e della Comunicazione
L informazione e la sua codifica (cap. 2, Intr. ai Sist.. Informatici) Corso di Architetture dell Informazione e della Comunicazione Informazione e Informatica Informatica e telecomunicazione Cos è l informatica?
DettagliLICEO SCIENTIFICO STATALE G. MARCONI FOGGIA
LICEO SCIENTIFICO STATALE G. MARCONI FOGGIA PROGRAMMA DI MATEMATICA Classe VB Anno Scolastico 014-015 Insegnante: Prof.ssa La Salandra Incoronata 1 Nozioni di topologia su Intervalli; Estremo superiore
DettagliStazionarietà. IDENTIFICAZIONE dei MODELLI e ANALISI dei DATI. Lezione 3: Processi Stocastici 3-1
IDENTIFICAZIONE dei MODELLI e ANALISI dei DATI Lezione 3: Processi Stocastici Motivazioni Esempi Definizione Dualitá Stazionarietà 3-1 Motivazioni In molti settori scientifici sia tecnologici che economico-sociali
DettagliFondamenti dell Informatica
Informatica e Comunicazione Digitale (sede di Taranto) Fondamenti dell Informatica a.a. 2015-2016 Programma 2015-2016 1. Teoria dell Informazione 2. Algoritmi e problema 3. Algebra di Boole 4. La Macchina
Dettagli1 Entropia: Riepilogo
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 30 maggio 2006 Argomento: Entropia. Costruzione del modello di una sorgente. Codifica di Huffman. Scribes: Galato Filippo, Pesce Daniele,
Dettagli1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano
Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una
DettagliProgramma del corso. Rappresentazione delle Informazioni. Introduzione agli algoritmi. Architettura del calcolatore
Programma del corso Introduzione agli algoritmi Rappresentazione delle Informazioni Architettura del calcolatore Reti di Calcolatori (Reti Locali, Internet) Elementi di Programmazione Rappresentazione
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I A.A. 2010-2011 Informazione e sua rappresentazione: codifica Lezione 1-2 Università degli Studi di Napoli Federico II Facoltà di Ingegneria Informazione Quale è il centravanti
DettagliCorso: Strumenti di Teoria dell Informazione per l Informatica, Parte A (STII(A))
STIIA Corso: Strumenti di Teoria dell Informazione per l Informatica, Parte A STIIA Classe: Matricole Pari Docente: Prof. Luisa Gargano Testo principale: T. Cover, J. Thomas, Elements of Information Theory,
DettagliConversione Analogico/Digitale
Conversione Analogico/Digitale 1 Fondamenti di Segnali e Trasmissione Conversione analogico/digitale (A/D) Per rappresentare numericamente un segnale continuo nel tempo e nelle ampiezze è necessario: Campionare
DettagliCodice binario. Codice. Codifica - numeri naturali. Codifica - numeri naturali. Alfabeto binario: costituito da due simboli
Codice La relazione che associa ad ogni successione ben formata di simboli di un alfabeto il dato corrispondente è detta codice. Un codice mette quindi in relazione le successioni di simboli con il significato
DettagliInformatica per le discipline umanistiche 2
Informatica per le discipline umanistiche 2 Rappresentazione dell informazione Rappresentazione dell informazione Informatica: studio sistematico degli algoritmi che descrivono e trasformano l informazione:
DettagliAnalogico vs. Digitale. LEZIONE II La codifica binaria. Analogico vs digitale. Analogico. Digitale
Analogico vs. Digitale LEZIONE II La codifica binaria Analogico Segnale che può assumere infiniti valori con continuità Digitale Segnale che può assumere solo valori discreti Analogico vs digitale Il computer
DettagliCodici binari decimali
Codici binari decimali Si usano per rappresentare le dieci cifre decimali in binario dato che 2 3 < 10 < di 2 4 occorrono almeno 4 bits Binario Decimale BCD Eccesso-3 Biquinary 1 di 10 0 0 0000 0011 0100001
DettagliLa Rappresentazione dell Informazione
La Rappresentazione dell Informazione Parte III I codici Codici a.a. 27-28 Un codice è una funzione che associa ad una sequenza di simboli un significato Codice : {entità} {sequenze di simboli} Un codice
Dettagli8 Derivati dell entropia
(F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta
DettagliCodici convoluzionali
Codici convoluzionali (dalle dispense e dal libro) Codici convoluzionali I codici lineari a blocchi sono caratterizzati dal fatto che il processo di codifica è senza memoria. I codici convoluzionali invece
Dettagli1.2e: La codifica Digitale dei Numeri
Prof. Alberto Postiglione Dipartimento di Scienze della Comunicazione Facoltà di Lettere e Filosofia Università degli Studi di Salerno : La codifica Digitale dei Numeri Informatica Generale (Corso di Studio
DettagliVariabili aleatorie. Variabili aleatorie e variabili statistiche
Variabili aleatorie Variabili aleatorie e variabili statistiche Nelle prime lezioni, abbiamo visto il concetto di variabile statistica : Un oggetto o evento del mondo reale veniva associato a una certa
DettagliIntroduzione ai sistemi informatici
Donatella Sciuto, Giacomo Buonanno, William Fornaciari, Luca Mari Introduzione ai sistemi informatici seconda edizione, McGraw-Hill H 9619 Donatella Sciuto Giacomo Buonanno William Fornaciari Luca Mari
DettagliTeoria dell Informazione
Fondamenti di Informatica per la Sicurezza a.a. 2008/09 Teoria dell Informazione Stefano Ferrari UNIVERSITÀ DEGLI STUDI DI MILANO DIPARTIMENTO DI TECNOLOGIE DELL INFORMAZIONE Stefano Ferrari Università
DettagliSezioni d urto. Prof. Sergio Petrera Università degli Studi dell Aquila. 11 giugno La regola d oro di Fermi e la sezione d urto di Born
Sezioni d urto Prof. Sergio Petrera Università degli Studi dell Aquila giugno 008 La regola d oro di Fermi e la sezione d urto di Born La regola d oro di Fermi si ricava in Meccanica Quantistica Non Relativistica
DettagliAppunti del corso di Informatica 1 (IN110 Fondamenti) 5 Rappresentazione delle informazioni
Università di Roma Tre Dipartimento di Matematica e Fisica Corso di Laurea in Matematica Appunti del corso di Informatica 1 (IN110 Fondamenti) 5 Rappresentazione delle informazioni Marco Liverani (liverani@mat.uniroma3.it)
Dettagli