Indice. A Riassunto formule principali sulla Teoria dell Informazione per sorgenti135
|
|
- Bernarda Cortese
- 8 anni fa
- Visualizzazioni
Transcript
1 Indice 8 Teoria dell Informazione per sorgenti Introduzione Codifica di sorgente Classificazione tecniche di codifica di sorgente Teoria dell Informazione per sorgenti: premesse matematiche Entropia si sorgenti senza memoria Codifica di sorgenti senza memoria La codifica di Huffman Conclusioni e riferimenti bibliografici A Riassunto formule principali sulla Teoria dell Informazione per sorgenti
2 122 Capitolo 8. Teoria dell Informazione per sorgenti
3 Capitolo 8 Teoria dell Informazione per sorgenti 8.1 Introduzione La Teoria dell Informazione costituisce la base matematica delle trasmissioni numeriche moderne. Si divide in due grandi ambiti: 1. Teoria dell Informazione per sorgenti (solitamente chiamata codifica di sorgente): è alla base delle tecniche di compressione. 2. Teoria dell Informazione di canale (solitamente chiamata codifica di canale): è alla base delle tecniche di codifica, protezione di errore, etc. Sarà introdotta in corsi successivi, a partire da Trasmissione Numerica. La figura 8.1 mostra la struttura di un sistema di trasmissione digitale. Codifica di sorgente: sistema che, data una certa sorgente di informazione digitale, cerca di ridurre al massimo il bit-rate da trasmettere (compressione). Idea base: togliere ridondanza alla sorgente. Codifica di canale: sistema che rende la trasmissione resistente agli errori, cioè diminuisce la P (e) effettiva. In questo capitolo, ci occupiamo di Teoria dell Informazione per sorgenti. Si tratta di una teoria atta a: 1. Caratterizzare le sorgenti di informazione in maniera statistica. 2. Introdurre i concetti di compressione del flusso informativo. Si tratta di una teoria molto complessa e articolata, pertanto una sua trattazione generale esula dagli scopi di questo corso. In questo capitolo vedremo solo alcuni concetti introduttivi. 8.2 Codifica di sorgente Come detto in precedenza, lo scopo della codifica di sorgente è di ridurre il bit-rate in uscita da una sorgente, ed è molto efficiente su: Segnali analogici convertiti in digitale con PCM (ad esempio stream audio MPEG 3 o video MPEG-II); File di tipo testuale. 123
4 124 Capitolo 8. Teoria dell Informazione per sorgenti Figura 8.1: Schema a blocchi di un sistema di trasmissione digitale. Esempio: video digitale Consideriamo un segnale video con queste caratteristiche: 1000 * 800 pixel; 16 bit per pixel (circa colori); 50 refresh al secondo. Bit-rate risultante senza compressione: 640 Mbit/s = 0.64 Gbit/s. Con MPEG-II si riesce a trasmettere un buon segnale video con un bit-rate attorno a 4-6 Mbit/s. Esempio: audio (PCM) Audio digitalizzato, qualità telefonica. Dai 64 kbit/s tipici del PCM non quantizzato si passa a: Circa 13 kbit/s per il cellulare GSM; Si riesce a scendere a qualche kbit/s per le tecniche tipiche delle applicazioni Internet per lo streaming audio (Netmeeting, NetPhone) Classificazione tecniche di codifica di sorgente Facendo riferimento alla figura 8.2, possiamo dividere le tecniche di codifica di sorgente in 2 grandi famiglie: Compressione senza perdite (lossless): la cascata dei processi di compressionedecompressione porta esattamente allo stesso flusso digitale che si ha in ingresso. Ci sono infatti molte applicazioni in cui è importante che il processo di compressionedecompressione non generi perdita di informazione. La compressione lossless si usa solitamente per comprimere dati discreti, come testo, dati generati da computer e alcuni tipi di immagini e video.
5 8.3. Teoria dell Informazione per sorgenti: premesse matematiche 125 Figura 8.2: Classificazione tecniche di codifica di sorgente: senza perdite e con perdite. Compressione con perdite (lossy): la cascata dei processi di compressionedecompressione porta in uscita ad un flusso digitale diverso da quello in ingresso. Tuttavia, si fa in modo che la perdita sia tollerabile (o addirittura irrilevante) per l utente finale. La compressione con perdite ha il vantaggio che può ottenere tassi di compressione molto più elevati rispetto a quella senza perdite. La compressione lossy si usa solitamente per comprimere audio o video, in applicazioni dove un esatta ricostruzione dei dati non è fondamentale. In questo corso, ci occupiamo solo del primo caso (lossless) dove la cascata di codificatoredecodificatore (di sorgente) possono ricostruire in maniera ideale il segnale. L argomento è molto complesso, e noi daremo solo i concetti base e un metodo di codifica. Osservazione generale: i metodi senza perdite si basano sulle caratteristiche statistiche della sorgente; vedremo che in alcuni casi non è possibile ottenere una significativa compressione. 8.3 Teoria dell Informazione per sorgenti: premesse matematiche Facendo riferimento alla figura 8.1, supponiamo di avere una sorgente caratterizzabile come segue: Discretizzata su tempi ed ampiezze; Per ogni intervallo di tempo, emette un simbolo preso da un alfabeto di M simboli. Un semplice esempio di una sorgente di questo tipo è una tastiera che emette caratteri ASCII. Commento: nell ambito della Teoria dell Informazione alcuni termini assumono significati diversi da altri ambiti.
6 126 Capitolo 8. Teoria dell Informazione per sorgenti Indichiamo i simboli dell alfabeto di sorgente con l insieme: X = {m 1,, m M } Caratterizziamo statisticamente la sorgente con le probabilità di emissione p 1,, p M di ciascun simbolo, dove p i = P (m i ). Supponiamo che la sorgente emetta un flusso di simboli che, in istanti diversi, siano statisticamente indipendenti tra di loro. L ipotesi di indipendenza è detta ipotesi di sorgente senza memoria. Questa ipotesi non è vera in moltissimi casi. La facciamo solo per semplificare la trattazione. Molti sistemi di codifica traggono vantaggio proprio dalla correlazione temporale tra i vari simboli (ad esempio: frame successivi di un segnale video). Idee base: 1. Sfruttare il fatto che i simboli non sono in generale equiprobabili. 2. Associare ad ogni simbolo una opportuna stringa di valori binari con una associazione a lunghezza variabile. 3. Associare codifiche più corte per i simboli di sorgente più probabili. In questo contesto i bit delle stringhe di codifica saranno in realtà chiamati digit. Nell ambito della Teoria dell Informazione, il termine bit ha un altro significato (che vedremo tra poco). La teoria che presenteremo si basa sull uso di una codifica a lunghezza variabile. Si associano codifiche più corte (in numero di digit) per i simboli di sorgente più probabili. La codifica a lunghezza variabile è il nocciolo della questione, e andrà confrontata con la soluzione più semplice di codifica a lunghezza fissa, su: INT superiore [log 2 (M)] = log 2 (M) Esempio: se ho 256 simboli, la codifica più ovvia è quella a lunghezza fissa su: log 2 (256) = 8 digit/simbolo Se i simboli sono da emettere ogni T m secondi, il digit-rate necessario è dato da: 1 T m log 2 (M) Lo scopo della Teoria dell Informazione per sorgenti è di cercare di ridurre questa quantità passando a codifica a lunghezza variabile. Si ricorda la formula per il calcolo di logaritmi in base 2: log 2 (x) = log 10(x) log 10 (2) = log e(x) log e (2) e inoltre che: log 2 (2 x ) = x
7 8.3. Teoria dell Informazione per sorgenti: premesse matematiche Entropia si sorgenti senza memoria Quantità di informazione Imponendo due semplici condizioni, intuitivamente desiderabili, ovvero che l informazione portata da un simbolo sia tanto maggiore quanto meno il simbolo è probabile; e che l informazione di una coppia di simboli indipendenti sia la somma delle rispettive quantità di informazione, Shannon riconobbe che si deve definire la quantità di informazione di uno specifico simbolo m i avente probabilità p i come: I(m i ) = log 2 ( 1 p i ) (8.1) La quantità di informazione si misura in bit. Vediamo alcune caratteristiche della quantità di informazione definita dalla (8.1), ricordando che 0 < p i < 1: 1. I(m i ) > 0, cioè è sempre una quantità non negativa (è un numero reale, e può essere anche minore di 1). 2. Al crescere di p i si ha che I(m i ) decresce. Esempio: Se p i = P (m i ) = 0.5 I(m i ) = 1 bit. Se p i = P (m i ) = 1 I(m i ) = 0 bit. Interpretazione: un simbolo sicuro non porta informazione. 3. Se m 1 e m 2 sono due simboli indipendenti, si ha che I(m 1 m 2 ) = I(m 1 ) + I(m 2 ). Infatti: [ ] [ ] 1 1 I(m 1 m 2 ) = log 2 = log P (m 1 m 2 ) 2 = P (m 1 )P (m 2 ) [ ] [ ] 1 1 = log 2 + log P (m 1 ) 2 = I(m 1 ) + I(m 2 ) P (m 2 ) Si definisce come entropia di sorgente la quantità di informazione media di tutta la sorgente: H(x) = E[I i ] = ( ) [ ] M i=1 p i log 1 bit 2 p i simbolo Entropia di sorgente Esempio: entropia di sorgente con due elementi Consideriamo una sorgente con due soli simboli {m 1, m 2 } con probabilità p 1 = p e p 2 = 1 p. La sua entropia vale: ( ) ( ) 1 1 H(x) = p log 2 + (1 p) log p 2 1 p La figura 8.3 mostra H(x) in funzione di p. L entropia della sorgente è massima (e in questo caso vale 1 bit/simbolo) per p = 0.5, cioè per simboli equiprobabili. L entropia tende a zero per p 0 e per p 1. Entropia di sorgente con M elementi Il precedente risultato si estende anche a sorgenti con M > 2 simboli. In particolare si dimostra (non lo facciamo) che l entropia è massima per simboli equiprobabili, cioè per: p i = 1 M p i
8 128 Capitolo 8. Teoria dell Informazione per sorgenti Figura 8.3: Entropia di sorgente con 2 simboli. e in tal caso l entropia vale: H(x) = log 2 (M) [ bit ] simbolo Bound sull entropia di sorgente con M simboli Lunghezza media di codifica In generale si ha sempre il seguente bound superiore per l entropia di una sorgente con M simboli: [ ] H(x) log 2 (M) bit simbolo Codifica di sorgenti senza memoria Sia n i la lunghezza della codifica del simbolo m i in numero di digit. Si definisce come lunghezza media di codifica: n = E[n i ] = M i=1 p i n i La lunghezza media di codifica è un parametro essenziale per la codifica di sorgente. Infatti, il digit-rate medio necessario dopo la codifica è dato da: 1 T m n [ digit ] secondo Il digit-rate medio è un parametro fondamentale. Data una certa sorgente digitale, dopo la compressione, dovrò comprare un sistema di trasmissione che abbia una velocità di trasmissione pari ad (almeno) il digit-rate medio. Allora una codifica è tanto migliore quanto più n è inferiore alla codifica a lunghezza fissa, dove si ha: n = log 2 (M) Il caso a lunghezza fissa è cioè da considerare come un riferimento a cui confrontare le prestazioni del caso codificato a lunghezza variabile.
9 8.3. Teoria dell Informazione per sorgenti: premesse matematiche 129 Teorema di Shannon della codifica di sorgente Presentiamo ora un risultato fondamentale della Teoria dell Informazione. Per qualunque possibile codifica: H(x) n (8.2) Inoltre, per qualunque sorgente, esiste una codifica tale per cui: H(x) n H(x) + 1 (8.3) Quest ultimo risultato è noto anche come Teorema di Shannon per la codifica di sorgente. La dimostrazione dei risultati (8.2) e (8.3) esula dagli obiettivi di questo corso. Questi risultati sono essenziali poiché danno un limite teorico alla lunghezza media di codifica, cioè a quanto si può comprimere (senza perdite). Questo limite è strettamente legato all entropia della sorgente, cioè alle sue caratteristiche statistiche. Teorema di Shannon della codifica di sorgente Esempio: simboli equiprobabili. Se M = 256 e i simboli sono equiprobabili: H(x) = 8 bit/simbolo una codifica a lunghezza fissa richiede 8 digit/simbolo ed è dunque la migliore possibile. Codici a lunghezza variabile a prefisso Nei codici a lunghezza variabile non si vuole mettere un demarcatore di separazione tra le codifiche di ciascun simbolo. Questo pone delle richieste sulle codifiche. Esempio: consideriamo una codifica come in tabella 8.1. Supponiamo che la stringa da SIMBOLO CODIFICA A 0 B 01 C 10 D 1 Tabella 8.1: Esempio codifica a lunghezza variabile. codificare sia: A B B C A Il decodificatore può indifferentemente decodificare in uno dei due modi mostrati in figura 8.4. E chiaro che un sistema di questo tipo non funziona. Nessuna delle due stringhe decodificate è uguale a quella di partenza, pur avendo utilizzato la stessa tabella di decodifica. Il motivo è che il codice non è univocamente decodificabile: infatti 01 può essere decodificato come B oppure come due simboli A e D. Per risolvere il problema, si devono usare codici che siano univocamente decodificabili. Data cioè una sequenza di digit deve essere possibile decodificarla univocamente. In questo corso, per risolvere questo problema, useremo la regola del prefisso: nessuna codifica può essere il prefisso della codifica di un altro simbolo. In questo modo siamo Regola del prefisso
10 130 Capitolo 8. Teoria dell Informazione per sorgenti Figura 8.4: Due possibili modi per decodificare la stringa ABBCA codificata col codificatore di figura 8.1. Si noti che entrambe le decodifiche sono errate. Figura 8.5: Decodifica codice tabella 8.2. Si noti come in questo caso la decodifica sia corretta, trattandosi di un codice a prefisso. sicuri che un codice è univocamente decodificabile 1. Nel seguito, chiameremo i codici che seguono la regola del prefisso codici a prefisso. Esempio: consideriamo il codice di tabella 8.2. Si tratta di un codice a prefisso. Supponiamo SIMBOLO CODIFICA A 0 B 10 C 110 D 111 Tabella 8.2: Esempio codice a lunghezza variabile a prefisso. che la stringa da decodificare sia: A B B C A In questo caso il decodificatore opera correttamente, come mostrato in figura 8.5. Si noti come in questo caso non ci sia ambiguità nella decodifica. 8.4 La codifica di Huffman Presentiamo ora il più semplice esempio di codifica di sorgente (senza perdite). Si tratta della codifica di Huffman (dal nome del suo inventore). Si tratta del semplice algoritmo descritto qui di seguito. 1 Si noti che esistono dei codici univocamente decodificabili che non seguono la regola del prefisso ma in questo contesto non ci interessano.
11 8.4. La codifica di Huffman 131 STEP (ALGORITMO DI HUFFMAN) 1. Ordinare i simboli per probabilità decrescenti. 2. Raggruppare i due simboli con probabilità più bassa, e considerarli come un unico simbolo. 3. GOTO 2. Alla fine, assegnare opportunamente i digit sulla struttura ad albero risultante. Su ciascuna ramificazione, assegnare 0 verso il basso e 1 verso l alto. Vediamo il funzionamento dell algoritmo con un esempio. Esempio (codifica di Huffman) Si consideri l alfabeto di tabella 8.3. Con una codifica a lunghezza fissa devo usare 3 digit per simbolo. SIMBOLO PROBABILITA A 0.2 B 0.05 C 0.04 D 0.01 E 0.7 Tabella 8.3: Huffman). Alfabeto di sorgente con relative probabilità (per esempio codifica di Calcolo dell entropia: 5 ( ) 1 H(x) = p i log 2 = 1.29 p i=1 i bit simbolo Costruiamo ora una codifica di Huffman per questo alfabeto. L albero per la codifica è mostrato in figura 8.6. Una volta assegnati i digit, per trovare le parole di codice bisogna percorrere l albero da destra verso sinistra, dalla root fino alle foglie (vedi figura 8.7). Ad esempio per il simbolo C si ottiene la codifica Procedendo analogamente con gli altri simboli, si ottengono i risultati schematizzati in tabella 8.4. Si ha: SIMBOLI p i CODIFICA n i A B C D E Tabella 8.4: Codifica Huffman esempio.
12 132 Capitolo 8. Teoria dell Informazione per sorgenti Figura 8.6: Costruzione albero per esempio codifica Huffman. Figura 8.7: Percorso per trovare la parola di codice relativa al simbolo C dell esempio sulla codifica Huffman. n = 1.45 digit simbolo Notare che si è ottenuta una compressione rispetto al caso a lunghezza fissa pari a: = % di compressione
13 8.5. Conclusioni e riferimenti bibliografici 133 Se la sorgente emette simboli a 1 kbaud 2 : Con codifica a lunghezza fissa sono necessari: 3 kdigit s Con questa codifica si ha: Conclusioni: 1.45 kdigit s L algoritmo di Huffman è uno dei più semplici. Ha in generale una ottima efficienza; Tuttavia richiede una conoscenza completa delle statistiche della sorgente prima di iniziare il processo di codifica. Ad esempio, per codificare un file di testo richiede due passaggi: un primo passaggio per stimare le statistiche e stabilire la tabella di codifica. Un secondo passaggio per effettuare la vera e propria codifica. Esistono altri algoritmi più complessi, che in particolare: Creano la tabella di codifica in tempo reale in contemporanea al processo di codifica stessa; Tengono conto della correlazione dei simboli (memoria della sorgente). Esempio: dictionary methods. Esempi: Metodo di Lempel-Ziv (alla base di svariati software di compressione freeware); Metodo ZIP (alla base del software commerciale WinZip). 8.5 Conclusioni e riferimenti bibliografici Questo capitolo ha presentato una breve introduzione alla Teoria dell Informazione, con particolare attenzione alla codifica di sorgente. Si tratta di un argomento molto vasto e complicato. Una sua trattazione esaustiva esula dagli scopi di questo corso. Si riportano qui di seguito alcuni testi di riferimento che consigliamo al lettore interessato ad ulteriori approfondimenti. Alcuni di questi testi saranno utili in corsi successivi. Riferimenti bibliografici [1] Khalid Sayood, Introduction to Data Compression, Morgan Kaufmann Publishers In. Si tratta di un libro abbastanza semplice e molto ben fatto, che descrive i fondamenti della compressione dati. Sarà utile anche per corsi successivi, soprattutto per chi continuerà con la laurea specialistica. Caldamente consigliato. 2 1 baud = 1 simbolo/secondo.
14 134 Capitolo 8. Teoria dell Informazione per sorgenti
15 Appendice A Riassunto formule principali sulla Teoria dell Informazione per sorgenti Si riportano in questa appendice le formule principali che sono state ottenute in questo capitolo. Tali formule possono essere utili per lo svolgimento degli esercizi delle esercitazioni. Si ricorda che è fondamentale, ed è compito dello studente, conoscere a fondo sia le ipotesi sotto le quali sono state ottenute le varie formule, sia il significato esatto dei vari parametri. Per facilitare il ritrovamento di queste formule all interno del capitolo, quando sono state ottenute, sono state messe all interno di un riquadro per evidenziarle meglio. Quantità di informazione: I(m i ) = log 2 ( 1 p i ) [bit] Entropia di sorgente: Lunghezza media di codifica: M ( ) [ ] 1 bit H(x) = E[I i ] = p i log 2 p i=1 i simbolo [ ] bit H(x) log 2 (M) simbolo M n = E[n i ] = p i n i [digit] i=1 Relazioni fondamentali: H(x) n H(x) n H(x)
Teoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliModello di sistema di comunicazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliIntroduzione alla codifica entropica
Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta
DettagliLA CODIFICA. CANALE IDEALE E REALE
LA CODIFICA. CANALE IDEALE E REALE L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale:
DettagliTEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
Dettagli1 Esercizio - caso particolare di ottimalità
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria
DettagliElementi di teoria dell informazione e della trasmissione
VERSIONE 19.4.01 Elementi di teoria dell informazione e della trasmissione Introduzione Efficienza nell uso dei supporti Quantità di informazione ed entropia La caratterizzazione statistica dei canali
DettagliSorgenti discrete e informazione
Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un
DettagliTecniche di compressione senza perdita
FONDAMENTI DI INFORMATICA Prof. PIER LUCA MONTESSORO Facoltà di Ingegneria Università degli Studi di Udine Tecniche di compressione senza perdita 2000 Pier Luca Montessoro (si veda la nota di copyright
DettagliCompressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.
Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia
DettagliCODIFICA DI SORGENTE. Schematizzazione generale sistema di comunicazione
CODIFICA DI SORGENTE Informazione associata a sorgenti digitali, entropia Codifica di sorgenti senza memoria Codifica di sorgenti con memoria CODIFICA DI SORGENTE Schematizzazione generale sistema di comunicazione
Dettagli10 Proprietà di Equipartizione Asintotica
FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della
DettagliInformazione binaria: Codici per la rilevazione e correzione di errori Codici di compressione
Informazione binaria: Codici per la rilevazione e correzione di errori Codici di compressione Percorso di Preparazione agli Studi di Ingegneria Università degli Studi di Brescia Docente: Massimiliano Giacomin
DettagliL informazione numerica
L informazione numerica Sorgenti di informazione Abbiamo esaminato delle sorgenti di informazione analogiche (audio, video). Abbiamo visto come trasmetterle a distanza per mezzo di sistemi analogici. Come
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
DettagliINFORMAZIONE E COMPLESSITA
INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze
DettagliIl concetto di informazione
Il concetto di informazione Qualunque informazione è definita tramite tre caratteristiche fondamentali: 1. Valore indica il particolare elemento assunto dall informazione 2. Tipo indica l insieme degli
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì
Dettagliche si ripete n volte, con n molto grande. Determinare il rate ottenuto dalla codifica LZ77, usando i parametri:
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 8 giugno 2006 Argomento: Esercizi sulle tecniche di compressione Scribes: Massimo Bellio, Massimo Padovan, Adalberto Zurlo 1 Esercizio su
DettagliCodifica di Huffman e Lempel-Ziv-Welch A L B E R T O B E L U S S I A N N O A C C A D E M I C O /
Codifica di Huffman e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente
DettagliCodifica di Huffman e Lempel-Ziv-Welch
e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente la rappresentazione
Dettagli1 Entropia: Riepilogo
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 30 maggio 2006 Argomento: Entropia. Costruzione del modello di una sorgente. Codifica di Huffman. Scribes: Galato Filippo, Pesce Daniele,
DettagliLunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27
Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza
DettagliInformatica per le discipline umanistiche 2
Informatica per le discipline umanistiche 2 Rappresentazione dell informazione Rappresentazione dell informazione Informatica: studio sistematico degli algoritmi che descrivono e trasformano l informazione:
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
DettagliCodifica dell Informazione
Francesco Folino CODIFICA DI DATI E ISTRUZIONI Algoritmi Istruzioni che operano su dati Per scrivere un programma è necessario rappresentare dati e istruzioni in un formato tale che l esecutore automatico
DettagliTeoria dell informazione
Teoria dell informazione Giuseppe Ruggeri Università Mediterranea di Reggio Calabria Italy Outline Cos è l informazione? E possibile misurare l informazione? Limiti matematici nella rappresentazione dell
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica ing. Alessandro Cilardo Corso di Laurea in Ingegneria Biomedica Il concetto di informazione Qualunque informazione è definita
DettagliCompressione Parte 2. Prof. Filippo Milotta Informatica Musicale
Compressione Parte 2 Prof. Filippo Milotta milotta@dmi.unict.it Fattori di compressione per codifiche basate su PCM Dipendono dalla implementazione della PCM: IMA ADPCM: 4/1 (75%) Con specifica G.721:
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 6 Teorema della codifica di sorgente Si consideri
DettagliLa Rappresentazione dell Informazione
La Rappresentazione dell Informazione Parte III I codici Codici a.a. 27-28 Un codice è una funzione che associa ad una sequenza di simboli un significato Codice : {entità} {sequenze di simboli} Un codice
DettagliCapitolo 4 Strato Fisico- Modellazione delle Sorgenti d Informazione e Codificazione di Sorgente
Capitolo 4 Strato Fisico- Modellazione delle Sorgenti d Informazione e Codificazione di Sorgente 1 Sorgenti d Informazione- Generalità Per valutare le prestazioni di un Sistema di TLC, è necessario descrivere
DettagliCodifica dell Informazione
Introduzione all Informatica Fabrizio Angiulli Codifica dell Informazione CODIFICA DI DATI E ISTRUZIONI Algoritmi Istruzioni che operano su dati Per scrivere un programma è necessario rappresentare dati
DettagliLa teoria dell informazione
Intelligenza artificiale, informatica, linguistica, scienze umane e molte altre discipline concorrono a formare il campo che oggi si definisce informatica umanistica Informatica Informazione+automatica
DettagliCodifica di Huffman e Lempel-Ziv-Welch
Codifica di e Lempel-Ziv-Welch 1 ALBERTO BELUSSI ANNO ACCADEMICO 2009/2010 Tipi di compressione Senza perdita (lossless lossless): permettono di ricostruire perfettamente la rappresentazione del dato originale,
Dettagli10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore
10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore
DettagliFrequenza lettere in inglese
Frequenza lettere in inglese Sequenza random (entropia log 27 = 4.75): XFOML RXKHRJFFJUJ ZLPWCFWKCYJ FFJEYVKCQSGHYDĚ Sequenza basata su frequenze (entropia circa 4.1): OCRO HLI RGWR NMIELWIS EU LL NBNESEBYAĚ
DettagliHardware, software, codifica informazioni
1 LEZIONE 2 Hardware, software, codifica informazioni I DUE LIVELLI DELLE TECNOLOGIE INFORMATICHE (1/2) L hardware è la parte del computer che puoi prendere a calci; il software quella contro cui puoi
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Capacità del canale discreto Teoria dell informazione Sorgente Codificatore di sorgente
Dettagli2) Codici univocamente decifrabili e codici a prefisso.
Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il
DettagliUNIVERSITÀ DEGLI STUDI DI TRIESTE
UNIVERSITÀ DEGLI STUDI DI TRIESTE Corso di Elaborazione Elettronica di Immagini CODIFICA DI IMMAGINI SENZA PERDITA Sommario 1 2 (Lossless JPEG, PNG, ecc.) 3 4 Motivazione Gli algoritmi per la codifica
DettagliInformazione binaria:
Informazione binaria: Codici di compressione Ingegneria Meccanica e dei Materiali Università degli Studi di Brescia Prof. Massimiliano Giacomin Una soluzione per le immagini: la tavolozza (palette) Spesso
DettagliElaborazione dell informazione. Elaborazione dell informazione. Rappresentazione dei numeri INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042)
Elaborazione dell informazione INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042) Elaborazione di informazione prevede una codifica come: Dato: insieme di simboli rappresentati su un supporto Negli elaboratori:
DettagliProgrammazione Greedy I codici di Huffman
Programmazione Greedy I codici di Huffman Codifica dell informazione La rappresentazione ordinaria dell informazione prevede l impiego di un numero costante di bit; per esempio ad ogni carattere del codice
DettagliCompressione di dati: testi, immagini, suoni e video
1 Compressione di dati: testi, immagini, suoni e video B. Cipolla V1.2 Gennaio 2008 2 Compressione: motivazioni Ridurre le dimensioni di oggetti digitali per Risparmiare spazio occupato tempo di trasmissione
Dettagli1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità
DettagliNumeri interi. Laboratorio di Calcolo Paola Gallo
Numeri interi Alfabeto binario anche il segno può essere rappresentato da 0 o 1 è indispensabile indicare il numero k di bit utilizzati Modulo Modulo e segno 1 bit di segno (0 positivo, 1 negativo) k 1
DettagliInformazione e sua rappresentazione: codifica. Il concetto di informazione
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Roberto Canonico Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 3 Teoria dell informazione Sorgente Codificatore
DettagliDipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni. Esercitazioni del corso di. Telecomunicazioni
Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni Esercitazioni del corso di Telecomunicazioni Corso di laurea in Ingegneria Gestionale Anno Accademico 2013-2014 Ing. Alfonso
DettagliParte Terza: Codificare l informazione. Fondamenti di informatica
Parte Terza: Codificare l informazione Fondamenti di informatica Informatica e telecomunicazione Cos è l informatica? Lo studio sistematico degli algoritmi che descrivono e trasformano l informazione:
DettagliCODIFICA DI CARATTERI
CODIFICA DI CARATTERI Associando un simbolo dell alfabeto ad ogni numero possiamo codificare tutte le lettere Codifica ASCII (American Standard Code for Information Interchange): Caratteri speciali, punteggiatura,
Dettagli8 Derivati dell entropia
(F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta
DettagliLa codifica. dell informazione
La codifica dell informazione (continua) Codifica dei numeri Il codice ASCII consente di codificare le cifre decimali da 0 a 9 fornendo in questo modo un metodo per la rappresentazione dei numeri Il numero
DettagliLa Rappresentazione Dell Informazione
La Rappresentazione Dell Informazione Parte III I codici I Codici Un codice è una funzione che associa ad una sequenza di simboli un significato Un codice serve a: Permettere l elaborazione e la memorizzazione
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
Dettagli15 Informazione e Predizione
(FX) Teoria dell Informazione e della Trasmissione 5 Informazione e Predizione Docente: Nicolò Cesa-Bianchi versione 4 maggio 03 Consideriamo una sorgente X, p. Dallo studio della codifica sorgente, sappiamo
DettagliCorso di Informatica
CdLS in Odontoiatria e Protesi Dentarie Corso di Informatica Prof. Crescenzio Gallo crescenzio.gallo@unifg.it Immagini in movimento 2 Immagini in movimento Memorizzazione mediante sequenze di fotogrammi.
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
DettagliInformatica. Mario Pavone - Dept. Mathematics & Computer Science - University of Catania. Trasferimento. Ambiente esterno.
Trasferimento Ambiente esterno Controllo Informatica Mario Pavone - Dept. Mathematics & Computer Science - University of Catania mpavone@dmi.unict.it Cos è l Informatica La scienza della rappresentazione
DettagliConversione analogico-digitale
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Campionamento e quantizzazione A.A. 2004-05 Alberto Perotti DELEN-DAUIN Conversione analogico-digitale L elaborazione
DettagliCapitolo 3 Compressione sorgenti statiche
Capitolo 3 Compressione sorgenti statiche Elementi di codifica di sorgente Entropia Classificazione degli algoritmi Testo RLE Huffman statico Huffman dinamico Codifica aritmetica LZ Immagini Prestazioni
Dettaglicarattere a b c d e f cod. var
Codici prefissi Un codice prefisso è un codice in cui nessuna parola codice è prefisso (parte iniziale) di un altra Ogni codice a lunghezza fissa è ovviamente prefisso. Ma anche il codice a lunghezza variabile
DettagliAnalogico vs. Digitale. LEZIONE II La codifica binaria. Analogico vs digitale. Analogico. Digitale
Analogico vs. Digitale LEZIONE II La codifica binaria Analogico Segnale che può assumere infiniti valori con continuità Digitale Segnale che può assumere solo valori discreti Analogico vs digitale Il computer
DettagliCompressione di dati: testi, immagini, suoni e video. B. Cipolla
V1.3: Novembre 2008 1 Compressione di dati: testi, immagini, suoni e video B. Cipolla V1.3: Novembre 2008 2 Compressione: motivazioni Ridurre le dimensioni di oggetti digitali per Risparmiare spazio occupato
DettagliCorso di Laurea in Informatica Applicata Esame di Calcolo delle Probabilità e Statistica Prova scritta dell 11 gennaio 2007
Corso di Laurea in Informatica Applicata Esame di Calcolo delle Probabilità e Statistica Prova scritta dell 11 gennaio 007 Primo esercizio Per una certa stampante S 1, la probabilità che un generico foglio
DettagliLa codifica. dell informazione
00010010101001110101010100010110101000011100010111 00010010101001110101010100010110101000011100010111 La codifica 00010010101001110101010100010110101000011100010111 dell informazione 00010010101001110101010100010110101000011100010111
DettagliLa codifica binaria. Informatica B. Daniele Loiacono
La codifica binaria Informatica B Introduzione Il calcolatore usa internamente una codifica binaria ( e ) per rappresentare: i dati da elaborare le istruzioni dei programmi eseguibili Fondamenti di codifica
DettagliSomma di numeri binari
Fondamenti di Informatica: Codifica Binaria dell Informazione 1 Somma di numeri binari 0 + 0 = 0 0 + 1 = 1 1 + 0 = 1 1 + 1 = 10 Esempio: 10011011 + 00101011 = 11000110 in base e una base Fondamenti di
DettagliUnità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9.
Unità 30 Sommario Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi Bibliografia [Bel] -- [Ros] 9.3 [Pap] -- 1 Auto-informazione di un evento Prima di effettuare un esperimento
DettagliLa codifica digitale
La codifica digitale Codifica digitale Il computer e il sistema binario Il computer elabora esclusivamente numeri. Ogni immagine, ogni suono, ogni informazione per essere compresa e rielaborata dal calcolatore
DettagliCapitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale
Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale 1 Obiettivi: Codici correttori d errore correggere o rivelare errori nella trasmissione di segnali numerici (sequenze di simboli,
DettagliUn ripasso di aritmetica: Conversione dalla base 10 alla base 2
Un ripasso di aritmetica: Conversione dalla base 10 alla base 2 Dato un numero N rappresentato in base dieci, la sua rappresentazione in base due sarà del tipo: c m c m-1... c 1 c 0 (le c i sono cifre
DettagliConversione Analogico/Digitale
Conversione Analogico/Digitale 1 Fondamenti di Segnali e Trasmissione Conversione analogico/digitale (A/D) Per rappresentare numericamente un segnale continuo nel tempo e nelle ampiezze è necessario: Campionare
DettagliLa Rappresentazione dell Informazione
La Rappresentazione dell Informazione Maurizio Palesi Sommario In questo documento sarà trattato il modo in cui, in un calcolatore, vengono rappresentati i vari generi di informazione (testi, numeri interi,
DettagliCampionamento e quantizzazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Campionamento e quantizzazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Conversione analogico-digitale L elaborazione
DettagliUniversità degli Studi di Cagliari Facoltà di Scienze Corso di Laurea in Matematica
Università degli Studi di Cagliari Facoltà di Scienze Corso di Laurea in Matematica Corso di Elementi di Informatica Lezione 4 21 marzo 2017 Dott. A.A. 2016/2017 pgarau.unica@gmail.com 1 nel campo dell'informatica
DettagliR. Cusani, F. Cuomo: Telecomunicazioni - DataLinkLayer: Gestione degli errori, Aprile 2010
1 11. Data link layer: codici di rilevazione di errore, gestione degli errori La rilevazione di errore Un codice a rilevazione di errore ha lo scopo di permettere al ricevente di determinare se vi sono
DettagliInformazione binaria: - codici binari, notazione binaria/ottale/esadecimale -
Informazione binaria: - codici binari, notazione binaria/ottale/esadecimale - Percorso di Preparazione agli Studi di Ingegneria Università degli Studi di Brescia Docente: Massimiliano Giacomin ... Algoritmi,
DettagliRappresentazione dell informazione. Graziano Pravadelli (2012)
Rappresentazione dell informazione Graziano Pravadelli (2012) Rappresentare l informazione Per elaborare l informazione è necessario saperla rappresentare in una forma comprensibile per l esecutore Bisogna
DettagliTecnologie Multimediali a.a. 2018/2019. Docente: DOTT.SSA VALERIA FIONDA
Tecnologie Multimediali a.a. 2018/2019 Docente: DOTT.SSA VALERIA FIONDA Rappresentazione digitale dell audio IL CAMPIONAMENTO E LA QUANTIZZAZIONE I dati multimediali vengono digitalizzati attraverso due
DettagliIl tema proposto può essere risolto seguendo due ipotesi:
Per la trattazione delle tecniche TDM, PM e Trasmissione dati si rimanda alle schede 41, 42, 43, 44, 45, 46, 47 e 48 del libro Le Telecomunicazioni del Prof. F. Dell Aquila. Il tema proposto può essere
DettagliCorso di Laurea in Ingegneria Informatica (Laurea on Line) Seconda Prova Intermedia
Milano, 17/1/ Corso di Laurea in Ingegneria Informatica (Laurea on Line) Corso di Fondamenti di Segnali e Trasmissione Seconda Prova Intermedia Carissimi studenti, scopo di questa seconda prova intermedia
DettagliReti di Calcolatori a.a
Corso di laurea in Informatica Reti di Calcolatori a.a. 2007-2008 Prof. Roberto De Prisco Capitolo 4 Trasmissione dei dati Trasmissione dei dati 2 Mezzo trasmissivo Trasporto un segnale I dati vanno convertiti
DettagliFondamenti di Informatica
Fondamenti di Informatica Linguag gi, Codifica e Rappresentazione dell Informazione P r o f. R a f fa e l e P i z zo l a n t e A. A. 2 0 1 6 / 1 7 Cosa abbiamo visto la volta scorsa Gli elaboratori sono
DettagliAlgoritmi Greedy. Tecniche Algoritmiche: tecnica greedy (o golosa) Un esempio
Algoritmi Greedy Tecniche Algoritmiche: tecnica greedy (o golosa) Idea: per trovare una soluzione globalmente ottima, scegli ripetutamente soluzioni ottime localmente Un esempio Input: lista di interi
DettagliLABORATORIO DI INFORMATICA
LABORATORIO DI INFORMATICA Corso di laurea in Scienze della Formazione Primaria a.a.2014/2015 A cura del Prof. Sergio Miranda 2 LEZIONE N.4 Rappresentazione delle Informazioni IN SINTESI (RAPPRESENTAZIONE)
DettagliTecnologie Multimediali a.a. 2017/2018. Docente: DOTT.SSA VALERIA FIONDA
Tecnologie Multimediali a.a. 2017/2018 Docente: DOTT.SSA VALERIA FIONDA Rappresentazione digitale dell audio IL CAMPIONAMENTO E LA QUANTIZZAZIONE I dati multimediali vengono digitalizzati attraverso due
DettagliModulo 1 I numeri. Università degli Studi di Salerno
Modulo 1 I numeri Università degli Studi di Salerno Corso di Laurea in Scienze della Comunicazione Informatica generale Docente: Angela Peduto A.A. 2004/2005 Codifica dei numeri Il sistema di numerazione
DettagliL'Informazione e la sua Codifica. Maurizio Palesi
L'Informazione e la sua Codifica Maurizio Palesi 1 Obiettivo Il calcolatore è una macchina digitale Il suo linguaggio è composto da due soli simboli Gli esseri umani sono abituati a comunicare utlizzando
DettagliMatematica Lezione 22
Università di Cagliari Corso di Laurea in Farmacia Matematica Lezione 22 Sonia Cannas 14/12/2018 Indici di posizione Indici di posizione Gli indici di posizione, detti anche misure di tendenza centrale,
DettagliCodifica/Compressione multimediale
Corso di architetture multimediali Università di Milano Corso di laurea specialistica in Informatica per la Comunicazione A.A. 2012-2013 Codifica/Compressione multimediale Perché codificare? Codifica ->
Dettagli