Indice. A Riassunto formule principali sulla Teoria dell Informazione per sorgenti135

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Indice. A Riassunto formule principali sulla Teoria dell Informazione per sorgenti135"

Transcript

1 Indice 8 Teoria dell Informazione per sorgenti Introduzione Codifica di sorgente Classificazione tecniche di codifica di sorgente Teoria dell Informazione per sorgenti: premesse matematiche Entropia si sorgenti senza memoria Codifica di sorgenti senza memoria La codifica di Huffman Conclusioni e riferimenti bibliografici A Riassunto formule principali sulla Teoria dell Informazione per sorgenti

2 122 Capitolo 8. Teoria dell Informazione per sorgenti

3 Capitolo 8 Teoria dell Informazione per sorgenti 8.1 Introduzione La Teoria dell Informazione costituisce la base matematica delle trasmissioni numeriche moderne. Si divide in due grandi ambiti: 1. Teoria dell Informazione per sorgenti (solitamente chiamata codifica di sorgente): è alla base delle tecniche di compressione. 2. Teoria dell Informazione di canale (solitamente chiamata codifica di canale): è alla base delle tecniche di codifica, protezione di errore, etc. Sarà introdotta in corsi successivi, a partire da Trasmissione Numerica. La figura 8.1 mostra la struttura di un sistema di trasmissione digitale. Codifica di sorgente: sistema che, data una certa sorgente di informazione digitale, cerca di ridurre al massimo il bit-rate da trasmettere (compressione). Idea base: togliere ridondanza alla sorgente. Codifica di canale: sistema che rende la trasmissione resistente agli errori, cioè diminuisce la P (e) effettiva. In questo capitolo, ci occupiamo di Teoria dell Informazione per sorgenti. Si tratta di una teoria atta a: 1. Caratterizzare le sorgenti di informazione in maniera statistica. 2. Introdurre i concetti di compressione del flusso informativo. Si tratta di una teoria molto complessa e articolata, pertanto una sua trattazione generale esula dagli scopi di questo corso. In questo capitolo vedremo solo alcuni concetti introduttivi. 8.2 Codifica di sorgente Come detto in precedenza, lo scopo della codifica di sorgente è di ridurre il bit-rate in uscita da una sorgente, ed è molto efficiente su: Segnali analogici convertiti in digitale con PCM (ad esempio stream audio MPEG 3 o video MPEG-II); File di tipo testuale. 123

4 124 Capitolo 8. Teoria dell Informazione per sorgenti Figura 8.1: Schema a blocchi di un sistema di trasmissione digitale. Esempio: video digitale Consideriamo un segnale video con queste caratteristiche: 1000 * 800 pixel; 16 bit per pixel (circa colori); 50 refresh al secondo. Bit-rate risultante senza compressione: 640 Mbit/s = 0.64 Gbit/s. Con MPEG-II si riesce a trasmettere un buon segnale video con un bit-rate attorno a 4-6 Mbit/s. Esempio: audio (PCM) Audio digitalizzato, qualità telefonica. Dai 64 kbit/s tipici del PCM non quantizzato si passa a: Circa 13 kbit/s per il cellulare GSM; Si riesce a scendere a qualche kbit/s per le tecniche tipiche delle applicazioni Internet per lo streaming audio (Netmeeting, NetPhone) Classificazione tecniche di codifica di sorgente Facendo riferimento alla figura 8.2, possiamo dividere le tecniche di codifica di sorgente in 2 grandi famiglie: Compressione senza perdite (lossless): la cascata dei processi di compressionedecompressione porta esattamente allo stesso flusso digitale che si ha in ingresso. Ci sono infatti molte applicazioni in cui è importante che il processo di compressionedecompressione non generi perdita di informazione. La compressione lossless si usa solitamente per comprimere dati discreti, come testo, dati generati da computer e alcuni tipi di immagini e video.

5 8.3. Teoria dell Informazione per sorgenti: premesse matematiche 125 Figura 8.2: Classificazione tecniche di codifica di sorgente: senza perdite e con perdite. Compressione con perdite (lossy): la cascata dei processi di compressionedecompressione porta in uscita ad un flusso digitale diverso da quello in ingresso. Tuttavia, si fa in modo che la perdita sia tollerabile (o addirittura irrilevante) per l utente finale. La compressione con perdite ha il vantaggio che può ottenere tassi di compressione molto più elevati rispetto a quella senza perdite. La compressione lossy si usa solitamente per comprimere audio o video, in applicazioni dove un esatta ricostruzione dei dati non è fondamentale. In questo corso, ci occupiamo solo del primo caso (lossless) dove la cascata di codificatoredecodificatore (di sorgente) possono ricostruire in maniera ideale il segnale. L argomento è molto complesso, e noi daremo solo i concetti base e un metodo di codifica. Osservazione generale: i metodi senza perdite si basano sulle caratteristiche statistiche della sorgente; vedremo che in alcuni casi non è possibile ottenere una significativa compressione. 8.3 Teoria dell Informazione per sorgenti: premesse matematiche Facendo riferimento alla figura 8.1, supponiamo di avere una sorgente caratterizzabile come segue: Discretizzata su tempi ed ampiezze; Per ogni intervallo di tempo, emette un simbolo preso da un alfabeto di M simboli. Un semplice esempio di una sorgente di questo tipo è una tastiera che emette caratteri ASCII. Commento: nell ambito della Teoria dell Informazione alcuni termini assumono significati diversi da altri ambiti.

6 126 Capitolo 8. Teoria dell Informazione per sorgenti Indichiamo i simboli dell alfabeto di sorgente con l insieme: X = {m 1,, m M } Caratterizziamo statisticamente la sorgente con le probabilità di emissione p 1,, p M di ciascun simbolo, dove p i = P (m i ). Supponiamo che la sorgente emetta un flusso di simboli che, in istanti diversi, siano statisticamente indipendenti tra di loro. L ipotesi di indipendenza è detta ipotesi di sorgente senza memoria. Questa ipotesi non è vera in moltissimi casi. La facciamo solo per semplificare la trattazione. Molti sistemi di codifica traggono vantaggio proprio dalla correlazione temporale tra i vari simboli (ad esempio: frame successivi di un segnale video). Idee base: 1. Sfruttare il fatto che i simboli non sono in generale equiprobabili. 2. Associare ad ogni simbolo una opportuna stringa di valori binari con una associazione a lunghezza variabile. 3. Associare codifiche più corte per i simboli di sorgente più probabili. In questo contesto i bit delle stringhe di codifica saranno in realtà chiamati digit. Nell ambito della Teoria dell Informazione, il termine bit ha un altro significato (che vedremo tra poco). La teoria che presenteremo si basa sull uso di una codifica a lunghezza variabile. Si associano codifiche più corte (in numero di digit) per i simboli di sorgente più probabili. La codifica a lunghezza variabile è il nocciolo della questione, e andrà confrontata con la soluzione più semplice di codifica a lunghezza fissa, su: INT superiore [log 2 (M)] = log 2 (M) Esempio: se ho 256 simboli, la codifica più ovvia è quella a lunghezza fissa su: log 2 (256) = 8 digit/simbolo Se i simboli sono da emettere ogni T m secondi, il digit-rate necessario è dato da: 1 T m log 2 (M) Lo scopo della Teoria dell Informazione per sorgenti è di cercare di ridurre questa quantità passando a codifica a lunghezza variabile. Si ricorda la formula per il calcolo di logaritmi in base 2: log 2 (x) = log 10(x) log 10 (2) = log e(x) log e (2) e inoltre che: log 2 (2 x ) = x

7 8.3. Teoria dell Informazione per sorgenti: premesse matematiche Entropia si sorgenti senza memoria Quantità di informazione Imponendo due semplici condizioni, intuitivamente desiderabili, ovvero che l informazione portata da un simbolo sia tanto maggiore quanto meno il simbolo è probabile; e che l informazione di una coppia di simboli indipendenti sia la somma delle rispettive quantità di informazione, Shannon riconobbe che si deve definire la quantità di informazione di uno specifico simbolo m i avente probabilità p i come: I(m i ) = log 2 ( 1 p i ) (8.1) La quantità di informazione si misura in bit. Vediamo alcune caratteristiche della quantità di informazione definita dalla (8.1), ricordando che 0 < p i < 1: 1. I(m i ) > 0, cioè è sempre una quantità non negativa (è un numero reale, e può essere anche minore di 1). 2. Al crescere di p i si ha che I(m i ) decresce. Esempio: Se p i = P (m i ) = 0.5 I(m i ) = 1 bit. Se p i = P (m i ) = 1 I(m i ) = 0 bit. Interpretazione: un simbolo sicuro non porta informazione. 3. Se m 1 e m 2 sono due simboli indipendenti, si ha che I(m 1 m 2 ) = I(m 1 ) + I(m 2 ). Infatti: [ ] [ ] 1 1 I(m 1 m 2 ) = log 2 = log P (m 1 m 2 ) 2 = P (m 1 )P (m 2 ) [ ] [ ] 1 1 = log 2 + log P (m 1 ) 2 = I(m 1 ) + I(m 2 ) P (m 2 ) Si definisce come entropia di sorgente la quantità di informazione media di tutta la sorgente: H(x) = E[I i ] = ( ) [ ] M i=1 p i log 1 bit 2 p i simbolo Entropia di sorgente Esempio: entropia di sorgente con due elementi Consideriamo una sorgente con due soli simboli {m 1, m 2 } con probabilità p 1 = p e p 2 = 1 p. La sua entropia vale: ( ) ( ) 1 1 H(x) = p log 2 + (1 p) log p 2 1 p La figura 8.3 mostra H(x) in funzione di p. L entropia della sorgente è massima (e in questo caso vale 1 bit/simbolo) per p = 0.5, cioè per simboli equiprobabili. L entropia tende a zero per p 0 e per p 1. Entropia di sorgente con M elementi Il precedente risultato si estende anche a sorgenti con M > 2 simboli. In particolare si dimostra (non lo facciamo) che l entropia è massima per simboli equiprobabili, cioè per: p i = 1 M p i

8 128 Capitolo 8. Teoria dell Informazione per sorgenti Figura 8.3: Entropia di sorgente con 2 simboli. e in tal caso l entropia vale: H(x) = log 2 (M) [ bit ] simbolo Bound sull entropia di sorgente con M simboli Lunghezza media di codifica In generale si ha sempre il seguente bound superiore per l entropia di una sorgente con M simboli: [ ] H(x) log 2 (M) bit simbolo Codifica di sorgenti senza memoria Sia n i la lunghezza della codifica del simbolo m i in numero di digit. Si definisce come lunghezza media di codifica: n = E[n i ] = M i=1 p i n i La lunghezza media di codifica è un parametro essenziale per la codifica di sorgente. Infatti, il digit-rate medio necessario dopo la codifica è dato da: 1 T m n [ digit ] secondo Il digit-rate medio è un parametro fondamentale. Data una certa sorgente digitale, dopo la compressione, dovrò comprare un sistema di trasmissione che abbia una velocità di trasmissione pari ad (almeno) il digit-rate medio. Allora una codifica è tanto migliore quanto più n è inferiore alla codifica a lunghezza fissa, dove si ha: n = log 2 (M) Il caso a lunghezza fissa è cioè da considerare come un riferimento a cui confrontare le prestazioni del caso codificato a lunghezza variabile.

9 8.3. Teoria dell Informazione per sorgenti: premesse matematiche 129 Teorema di Shannon della codifica di sorgente Presentiamo ora un risultato fondamentale della Teoria dell Informazione. Per qualunque possibile codifica: H(x) n (8.2) Inoltre, per qualunque sorgente, esiste una codifica tale per cui: H(x) n H(x) + 1 (8.3) Quest ultimo risultato è noto anche come Teorema di Shannon per la codifica di sorgente. La dimostrazione dei risultati (8.2) e (8.3) esula dagli obiettivi di questo corso. Questi risultati sono essenziali poiché danno un limite teorico alla lunghezza media di codifica, cioè a quanto si può comprimere (senza perdite). Questo limite è strettamente legato all entropia della sorgente, cioè alle sue caratteristiche statistiche. Teorema di Shannon della codifica di sorgente Esempio: simboli equiprobabili. Se M = 256 e i simboli sono equiprobabili: H(x) = 8 bit/simbolo una codifica a lunghezza fissa richiede 8 digit/simbolo ed è dunque la migliore possibile. Codici a lunghezza variabile a prefisso Nei codici a lunghezza variabile non si vuole mettere un demarcatore di separazione tra le codifiche di ciascun simbolo. Questo pone delle richieste sulle codifiche. Esempio: consideriamo una codifica come in tabella 8.1. Supponiamo che la stringa da SIMBOLO CODIFICA A 0 B 01 C 10 D 1 Tabella 8.1: Esempio codifica a lunghezza variabile. codificare sia: A B B C A Il decodificatore può indifferentemente decodificare in uno dei due modi mostrati in figura 8.4. E chiaro che un sistema di questo tipo non funziona. Nessuna delle due stringhe decodificate è uguale a quella di partenza, pur avendo utilizzato la stessa tabella di decodifica. Il motivo è che il codice non è univocamente decodificabile: infatti 01 può essere decodificato come B oppure come due simboli A e D. Per risolvere il problema, si devono usare codici che siano univocamente decodificabili. Data cioè una sequenza di digit deve essere possibile decodificarla univocamente. In questo corso, per risolvere questo problema, useremo la regola del prefisso: nessuna codifica può essere il prefisso della codifica di un altro simbolo. In questo modo siamo Regola del prefisso

10 130 Capitolo 8. Teoria dell Informazione per sorgenti Figura 8.4: Due possibili modi per decodificare la stringa ABBCA codificata col codificatore di figura 8.1. Si noti che entrambe le decodifiche sono errate. Figura 8.5: Decodifica codice tabella 8.2. Si noti come in questo caso la decodifica sia corretta, trattandosi di un codice a prefisso. sicuri che un codice è univocamente decodificabile 1. Nel seguito, chiameremo i codici che seguono la regola del prefisso codici a prefisso. Esempio: consideriamo il codice di tabella 8.2. Si tratta di un codice a prefisso. Supponiamo SIMBOLO CODIFICA A 0 B 10 C 110 D 111 Tabella 8.2: Esempio codice a lunghezza variabile a prefisso. che la stringa da decodificare sia: A B B C A In questo caso il decodificatore opera correttamente, come mostrato in figura 8.5. Si noti come in questo caso non ci sia ambiguità nella decodifica. 8.4 La codifica di Huffman Presentiamo ora il più semplice esempio di codifica di sorgente (senza perdite). Si tratta della codifica di Huffman (dal nome del suo inventore). Si tratta del semplice algoritmo descritto qui di seguito. 1 Si noti che esistono dei codici univocamente decodificabili che non seguono la regola del prefisso ma in questo contesto non ci interessano.

11 8.4. La codifica di Huffman 131 STEP (ALGORITMO DI HUFFMAN) 1. Ordinare i simboli per probabilità decrescenti. 2. Raggruppare i due simboli con probabilità più bassa, e considerarli come un unico simbolo. 3. GOTO 2. Alla fine, assegnare opportunamente i digit sulla struttura ad albero risultante. Su ciascuna ramificazione, assegnare 0 verso il basso e 1 verso l alto. Vediamo il funzionamento dell algoritmo con un esempio. Esempio (codifica di Huffman) Si consideri l alfabeto di tabella 8.3. Con una codifica a lunghezza fissa devo usare 3 digit per simbolo. SIMBOLO PROBABILITA A 0.2 B 0.05 C 0.04 D 0.01 E 0.7 Tabella 8.3: Huffman). Alfabeto di sorgente con relative probabilità (per esempio codifica di Calcolo dell entropia: 5 ( ) 1 H(x) = p i log 2 = 1.29 p i=1 i bit simbolo Costruiamo ora una codifica di Huffman per questo alfabeto. L albero per la codifica è mostrato in figura 8.6. Una volta assegnati i digit, per trovare le parole di codice bisogna percorrere l albero da destra verso sinistra, dalla root fino alle foglie (vedi figura 8.7). Ad esempio per il simbolo C si ottiene la codifica Procedendo analogamente con gli altri simboli, si ottengono i risultati schematizzati in tabella 8.4. Si ha: SIMBOLI p i CODIFICA n i A B C D E Tabella 8.4: Codifica Huffman esempio.

12 132 Capitolo 8. Teoria dell Informazione per sorgenti Figura 8.6: Costruzione albero per esempio codifica Huffman. Figura 8.7: Percorso per trovare la parola di codice relativa al simbolo C dell esempio sulla codifica Huffman. n = 1.45 digit simbolo Notare che si è ottenuta una compressione rispetto al caso a lunghezza fissa pari a: = % di compressione

13 8.5. Conclusioni e riferimenti bibliografici 133 Se la sorgente emette simboli a 1 kbaud 2 : Con codifica a lunghezza fissa sono necessari: 3 kdigit s Con questa codifica si ha: Conclusioni: 1.45 kdigit s L algoritmo di Huffman è uno dei più semplici. Ha in generale una ottima efficienza; Tuttavia richiede una conoscenza completa delle statistiche della sorgente prima di iniziare il processo di codifica. Ad esempio, per codificare un file di testo richiede due passaggi: un primo passaggio per stimare le statistiche e stabilire la tabella di codifica. Un secondo passaggio per effettuare la vera e propria codifica. Esistono altri algoritmi più complessi, che in particolare: Creano la tabella di codifica in tempo reale in contemporanea al processo di codifica stessa; Tengono conto della correlazione dei simboli (memoria della sorgente). Esempio: dictionary methods. Esempi: Metodo di Lempel-Ziv (alla base di svariati software di compressione freeware); Metodo ZIP (alla base del software commerciale WinZip). 8.5 Conclusioni e riferimenti bibliografici Questo capitolo ha presentato una breve introduzione alla Teoria dell Informazione, con particolare attenzione alla codifica di sorgente. Si tratta di un argomento molto vasto e complicato. Una sua trattazione esaustiva esula dagli scopi di questo corso. Si riportano qui di seguito alcuni testi di riferimento che consigliamo al lettore interessato ad ulteriori approfondimenti. Alcuni di questi testi saranno utili in corsi successivi. Riferimenti bibliografici [1] Khalid Sayood, Introduction to Data Compression, Morgan Kaufmann Publishers In. Si tratta di un libro abbastanza semplice e molto ben fatto, che descrive i fondamenti della compressione dati. Sarà utile anche per corsi successivi, soprattutto per chi continuerà con la laurea specialistica. Caldamente consigliato. 2 1 baud = 1 simbolo/secondo.

14 134 Capitolo 8. Teoria dell Informazione per sorgenti

15 Appendice A Riassunto formule principali sulla Teoria dell Informazione per sorgenti Si riportano in questa appendice le formule principali che sono state ottenute in questo capitolo. Tali formule possono essere utili per lo svolgimento degli esercizi delle esercitazioni. Si ricorda che è fondamentale, ed è compito dello studente, conoscere a fondo sia le ipotesi sotto le quali sono state ottenute le varie formule, sia il significato esatto dei vari parametri. Per facilitare il ritrovamento di queste formule all interno del capitolo, quando sono state ottenute, sono state messe all interno di un riquadro per evidenziarle meglio. Quantità di informazione: I(m i ) = log 2 ( 1 p i ) [bit] Entropia di sorgente: Lunghezza media di codifica: M ( ) [ ] 1 bit H(x) = E[I i ] = p i log 2 p i=1 i simbolo [ ] bit H(x) log 2 (M) simbolo M n = E[n i ] = p i n i [digit] i=1 Relazioni fondamentali: H(x) n H(x) n H(x)

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

Modello di sistema di comunicazione

Modello di sistema di comunicazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

Introduzione alla codifica entropica

Introduzione alla codifica entropica Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta

Dettagli

LA CODIFICA. CANALE IDEALE E REALE

LA CODIFICA. CANALE IDEALE E REALE LA CODIFICA. CANALE IDEALE E REALE L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale:

Dettagli

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio

Dettagli

1 Esercizio - caso particolare di ottimalità

1 Esercizio - caso particolare di ottimalità Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria

Dettagli

Elementi di teoria dell informazione e della trasmissione

Elementi di teoria dell informazione e della trasmissione VERSIONE 19.4.01 Elementi di teoria dell informazione e della trasmissione Introduzione Efficienza nell uso dei supporti Quantità di informazione ed entropia La caratterizzazione statistica dei canali

Dettagli

Sorgenti discrete e informazione

Sorgenti discrete e informazione Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un

Dettagli

Tecniche di compressione senza perdita

Tecniche di compressione senza perdita FONDAMENTI DI INFORMATICA Prof. PIER LUCA MONTESSORO Facoltà di Ingegneria Università degli Studi di Udine Tecniche di compressione senza perdita 2000 Pier Luca Montessoro (si veda la nota di copyright

Dettagli

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p. Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia

Dettagli

CODIFICA DI SORGENTE. Schematizzazione generale sistema di comunicazione

CODIFICA DI SORGENTE. Schematizzazione generale sistema di comunicazione CODIFICA DI SORGENTE Informazione associata a sorgenti digitali, entropia Codifica di sorgenti senza memoria Codifica di sorgenti con memoria CODIFICA DI SORGENTE Schematizzazione generale sistema di comunicazione

Dettagli

10 Proprietà di Equipartizione Asintotica

10 Proprietà di Equipartizione Asintotica FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della

Dettagli

Informazione binaria: Codici per la rilevazione e correzione di errori Codici di compressione

Informazione binaria: Codici per la rilevazione e correzione di errori Codici di compressione Informazione binaria: Codici per la rilevazione e correzione di errori Codici di compressione Percorso di Preparazione agli Studi di Ingegneria Università degli Studi di Brescia Docente: Massimiliano Giacomin

Dettagli

L informazione numerica

L informazione numerica L informazione numerica Sorgenti di informazione Abbiamo esaminato delle sorgenti di informazione analogiche (audio, video). Abbiamo visto come trasmetterle a distanza per mezzo di sistemi analogici. Come

Dettagli

STII/Teoria dell Informazione

STII/Teoria dell Informazione STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione

Dettagli

INFORMAZIONE E COMPLESSITA

INFORMAZIONE E COMPLESSITA INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze

Dettagli

Il concetto di informazione

Il concetto di informazione Il concetto di informazione Qualunque informazione è definita tramite tre caratteristiche fondamentali: 1. Valore indica il particolare elemento assunto dall informazione 2. Tipo indica l insieme degli

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì

Dettagli

che si ripete n volte, con n molto grande. Determinare il rate ottenuto dalla codifica LZ77, usando i parametri:

che si ripete n volte, con n molto grande. Determinare il rate ottenuto dalla codifica LZ77, usando i parametri: Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 8 giugno 2006 Argomento: Esercizi sulle tecniche di compressione Scribes: Massimo Bellio, Massimo Padovan, Adalberto Zurlo 1 Esercizio su

Dettagli

Codifica di Huffman e Lempel-Ziv-Welch A L B E R T O B E L U S S I A N N O A C C A D E M I C O /

Codifica di Huffman e Lempel-Ziv-Welch A L B E R T O B E L U S S I A N N O A C C A D E M I C O / Codifica di Huffman e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente

Dettagli

Codifica di Huffman e Lempel-Ziv-Welch

Codifica di Huffman e Lempel-Ziv-Welch e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente la rappresentazione

Dettagli

1 Entropia: Riepilogo

1 Entropia: Riepilogo Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 30 maggio 2006 Argomento: Entropia. Costruzione del modello di una sorgente. Codifica di Huffman. Scribes: Galato Filippo, Pesce Daniele,

Dettagli

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza

Dettagli

Informatica per le discipline umanistiche 2

Informatica per le discipline umanistiche 2 Informatica per le discipline umanistiche 2 Rappresentazione dell informazione Rappresentazione dell informazione Informatica: studio sistematico degli algoritmi che descrivono e trasformano l informazione:

Dettagli

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente

Dettagli

Codifica dell Informazione

Codifica dell Informazione Francesco Folino CODIFICA DI DATI E ISTRUZIONI Algoritmi Istruzioni che operano su dati Per scrivere un programma è necessario rappresentare dati e istruzioni in un formato tale che l esecutore automatico

Dettagli

Teoria dell informazione

Teoria dell informazione Teoria dell informazione Giuseppe Ruggeri Università Mediterranea di Reggio Calabria Italy Outline Cos è l informazione? E possibile misurare l informazione? Limiti matematici nella rappresentazione dell

Dettagli

Informazione e sua rappresentazione: codifica

Informazione e sua rappresentazione: codifica Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica ing. Alessandro Cilardo Corso di Laurea in Ingegneria Biomedica Il concetto di informazione Qualunque informazione è definita

Dettagli

Compressione Parte 2. Prof. Filippo Milotta Informatica Musicale

Compressione Parte 2. Prof. Filippo Milotta Informatica Musicale Compressione Parte 2 Prof. Filippo Milotta milotta@dmi.unict.it Fattori di compressione per codifiche basate su PCM Dipendono dalla implementazione della PCM: IMA ADPCM: 4/1 (75%) Con specifica G.721:

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 6 Teorema della codifica di sorgente Si consideri

Dettagli

La Rappresentazione dell Informazione

La Rappresentazione dell Informazione La Rappresentazione dell Informazione Parte III I codici Codici a.a. 27-28 Un codice è una funzione che associa ad una sequenza di simboli un significato Codice : {entità} {sequenze di simboli} Un codice

Dettagli

Capitolo 4 Strato Fisico- Modellazione delle Sorgenti d Informazione e Codificazione di Sorgente

Capitolo 4 Strato Fisico- Modellazione delle Sorgenti d Informazione e Codificazione di Sorgente Capitolo 4 Strato Fisico- Modellazione delle Sorgenti d Informazione e Codificazione di Sorgente 1 Sorgenti d Informazione- Generalità Per valutare le prestazioni di un Sistema di TLC, è necessario descrivere

Dettagli

Codifica dell Informazione

Codifica dell Informazione Introduzione all Informatica Fabrizio Angiulli Codifica dell Informazione CODIFICA DI DATI E ISTRUZIONI Algoritmi Istruzioni che operano su dati Per scrivere un programma è necessario rappresentare dati

Dettagli

La teoria dell informazione

La teoria dell informazione Intelligenza artificiale, informatica, linguistica, scienze umane e molte altre discipline concorrono a formare il campo che oggi si definisce informatica umanistica Informatica Informazione+automatica

Dettagli

Codifica di Huffman e Lempel-Ziv-Welch

Codifica di Huffman e Lempel-Ziv-Welch Codifica di e Lempel-Ziv-Welch 1 ALBERTO BELUSSI ANNO ACCADEMICO 2009/2010 Tipi di compressione Senza perdita (lossless lossless): permettono di ricostruire perfettamente la rappresentazione del dato originale,

Dettagli

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore 10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore

Dettagli

Frequenza lettere in inglese

Frequenza lettere in inglese Frequenza lettere in inglese Sequenza random (entropia log 27 = 4.75): XFOML RXKHRJFFJUJ ZLPWCFWKCYJ FFJEYVKCQSGHYDĚ Sequenza basata su frequenze (entropia circa 4.1): OCRO HLI RGWR NMIELWIS EU LL NBNESEBYAĚ

Dettagli

Hardware, software, codifica informazioni

Hardware, software, codifica informazioni 1 LEZIONE 2 Hardware, software, codifica informazioni I DUE LIVELLI DELLE TECNOLOGIE INFORMATICHE (1/2) L hardware è la parte del computer che puoi prendere a calci; il software quella contro cui puoi

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Capacità del canale discreto Teoria dell informazione Sorgente Codificatore di sorgente

Dettagli

2) Codici univocamente decifrabili e codici a prefisso.

2) Codici univocamente decifrabili e codici a prefisso. Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il

Dettagli

UNIVERSITÀ DEGLI STUDI DI TRIESTE

UNIVERSITÀ DEGLI STUDI DI TRIESTE UNIVERSITÀ DEGLI STUDI DI TRIESTE Corso di Elaborazione Elettronica di Immagini CODIFICA DI IMMAGINI SENZA PERDITA Sommario 1 2 (Lossless JPEG, PNG, ecc.) 3 4 Motivazione Gli algoritmi per la codifica

Dettagli

Informazione binaria:

Informazione binaria: Informazione binaria: Codici di compressione Ingegneria Meccanica e dei Materiali Università degli Studi di Brescia Prof. Massimiliano Giacomin Una soluzione per le immagini: la tavolozza (palette) Spesso

Dettagli

Elaborazione dell informazione. Elaborazione dell informazione. Rappresentazione dei numeri INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042)

Elaborazione dell informazione. Elaborazione dell informazione. Rappresentazione dei numeri INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042) Elaborazione dell informazione INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042) Elaborazione di informazione prevede una codifica come: Dato: insieme di simboli rappresentati su un supporto Negli elaboratori:

Dettagli

Programmazione Greedy I codici di Huffman

Programmazione Greedy I codici di Huffman Programmazione Greedy I codici di Huffman Codifica dell informazione La rappresentazione ordinaria dell informazione prevede l impiego di un numero costante di bit; per esempio ad ogni carattere del codice

Dettagli

Compressione di dati: testi, immagini, suoni e video

Compressione di dati: testi, immagini, suoni e video 1 Compressione di dati: testi, immagini, suoni e video B. Cipolla V1.2 Gennaio 2008 2 Compressione: motivazioni Ridurre le dimensioni di oggetti digitali per Risparmiare spazio occupato tempo di trasmissione

Dettagli

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità

Dettagli

Numeri interi. Laboratorio di Calcolo Paola Gallo

Numeri interi. Laboratorio di Calcolo Paola Gallo Numeri interi Alfabeto binario anche il segno può essere rappresentato da 0 o 1 è indispensabile indicare il numero k di bit utilizzati Modulo Modulo e segno 1 bit di segno (0 positivo, 1 negativo) k 1

Dettagli

Informazione e sua rappresentazione: codifica. Il concetto di informazione

Informazione e sua rappresentazione: codifica. Il concetto di informazione Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Roberto Canonico Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso

Dettagli

Informazione e sua rappresentazione: codifica

Informazione e sua rappresentazione: codifica Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 3 Teoria dell informazione Sorgente Codificatore

Dettagli

Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni. Esercitazioni del corso di. Telecomunicazioni

Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni. Esercitazioni del corso di. Telecomunicazioni Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni Esercitazioni del corso di Telecomunicazioni Corso di laurea in Ingegneria Gestionale Anno Accademico 2013-2014 Ing. Alfonso

Dettagli

Parte Terza: Codificare l informazione. Fondamenti di informatica

Parte Terza: Codificare l informazione. Fondamenti di informatica Parte Terza: Codificare l informazione Fondamenti di informatica Informatica e telecomunicazione Cos è l informatica? Lo studio sistematico degli algoritmi che descrivono e trasformano l informazione:

Dettagli

CODIFICA DI CARATTERI

CODIFICA DI CARATTERI CODIFICA DI CARATTERI Associando un simbolo dell alfabeto ad ogni numero possiamo codificare tutte le lettere Codifica ASCII (American Standard Code for Information Interchange): Caratteri speciali, punteggiatura,

Dettagli

8 Derivati dell entropia

8 Derivati dell entropia (F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta

Dettagli

La codifica. dell informazione

La codifica. dell informazione La codifica dell informazione (continua) Codifica dei numeri Il codice ASCII consente di codificare le cifre decimali da 0 a 9 fornendo in questo modo un metodo per la rappresentazione dei numeri Il numero

Dettagli

La Rappresentazione Dell Informazione

La Rappresentazione Dell Informazione La Rappresentazione Dell Informazione Parte III I codici I Codici Un codice è una funzione che associa ad una sequenza di simboli un significato Un codice serve a: Permettere l elaborazione e la memorizzazione

Dettagli

Comunicazioni Elettriche Esercizi

Comunicazioni Elettriche Esercizi Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,

Dettagli

15 Informazione e Predizione

15 Informazione e Predizione (FX) Teoria dell Informazione e della Trasmissione 5 Informazione e Predizione Docente: Nicolò Cesa-Bianchi versione 4 maggio 03 Consideriamo una sorgente X, p. Dallo studio della codifica sorgente, sappiamo

Dettagli

Corso di Informatica

Corso di Informatica CdLS in Odontoiatria e Protesi Dentarie Corso di Informatica Prof. Crescenzio Gallo crescenzio.gallo@unifg.it Immagini in movimento 2 Immagini in movimento Memorizzazione mediante sequenze di fotogrammi.

Dettagli

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media

Dettagli

Informatica. Mario Pavone - Dept. Mathematics & Computer Science - University of Catania. Trasferimento. Ambiente esterno.

Informatica. Mario Pavone - Dept. Mathematics & Computer Science - University of Catania. Trasferimento. Ambiente esterno. Trasferimento Ambiente esterno Controllo Informatica Mario Pavone - Dept. Mathematics & Computer Science - University of Catania mpavone@dmi.unict.it Cos è l Informatica La scienza della rappresentazione

Dettagli

Conversione analogico-digitale

Conversione analogico-digitale Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Campionamento e quantizzazione A.A. 2004-05 Alberto Perotti DELEN-DAUIN Conversione analogico-digitale L elaborazione

Dettagli

Capitolo 3 Compressione sorgenti statiche

Capitolo 3 Compressione sorgenti statiche Capitolo 3 Compressione sorgenti statiche Elementi di codifica di sorgente Entropia Classificazione degli algoritmi Testo RLE Huffman statico Huffman dinamico Codifica aritmetica LZ Immagini Prestazioni

Dettagli

carattere a b c d e f cod. var

carattere a b c d e f cod. var Codici prefissi Un codice prefisso è un codice in cui nessuna parola codice è prefisso (parte iniziale) di un altra Ogni codice a lunghezza fissa è ovviamente prefisso. Ma anche il codice a lunghezza variabile

Dettagli

Analogico vs. Digitale. LEZIONE II La codifica binaria. Analogico vs digitale. Analogico. Digitale

Analogico vs. Digitale. LEZIONE II La codifica binaria. Analogico vs digitale. Analogico. Digitale Analogico vs. Digitale LEZIONE II La codifica binaria Analogico Segnale che può assumere infiniti valori con continuità Digitale Segnale che può assumere solo valori discreti Analogico vs digitale Il computer

Dettagli

Compressione di dati: testi, immagini, suoni e video. B. Cipolla

Compressione di dati: testi, immagini, suoni e video. B. Cipolla V1.3: Novembre 2008 1 Compressione di dati: testi, immagini, suoni e video B. Cipolla V1.3: Novembre 2008 2 Compressione: motivazioni Ridurre le dimensioni di oggetti digitali per Risparmiare spazio occupato

Dettagli

Corso di Laurea in Informatica Applicata Esame di Calcolo delle Probabilità e Statistica Prova scritta dell 11 gennaio 2007

Corso di Laurea in Informatica Applicata Esame di Calcolo delle Probabilità e Statistica Prova scritta dell 11 gennaio 2007 Corso di Laurea in Informatica Applicata Esame di Calcolo delle Probabilità e Statistica Prova scritta dell 11 gennaio 007 Primo esercizio Per una certa stampante S 1, la probabilità che un generico foglio

Dettagli

La codifica. dell informazione

La codifica. dell informazione 00010010101001110101010100010110101000011100010111 00010010101001110101010100010110101000011100010111 La codifica 00010010101001110101010100010110101000011100010111 dell informazione 00010010101001110101010100010110101000011100010111

Dettagli

La codifica binaria. Informatica B. Daniele Loiacono

La codifica binaria. Informatica B. Daniele Loiacono La codifica binaria Informatica B Introduzione Il calcolatore usa internamente una codifica binaria ( e ) per rappresentare: i dati da elaborare le istruzioni dei programmi eseguibili Fondamenti di codifica

Dettagli

Somma di numeri binari

Somma di numeri binari Fondamenti di Informatica: Codifica Binaria dell Informazione 1 Somma di numeri binari 0 + 0 = 0 0 + 1 = 1 1 + 0 = 1 1 + 1 = 10 Esempio: 10011011 + 00101011 = 11000110 in base e una base Fondamenti di

Dettagli

Unità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9.

Unità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9. Unità 30 Sommario Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi Bibliografia [Bel] -- [Ros] 9.3 [Pap] -- 1 Auto-informazione di un evento Prima di effettuare un esperimento

Dettagli

La codifica digitale

La codifica digitale La codifica digitale Codifica digitale Il computer e il sistema binario Il computer elabora esclusivamente numeri. Ogni immagine, ogni suono, ogni informazione per essere compresa e rielaborata dal calcolatore

Dettagli

Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale

Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale Capitolo 7 Strato Fisico- Codici correttori d errore e capacità di canale 1 Obiettivi: Codici correttori d errore correggere o rivelare errori nella trasmissione di segnali numerici (sequenze di simboli,

Dettagli

Un ripasso di aritmetica: Conversione dalla base 10 alla base 2

Un ripasso di aritmetica: Conversione dalla base 10 alla base 2 Un ripasso di aritmetica: Conversione dalla base 10 alla base 2 Dato un numero N rappresentato in base dieci, la sua rappresentazione in base due sarà del tipo: c m c m-1... c 1 c 0 (le c i sono cifre

Dettagli

Conversione Analogico/Digitale

Conversione Analogico/Digitale Conversione Analogico/Digitale 1 Fondamenti di Segnali e Trasmissione Conversione analogico/digitale (A/D) Per rappresentare numericamente un segnale continuo nel tempo e nelle ampiezze è necessario: Campionare

Dettagli

La Rappresentazione dell Informazione

La Rappresentazione dell Informazione La Rappresentazione dell Informazione Maurizio Palesi Sommario In questo documento sarà trattato il modo in cui, in un calcolatore, vengono rappresentati i vari generi di informazione (testi, numeri interi,

Dettagli

Campionamento e quantizzazione

Campionamento e quantizzazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Campionamento e quantizzazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Conversione analogico-digitale L elaborazione

Dettagli

Università degli Studi di Cagliari Facoltà di Scienze Corso di Laurea in Matematica

Università degli Studi di Cagliari Facoltà di Scienze Corso di Laurea in Matematica Università degli Studi di Cagliari Facoltà di Scienze Corso di Laurea in Matematica Corso di Elementi di Informatica Lezione 4 21 marzo 2017 Dott. A.A. 2016/2017 pgarau.unica@gmail.com 1 nel campo dell'informatica

Dettagli

R. Cusani, F. Cuomo: Telecomunicazioni - DataLinkLayer: Gestione degli errori, Aprile 2010

R. Cusani, F. Cuomo: Telecomunicazioni - DataLinkLayer: Gestione degli errori, Aprile 2010 1 11. Data link layer: codici di rilevazione di errore, gestione degli errori La rilevazione di errore Un codice a rilevazione di errore ha lo scopo di permettere al ricevente di determinare se vi sono

Dettagli

Informazione binaria: - codici binari, notazione binaria/ottale/esadecimale -

Informazione binaria: - codici binari, notazione binaria/ottale/esadecimale - Informazione binaria: - codici binari, notazione binaria/ottale/esadecimale - Percorso di Preparazione agli Studi di Ingegneria Università degli Studi di Brescia Docente: Massimiliano Giacomin ... Algoritmi,

Dettagli

Rappresentazione dell informazione. Graziano Pravadelli (2012)

Rappresentazione dell informazione. Graziano Pravadelli (2012) Rappresentazione dell informazione Graziano Pravadelli (2012) Rappresentare l informazione Per elaborare l informazione è necessario saperla rappresentare in una forma comprensibile per l esecutore Bisogna

Dettagli

Tecnologie Multimediali a.a. 2018/2019. Docente: DOTT.SSA VALERIA FIONDA

Tecnologie Multimediali a.a. 2018/2019. Docente: DOTT.SSA VALERIA FIONDA Tecnologie Multimediali a.a. 2018/2019 Docente: DOTT.SSA VALERIA FIONDA Rappresentazione digitale dell audio IL CAMPIONAMENTO E LA QUANTIZZAZIONE I dati multimediali vengono digitalizzati attraverso due

Dettagli

Il tema proposto può essere risolto seguendo due ipotesi:

Il tema proposto può essere risolto seguendo due ipotesi: Per la trattazione delle tecniche TDM, PM e Trasmissione dati si rimanda alle schede 41, 42, 43, 44, 45, 46, 47 e 48 del libro Le Telecomunicazioni del Prof. F. Dell Aquila. Il tema proposto può essere

Dettagli

Corso di Laurea in Ingegneria Informatica (Laurea on Line) Seconda Prova Intermedia

Corso di Laurea in Ingegneria Informatica (Laurea on Line) Seconda Prova Intermedia Milano, 17/1/ Corso di Laurea in Ingegneria Informatica (Laurea on Line) Corso di Fondamenti di Segnali e Trasmissione Seconda Prova Intermedia Carissimi studenti, scopo di questa seconda prova intermedia

Dettagli

Reti di Calcolatori a.a

Reti di Calcolatori a.a Corso di laurea in Informatica Reti di Calcolatori a.a. 2007-2008 Prof. Roberto De Prisco Capitolo 4 Trasmissione dei dati Trasmissione dei dati 2 Mezzo trasmissivo Trasporto un segnale I dati vanno convertiti

Dettagli

Fondamenti di Informatica

Fondamenti di Informatica Fondamenti di Informatica Linguag gi, Codifica e Rappresentazione dell Informazione P r o f. R a f fa e l e P i z zo l a n t e A. A. 2 0 1 6 / 1 7 Cosa abbiamo visto la volta scorsa Gli elaboratori sono

Dettagli

Algoritmi Greedy. Tecniche Algoritmiche: tecnica greedy (o golosa) Un esempio

Algoritmi Greedy. Tecniche Algoritmiche: tecnica greedy (o golosa) Un esempio Algoritmi Greedy Tecniche Algoritmiche: tecnica greedy (o golosa) Idea: per trovare una soluzione globalmente ottima, scegli ripetutamente soluzioni ottime localmente Un esempio Input: lista di interi

Dettagli

LABORATORIO DI INFORMATICA

LABORATORIO DI INFORMATICA LABORATORIO DI INFORMATICA Corso di laurea in Scienze della Formazione Primaria a.a.2014/2015 A cura del Prof. Sergio Miranda 2 LEZIONE N.4 Rappresentazione delle Informazioni IN SINTESI (RAPPRESENTAZIONE)

Dettagli

Tecnologie Multimediali a.a. 2017/2018. Docente: DOTT.SSA VALERIA FIONDA

Tecnologie Multimediali a.a. 2017/2018. Docente: DOTT.SSA VALERIA FIONDA Tecnologie Multimediali a.a. 2017/2018 Docente: DOTT.SSA VALERIA FIONDA Rappresentazione digitale dell audio IL CAMPIONAMENTO E LA QUANTIZZAZIONE I dati multimediali vengono digitalizzati attraverso due

Dettagli

Modulo 1 I numeri. Università degli Studi di Salerno

Modulo 1 I numeri. Università degli Studi di Salerno Modulo 1 I numeri Università degli Studi di Salerno Corso di Laurea in Scienze della Comunicazione Informatica generale Docente: Angela Peduto A.A. 2004/2005 Codifica dei numeri Il sistema di numerazione

Dettagli

L'Informazione e la sua Codifica. Maurizio Palesi

L'Informazione e la sua Codifica. Maurizio Palesi L'Informazione e la sua Codifica Maurizio Palesi 1 Obiettivo Il calcolatore è una macchina digitale Il suo linguaggio è composto da due soli simboli Gli esseri umani sono abituati a comunicare utlizzando

Dettagli

Matematica Lezione 22

Matematica Lezione 22 Università di Cagliari Corso di Laurea in Farmacia Matematica Lezione 22 Sonia Cannas 14/12/2018 Indici di posizione Indici di posizione Gli indici di posizione, detti anche misure di tendenza centrale,

Dettagli

Codifica/Compressione multimediale

Codifica/Compressione multimediale Corso di architetture multimediali Università di Milano Corso di laurea specialistica in Informatica per la Comunicazione A.A. 2012-2013 Codifica/Compressione multimediale Perché codificare? Codifica ->

Dettagli