Compressione dell Informazione (Parte I) Marco Gori
|
|
- Alberto Bonetti
- 6 anni fa
- Visualizzazioni
Transcript
1 ompressione di testo Marco Gori, Università di Siena 1 Compressione dell Informazione (Parte I) Fondamenti e Richiami di Teoria dell Informazione Marco Gori marco@dii.unisi.it
2 ompressione di testo Marco Gori, Università di Siena 2 Obiettivi Compressione di testo, rispondere a domande tipo con quanti bit si codifica un ffl normale testo in lingua italiana? programmi come compress, gzip,... ffl Compressione voce e immagini, formati mp2, mp3, jpeg,... ffl La grande utilità per la memorizzazione degli indici nell information retrieval ffl Ma prima, vorrei parlarvi di Odino e la Città Contesa!
3 ompressione di testo Marco Gori, Università di Siena 3 Odino e la Città Contesa Per capire bene le tecniche di compressione... qualche utile digressione... ffl La città contesa a dadi ffl Odino ( santo o scienziato?
4 ompressione di testo Marco Gori, Università di Siena 4 Esistono i Numeri Casuali? Potrebbe anche essere che si ignora la legge di generazione, ma la legge potrebbe esistere... ed essere (temporaneamente) ignorata! Adesso vi dimostro che i numeri casuali sono solo apparentemente tali,... dunque pseudo-casuali!... e che, forse, ODINO è solo uno scienziato!
5 ompressione di testo Marco Gori, Università di Siena 5 Una Legge di Generazione x k+1 := (ax k + c) mod m Teorema 1 Il periodo della sequenza fx k g è m se e solo se 1. c è relativamente primo rispetto a m 2. a mod p = 1 per ogni fattore primo p di m 3. a mod 4 = 1 se 4 è un fattore di m Esempio 1 x o := 1;m := 8;c := 7;a := 5 k g 7 k=0 = f1; 4; 3; 6; 5; 0; 7; 2g fx quindi,..., il x CICLO: = 8 1. Prova m = 16;c = 13;a = 11 con...
6 = X I(S) s2s ompressione di testo Marco Gori, Università di Siena 6 Casualità e Informazione Claude Shannon, 1948 Dunque, se Odino è uno scienziato, l informazione delle sorgenti è ZERO Forse, almeno per adesso, dobbiamo assumere che Odino è un Santo! Misura dell informazione p(s)logp(s) Sia n := jsj. Per simboli equiprobabili 8s : p(s) = 1 n e quindi I(S) = log n
7 =X L s2s ompressione di testo Marco Gori, Università di Siena 7 Codici Compatti Come si codifica in modo compatto? Se tutti i codici sono equiprobabili (massima entropia) solo Odino ci può aiutare! L unica codifica possibile corrisponde all ordinaria numerazione binaria. Altrimenti si usano ffl codici brevi per simboli molto frequenti ffl codici lunghi per simboli molto rari Diventa importante minimizzare p(s)`(s)
8 nx s=1 nx s=1 s=1 2 `(s)» L + logψ nx I(S) s=1 p(s)log 1 2 `(s)! ompressione di testo Marco Gori, Università di Siena 8 Quanto posso compattare? Considera q 1 ;:::;q n q Pn 0; s=1 q(s) = s 1. Siha j I(S) = 1 p(s)log» p(s) Scegliamo: q(s) e quindi q(s) = Pn2 `(s)
9 ompressione di testo Marco Gori, Università di Siena 9 Diseguaglianza di Kraft Definizione 1 Codifici istantanei: Non ci sono codici nel prefisso di altri codici. I codici istantanei si rappresentano naturalmente mediante TRIE Teorema 2 Condizione necessaria e sufficiente per i CODICI ISTANTANEI è che 2 `(s)» 1 s2s X Esempio 2 Per simboli equiprobabili 8s : `(s) = log n e si ha dunque l uguaglianza
10 X» s2s 2 dlog(1=p(s))e 2 log(1=p(s)) ompressione di testo Marco Gori, Università di Siena 10 Ci sono Codici Istantanei con l(s) = dlog(1=p(s)e) Considera un codice con lunghezza l(s) = dlog(1=p(s)e). Si verifica che è un CODICE ISTANTANEO. Infatti s2s X l(s) = X 2 s2s p(s) X = s2s = 1
11 » L + logψ nx I(S) s=1 2 `(s)! ompressione di testo Marco Gori, Università di Siena 11 Teorema di Shannon Lower Bound Lunghezza Media Codici L Teorema 3 Per codici istantanei I(S)» L Dunque: Non si possono creare codici con lunghezza minore dell entropia
12 = X L s2s X = p(s)dlog(1=p(s)e s2s 1 +X» s2s ompressione di testo Marco Gori, Università di Siena 12 Upper Bound per L p(s)l(s) p(s)log(1=p(s)) = 1 + I(S) Teorema 4 Per codici con l(s) = dlog(1=p(s)e) L» 1 + I(S) Pertanto I(S)» L» 1 + I(S)
13 ompressione di testo Marco Gori, Università di Siena 13 Modelli per Compressione Modello informazione Codificatore informazione compressa Decodificatore informazione L efficienza della compressione dipende in modo fondamentale dal MODELLO! Ovviamente si vorrebbe raggiungere lo scienziato (dio) Odino!
14 ompressione di testo Marco Gori, Università di Siena 14 Un Esempio di Modello b (1/2) a (1/2) 1 2 b (1/100) a (99/100) Ad ogni simbolo corrisponde la probabilità di emissione nello stato: Dallo stato 1 sono equiprobabili, da 2 viene quasi sempre il simbolo a ffl Modelli statici ffl Modelli adattivi
15 ompressione di testo Marco Gori, Università di Siena 15 Codifica di Huffman Un esercizio in classe... Proc. of the IRE, v40, pp , Pochi bit, codici molto frequenti, tanti bit codifici rari. Simbolo Codice log p dlog pe Probabilità a b c d e f g I(S) = 2:5464;L = 2:6 - siamo vicini all ottimo!
16 ompressione di testo Marco Gori, Università di Siena 16 L Albero di Huffman a b c d e f g Nota che ho 2 n 1 possibili scelta per il codifce di Huffman!
17 ompressione di testo Marco Gori, Università di Siena 17 Codifica di Huffman: Formalizzazione Come si codifica (costruzione dell albero) 1. T! f(s 1 ;p 1 );:::;(s n ;p n )g 2. Ripeti n 1 volte (a) Scegli ogni coppia (s i ;s j ) con la proprietà 8h; k 6= i; j j p i + p j» p h + p k (b) Sostituisci (s i ;p i ); (s j ;p j ) con (fs i ;s j g;p i + p j ) 3. `i ψ jp(r;s i )j (lunghezza cammino dalla radice) Il passo 3 restituisce la lungezza `i del codice i; la rappresentazione del cammino P(r;s i ) dalla radice r al simbolo restituisce il codice.
18 ompressione di testo Marco Gori, Università di Siena 18 Codifica di Huffman: Complessità Approccio naive 1. Operazione dominante: O(n) operare volte la scelta delle (s coppie ;s j ) i con la proprietà 2. Ogni scelta sull insieme T k costa O(k 2 ) 8h; k 6= i; j j p i + p j» p h + p k. 3. Il costo complessivo per n 1 le iterate O(n risulta ) 3 Si può fare di meglio? Ovviamente si!
19 ompressione di testo Marco Gori, Università di Siena 19 Il limite Inferiore O(n) Si può raggiungere O(n) come complessità temporale (vedi schema) A a, 6 b, 5 c, 4 d, 2 e, 1 a, 6 b, 5 B c4, 3 d, 2 e, 1 c4, d, 2 e, 1 C D E a, 6 b, 5 3 a, 11 6 b, 5 c4, 7 3 d, 2 e, 1 a, 11 6 b, c4, a b c d e d, 2 e, 1
20 ompressione di testo Marco Gori, Università di Siena 20 Bounds O(n log n) Ragionevole bound: Infatti ho il problema di piazzare l heap in posizione ordinata nella lista... Dettagli nelle esercitazioni
21 ompressione di testo Marco Gori, Università di Siena 21 Come di decodifica? L albero di Huffman contiene tutte le informazioni necessarie... ma si deve ffl memorizzare e si accede ai codici dalle foglie Nessun problema per vocabolari con pochi simboli... ma se mi baso su parole ffl allora l accesso ai codici può creare seri problemi di efficienza. Ma serve davvero avere codici con buchi come quelli creati dall algoritmo di ffl Huffman? Idea: Prendi dello schema di Huffman il calcolo della lunghezza ` i dei codici e costruisci gruppi di ordinari codici binari con quella determinata lunghezza. Poi aggiusta il problema del prefisso
22 ompressione di testo Marco Gori, Università di Siena 22 Codifici Canonici di Huffman Simbolo Frequenza Relativa Codice 1 Codice Canonico a b c d e f Codice1: un ordinaria codifica di Huffman 2. Codice canonico: ho due gruppi di lunghezze: 3 e 2. Uso codici binari e calcolo un offset per eliminare prefissi.
23 ompressione di testo Marco Gori, Università di Siena 23 L ottimalità del Codice di Huffman Il codice di Huffman è un codice prefix-free ottimo! Discuteremo meglio questo punto la prossima lezione Per adesso, considera il caso in cui le probabilità del tipo 2 k... In questo caso è facile calcolare le lunghezze del codice di Huffman (esercizio)
24 ompressione di testo Marco Gori, Università di Siena 24 Riferimenti per la lezione I.H. Witten, A. Moffat, T.C. Bell, Managing Gigabytes, Morgan Kaufmann, 1999 ffl (chapt. 2, text compression) pp ci sono le idee di base su informazione e compressione e l agoritmo di Hufmann Per i complementi su strutture dati e algoritmi ffl C. Batini et al, Fondamenti di Programmazione dei Calcolatori Elettronici, Franco Angeli Editore, 1990 Si trovano i concetti fondamentali su algoritmi e strutture dati. Per chi vuolo approfondire la gestione di tabelle ffl Fabrizio Luccio, Strutture, Linguaggi, Sintassi Boringhieri, 1978, pp Contiene una chiara presentazione introduttiva sulle tabelle con particolare riferimento alle tecniche hash
25 ompressione di testo Marco Gori, Università di Siena 25 Per chi vule approfondire... D.Knuth, Seminumerical Algorithms, vo. 2 pp descrive il metodo ffl congruenziale per la generazione dei numeri casuali con molti dettagli tecnici. Contiene il teorema per la produzione di cicli di dimensione massima. Un classico per chi vuole il punto di partenza ffl C.E. Shannon and W. Weaver, The mathematical theory of communication, Univ. of Illinois Press, 1949 (esistono versioni italiane ad esempio pubblicate da Etas Kompass) Diseguaglianza di Kraft: dettagli ulteriori e dimostrazione del teorema a ffl Un miniera di riferimenti validi anche per altri algoritmi di compressione testo ffl (
Teoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
Dettagli1 Esercizio - caso particolare di ottimalità
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
Dettagli2) Codici univocamente decifrabili e codici a prefisso.
Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
DettagliAlgoritmi Greedy. Tecniche Algoritmiche: tecnica greedy (o golosa) Un esempio
Algoritmi Greedy Tecniche Algoritmiche: tecnica greedy (o golosa) Idea: per trovare una soluzione globalmente ottima, scegli ripetutamente soluzioni ottime localmente Un esempio Input: lista di interi
DettagliLunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27
Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza
DettagliTEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
DettagliDizionari Liste invertite e Trie
Dizionari Liste invertite e Trie Lucidi tratti da Crescenzi Gambosi Grossi, Strutture di dati e algoritmi Progettazione, analisi e visualizzazione Addison-Wesley, 2006 Dizionari Universo U delle chiavi
DettagliCodifica di Huffman e Lempel-Ziv-Welch A L B E R T O B E L U S S I A N N O A C C A D E M I C O /
Codifica di Huffman e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente
DettagliTeoria dell Informazione
Corso di Laurea Magistrale in Scienze dell Informazione Editoriale, Pubblica e Sociale Teoria dell Informazione Cosa è l informazione L informazione è qualcosa che si possiede e si può dare ad un altro
DettagliAlgoritmi e Strutture Dati Laboratorio 15/12/2008. Daniele Loiacono
Algoritmi e Strutture Dati Laboratorio 15/12/2008 Problema della compressione Rappresentare i dati in modo efficiente Impiegare il numero minore di bit per la rappresentazione Goal: risparmio spazio su
Dettagli1 Entropia: Riepilogo
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 30 maggio 2006 Argomento: Entropia. Costruzione del modello di una sorgente. Codifica di Huffman. Scribes: Galato Filippo, Pesce Daniele,
DettagliProgrammazione Greedy I codici di Huffman
Programmazione Greedy I codici di Huffman Codifica dell informazione La rappresentazione ordinaria dell informazione prevede l impiego di un numero costante di bit; per esempio ad ogni carattere del codice
DettagliIntroduzione alla codifica entropica
Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta
DettagliALGORITMI CORSO DI STUDIO IN INFORMATICA (laurea triennale) UNIVERSITÀ DEGLI STUDI DI CATANIA ANNO ACCADEMICO 2014/15
ANNO ACCADEMICO 2014/15 1 a prova in itinere 13 gennaio 2015 ESERCIZIO 1 Si risolva l equazione di ricorrenza al variare del parametro reale a>1. T (n) = 27 n a T + n 2 log n a ESERCIZIO 2 Si ordinino
Dettagli2.2 Alberi di supporto di costo ottimo
. Alberi di supporto di costo ottimo Problemi relativi ad alberi hanno numerose applicazioni: progettazione di reti (comunicazione, teleriscaldamento,...) memorizzazione compatta di sequenze (DNA) diffusione
Dettagli2.2 Alberi di supporto di costo ottimo
. Alberi di supporto di costo ottimo Problemi relativi ad alberi hanno numerose applicazioni: progettazione di reti (comunicazione, teleriscaldamento,...) protocolli reti IP memorizzazione compatta di
DettagliLa teoria dell informazione
La teoria dell informazione Perché la teoria dell informazione è importante per la linguistica computazionale 2005 Isabella Chiari 1 Informatica Informazione+automatica = informatica Trattamento automatico
DettagliUnità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9.
Unità 30 Sommario Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi Bibliografia [Bel] -- [Ros] 9.3 [Pap] -- 1 Auto-informazione di un evento Prima di effettuare un esperimento
DettagliAlgoritmi di ordinamento
Algoritmi di ordinamento! Selection Sort! Quick Sort! Lower bound alla complessità degli algoritmi di ordinamento Ordinamento 1 Selection Sort SelectionSort(dati[]) { for (i=0; idati.length-1; i++) { min
DettagliCompressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.
Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia
DettagliCorso di. Fondamenti di Informatica 2 e Architettura degli Elaboratori
Corso di Fondamenti di Informatica 2 e Architettura degli Elaboratori Per corsi di laurea in Ingegneria Automatica e Telecomunicazioni Elettronica e Biomedica Contattare il Docente Gradenigo Posta elettronica:
Dettaglicarattere a b c d e f cod. var
Codici prefissi Un codice prefisso è un codice in cui nessuna parola codice è prefisso (parte iniziale) di un altra Ogni codice a lunghezza fissa è ovviamente prefisso. Ma anche il codice a lunghezza variabile
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
DettagliINFORMATICA SANITARIA Domande ed Esercizi di Preparazione all Esame (Parti 8-17)
Università degli Studi di Padova Corso di Laurea Specialistica in Bioingegneria A.A. 2006-2007 2007 INFORMATICA SANITARIA Domande ed Esercizi di Preparazione all Esame (Parti 8-17) Giovanni Sparacino Dipartimento
DettagliAlgoritmi e strutture dati. Codici di Huffman
Algoritmi e strutture dati Codici di Huffman Memorizzazione dei dati Quando un file viene memorizzato, esso va memorizzato in qualche formato binario Modo più semplice: memorizzare il codice ASCII per
DettagliProblemi e algoritmi. Il che cosa e il come. F. Damiani - Alg. & Lab. 04/05 (da U. de' Liguoro - Alg. & Spe. 03/04)
Problemi e algoritmi Il che cosa e il come Il che cosa ed il come Problema: descrive che cosa si deve calcolare Specifica (di un algoritmo): descrive che cosa calcola un algoritmo Algoritmo: descrive come
DettagliIngegneria della Conoscenza e Sistemi Esperti Lezione 9: Evolutionary Computation
Ingegneria della Conoscenza e Sistemi Esperti Lezione 9: Evolutionary Computation Dipartimento di Elettronica e Informazione Politecnico di Milano Evolutionary Computation Raggruppa modelli di calcolo
DettagliProblemi e algoritmi. Il che cosa ed il come. Il che cosa ed il come. Il che cosa e il come
Problemi e algoritmi Il che cosa e il come Problema: descrive che cosa si deve calcolare Specifica (di un algoritmo): descrive che cosa calcola un algoritmo Algoritmo: descrive come effettuare un calcolo
DettagliEntropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...
Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata
DettagliTecniche di compressione senza perdita
FONDAMENTI DI INFORMATICA Prof. PIER LUCA MONTESSORO Facoltà di Ingegneria Università degli Studi di Udine Tecniche di compressione senza perdita 2000 Pier Luca Montessoro (si veda la nota di copyright
DettagliAlberi di copertura. Mauro Passacantando. Dipartimento di Informatica Largo B. Pontecorvo 3, Pisa
Alberi di copertura Mauro Passacantando Dipartimento di Informatica Largo B. Pontecorvo, Pisa mpassacantando@di.unipi.it M. Passacantando TFA 0/ - Corso di Ricerca Operativa Università di Pisa / 9 Definizioni
DettagliCODIFICA DI SORGENTE. Schematizzazione generale sistema di comunicazione
CODIFICA DI SORGENTE Informazione associata a sorgenti digitali, entropia Codifica di sorgenti senza memoria Codifica di sorgenti con memoria CODIFICA DI SORGENTE Schematizzazione generale sistema di comunicazione
DettagliDefinizioni. Soluzione ottima: migliore soluzione possibile Soluzione ottima localmente: soluzione ottima in un dominio contiguo. Il paradigma greedy
Il paradigma greedy Paolo Camurati, Fulvio Corno, Matteo Sonza Reorda Dip. Automatica e Informatica Politecnico di Torino Definizioni Soluzione ottima: migliore soluzione possibile Soluzione ottima localmente:
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliCosa è l Informatica?
Cosa è l Informatica? Scienza degli elaboratori elettronici (Computer Science) Scienza dell informazione Scienza della rappresentazione, memorizzazione, elaborazione e trasmissione dell informazione Elaboratore
DettagliFILE E INDICI Architettura DBMS
FILE E INDICI Architettura DBMS Giorgio Giacinto 2010 Database 2 Dati su dispositivi di memorizzazione esterni! Dischi! si può leggere qualunque pagina a costo medio fisso! Nastri! si possono leggere le
DettagliAlgoritmi e Strutture Dati - Prof. Roberto De Prisco A.A Seconda prova di verifica (4 Febbraio 2005)
Algoritmi e Strutture Dati - Prof. Roberto De Prisco A.A. 004-00 Seconda prova di verifica (4 Febbraio 00) Laurea/Diploma in Informatica Università di Salerno Nome e Cognome: Matricola: 1 3 4 TOTALE /1
DettagliSorgenti discrete e informazione
Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un
DettagliSommario. Lempel-Ziv coding e varianti Run-length encoding. 1 Introduzione. 2 Codifica mediante predittori (Lossless JPEG, PNG, ecc.
Sommario Lempel-Ziv coding e varianti 1 2 Codifica mediante predittori (Lossless JPEG, PNG, ecc.) 3 Lempel-Ziv coding e varianti 4 Lempel-Ziv coding e varianti Il codice di Huffman visto prima sfrutta
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con
DettagliUNIVERSITA DEGLI STUDI DI PERUGIA
UNIVERSITA DEGLI STUDI DI PERUGIA REGISTRO DELLE LEZIONI E DELLE ALTRE ATTIVITÀ DIDATTICHE Anno accademico 2006-2007 Dott./Prof. Pinotti Maria Cristina Settore scientifico-disciplinare INF01 Facoltà Scienze
DettagliTRIE (albero digitale di ricerca)
TRIE (albero digitale di ricerca) Struttura dati impiegata per memorizzare un insieme S di n stringhe (il vocabolario V). Tabelle hash le operazioni di dizionario hanno costo O(m) al caso medio per una
Dettagli1) Codici convoluzionali. 2) Circuito codificatore. 3) Diagramma a stati e a traliccio. 4) Distanza libera. 5) Algoritmo di Viterbi
Argomenti della Lezione 1) Codici convoluzionali 2) Circuito codificatore 3) Diagramma a stati e a traliccio 4) Distanza libera 5) Algoritmo di Viterbi 1 Codici convoluzionali I codici convoluzionali sono
DettagliMacchine RAM. API a.a. 2013/2014 Gennaio 27, 2014 Flavio Mutti, PhD
Macchine RAM API a.a. 2013/2014 Gennaio 27, 2014 Flavio Mutti, PhD 2 Macchina RAM 3 Esercizio Si consideri il linguaggio definito da: L = wcw R w a, b } 1. Codificare un programma RAM per il riconoscimento
DettagliA lezione sono stati presentati i seguenti passi per risolvere un problema:
Calcolo delle radici di un polinomio Problema: Dati i coefficienti a,b,c di un polinomio di 2 grado della forma: ax^2 + bx + c = 0, calcolare le radici. A lezione sono stati presentati i seguenti passi
DettagliMemorizzazione di una relazione
Heap file File ordinati Indici o Hash o B+-tree Costo delle operazioni algebriche Simboli: NP: numero di pagine NR: numero record LP: lunghezza pagina LR: lunghezza record Memorizzazione di una relazione
Dettagli1 L algoritmo LZ Descrizione generale
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 6 giugno 2006 Argomento: Tecniche di compressione con dizionario Scribes: Fabrizio Lana, Daniele Masato e Luca Polin 1 L algoritmo LZ77
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliIndice. A Riassunto formule principali sulla Teoria dell Informazione per sorgenti135
Indice 8 Teoria dell Informazione per sorgenti 123 8.1 Introduzione.................................... 123 8.2 Codifica di sorgente............................... 123 8.2.1 Classificazione tecniche di
DettagliEsercitazione 4 Algoritmi greedy
Esercitazione 4 Algoritmi greedy Problema 9 (es.2 appello 18/02/2016 modulo 2) Nel museo Tor VerLouvre c è un lungo corridoio rettilineo in cui sono esposti n quadri nelle posizioni 0 q 1 < q 2 < q 3
DettagliGestione della produzione e della supply chain Logistica distributiva
Gestione della produzione e della supply chain Logistica distributiva Paolo Detti Dipartimento di Ingegneria dell Informazione e Scienze Matematiche Università di Siena Convergenza dell algoritmo Se non
DettagliInformatica. Mario Pavone - Dept. Mathematics & Computer Science - University of Catania. Trasferimento. Ambiente esterno.
Trasferimento Ambiente esterno Controllo Informatica Mario Pavone - Dept. Mathematics & Computer Science - University of Catania mpavone@dmi.unict.it Cos è l Informatica La scienza della rappresentazione
DettagliSeconda lezione. Rivediamo un po di definizioni principali Proseguiremo con nuovi codici
Seconda lezione Rivediamo un po di definizioni principali Proseguiremo con nuovi codici 1 Libri di testo Struttura, Organizzazione e progetto dei calcolatori, Patterson e Hennessy, (Jackson Libri) consigliato
DettagliScaletta. Cenni di computabilità. Cosa fa un programma? Definizioni (1/2) Definizioni (2/2) Problemi e domande. Stefano Mizzaro 1
Scaletta Cenni di computabilità Stefano Mizzaro Dipartimento di matematica e informatica Università di Udine http://www.dimi.uniud.it/mizzaro/ mizzaro@uniud.it Programmazione, lezione 23 27 novembre 2013
DettagliEsercizi Capitolo 7 - Hash
Esercizi Capitolo 7 - Hash Alberto Montresor 19 Agosto, 2014 Alcuni degli esercizi che seguono sono associati alle rispettive soluzioni. Se il vostro lettore PDF lo consente, è possibile saltare alle rispettive
DettagliAlgoritmi in C++ (seconda parte)
Algoritmi in C++ (seconda parte) Introduzione Obiettivo: imparare a risolvere problemi analitici con semplici programmi in C++. Nella prima parte abbiamo imparato: generazione di sequenze di numeri casuali
DettagliUNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Studi in Ingegneria Informatica Ricerca Operativa 1 Seconda prova intermedia 17 giugno 2013
A UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Studi in Ingegneria Informatica Ricerca Operativa Seconda prova intermedia 7 giugno 0 Nome: Cognome: Matricola: Orale /06/0 ore aula N Orale 0/07/0 ore aula N
Dettagli01GSZ Tecniche di protezione dell informazione
Politecnico di Torino III Facoltà Ingegneria dell informazione 01GSZ Tecniche di protezione dell informazione CORSO DI LAUREA SPECIALISTICA IN INGEGNERIA DELLE TELECOMUNICAZIONI PRIMO ANNO, IV PERIODO
DettagliAppunti del corso di Informatica 1 (IN110 Fondamenti) 7 Grafi e alberi: introduzione
Università di Roma Tre Dipartimento di Matematica e Fisica Corso di Laurea in Matematica Appunti del corso di Informatica (IN0 Fondamenti) Grafi e alberi: introduzione Marco Liverani (liverani@mat.uniroma.it)
DettagliALGORITMI: PROPRIETÀ FONDAMENTALI
ALGORITMI: PROPRIETÀ FONDAMENTALI Non si può risolvere un problema senza prima fissare un insieme di azioni, i di mosse elementari possibili per l'esecutore. Bisogna conoscerne le caratteristiche, le mosse
DettagliHeap e code di priorità
Heap e code di priorità Violetta Lonati Università degli studi di Milano Dipartimento di Scienze dell Informazione Laboratorio di algoritmi e strutture dati Corso di laurea in Informatica AA 2009/2010
DettagliAlgoritmi e strutture dati
Algoritmi e Strutture Dati Cammini minimi Definizioni Sia G = (V,E) un grafo orientato pesato sugli archi. Il costo di un cammino π = è dato da: Un cammino minimo tra una coppia di
Dettaglix 1 x 2 x 3 x 5 La base iniziale è B 0 = I e risulta x B 0 = , x N 0 = Iterazione 0. Calcolo dei costi ridotti. γ 0 = c N 0 (N 0 ) T c B 0 =
56 IL METODO DEL SIMPLESSO 7.4 IL METODO DEL SIMPLESSO In questo paragrafo sono riportati alcuni esercizi risolti sul metodo del simplesso. Alcuni sono risolti utilizzando la procedura di pivot per determinare,
Dettagli4.3: La Codifica dei Suoni e dei Video
Rappresentazione dei Dati Multimediali Prof. Alberto Postiglione Università degli Studi di Salerno Dipartimento di Scienze Aziendali - Management & Innovation Systems 4.3: La Codifica dei Suoni e dei Video
DettagliProblema del cammino minimo
Algoritmi e Strutture di Dati II Problema del cammino minimo Un viaggiatore vuole trovare la via più corta per andare da una città ad un altra. Possiamo rappresentare ogni città con un nodo e ogni collegamento
DettagliInformatica, Algoritmi, Linguaggi
Elementi di Informatica e Applicazioni Numeriche T Informatica, Algoritmi, Linguaggi Cos'è l'informatica? Che cos'è l'informatica? Cos'è l'informatica? Che cos'è l'informatica? Dell'informatica possiamo
DettagliAlgoritmi e Strutture Dati
Introduzione al corso di Algoritmi e Strutture Dati Luigi Pontieri Il nome del corso: Algoritmi e Strutture Dati Algoritmo: metodo per la risoluzione di problemi di elaborazione di informazioni, espresso
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica ing. Alessandro Cilardo Corso di Laurea in Ingegneria Biomedica Il concetto di informazione Qualunque informazione è definita
DettagliAlgoritmi e Strutture Dati. Capitolo 4 Ordinamento: Selection e Insertion Sort
Algoritmi e Strutture Dati Capitolo 4 Ordinamento: Selection e Insertion Sort Ordinamento Dato un insieme S di n elementi presi da un dominio totalmente ordinato, ordinare S in ordine non crescente o non
DettagliMETODI DELLA RICERCA OPERATIVA
Università degli Studi di Cagliari FACOLTA' DI INGEGNERIA CORSO DI METODI DELLA RICERCA OPERATIVA Dott.ing. Massimo Di Francesco (mdifrance@unica.it) i i Dott.ing. Maria Ilaria Lunesu (ilaria.lunesu@unica.it)
DettagliINFORMATICA. Scienza dei calcolatori elettronici (computer science) Scienza dell informazione (information science)
INFORMATICA Cosa è l informatica Scienza dei calcolatori elettronici (computer science) Scienza dell informazione (information science) E una scienza E una tecnologia Cosa può essere automatizzato nell
DettagliRicerca Operativa. G. Liuzzi. Lunedí 20 Aprile 2015
1 Lunedí 20 Aprile 2015 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR Rilassamento di un problema Rilassare un problema di Programmazione Matematica vuol dire trascurare alcuni (tutti i)
DettagliSommario. Tabelle ad indirizzamento diretto e hash Funzioni Hash
Funzioni Hash Sommario Tabelle ad indirizzamento diretto e hash Funzioni Hash Requisiti Metodo della divisione Metodo della moltiplicazione Funzione Hash Universale La ricerca Talvolta si richiede che
DettagliLa codifica digitale
La codifica digitale Codifica digitale Il computer e il sistema binario Il computer elabora esclusivamente numeri. Ogni immagine, ogni suono, ogni informazione per essere compresa e rielaborata dal calcolatore
DettagliIl calcolatore. Architettura di un calcolatore (Hardware)
Il calcolatore Prima parlare della programmazione, e' bene fare una brevissima introduzione su come sono strutturati i calcolatori elettronici. I calcolatori elettronici sono stati progettati e costruiti
DettagliInformatica di Base 1 Linea 1
Informatica di Base 1 Linea 1 Jianyi Lin Dipp. di Matematica e Scienze dell Informazione Università degli Studi di Milano, Italia jianyi.lin@unimi.it a.a. 2011/12 1 c 2011 J.Lin, M. Monga. Creative Commons
DettagliLaurea triennale - Comunicazione&DAMS - UNICAL. Dr. Annamaria Bria 1
Corso di INFORMATICA Laurea triennale - Comunicazione&DAMS Dr. Annamaria Bria 1 1 Dipartimento di Matematica Università della Calabria Corso di laurea intercalsse in COMUNICAZIONE&DAMS www.mat.unical.it/bria/informatica2011-12.html
DettagliOrganizzazione Fisica dei Dati (Parte II)
Modello Fisico dei Dati Basi di Dati / Complementi di Basi di Dati 1 Organizzazione Fisica dei Dati (Parte II) Angelo Montanari Dipartimento di Matematica e Informatica Università di Udine Modello Fisico
DettagliCODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore
DettagliRappresentazione dell Informazione
5 Giorgio Porcu - Aggiornamennto 5 Giorgio Porcu - Aggiornamennto ISTITUTO TECNICO SECONDO BIENNIO Rappresentazione dell Informazione GIORGIO PORCU www.thegiorgio.it Sommario Sistemi posizionali Sistema
DettagliUNIVERSITÀ DEGLI STUDI DI TRIESTE
UNIVERSITÀ DEGLI STUDI DI TRIESTE Corso di Elaborazione Elettronica di Immagini CODIFICA DI IMMAGINI SENZA PERDITA Sommario 1 2 (Lossless JPEG, PNG, ecc.) 3 4 Motivazione Gli algoritmi per la codifica
DettagliCompressione di dati: testi, immagini, suoni e video
1 Compressione di dati: testi, immagini, suoni e video B. Cipolla V1.2 Gennaio 2008 2 Compressione: motivazioni Ridurre le dimensioni di oggetti digitali per Risparmiare spazio occupato tempo di trasmissione
DettagliAlbero di Riscorsione
Albero di Riscorsione Albero di ricorsione Un albero di ricorsione è un modo di visualizzare cosa accade in un algoritmo divide et impera L etichetta della radice rappresenta il costo non ricorsivo della
DettagliApprocci esatti per il job shop
Approcci esatti per il job shop Riferimenti lezione: Carlier, J. (1982) The one-machine sequencing problem, European Journal of Operational Research, Vol. 11, No. 1, pp. 42-47 Carlier, J. & Pinson, E.
DettagliCodifica dell Informazione
Introduzione all Informatica Fabrizio Angiulli Codifica dell Informazione CODIFICA DI DATI E ISTRUZIONI Algoritmi Istruzioni che operano su dati Per scrivere un programma è necessario rappresentare dati
DettagliLa Rappresentazione dell Informazione
La Rappresentazione dell Informazione Maurizio Palesi Sommario In questo documento sarà trattato il modo in cui, in un calcolatore, vengono rappresentati i vari generi di informazione (testi, numeri interi,
DettagliPrincipali strumenti per lo sviluppo di algoritmi in pascal-like. concetti universali presenti in tutti i linguaggi di programmazione
LABORATORIO DI PROGRAMMAZIONE Corso di laurea in matematica 12 LA COMPLESSITA COMPUTAZIONALE Marco Lapegna Dipartimento di Matematica e Applicazioni Universita degli Studi di Napoli Federico II wpage.unina.it/lapegna
DettagliArgomenti trattati. Informazione Codifica Tipo di un dato Rappresentazione dei numeri Rappresentazione dei caratteri e di altre informazioni
Argomenti trattati Informazione Codifica Tipo di un dato Rappresentazione dei numeri Rappresentazione dei caratteri e di altre informazioni Informazione mi dai il numero di Andrea? 0817651831 Il numero
DettagliLezione 5. Giuditta Franco. 19 Febbraio 2008
Outline Lezione 5 Dipartimento di Informatica, Università di Verona 19 Febbraio 2008 Talk Outline Outline 1. 2. 3. Come costruire un Un esempio introduttivo L albero dei suffissi di una data stringa è
DettagliTEORIE E TECNICHE PER LA COMUNICAZIONE DIGITALE
TEORIE E TECNICHE PER LA COMUNICAZIONE DIGITALE Riccardo Dondi Dipartimento di Scienze dei linguaggi, della comunicazione e degli studi culturali Università degli Studi di Bergamo Informazione sul corso
DettagliCORSO DI PROGRAMMAZIONE E INFORMATICA GENERALE 1
CORSO DI PROGRAMMAZIONE E INFORMATICA GENERALE 1 Lezione 1 (Introduzione e Definizioni) Docenti Docente: Prof. Michele Colajanni Lezioni (Aula IV): martedì 10:00-12:45 Esercitazioni (Laboratorio): mercoledì
DettagliRappresentazione dell informazione
Rappresentazione dell informazione Problema che coinvolge aspetti filosofici Interessa soprattutto distinguere informazioni diverse Con un solo simbolo è impossibile Pertanto l insieme minimo è costituito
Dettagli2.3.1 Generazione di numeri pseudocasuali con distribuzione uniforme
GENERAZIONE DI OSSERVAZIONI CASUALI 145 2.3 GENERAZIONE DI OSSERVAZIONI CASUALI Una volta determinate le distribuzioni di input, la simulazione dovrà generare durante ogni esecuzione osservazioni casuali
DettagliProva di Laboratorio del [ Corso A-B di Programmazione (A.A. 2004/05) Esempio: Media Modalità di consegna:
Prova di Laboratorio del 12.1.2005 [durata 90 min.] Corso A-B di Programmazione (A.A. 2004/05) 1. Leggere da tastiera un insieme di numeri interi ed inserirli in un vettore A 2. Calcolare tramite una funzione
DettagliAlgoritmi e Strutture Dati
Introduzione al Corso Emanuela Merelli Università di Camerino 23 ottobre 2017 Struttura del corso Il corso consiste di 42 ore di lezione 2 ore di ricevimento settimanali Il corso viene valutato in 6 CFU
DettagliRichiami di informatica e programmazione
Richiami di informatica e programmazione Il calcolatore E una macchina usata per Analizzare Elaborare Collezionare precisamente e velocemente una grande quantità di informazioni. Non è creativo Occorre
DettagliIndici multilivello dinamici (B-alberi e B + -alberi) Alberi di ricerca - 1. Un esempio. Alberi di ricerca - 3. Alberi di ricerca - 2
INDICI MULTILIVELLO DINAMICI Indici multilivello dinamici (B-alberi e B + -alberi) Gli indici multilivello dinamici (B-alberi e B + -alberi) sono casi speciali di strutture ad albero. Un albero è formato
DettagliConcetti Introduttivi. Il Computer
Concetti Introduttivi Il Computer Introduzione Informazione Notizia, dato o elemento che consente di avere conoscenza più o meno esatta di fatti, situazioni, modi di essere Messaggio Tutto ciò che porta
Dettagli