Basi Dati Multimediali - 68A6 Midterm 3 giugno 2004
|
|
- Gianpaolo Ferrario
- 4 anni fa
- Visualizzazioni
Transcript
1 Basi Dati Multimediali - 68A6 Midterm giugno 2004 Nome, Cognome, Numero di Matricola Le risposte devono essere inserite nel box eventualmente disegnato. Allegare anche i fogli per lo sviluppo delle domande. In particolare i fogli allegati saranno giudicati per le domande aperte. Il simbolo significa che l esercizio è facoltativo. domande a risposta chiusa (totale 12 punti, facoltative punti) 1. punti 1.5 La compressione di testo con le tecniche oggi più sosfisticate raggiunge una dimensione che, rispetto a quella originale, è dell ordine del: (a) 50% (b) 80% (c) 20% (d) 0% (mediante applicazione iterata di opportuni programmi di compressione) Risposta: c 2. punti 1.5 Due immagini (non necessariamente con lo stesso contenuto) sono visualizzate in due finestre di un computer usando complessivamente lo stesso numero di pixels. Esse sono poi memorizzate in due files rispettivamente in formato GIF e JPEG. Dato che il formato GIF è un formato senza perdita, mentre il JPEG risparmia spazio perdendo di qualità, è vero il file in formato GIF occupa sicuramente sempre meno spazio di quello in formato JPEG? (a) Si; (b) No; (c) Non si può rispondere con i dati assegnati. Risposta: b. punti Si consideri la diseguaglianza di Kraft 1
2 2 l(s) 1. s S Se la sorgente è composta da n simboli equiprobabili allora l(s) = log n l(s) = log 1/n. Dunque 2 l(s) = n 1 n = 1 s S E vero che la diseguaglianza di Kraft diventa uguaglianza solo in questo caso di simboli equiprobabili? (a) No (b) Si (c) E un problema aperto. La risposta No è valida solo se corredata da un esempio 1. Risposta: a La diseguaglianza di Kraft diventa uguaglianza anche nel caso in cui le probabilità dei simboli si possono esprimere come potenza del due. In tal caso infatti la codifica di Huffman determina codici ottimi, che soddisfano dunque la diseguaglianza di Kraft (vedi ad esempio il primo esercizio - domande aperte). 4. punti 1.5 L algoritmo di compressione con codifica artitmetica è sempre più efficiente in termini di dimensione dei codici dell algoritmo di Huffman (a) Vero, la codifica aritmetica è un evoluzione del metodo di Huffman; (b) Falso; (c) E un problema aperto. Risposta: b 5. punti 1.5 Il range della similarità coseno corrisponde con l intervallo [ 1,1] (a) Vero; infatti la funzione coseno ha per codominio l intervallo [ 1,+1]; (b) Falso; (c) Non è possibile trovare una limitazione al range della similarità coseno. Risposta: b 1 Da presentare su fogli allegati. 2
3 6. punti 2.5 (la risposta è valida solo se è presentata spiegazione in allegato) Si consideri una base documentale di 1 milione di documenti con parole chiave non più corte di 5 caratteri e con documenti non più lunghi di 10 KBytes. E possibile che nel vector space il peso per un termine, ottenuto come tf idf, raggiunga in un qualche documento della collezione il valore di ? (a) Si; (b) No, indipendentemente da quanto il termine corrispondente è raro; (c) Non è possibile rispondere con i dati assegnati; (d) Nessuna delle precedenti. Risposta: b Troviamo un upper bound per tf idf. Questo corrisponde al caso in cui il termine si trova in un solo documento (d F = 1) composto solo da ripetizioni di quel termine. Considerando la separazione con lo spazio, tale ripetizione non può occorrere più di volte. Dunque tf < e Pertanto if idf < < < idf = log N d F = log < punti 2 Con riferimento alla definizione di precision p e di recall r è vero che (a) No, la proprietà è falsa; p + r = 1 (1) (b) Si, infatti se si decide di recuperate pochi documenti si ha alta precisione ma basso indice di recall. Viceversa, se si recuperano quasi tutti i documenti della collezione la precisione diventa bassa, ma l indice di recall assume un valore complementare molto alto; (c) Le analisi sperimentali confermano la rigorosa validità dell equazione 1. Risposta: a 8. punti 1.5 Alcune pagine pubblicate per errore sul sito Web di un azienda vengono successivamente tolte. E possibile che un azienda concorrente riesca a recuperarle comunque anche dopo la cancellazione dalla rete Internet? (a) No, le pagine rimangono nel sistema informativo aziendale e sono irrecuperabili, a meno di intrusioni nel sistema;
4 (b) Si, tali pagine si possono sempre ottenere in perfetta copia dalla cache di motori di ricerca quali Google; (c) Si, ma non sempre. Talvolta le pagine possono essere recuperata solo in parte (d) Nessuna delle precedenti; Risposta: c domande a risposta aperta - totale 18 punti, facoltative 4 punti 1. punti 4 (codifica di huffman) Data una sorgente S =. {(a 1,0.5),(a 2,0.125)(a,0.125),(a 4,0.125),(a 5,0.125)} costruire la codifica di Huffman. E vero che il codice trovato è ottimo? Si. Si consideri poi la generalizzazione della sorgente precedente: { } S n = (a 1,2 1,(a 2,2 k ),...,(a n,2 k ) dove k = 1 + log(n 1) N. Si determini la codifica di Huffman. E vero che i simboli con stessa probabilità hanno la stessa lunghezza? Si 2. punti compressione basata su riconoscimento e sintesi vocale Un approccio possibile alla compressione della voce, soprattutto in certi ambienti controllati, è semplicemente quello di usare un riconoscitore vocale per la compressione e un traduttore testo voce per la decompressione. Considerando il segnale vocale codificato in PCM con una frequenza di campionamento di 4 KHz, campioni a 8 bit, si fornisca una stima plausibile del fattore di compressione (spazio segnale compresso rispetto all originale espresso in percentuale), assumendo che si pronuncino due parole al secondo con lunghezza media di 8 caratteri. fattore di compressione 0.5%. punti nodi essenziali Con riferimento alla Fig. 1 si determini il PageRank dei nodi quando d 1 x 1 = 0, x 2 =, x = 0, x 4 = 0, x 5 = 0, x 6 = 4. calcolo di pagerank punti 4 Con riferimento alla Fig. 2 si determini il PageRank in funzione del damping parameter d. x 1 = (2d 2 + 2d + 2)/(d 2 + 2d + 2) x 2 = (d 2 + d + 2)/(d 2 + 2d + 2) x = (2 + d)/(d 2 + 2d + 2) Si calcoli anche il PageRank - sempre in funzione di d - invertendo l arco la freccia dell arco 1. 4
5 Figure 1: Il calcolo serve solo per d 1. Figure 2: Il calcolo di PageRank si determini anche invertendo l arco 1. web Figure : L effetto dello spamming del PageRank. 5
6 Figure 4: Quanti nodi hanno valore di PageRank diverso? Non serve necessariamente sviluppare i calcoli. x 1 = 1 + d/2 x 2 = 1 + d/2 x = 1 d Cosa succede per d 1 in questo caso (valore di PageRank)? x 1 = /2, x 2 = /2, x = 0 5. punti 4 spamming Con riferimento alla Fig. si determini il numero delle pagine della comunità di promozione che garantiscono x p, assumendo che sia d = 0.8. Numero nodi per garantire spamming = punti Simmetrie Con riferimento alla Fig. 4 si determini quanti nodi hanno valore di PageRank diverso. Nodi con PageRank diverso: 6
7 Figure 5: Costruzione dell albero di Huffman. 1 Soluzioni a domande aperte 1.1 Codifica di Huffman La codifica si determina dalla costruzione dell albero di Huffman. Una possibile è: x 1 = 0 x 2 = 100 x = 101 x 4 = 110 x 5 = 111 Dato che le probabilià dei simboli sono potenze del due il codice trovato è ottimo. Nel caso generale di n simboli la soluzione si determina per induzione osservando che il primo simbolo x 1 si può codificare con x 1 = 0 mentre i rimanenti n 1 si possono codificare in codifica binaria. Dimostrazione per induzione: Passo base n = 2 (banale) x 1 = 0 x 2 = 1 Ipotesi di induzione n 1 Si comincia con l osservare che, l aggiunta di (n 1)/2 simboli produce un albero di Huffman uguale a quello dell ipotesi di induzione per il simbolo x 1. Essendo k = 1+log(n 1) N, i simboli aggiunti questi sono aggregati con lo stesso sotto albero con cui sono aggregati 7
8 gli n 2 simboli da x 2 a x n 1, per i quali vale l ipotesi di induzione. Alla fine, secondo la costruzione di Huffman i due sottoalberi si congiungono con la radice che differenzia le codifiche con 0 e 1. Dunque la codifica dei simboli da x 2 a x n+1 è binaria. Una conseguenza delle codifiche trovate è che simboli della stessa probabilità hanno la stessa lunghezza. 1.2 Compressione basata su riconoscimento e sintesi vocale Il file originale, per una porzione vocale di t secondi, ha lunghezza (bytes) pari a t Considerando almeno la separazione delle parole con spazi, il riconoscitore vocale permette di registrare tale file in ASCII (esteso) con bytes. Dunque il fattore di compressione è t = 18 t c = t t = 9 20 Considerando che la ricostruzione testo-voce beneficia certamente di segni di interpunzione oltre allo spazio si può ritenere in via approssimativa che il fattore di compressione sia circa 0.5%. 1. Nodi essenziali Quando d 1 lo scambio di flusso è ridotto solo ai nodi 2 e 6. Siccome il grafo è un isola senza pozzi E I = 6. Inoltre la condizione d 1 produce simmetria nei nodi 2 e 6. Pertanto x 2 = x 6 = 1.4 Calcolo di PageRank Le equazioni di PageRank risultano: x 1 = dx d x 2 = d 2 x 1 + dx + 1 d x = d 2 x d La soluzione è: x 1 = 2d2 + 2d + 2 d 2 + 2d + 2 x 2 = d2 + d + 2 d 2 + 2d d x = d 2 + 2d + 2 8
9 Nota che d x 1 +x 2 +x = e che per d 1 si ha x 1 = 6/5, x 2 = 6/5 e x = /5. Questo si desume anche direttamente dalla simmetria nel modo seguente: l energia deve sommare a ; inoltre per d 1, si ha x 1 = x 2, mentre x = x 1 /2. Link 1 rovesciato In questo caso si ha immediatamente x = 1 d mentre, per simmetria x 1 = x 2. Non essendoci pozzi x 1 + x 2 + x = ; dunque da cui 2x d = x 1 = 1 + d 2 x 2 = 1 + d 2 = 1 d x 2 Spamming Calcoliamo il PageRank della pagina p su cui si vuole fare spam assumendo che le pagine artificiali siano denotate con a e quella radice di connessione al Web con r. Si ha x p = ndx a + 1 d x a = d n x r + 1 d x r > 1 d Dunque x p > (1 d)(n d + d 2 + 1) Imponendo per d = 0.8 si trova n = 17. (1 d)(n d + d 2 + 1) > Simmetrie Il grafo presenta la una simmetria illustrata in Fig. 6. Si ha dunque x 2 = x 5 x = x 4 Adesso si dimostra che non esistono altre uguaglianze. 9
10 Figure 6: Simmetrie. Mostriamo che, per d 0, si ha x 2 x. Se per assurdo fosse x 2 = x si avrebbe ( x1 (1 d) + d 2 + x 5 + x ) ( 2 ) x4 = (1 d) + d 2 + x ) 2 Da cui x 1 = 0 che è contraddetto da ovvie considerazioni di flusso (ad esempio per d = 1/2). Adesso si dimostra che x 1 x. Considera ad esempio d = 1/2. Si ha x 1 = x 2 (2) x = x 2 () Se per assurdo fosse x 1 = x, dall equazione precedente si avrebbe x 2 = 2/ Dunque, per simmetria, x 5 = 2/. Come conseguenza x 1 = 1 e, seguendo l ipotesi assurda, x = x 1 = 1. Per simmetria x 4 = x = 1 e, infine che contraddice la condizione E I = 5. x 1 + x 2 + x + x 4 + x 5 = 6 Dunque i gruppi di stesso PageRank sono S = {x 1,(x 2,x 5 ),(x,x 4 )} e il numero dei valori diversi del PageRank è S =. 10
Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27
Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
Dettagli1 Esercizio - caso particolare di ottimalità
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto
DettagliProgettazione di Algoritmi
Corso di laurea in Informatica Prova scritta del: Progettazione di Algoritmi 29/01/2016 Prof. De Prisco Inserire i propri dati nell apposito spazio. Non voltare la finché non sarà dato il via. Dal via
DettagliInformatica 3. LEZIONE 16: Heap - Codifica di Huffmann. Modulo 1: Heap e code di priorità Modulo 2: Esempio applicativo: codifica di Huffmann
Informatica 3 LEZIONE 16: Heap - Codifica di Huffmann Modulo 1: Heap e code di priorità Modulo 2: Esempio applicativo: codifica di Huffmann Informatica 3 Lezione 16 - Modulo 1 Heap e code di priorità Introduzione
DettagliIntroduzione alla codifica entropica
Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta
DettagliModello di sistema di comunicazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliIl valore di flusso che si ottiene è
1) Si consideri un insieme di piste da sci e di impianti di risalita. Lo si modelli con un grafo orientato che abbia archi di due tipi: tipo D (discesa e orientato nel senso della discesa) e tipo R (risalita
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliTecnologie Multimediali a.a. 2018/2019. Docente: DOTT.SSA VALERIA FIONDA
Tecnologie Multimediali a.a. 2018/2019 Docente: DOTT.SSA VALERIA FIONDA Rappresentazione digitale dell audio IL CAMPIONAMENTO E LA QUANTIZZAZIONE I dati multimediali vengono digitalizzati attraverso due
DettagliProgettazione di Algoritmi
Corso di laurea in Informatica Prova scritta del: Progettazione di Algoritmi 06/07/2016 Prof. De Prisco Inserire i propri dati nell apposito spazio. Non voltare la finché non sarà dato il via. Dal via
DettagliProgrammazione Greedy I codici di Huffman
Programmazione Greedy I codici di Huffman Codifica dell informazione La rappresentazione ordinaria dell informazione prevede l impiego di un numero costante di bit; per esempio ad ogni carattere del codice
DettagliCompressione dell Informazione (Parte II) Marco Gori
ompressione di testo Marco Gori, Università di Siena 1 Compressione dell Informazione (Parte II) Arithmetic Coding e Codifica di Testo Marco Gori marco@dii.unisi.it log 1 p ompressione di testo Marco Gori,
DettagliTecnologie Multimediali a.a. 2017/2018. Docente: DOTT.SSA VALERIA FIONDA
Tecnologie Multimediali a.a. 2017/2018 Docente: DOTT.SSA VALERIA FIONDA Rappresentazione digitale dell audio IL CAMPIONAMENTO E LA QUANTIZZAZIONE I dati multimediali vengono digitalizzati attraverso due
Dettaglicarattere a b c d e f cod. var
Codici prefissi Un codice prefisso è un codice in cui nessuna parola codice è prefisso (parte iniziale) di un altra Ogni codice a lunghezza fissa è ovviamente prefisso. Ma anche il codice a lunghezza variabile
DettagliAlgoritmi Greedy. Tecniche Algoritmiche: tecnica greedy (o golosa) Un esempio
Algoritmi Greedy Tecniche Algoritmiche: tecnica greedy (o golosa) Idea: per trovare una soluzione globalmente ottima, scegli ripetutamente soluzioni ottime localmente Un esempio Input: lista di interi
DettagliRICERCA OPERATIVA. Stock bamboline automobiline libri peluches costo (euro)
RICERCA OPERATIVA Tema d esame del 15/12/2008 (5 crediti) COGNOME: NOME: MATRICOLA: 1. Babbo Natale deve organizzare gli acquisti per le prossime festività. Sono arrivate richieste di 15000 bamboline,
DettagliInformazione binaria: Codici per la rilevazione e correzione di errori Codici di compressione
Informazione binaria: Codici per la rilevazione e correzione di errori Codici di compressione Percorso di Preparazione agli Studi di Ingegneria Università degli Studi di Brescia Docente: Massimiliano Giacomin
DettagliCorso di Laurea in Informatica Applicata Esame di Calcolo delle Probabilità e Statistica Prova scritta dell 11 gennaio 2007
Corso di Laurea in Informatica Applicata Esame di Calcolo delle Probabilità e Statistica Prova scritta dell 11 gennaio 007 Primo esercizio Per una certa stampante S 1, la probabilità che un generico foglio
DettagliLa codifica. dell informazione
00010010101001110101010100010110101000011100010111 00010010101001110101010100010110101000011100010111 La codifica 00010010101001110101010100010110101000011100010111 dell informazione 00010010101001110101010100010110101000011100010111
DettagliProgettazione di Algoritmi
Corso di laurea in Informatica Prova scritta del: Progettazione di Algoritmi 0/06/06 Prof. De Prisco Inserire i propri dati nell apposito spazio. Non voltare la finché non sarà dato il via. Dal via avrai
DettagliCOGNOME E NOME (IN STAMPATELLO) MATRICOLA
Politecnico di Milano Facoltà di Ingegneria dell Informazione Informatica 3 Proff. Campi, Ghezzi, Matera e Morzenti Appello del 14 Settembre 2006 Recupero II Parte COGNOME E NOME (IN STAMPATELLO) MATRICOLA
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
DettagliAlgoritmi e Strutture Dati Laboratorio 15/12/2008. Daniele Loiacono
Algoritmi e Strutture Dati Laboratorio 15/12/2008 Problema della compressione Rappresentare i dati in modo efficiente Impiegare il numero minore di bit per la rappresentazione Goal: risparmio spazio su
DettagliLA CODIFICA. CANALE IDEALE E REALE
LA CODIFICA. CANALE IDEALE E REALE L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale:
DettagliLa codifica dei numeri
La codifica dei numeri La rappresentazione dei numeri con il sistema decimale può essere utilizzata come spunto per definire un metodo di codifica dei numeri all interno degli elaboratori: la sequenza
DettagliCodifica binaria dell informazione
Codifica binaria dell informazione Marco D. Santambrogio marco.santambrogio@polimi.it Ver. aggiornata al 20 Marzo 2016 Un obiettivo per domarli tutti 2 Un obiettivo per domarli tutti 3 Obiettivi Rappresentazione
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
DettagliSommario. Lempel-Ziv coding e varianti Run-length encoding. 1 Introduzione. 2 Codifica mediante predittori (Lossless JPEG, PNG, ecc.
Sommario Lempel-Ziv coding e varianti 1 2 Codifica mediante predittori (Lossless JPEG, PNG, ecc.) 3 Lempel-Ziv coding e varianti 4 Lempel-Ziv coding e varianti Il codice di Huffman visto prima sfrutta
DettagliIl concetto di informazione
Il concetto di informazione Qualunque informazione è definita tramite tre caratteristiche fondamentali: 1. Valore indica il particolare elemento assunto dall informazione 2. Tipo indica l insieme degli
DettagliCompressione di dati: testi, immagini, suoni e video
1 Compressione di dati: testi, immagini, suoni e video B. Cipolla V1.2 Gennaio 2008 2 Compressione: motivazioni Ridurre le dimensioni di oggetti digitali per Risparmiare spazio occupato tempo di trasmissione
DettagliTrasmissione numerica: Compito del 22/07/2008
Trasmissione numerica: Compito del /07/008 1 Esercizio1 Sia dato un sistema di trasmissione numerica che utilizza un impulso di trasmissione g(t) a radice di coseno rialzato, e una costellazione PAM con
DettagliInformazione binaria:
Informazione binaria: Codici di compressione Ingegneria Meccanica e dei Materiali Università degli Studi di Brescia Prof. Massimiliano Giacomin Una soluzione per le immagini: la tavolozza (palette) Spesso
DettagliCompressione dell Informazione (Parte I) Marco Gori
ompressione di testo Marco Gori, Università di Siena 1 Compressione dell Informazione (Parte I) Fondamenti e Richiami di Teoria dell Informazione Marco Gori marco@dii.unisi.it ompressione di testo Marco
DettagliFondamenti di Informatica - 1. Prof. B.Buttarazzi A.A. 2011/2012
Fondamenti di Informatica - 1 Prof. B.Buttarazzi A.A. 2011/2012 Sommario Rappresentazione dei numeri naturali (N) Rappresentazione dei numeri interi (Z) Modulo e segno In complemento a 2 Operazioni aritmetiche
DettagliUn ripasso di aritmetica: Rappresentazione decimale - limitazioni
Un ripasso di aritmetica: Rappresentazione decimale - limitazioni Consideriamo la base dieci: con tre cifre decimali si possono rappresentare i numeri compresi tra 0 e 999, il numero successivo (1000)
DettagliCodifica binaria dell informazione
Codifica binaria dell informazione Marco D. Santambrogio marco.santambrogio@polimi.it Ver. aggiornata al 13 Agosto 2014 Un obiettivo per domarli tutti 2 Obiettivi Rappresentazione dell informazione Da
DettagliCompressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.
Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia
DettagliCOMPITO DI RICERCA OPERATIVA. max x 1 + x 2 x 1 + x 2 1 x 1 + x 2 2. Lo si trasformi in forma standard e se ne determini una soluzione ottima.
COMPITO DI RICERCA OPERATIVA APPELLO DEL 06/07/05 ESERCIZIO 1. (5 punti) Sia dato il seguente problema di PL: max x 1 + x 2 x 1 + x 2 1 x 1 + x 2 2 x 1 0 x 2 0 Lo si trasformi in forma standard e se ne
DettagliUn ripasso di aritmetica: Conversione dalla base 10 alla base 2
Un ripasso di aritmetica: Conversione dalla base 10 alla base 2 Dato un numero N rappresentato in base dieci, la sua rappresentazione in base due sarà del tipo: c m c m-1... c 1 c 0 (le c i sono cifre
Dettagli1.2d: La codifica Digitale dei caratteri
1.2d: La codifica Digitale dei caratteri 2 12 ott 2011 Bibliografia Curtin, 3.6 (vecchie edizioni) Curtin, 2.5 (nuova edizione) CR pag. 9-14 Questi lucidi 3 12 ott 2011 La codifica dei caratteri Un testo
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliInformazione e sua rappresentazione: codifica. Il concetto di informazione
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Roberto Canonico Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliCompressione di dati: testi, immagini, suoni e video. B. Cipolla
V1.3: Novembre 2008 1 Compressione di dati: testi, immagini, suoni e video B. Cipolla V1.3: Novembre 2008 2 Compressione: motivazioni Ridurre le dimensioni di oggetti digitali per Risparmiare spazio occupato
DettagliL'Informazione e la sua Codifica. Maurizio Palesi
L'Informazione e la sua Codifica Maurizio Palesi 1 Obiettivo Il calcolatore è una macchina digitale Il suo linguaggio è composto da due soli simboli Gli esseri umani sono abituati a comunicare utlizzando
DettagliNumeri interi. Laboratorio di Calcolo Paola Gallo
Numeri interi Alfabeto binario anche il segno può essere rappresentato da 0 o 1 è indispensabile indicare il numero k di bit utilizzati Modulo Modulo e segno 1 bit di segno (0 positivo, 1 negativo) k 1
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica ing. Alessandro Cilardo Corso di Laurea in Ingegneria Biomedica Il concetto di informazione Qualunque informazione è definita
DettagliEsercitazione 4 Algoritmi greedy
Esercitazione 4 Algoritmi greedy Problema 9 (es.2 appello 18/02/2016 modulo 2) Nel museo Tor VerLouvre c è un lungo corridoio rettilineo in cui sono esposti n quadri nelle posizioni 0 q 1 < q 2 < q 3
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
DettagliLa codifica. dell informazione. (continua) Codifica dei numeri. Codifica dei numeri. Sono stati pertanto studiati codici alternativi per
La codifica dell informazione (continua) Codifica dei numeri Il codice ASCII consente di codificare le cifre decimali da 0 a 9 fornendo in questo modo un metodo per la rappresentazione dei numeri Il numero
DettagliLa codifica. dell informazione. Codifica dei numeri. (continua) Codifica dei numeri. Codifica dei numeri: il sistema decimale
La codifica dell informazione Il codice ASCII consente di codificare le cifre decimali da a 9 fornendo in questo modo un metodo per la rappresentazione dei numeri Il numero 324 potrebbe essere rappresentato
DettagliAlgoritmi e Strutture Dati. Capitolo 13 Cammini minimi: Algoritmo di Bellman e Ford
Algoritmi e Strutture Dati Capitolo 13 Cammini minimi: Algoritmo di Bellman e Ford Cammini minimi in grafi: una trilogia Cammini minimi in grafi: Episodio II: cammini minimi a singola sorgente (per grafi
DettagliCorso di Intelligenza Artificiale A.A. 2016/2017
Università degli Studi di Cagliari Corsi di Laurea Magistrale in Ing. Elettronica Corso di Intelligenza rtificiale.. 26/27 Esercizi sui metodi di apprendimento automatico. Si consideri la funzione ooleana
DettagliAlgoritmi e Strutture dati - ANNO ACCADEMICO 2017/18 12 giugno 2018
Algoritmi e Strutture dati - ANNO ACCADEMICO 2017/18 12 giugno 2018 1 2 3 4 5 6 6 6 6 5 5 5 Esercizio 1 a) Descrivere l algoritmo di Huffman: a cosa serve, su quale ragionamento è basato, come è implementato,
DettagliCammini minimi per grafi molto grandi
Cammini minimi per grafi molto grandi 1. Definizioni È dato un grafo orientato G = (N, E). Indichiamo con n il numero di nodi N e con m il numero di archi E. Se il problema del cammino minimo è formulato
DettagliAlgoritmi di Ordinamento
Algoritmi di Ordinamento 1 Algoritmi di ordinamento Selection Sort Quick Sort Lower bound alla complessità degli algoritmi di ordinamento Statistiche di ordine 2 Selection Sort SelectionSort(dati[]) {
DettagliFondamenti di Informatica Esercizi settimanali n. 3 01/10/2009 SOLUZIONI PROPOSTE
Politecnico di Torino Corso di Laurea in ing. Logistica e della Produzione e ing. dell Organizzazione d Impresa Esercizio 3.1: File di testo Fondamenti di Informatica Esercizi settimanali n. 3 01/10/2009
DettagliEsercitazione 2. Progettare un algoritmo che risolva tale problema in tempo O( E + V log V ).
Esercitazione 2 Problema 4: Dato un grafo G = (V, E) con pesi positivi sugli archi ed un insieme di k centri C = {c 1, c 2, c k } V, si richiede di partizionare l insieme V in k insiemi V 1, V 2, V k in
DettagliUD 1.2e: La codifica Digitale dei Numeri CODIFICA DIGITALE DEI NUMERI
Modulo 1: Le I.C.T. : La codifica Digitale dei Numeri CODIFICA DIGITALE DEI NUMERI Prof. Alberto Postiglione Corso di Informatica Generale (AA 07-08) Corso di Laurea in Scienze della Comunicazione Università
DettagliModulo 1: Le I.C.T. UD 1.2e: La codifica Digitale dei Numeri
Modulo 1: Le I.C.T. : La codifica Digitale dei Numeri Prof. Alberto Postiglione Corso di Informatica Generale (AA 07-08) Corso di Laurea in Scienze della Comunicazione Università degli Studi di Salerno
DettagliTutti i dispositivi di un elaboratore sono realizzati con tecnologia digitale
Calcolatore e Informazione Tutti i dispositivi di un elaboratore sono realizzati con tecnologia digitale Corrente + Corrente Magnetismo + Magnetismo Luce presente (+) Luce assente (-) Dati ed operazioni
DettagliProgettazione di Algoritmi (9 CFU) Classe 3 (matricole congrue 2 modulo 3) Prof.ssa Anselmo. Appello del 27 Giugno 2018.
COGNOME: Nome: Progettazione di Algoritmi (9 CFU) Classe 3 (matricole congrue 2 modulo 3) Prof.ssa Anselmo Appello del 27 Giugno 2018 Attenzione: Inserire i propri dati nell apposito spazio soprastante
DettagliRappresentazione delle frazioni proprie Aritmetica in binario Barbara Masucci
Architettura degli Elaboratori Rappresentazione delle frazioni proprie Aritmetica in binario Barbara Masucci Punto della situazione Ø Abbiamo visto Ø ll sistema posizionale pesato, in particolare le rappresentazioni
DettagliPag. 1. La Rappresentazione e la Codifica delle informazioni (parte 2) Tipi di dati. Informatica Facoltà di Medicina Veterinaria
1 Università degli studi di Parma Dipartimento di Ingegneria dell Informazione Informatica a.a. 2012/13 Tipi di dati Informatica Facoltà di Medicina Veterinaria La Rappresentazione e la Codifica delle
DettagliINFORMAZIONE E COMPLESSITA
INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze
Dettagli01CXGBN Trasmissione numerica
0CXGBN rasmissione numerica parte 3: Spazio dei segnali, rappresentazione vettoriale Lo spazio dei segnali Introduciamo una rappresentazione vettoriale dei segnali della costellazione M Serve a semplificare
DettagliLa codifica. dell informazione
La codifica dell informazione (continua) Codifica dei numeri Il codice ASCII consente di codificare le cifre decimali da 0 a 9 fornendo in questo modo un metodo per la rappresentazione dei numeri Il numero
DettagliPROBLEMA DEI CAMMINI MINIMI [CORMEN ET AL. CAP. 24] Il costo di cammino minimo da un vertice u ad un vertice v è definito nel seguente modo:
PROBLEMA DEI CAMMINI MINIMI [CORMEN ET AL. CAP. 24] Sia G = (V,E) un grafo orientato ai cui archi è associato un costo W(u,v). Il costo di un cammino p = (v 1,v 2,...,v k ) è la somma dei costi degli archi
DettagliCodifica dell Informazione
Francesco Folino CODIFICA DI DATI E ISTRUZIONI Algoritmi Istruzioni che operano su dati Per scrivere un programma è necessario rappresentare dati e istruzioni in un formato tale che l esecutore automatico
DettagliEsercitazioni di Matematica Generale A.A. 2016/2017 Pietro Pastore Lezione del 21 Novembre Logaritmi e Proprietà
Esercitazioni di Matematica Generale A.A. 016/017 Pietro Pastore Lezione del 1 Novembre 016 Logaritmi e Proprietà Quando scriviamo log a b = c che leggiamo logaritmo in base a di b uguale a c, c è l esponente
DettagliCapitolo 1. Salvataggio dei dati. Prof. Mauro Giacomini Pearson Addison-Wesley. All rights reserved
Capitolo 1 Salvataggio dei dati Prof. Mauro Giacomini 2007 Pearson Addison-Wesley. All rights reserved Capitolo 1: Salvataggio dei dati 1.1 Bits e loro memorizzazione 1.2 Memoria principale 1.3 Memorie
DettagliProva di esame di Trasmissione Numerica
19 Settembre 2013 Prova di esame di Trasmissione Numerica Parte quantitativa Candidato: Esercizio A Un collegamento radio tra antenne omnidirezionali poste a d = 20 KM e con portante f 0 = 27 MHz viene
DettagliL'Informazione e la sua Codifica. Maurizio Palesi
L'Informazione e la sua Codifica Maurizio Palesi 1 L Informatica Cos è l Informatica? Studio sistematico degli algoritmi che descrivono e trasformano l informazione: la loro teoria, analisi, progetto,
DettagliCodifica dell Informazione
Introduzione all Informatica Fabrizio Angiulli Codifica dell Informazione CODIFICA DI DATI E ISTRUZIONI Algoritmi Istruzioni che operano su dati Per scrivere un programma è necessario rappresentare dati
DettagliCompressione di dati: testi, immagini, suoni e video. B. Cipolla
V1.4: Novembre 2009 1 Compressione di dati: testi, immagini, suoni e video B. Cipolla V1.4: Novembre 2009 2 Compressione: motivazioni Ridurre le dimensioni di oggetti digitali per Risparmiare spazio occupato
Dettagli1) Data la seguente istanza di TSP (grafo completo con 5 nodi): c 12 = 52; c 13 = 51; c 14 = 40; c 15 = 53; c 23 = 44;
1) Data la seguente istanza di TSP (grafo completo con 5 nodi): c 12 = 52; c 13 = 51; c 14 = 40; c 15 = 53; c 23 = 44; c 24 = 15; c 25 = 12; c 34 = 32; c 35 = 55; c 45 = 24 Si calcoli l ottimo duale (formulazione
DettagliImplementazione della ricerca dell informazione in documenti non strutturati
Parte 5 Implementazione della ricerca dell informazione in documenti non strutturati M. Diligenti Sistemi Gestione Documentale 1 Vector-Space o modello booleano?! Modello vector-space permette il ranking
DettagliInformatica per le discipline umanistiche 2
Informatica per le discipline umanistiche 2 Rappresentazione dell informazione Rappresentazione dell informazione Informatica: studio sistematico degli algoritmi che descrivono e trasformano l informazione:
DettagliArchitettura degli elaboratori - 2 -
Università degli Studi dell Insubria Dipartimento di Scienze Teoriche e Applicate Architettura degli elaboratori Numeri e aritmetica binaria Esercizi Marco Tarini Dipartimento di Scienze Teoriche e Applicate
DettagliLaboratorio Informatico di Base. Concetti di base sull informatica
Laboratorio Informatico di Base Concetti di base sull informatica Codifica di filmati u Immagini in movimento sono memorizzate come sequenze di fotogrammi u In genere si tratta di sequenze compresse di
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con
DettagliSoluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni
Corso di Laurea in Ingegneria Informatica corso di Telecomunicazioni (Prof. G. Giunta) (editing a cura dell ing. F. Benedetto) Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Esame
DettagliCalcolatore e unità di misura
Calcolatore e unità di misura Ing. Maria Grazia Celentano Dipartimento di Storia, Società e Studi sull Uomo Università del Salento 1 L INFORMAZIONE INFORMAZIONE Dato che riduce l'incertezza tra due o più
DettagliElaborazione dell informazione. Elaborazione dell informazione. Rappresentazione dei numeri INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042)
Elaborazione dell informazione INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042) Elaborazione di informazione prevede una codifica come: Dato: insieme di simboli rappresentati su un supporto Negli elaboratori:
DettagliMetodi Matematici e Informatici per la biologia. Esercizi
Metodi Matematici e Informatici per la biologia Esercizi Esercizio 1 Il modo migliore per isolare gli effetti delle variabili nascoste sulla variabile di risposta è di effettuare uno studio di osservazione
DettagliLa Rappresentazione dell Informazione
La Rappresentazione dell Informazione Maurizio Palesi Sommario In questo documento sarà trattato il modo in cui, in un calcolatore, vengono rappresentati i vari generi di informazione (testi, numeri interi,
DettagliInformazione binaria: - rappresentazione dei numeri naturali e interi relativi -
Informazione binaria: - rappresentazione dei numeri naturali e interi relativi - Percorso di Preparazione agli Studi di Ingegneria Università degli Studi di Brescia Docente: Massimiliano Giacomin Tipologie
DettagliInformatica
Informatica 2019-01-18 Nota: Scrivete su tutti i fogli nome e matricola. Esercizio 1. Si enuncino, senza dimostrarli, i risultati relativi al determinismo e alla totalità della semantica delle espressioni
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria
DettagliTecniche Algoritmiche: tecnica greedy (o golosa)
Tecniche Algoritmiche: tecnica greedy (o golosa) Una breve (ma non troppo) presentazione F. Damiani - Alg. & Lab. 04/05 Problemi di ottimizzazione (1/2) La tecnica greedy è usata per risolvere problemi
DettagliSistemi di Elaborazione delle Informazioni
Università degli Studi di Messina Policlinico G. Martino - Sistemi di Elaborazione delle Informazioni A.A. 26/27 Università degli Studi di Messina Policlinico G. Martino - Sistemi di Elaborazione delle
DettagliRICERCA OPERATIVA (a.a. 2012/13) Nome: Cognome: Matricola:
o Appello 7// RICERCA OPERATIVA (a.a. /) Nome: Cognome: Matricola: ) Si individui un albero dei cammini minimi di radice sul grafo in figura utilizzando l algoritmo più appropriato dal punto di vista della
Dettagli3 CENNI DI TEORIA DELLA COMPLESSITA COMPUTAZIONALE. E. Amaldi Fondamenti di R.O. Politecnico di Milano 1
3 CENNI DI TEORIA DELLA COMPLESSITA COMPUTAZIONALE E. Amaldi Fondamenti di R.O. Politecnico di Milano 1 Scopo: Stimare l onere computazionale per risolvere problemi di ottimizzazione e di altra natura
DettagliAnalogico vs digitale
Analogico vs digitale Informazione classificatoria e più che classificatoria Informazione classificatoria: è questo, ma avrebbe potuto essere quest altro altro. Informazione più che classificatoria: riconoscere
DettagliFondamenti di Psicometria. La statistica è facile!!! VERIFICA DELLE IPOTESI
Fondamenti di Psicometria La statistica è facile!!! VERIFICA DELLE IPOTESI INFERENZA STATISTICA Teoria della verifica dell ipotesi : si verifica, in termini probabilistici, se una certa affermazione relativa
Dettagli