Comunicazioni Elettriche II
|
|
- Ortensia Neri
- 4 anni fa
- Visualizzazioni
Transcript
1 Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A
2 Teoria dell informazione Esercitazione 6
3 Teorema della codifica di sorgente Si consideri una sorgente costituita da prove ripetute di una v.a. X con p(x) con ritmo pari a r prove/secondo Si definisce la velocità R della sorgente in bit/s! R = rh ( X ) Teorema: la sorgente può essere codificata con un codificatore di sorgente in un flusso di bit con velocità di trasmissione pari a R+ε per ogni ε> Il problema è quindi trovare codici che permettano di rendere ε piccolo: spesso si sceglie di adottare codici sub-ottimi ma più facilmente realizzabili
4 Codifica di sorgente Quali sono le proprietà necessarie e auspicabili per la codifica di sorgente? Necessaria: un codice deve essere univocamente decodificabile (non ci possono essere due simboli identificati dalla stessa parola di codice) Auspicabile: la lunghezza media di una parola di codice dovrebbe essere minimizzata in modo da minimizzare il bit rate necessario per trasferire i simboli di sorgente
5 Codifica di sorgente Classi di Codici Sorgente Codice Singolare Codice Non- Singolare, Non decodificabile univocamente Codice Non-Singolare, decodificabile univocamente, Non istantaneo Codice Non-Singolare, decodificabile univocamente, istantaneo *non-singolare: ad ogni elementodella sorgente è associata una diversa stringa *decodificabile univocamente: unasuccessionedi stringhe nonforma una stringa *istantaneo: verifica la regoladel prefisso il prefissodi una stringa nonè esso stessouna stringa. Codifica Ottima: minimizza la lunghezzamedia L[bit] delcodice,rispettando ilvincoloh(x) L.
6 Codifica di Huffman Genera un codice non-singolare, decodificabile univocamente, ed istantaneo La codifica di Huffman è ottima! P= a a 8 a 6 a a a 7 a 2 a esempio codice di a 7 () - ovvero
7 Esercizio : Codifica di Huffman Quali dei seguenti codici NON sono codici di Huffman? Motiva le risposte. a) {,, } b) {,,, } c) {, } a) È un possibile codice di Huffman per una sorgente ternaria tale che p(x): {/2, ¼, ¼}. b) NON è un codice di Huffman in quanto non è ottimo. Può infatti essere ridotto a {,,, }. c) NON è un codice di Huffman in quanto non è ottimo. Può infatti essere ridotto a {,}.
8 Esercizio 2: Codifica di Huffman. Si generi un codice binario di Huffman per la sorgente avente la seguente PMF: p(x):{/3, /5, /5, 2/5, 2/5} 2. Si mostri che il codice trovato è ottimo*, sia per la PMF al punto che nel caso di sorgente equiprobabile. q(x):{/5, /5, /5, /5, /5} *codice ottimo: minimizza la lunghezza media L [bit], rispettando il vincolo H(X) L.
9 Esercizio 2: Codifica di Huffman Un possibile codice di Huffman è il seguente: a /3 9/5 a 2 a 3 /5 /5 2/5 P = a 4 a 5 2/5 2/5 4/5 a a 2 a 3 a 4 H(p) = /3*log(3) + 2*/5*log(5) + 2*2/5*log(5/2) = bit L Huff = /3*2 + 2*/5*2 + 2*2/5*3 = 2.26 bit H(p) a 5 H(q) = log(5) = bit L Huff = 3*/5*2 + 2*/5*3 = 2/5 bit $ L gen = " # = " &'" ( '" ) '" * '" + =, -./ $ $ $ Il valore di K più vicino alla codifica di Huffman è K=. K = L 456 = // = 2.2 bit < H(q), quindi tale codifica non è utilizzabile, la codifica di Huffman è ottima. $
10 Esercizio 3: Codifica, Entropia, ed Entropia relativa X è una sorgente a 5 possibili realizzazioni {, 2, 3, 4, 5} Considerate due possibili distribuzioni per X, tali che p(x): {/2, ¼, /8, /6, /6} q(x): {/2, /8, /8, /8, /8} Considerate due possibili codifiche, tali che C : {,,,, } C 2 : {,,,, } a) Calcolare H(p), H(q), D(p q), e D(q p). b) Verificare che la lunghezza media di C, rispetto a p(x), sia uguale a H(p) (C è ottimo per p(x)). Verificare che C 2 è ottimo per q(x). c) Assumendo di utilizzare C 2 quando la distribuzione è p(x), calcolare la lunghezza media del codice, e di quanto tale lunghezza eccede l entropia H(p). d) Calcolare l inefficienza nell utilizzo di C quando la distribuzione è q(x). N.B. l esercizio può essere svolto utilizzando Matlab, utilizzando le funzioni e gli script delle esercitazioni precedenti, e aggiungendo nuove funzionalità dove opportuno.
Comunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 3 Teoria dell informazione Sorgente Codificatore
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore
DettagliModello di sistema di comunicazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Capacità del canale discreto Teoria dell informazione Sorgente Codificatore di sorgente
DettagliTEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
DettagliLunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27
Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
DettagliTeoria dell informazione
Teoria dell informazione Giuseppe Ruggeri Università Mediterranea di Reggio Calabria Italy Outline Cos è l informazione? E possibile misurare l informazione? Limiti matematici nella rappresentazione dell
DettagliRETI INTERNET MULTIMEDIALI. Esercitazione 4
RETI INTERNET MULTIMEDIALI Esercitazione 4 1 Esercizio 1 Data una sorgente che genera simboli da un alfabeto X = {1, 2, 3, 4, 5} con probabilità P X k k 2 Domande Si determini il valore di α Si calcolil
DettagliLA CODIFICA. CANALE IDEALE E REALE
LA CODIFICA. CANALE IDEALE E REALE L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale:
DettagliRoberto Maieli La trasmissione dell informazione
Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio
DettagliCompressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.
Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia
DettagliQuale polinomio locatore ottiene il decodificatore? Quale parola propone in uscita? Commentare la scelta del decodificatore.
TIT - Esame del 21/1/2016 Una parola di BCH primitivo (15,11) con j 0 =1, è ricevuta con il bit c 4 errato Qual è il potere correttore del codice? Scrivere la Key Equation Determinare il polinomio locatore
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Codifica di canale Il codificatore di canale Bits della sorgente Codificatore di canale
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
DettagliIndice. A Riassunto formule principali sulla Teoria dell Informazione per sorgenti135
Indice 8 Teoria dell Informazione per sorgenti 123 8.1 Introduzione.................................... 123 8.2 Codifica di sorgente............................... 123 8.2.1 Classificazione tecniche di
DettagliCodifica delle sequenze sorgente
Codifica delle sequenze sorgente Sorgente emette sequenza di simboli appartenenti ad un alfabeto X che vengono codificati come sequenze di simboli di un alfabeto D-ario.. p.1/?? Codifica delle sequenze
DettagliIntroduzione alla codifica entropica
Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta
Dettagli2) Codici univocamente decifrabili e codici a prefisso.
Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
Dettagli1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità
DettagliTecniche di compressione senza perdita
FONDAMENTI DI INFORMATICA Prof. PIER LUCA MONTESSORO Facoltà di Ingegneria Università degli Studi di Udine Tecniche di compressione senza perdita 2000 Pier Luca Montessoro (si veda la nota di copyright
DettagliGestione ed Elaborazione di Grandi Moli di Dati. Scritto 29/08/2006: SOLUZIONI
Gestione ed Elaborazione di Grandi Moli di Dati Scritto 29/08/2006: SOLUZIONI Gest. ed Elab. di Grandi Moli di Dati: Scritto 29/08/2006 Problema. Con riferimento ai sistemi di dischi RAID a. Definire le
Dettagli15 Informazione e Predizione
(FX) Teoria dell Informazione e della Trasmissione 5 Informazione e Predizione Docente: Nicolò Cesa-Bianchi versione 4 maggio 03 Consideriamo una sorgente X, p. Dallo studio della codifica sorgente, sappiamo
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con
DettagliFrequenza lettere in inglese
Frequenza lettere in inglese Sequenza random (entropia log 27 = 4.75): XFOML RXKHRJFFJUJ ZLPWCFWKCYJ FFJEYVKCQSGHYDĚ Sequenza basata su frequenze (entropia circa 4.1): OCRO HLI RGWR NMIELWIS EU LL NBNESEBYAĚ
Dettaglicarattere a b c d e f cod. var
Codici prefissi Un codice prefisso è un codice in cui nessuna parola codice è prefisso (parte iniziale) di un altra Ogni codice a lunghezza fissa è ovviamente prefisso. Ma anche il codice a lunghezza variabile
DettagliSorgenti discrete e informazione
Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
Dettagli1 Esercizio - caso particolare di ottimalità
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto
DettagliDipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni. Esercitazioni del corso di. Telecomunicazioni
Dipartimento di Ingegneria dell Informazione, Elettronica e Telecomunicazioni Esercitazioni del corso di Telecomunicazioni Corso di laurea in Ingegneria Gestionale Anno Accademico 2013-2014 Ing. Alfonso
DettagliElementi di teoria dell informazione e della trasmissione
VERSIONE 19.4.01 Elementi di teoria dell informazione e della trasmissione Introduzione Efficienza nell uso dei supporti Quantità di informazione ed entropia La caratterizzazione statistica dei canali
DettagliFondamenti di Informatica
L aritmetica del computer Fondamenti di Informatica su UD 2 Aritmetica del computer ESERCITAZIONE RAPPRESENTAZIONE NUMERI NEL COMPUTER Corso di Laurea in Ingegneria Informatica e dell Automazione A.A.
DettagliCompressione dell Informazione (Parte I) Marco Gori
ompressione di testo Marco Gori, Università di Siena 1 Compressione dell Informazione (Parte I) Fondamenti e Richiami di Teoria dell Informazione Marco Gori marco@dii.unisi.it ompressione di testo Marco
DettagliRappresentazione dei numeri
Corso di Calcolatori Elettronici I Rappresentazione dei numeri: sistemi di numerazione posizionale Prof. Roberto Canonico Università degli Studi di Napoli Federico II Dipartimento di Ingegneria Elettrica
DettagliDefinizioni. Soluzione ottima: migliore soluzione possibile Soluzione ottima localmente: soluzione ottima in un dominio contiguo. Il paradigma greedy
Il paradigma greedy Paolo Camurati, Fulvio Corno, Matteo Sonza Reorda Dip. Automatica e Informatica Politecnico di Torino Definizioni Soluzione ottima: migliore soluzione possibile Soluzione ottima localmente:
DettagliEsercitazione 0. Alberto Marchesi Informatica A Ingegneria Matematica (sez. 2) 25 Settembre 2019
Esercitazione Alberto Marchesi Informatica A Ingegneria Matematica (sez. 2) 25 Settembre 219 Gli esercizi visti a lezione sono segnalati con ( ). Esercizio.1 ( ). Convertire in base 1 il numero (1111)2
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 10 Esercizio 1 Sia data una trasmissione di
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Esercitazione 16 Segnali d immagine I Esercizio: Rapporto d aspetto Si calcoli il rapporto
DettagliProva di esame di Trasmissione Numerica
19 Settembre 2013 Prova di esame di Trasmissione Numerica Parte quantitativa Candidato: Esercizio A Un collegamento radio tra antenne omnidirezionali poste a d = 20 KM e con portante f 0 = 27 MHz viene
DettagliSoluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni
Corso di Laurea in Ingegneria Informatica corso di Telecomunicazioni (Prof. G. Giunta) (editing a cura dell ing. F. Benedetto) Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Esame
DettagliCapitolo 3 Compressione sorgenti statiche
Capitolo 3 Compressione sorgenti statiche Elementi di codifica di sorgente Entropia Classificazione degli algoritmi Testo RLE Huffman statico Huffman dinamico Codifica aritmetica LZ Immagini Prestazioni
Dettagliche si ripete n volte, con n molto grande. Determinare il rate ottenuto dalla codifica LZ77, usando i parametri:
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 8 giugno 2006 Argomento: Esercizi sulle tecniche di compressione Scribes: Massimo Bellio, Massimo Padovan, Adalberto Zurlo 1 Esercizio su
DettagliINFORMAZIONE E COMPLESSITA
INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze
DettagliInformazione e sua rappresentazione: codifica. Il concetto di informazione
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Roberto Canonico Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
Dettagli10 Proprietà di Equipartizione Asintotica
FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliCorso di Informatica B - Sezione D
Facoltà di Ingegneria Industriale Laurea in Ingegneria Energetica, Meccanica e dei Trasporti Corso di Informatica B - Sezione D Esercitazioni Linguaggio C 1 Facoltà di Ingegneria Industriale Laurea in
DettagliCorso di Laurea in Ingegneria Informatica (Laurea on Line)
Milano 6//07 Corso di Laurea in Ingegneria Informatica (Laurea on Line) Corso di Fondamenti di Segnali e Trasmissione Seconda prova in itinere Carissimi studenti, scopo di questa seconda prova intermedia
DettagliFondamenti di Telecomunicazioni Esercizi svolti e da svolgere. 1) A quanto corrisponde su base decimale un guadagno di 31 db? (Risp: = )
Fondamenti di Telecomunicazioni Esercizi svolti e da svolgere A quanto corrisponde su base decimale un guadagno di 3 db? (Risp: = 259 25 2 A quanti watt corrisponde una potenza di - 25 db m? (Risp: 3,25-6
DettagliInformatica 3. LEZIONE 16: Heap - Codifica di Huffmann. Modulo 1: Heap e code di priorità Modulo 2: Esempio applicativo: codifica di Huffmann
Informatica 3 LEZIONE 16: Heap - Codifica di Huffmann Modulo 1: Heap e code di priorità Modulo 2: Esempio applicativo: codifica di Huffmann Informatica 3 Lezione 16 - Modulo 1 Heap e code di priorità Introduzione
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliSicurezza di un Cifrario (C. Shannon)
La teoria di Shannon segretezza perfetta sicurezza computazionale Sicurezza di un Cifrario (C. Shannon) SEGRETEZZA PERFETTA Un Cifrario è detto perfetto, o assolutamente sicuro, se, dopo aver intercettatto
DettagliFondamenti di Internet e Reti
- sui ritardi di pacchetto, sorgenti di traffico e livello fisico . - o Un sistema trasmissivo della velocità di 00 [kb/s] presenta una lunghezza di 500 [km]. Si calcoli il tempo che intercorre fra la
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Esercitazione 18 Spread Spectrum / DS-CDMA CDMA Si basa sulla tecnica di Spread-Spectrum
DettagliCODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore
DettagliCODIFICA DI SORGENTE. Schematizzazione generale sistema di comunicazione
CODIFICA DI SORGENTE Informazione associata a sorgenti digitali, entropia Codifica di sorgenti senza memoria Codifica di sorgenti con memoria CODIFICA DI SORGENTE Schematizzazione generale sistema di comunicazione
DettagliCorso di Calcolatori Elettronici I A.A Lezione 2 Rappresentazione dei numeri: sistemi di numerazione posizionale ing. Alessandro Cilardo
Corso di Calcolatori Elettronici I A.A. 2012-2013 Lezione 2 Rappresentazione dei numeri: sistemi di numerazione posizionale ing. Alessandro Cilardo Accademia Aeronautica di Pozzuoli Corso Pegaso V GArn
DettagliEsercitazioni di Fondamenti di Informatica - Lez. 1 02/10/2018
Esercitazioni di Fondamenti di Informatica - Lez. 1 02/10/2018 Esercizi sulla codifica binaria 1. Quanti bit sono necessari per codificare il numero di auto presenti in un parcheggio da 20 posti? Devo
DettagliL algoritmo di decodifica è semplice e computazionalmente meno oneroso rispetto a quello di codifica.
Decodificatore LZW L algoritmo di decodifica è semplice e computazionalmente meno oneroso rispetto a quello di codifica. A differenza di altre tecniche (ad es. Huffman), non è necessario fornire preventivamente
DettagliComplessità di Kolmogorov
(FX) Teoria dell Informazione e della Trasmissione Complessità di Kolmogorov Docente: Nicolò Cesa-Bianchi versione maggio 206 La teoria dell informazione secondo Shannon, introdotta nel 948, si basa sulla
DettagliAPPUNTI DI TEORIA DEI CODICI
UNIVERSITÀ DI CATANIA FACOLTÀ DI INGEGNERIA APPUNTI DI TEORIA DEI CODICI Autori: L. Cauchi V. La Terra R. Grasso Coperto da diritti di c copyright Ho letto questi appunti scritti da Lucia Cauchi, Rosario
DettagliVariabili e assegnazione
Corso di Laurea Ingegneria Civile Fondamenti di Informatica Variabili e assegnazione Carla Limongelli Marzo 2009 Variabili e assegnazione 1 Contenuti Variabili a ab e assegnazionea e Variabili e aree di
DettagliAPPUNTI DI TEORIA DEI CODICI
UNIVERSITÀ DI CATANIA FACOLTÀ DI INGEGNERIA APPUNTI DI TEORIA DEI CODICI Autori: L. Cauchi V. La Terra R. Grasso F. Gullo Coperto da diritti di c copyright Ho letto questi appunti scritti da Lucia Cauchi,
DettagliASPETTI MATEMATICI DI ALCUNI ALGORITMI DI COMPRESSIONE
Alma Mater Studiorum Università di Bologna FACOLTÀ DI SCIENZE MATEMATICHE, FISICHE E NATURALI Corso di Laurea in Matematica ASPETTI MATEMATICI DI ALCUNI ALGORITMI DI COMPRESSIONE Tesi di Laurea in Fisica
Dettagli1 Entropia: Riepilogo
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 30 maggio 2006 Argomento: Entropia. Costruzione del modello di una sorgente. Codifica di Huffman. Scribes: Galato Filippo, Pesce Daniele,
DettagliFondamenti di Comunicazioni - A.A. 2008/2009 Appello parte di TEORIA
Fondamenti di Comunicazioni - A.A. 2008/2009 Appello - 9.12.2009 - parte di TEORIA Teoria 1. [6 pt.] Con riferimento alle modulazioni numeriche lineari M-arie si consideri la seguente regola di decisione
DettagliCALCOLO DELLE PROBABILITÀ 2 (Laurea Specialistica) 28 giugno Motivare dettagliatamente le risposte su fogli allegati
CALCOLO DELLE PROBABILITÀ 2 (Laurea Specialistica) 28 giugno 2006 Motivare dettagliatamente le risposte su fogli allegati 1.- Sia X un numero aleatorio a valori { α, 0, α}, con α > 0 e P (X = α) = P (X
DettagliAppunti di Elaborazione di Segnali Multimediali a.a. 2012/2013. Compattazione dati. G.Poggi, L.Verdoliva
Appunti di Elaborazione di Segnali Multimediali a.a. 22/23 G.Poggi, L.Verdoliva La compattazione (detta anche codifica entropica) è una forma di codifica che permette di rappresentare i messaggi prodotti
DettagliAlgoritmi e Strutture Dati Laboratorio 15/12/2008. Daniele Loiacono
Algoritmi e Strutture Dati Laboratorio 15/12/2008 Problema della compressione Rappresentare i dati in modo efficiente Impiegare il numero minore di bit per la rappresentazione Goal: risparmio spazio su
DettagliInformatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.
Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x
DettagliTeoria della Complessità Computazionale
Teoria della Complessità Computazionale Laura Galli Dipartimento di Informatica Largo B. Pontecorvo 3, 56127 Pisa laura.galli@unipi.it http://www.di.unipi.it/~galli 21 Ottobre 2014 Ricerca Operativa 2
DettagliTrasmissione numerica: Compito del 22/07/2008
Trasmissione numerica: Compito del /07/008 1 Esercizio1 Sia dato un sistema di trasmissione numerica che utilizza un impulso di trasmissione g(t) a radice di coseno rialzato, e una costellazione PAM con
DettagliCompressione di Testo
Compressione di Testo Michelangelo Diligenti Dipartimento di Ingegneria dell Informazione Università di Siena Email: diligmic@dii.unisi.it http://www.dii.unisi.it/~diligmic/bdm2011 M. Diligenti 1 Lo standard
DettagliCorso di Calcolatori Elettronici I
Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica Roberto Canonico Università degli Studi di Napoli Federico II A.A. 2016-2017 Roberto Canonico Corso di Calcolatori Elettronici
DettagliINFORMATICA SANITARIA (Esercitazione sulla Compressione)
Università degli Studi di Padova Corso di Laurea Specialistica in Bioingegneria A.A. 26-27 27 INFORMATICA SANITARIA (Esercitazione sulla Compressione) Giovanni Sparacino Dipartimento di Ingegneria dell
DettagliAlgoritmi e Complessità
Algoritmi e Complessità Università di Camerino Corso di Laurea in Informatica (tecnologie informatiche) III periodo didattico Docente: Emanuela Merelli Email:emanuela.merelli@unicam.it a.a. 2002-03 e.merelli
DettagliCompressione dell Informazione (Parte II) Marco Gori
ompressione di testo Marco Gori, Università di Siena 1 Compressione dell Informazione (Parte II) Arithmetic Coding e Codifica di Testo Marco Gori marco@dii.unisi.it log 1 p ompressione di testo Marco Gori,
DettagliSistemi di Telecomunicazioni
Sistemi di Telecomunicazioni Corso di Laurea Specialistica in Ingegneria delle Telecomunicazioni (DM 70) A.A. 014-015 Pietro Guccione Contenuti Teoria dell Informazione Basi della Teoria dell informazione
Dettagli01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I
01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore
DettagliTeoria della complessità
Teoria della complessità Materiale consigliato: testo del corso capitolo 34 Introduzione agli algoritmi e strutture dati T.H. Cormen, C.E. Leiserson, R.L. Rivest, C. Stein McGraw Hill, 2005 Denise Salvi
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica ing. Alessandro Cilardo Corso di Laurea in Ingegneria Biomedica Il concetto di informazione Qualunque informazione è definita
DettagliALGORITMI CORSO DI STUDIO IN INFORMATICA (laurea triennale) UNIVERSITÀ DEGLI STUDI DI CATANIA ANNO ACCADEMICO 2014/15
ANNO ACCADEMICO 2014/15 1 a prova in itinere 13 gennaio 2015 ESERCIZIO 1 Si risolva l equazione di ricorrenza al variare del parametro reale a>1. T (n) = 27 n a T + n 2 log n a ESERCIZIO 2 Si ordinino
Dettagli8 Derivati dell entropia
(F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta
DettagliNotazione posizionale. Codifica binaria. Rappresentazioni medianti basi diverse. Multipli del byte
Codifica binaria Rappresentazione di numeri Notazione di tipo posizionale (come la notazione decimale). Ogni numero è rappresentato da una sequenza di simboli Il valore del numero dipende non solo dalla
DettagliProfs. Roberto Cusani Francesca Cuomo
INFO-COM Dpt. Dipartimento di Scienza e Tecnica dell Informazione e della Comunicazione Università degli Studi di Roma Sapienza Allocazione delle risorse TELECOMUNICAZIONI Profs. Roberto Cusani Francesca
DettagliUniversita degli Studi di Siena
Universita degli Studi di Siena Facolta di Ingegneria Dispense del corso di Sistemi di Supporto alle Decisioni I L algoritmo per la risoluzione di problemi di programmazione dinamica Chiara Mocenni Corso
DettagliLa Teoria dell Informazione. Il termine calore. Le origini. Cosa intendiamo quando usiamo il termine informazione?
La Teoria dell Informazione Cosa intendiamo quando usiamo il termine informazione? Ogni termine del linguaggio scientifico deve essere preciso ed univoco. Polisemia vs Monosemia Il termine calore 1. «Renzo
DettagliEsercitazioni di Fondamenti di Informatica - Lez. 1 - Soluzioni
Esercitazioni di Fondamenti di Informatica - Lez. 1 - Soluzioni 25 Settembre 2017 1 Esercizi sulla codifica binaria Esercizio 1: Quanti bit sono necessari per codificare il numero di auto presenti in un
DettagliAlgoritmi e strutture dati. Codici di Huffman
Algoritmi e strutture dati Codici di Huffman Memorizzazione dei dati Quando un file viene memorizzato, esso va memorizzato in qualche formato binario Modo più semplice: memorizzare il codice ASCII per
Dettagli1.2f: Operazioni Binarie
1.2f: Operazioni Binarie 2 18 ott 2011 Bibliografia Questi lucidi 3 18 ott 2011 Operazioni binarie Per effettuare operazioni è necessario conoscere la definizione del comportamento per ogni coppia di simboli
DettagliSTII. Probabilità e proprietà dei logaritmi
STII Durante una trasmissione, il segnale naviga alcuni minuti prima di arrivare a destinazione. Durante il percorso, il segnale è soggetto a rumore, quindi può capitare che il messaggio che è stato inviato
Dettagli