LA CODIFICA. CANALE IDEALE E REALE
|
|
- Romina Vittoria Bonfanti
- 4 anni fa
- Visualizzazioni
Transcript
1 LA CODIFICA. CANALE IDEALE E REALE
2 L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale: scegliendo le caratteristiche fisiche del segnale più adatte al canale di trasmissione CODIFICARE il canale: determinando quali combinazioni dei valori del segnale scegliere per rappresentare i simboli della sorgente 2
3 CODICI DIGITALI CODICE: Associa ad ogni simbolo (o blocco di simboli) emesso dalla sorgente una ed una sola combinazione (parola) di cifre binarie 3
4 CODICI DIGITALI Esempio: Codice ASCII I codici come l ASCII sono a lunghezza fissa, tutti i simboli sono rappresentati sempre con lo stesso numero di bit. 4
5 CODICI DIGITALI Si possono avere diverse tipologie di codice digitale: a lunghezza fissa; a lungh. variabile non unicamente decodificabile a lungh. variabile univocamente decodificabile istantaneo (o a prefisso) 5
6 CODICI LUNGHEZZA FISSA La lunghezza delle singole parole è fissa. l =3 bit Considerando i simboli equiprobabili, la lunghezza media è 3 bit. 6
7 CODICI A LUNGHEZZA VARIABILE Possono aumentare la velocità di trasmissione, se si assegnano le combinazioni più corte ai simboli più frequenti. L impiego dei codici a lunghezza variabile può presentare dei problemi. 7
8 CODICE non univocamente decodificabile Non sempre permette di risalire alla sequenza originale dei simboli. Questo codice è inutile. l = =2 bit La sequenza 0100 potrebbe codificare x 1 x 4 x 1 oppure x 2 x 1 oppure x 3 x 1 x 1. Considerando i simboli equiprobabili, la lunghezza media è 2 bit. 8
9 CODICE univocamente decodificabile Questo codice è univocamente decodificabile, ma può essere necessario rimandare la decisione di quale codice è stato ricevuto. La sequenza 1100 è univocamente interpretabile come 11 00, cioè come x 4 x 3, solo dopo aver ricevuto l ultimo bit, infatti: 1 può essere l inizio di x 2 o x 4 o x 5 11 può essere x 4 o l inizio di x può essere x 5 o x 4 più l inizio di x 1 o x 3 l = =2,6 bit Considerando i simboli equiprobabili, la lunghezza media è 2,6 bit 9
10 CODICE istantaneo (o a prefisso) Questo codice è univocamente decodificabile e ogni carattere si riconosce subito perché nessun codice è l inizio di un altro. La decodifica di un codice istantaneo è più semplice. l = =2,6 bit Considerando i simboli equiprobabili, la lunghezza media è 2,6 bit 10
11 Lunghezza media Gli esempi fatti facevano riferimento ad una sorgente che emetteva 5 simboli diversi, ma equiprobabili. Quindi l entropia di questa sorgente è: H (S)=log 2 (5)=2,3219 bit /simbolo Tutti i codici usati negli esempi avevano una lunghezza media maggiore dell entropia della sorgente l >H (S)=2,3219 bit / simbolo 11
12 Lunghezza media E preferibile avere codici con lunghezza media minore, perché il numero di bit/s che possono transitare nel canale è limitato dalla banda passante, quindi se abbiamo meno bit da trasmettere, a parità di entropia della sorgente (che è l informazione da comunicare) abbiamo una comunicazione più veloce. 12
13 CODICE istantaneo ottimizzato (quasi) Questo codice è univocamente decodificabile con simboli non equiprobabili, nel quale i codici più corti sono attribuiti ai simboli più probabili. S= ( x 1 x 2 x 3 x 4 x 5 0,05 0,3 0,05 0,3 0,3) La lunghezza media l è 2,1 bit H (S)= n=5 l = i=1 n=5 i=1 p i log 2 (P 1 ) 1,9955 bit p i l i = ,3 2 2,1 bit 13
14 CODICE istantaneo ottimizzato (quasi) Assegnando ai simboli più probabili le combinazioni più brevi ha migliorato il codice. Comunque la lunghezza media è sempre compresa tra l entropia della sorgente e l entropia aumentata di uno. H (S) l H (S)+1 14
15 COMPRESSIONE DEI DATI La relazione H (S) l H (S)+1 Indica una misura della compressibilità di un messaggio o di un file. La compressione è utile sia per la trasmissione (aumento della velocità) che per la memorizzazione e l immagazzinamento dei dati. 15
16 COMPRESSIONE DEI DATI Esistono codici ottimali che permettono di raggiungere il limite inferiore: l =H (S) Uno di questi è il codice Huffman. 16
17 Codice Huffman E alla base di molti algoritmi per la compressione dei dati. Permette di ottenere una lunghezza media dei simboli molto prossima all entropia della sorgente. 17
18 Costruzione del codice Huffman Consideriamo di avere una sorgente che genera i seguenti simboli con le relative probabilità. L entropia H(S) di sorgente risulta essere: n=14 H (S)= p i log 2 p i = {2 0,025 log 2 0, ,05 log 2 0,05 i=1 +2 0,015 log 2 0, ,1 log 2 0,1+2 0,145 log 2 0,145 +0,2 log 2 0,2+0,03 log 2 0,03 } 3,4007 bit / simbolo 18
19 Costruzione del codice Huffman Scriviamo i simboli ordinandoli per probabilità crescente, poi partendo da sinistra sommiamo i simboli con probabilità più bassa. Si ripete più volte lo stesso algoritmo. 19
20 Costruzione del codice Huffman Se abbiamo svolto correttamente i calcoli la probabilità finale vale 1. Come si può vedere si ottiene una struttura ad albero. Ora si assegnano i codice ai simboli: partendo dalla radice a sinistra ad ogni biforcazione si attribuisce 1 al ramo a sinistra e 0 al ramo a destra 20 radice
21 Costruzione del codice Huffman Il codice di Huffman ottenuto è: Il codice ottenuto ha lunghezza media: n=14 l = p i l i =(2 0, ,025) 6+ i=1 +(0, ,05) 5+0, (2 0,1+2 0,145) 3+0,2 2=3,45 bit Come si vede la lunghezza media del codice è molto prossima all entropia della sorgente H(s) (differenza del 1,45%). 21
22 Modello del canale: CANALE PRIVO DI RUMORE CANALE: qualunque mezzo fisico sul quale viaggiano i segnali che trasportano l informazione. CANALE SENZA RUMORE: i simboli in uscita sono uguali a quelli in entrata. 22
23 Modello del canale: CANALE PRIVO DI RUMORE CAPACITÀ DI CANALE: è "il più piccolo limite superiore" alla quantità di informazione che può essere trasmessa in maniera affidabile su un canale. E intesa come la velocità con la quale il canale può trasmettere informazione La capacità di canale dipende da 2 fattori: 1) dalla banda passante del canale; 2) dalla codifica dell informazione. 23
24 Modello del canale: CANALE PRIVO DI RUMORE Es: canale a 2 livelli Consideriamo un canale sul quale viaggia un segnale a 2 livelli (0 ed 1). Se ogni livello dura un tempo T, il canale trasmette alla velocità 1/T bit/s. Ipotizziamo che i due livelli durino T=0,1 s e si alternino formando un onda quadra di periodo 2T e f=1/(2t)=(1/0,2)=5 Hz. Se questo segnale passa attraverso un canale con banda passante limitata a questa frequenza, passerà solo la frequenza fondamentale del segnale. Quindi, il segnale verrà sfasato, attenuato e distorto dal canale, ma sarà ancora riconoscibile. Segnale inviato Segnale ricevuto 24
25 Modello del canale: CANALE PRIVO DI RUMORE Un canale non disturbato a due livelli di segnalazione può far passare bit con una cadenza doppia della sua banda passante. C=2 B bit /s 25
26 Modello del canale: CANALE PRIVO DI RUMORE A parità di caratteristiche fisiche del canale si può aumentare la velocità del canale aumentando il numero di livelli. Per esempio in una trasmissione digitale posso impacchettare coppie di bit ( dibit) in un unico intervallo di segnalazione usando 4 livelli. La capacità del canale raddoppia. C=4 B bit /s 26
27 Modello del canale: CANALE PRIVO DI RUMORE Con n livelli, se non c è rumore a confonderli, posso aumentare ulteriormente la capacità del canale. Capacità di un canale a n livelli privo di rumore: C=2 B log 2 (n) bit /s 27
28 Modello del canale: CANALE PRIVO DI RUMORE NUMERO DI LIVELLI: in questo contesto equivale a scegliere la codifica di linea CODIFICA DI SORGENTE equivale alla scelta della rappresentazione binaria dei simboli emessi dalla sorgente 28
29 Modello del canale: CANALE CON DI RUMORE Se abbiamo un canale con capacità C bit/s, per trasmettere un simbolo di una sorgente con lunghezza media l si impiegheranno l/c s/simbolo. La velocità di trasmissione è C/l simboli/s. Poichè l H (S) la velocità massima di trasmissione dei simboli della sorgente sul canale per un codice ottimale sarà: v simbmax = C H (S) simboli/ s 29
30 Modello del canale: CANALE CON RUMORE Nella realtà abbiamo sempre a che fare con canali rumorosi. Il rumore limita il numero di livelli che possiamo inserire in un canale perché i livelli devono essere opportunamente distanziati per evitare che il rumore li confonda. Il rumore limita quindi la capacità del canale. La capacità di un canale rumoroso si calcola come: C=B log 2 (1+ S N ) [bit / s] TEOREMA DI SHANNON - HARTLEY Dove S/N è il rapporto segnale-rumore del canale. 30
31 Codici a rilevamento d errore ed a correzione d errore Codice a rilevamento d errore: permettono di individuare gli errori di trasmissione Codici a correzione d errore: permettono una parziale correzione degli errori Sono codici (n,k): i k simboli della sorgente vengono tradotti in sequenze di n cifre binarie (con n>k) realizzando una codifica di canale. Es: Codice (k+1,k) con bit di parità. 31
32 Codici a rilevamento d errore ed a correzione d errore Nei codici (n,k): La velocità di trasmissione diminuisce, perché aumentano le cifre binarie da trasmettere. Le n-k cifre aggiuntive permettono di individuare e/o correggere gli 32 errori. Es: Codice (k+1,k) con bit di parità. Si può realizzare con parità pari (numero pari di 1) o parità dispari (numero dispari di 1). Permettere di individuare, ma non di correggere un numero dispari di errori e di invalidare il messaggio ricevuto richiedendo la trasmissione.
33 Riepilogo 33
La codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliLa codifica di sorgente
Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale
DettagliTEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
DettagliTeoria dell informazione
Teoria dell informazione Giuseppe Ruggeri Università Mediterranea di Reggio Calabria Italy Outline Cos è l informazione? E possibile misurare l informazione? Limiti matematici nella rappresentazione dell
DettagliTeoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliModello di sistema di comunicazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
DettagliIntroduzione alla codifica entropica
Compressione senza perdite Il problema Introduzione alla codifica entropica Abbiamo un alfabeto di simboli A (nota: non è detto che gli elementi di A siano numeri) Sappiamo che il simbolo a A si presenta
DettagliInformatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.
Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x
DettagliInformazione binaria: Codici per la rilevazione e correzione di errori
Informazione binaria: Codici per la rilevazione e correzione di errori Ingegneria Meccanica e dei Materiali Università degli Studi di Brescia Prof Massimiliano Giacomin Tipologie di codici Per la rappresentazione
Dettagli1 Esercizio - caso particolare di ottimalità
Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 5 giugno 2006 Argomento: Compressione aritmetica e Tecniche di compressione basate su dizionario Scribes: Andrea Baldan, Michele Ruvoletto
DettagliUn ripasso di aritmetica: Conversione dalla base 10 alla base 2
Un ripasso di aritmetica: Conversione dalla base 10 alla base 2 Dato un numero N rappresentato in base dieci, la sua rappresentazione in base due sarà del tipo: c m c m-1... c 1 c 0 (le c i sono cifre
DettagliUn ripasso di aritmetica: Rappresentazione decimale - limitazioni
Un ripasso di aritmetica: Rappresentazione decimale - limitazioni Consideriamo la base dieci: con tre cifre decimali si possono rappresentare i numeri compresi tra 0 e 999, il numero successivo (1000)
DettagliLa Rappresentazione dell Informazione
La Rappresentazione dell Informazione Parte III I codici Codici a.a. 27-28 Un codice è una funzione che associa ad una sequenza di simboli un significato Codice : {entità} {sequenze di simboli} Un codice
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
DettagliSegnale Analogico. Forma d onda continua
Segnale Analogico Forma d onda continua Rumore Segnale Analogico + Rumore Il rumore si sovrappone al segnale e lo altera, impossibile separare il segnale dal rumore Segnale Digitale Ideale Segnale discreto,
DettagliCapitolo 5 La trasmissione dell informazione
Capitolo 5 La trasmissione dell informazione Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio Destinazione Caratterizzazione
DettagliRoberto Maieli La trasmissione dell informazione
Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio
DettagliIl concetto di informazione
Il concetto di informazione Qualunque informazione è definita tramite tre caratteristiche fondamentali: 1. Valore indica il particolare elemento assunto dall informazione 2. Tipo indica l insieme degli
DettagliLa Rappresentazione Dell Informazione
La Rappresentazione Dell Informazione Parte III I codici I Codici Un codice è una funzione che associa ad una sequenza di simboli un significato Un codice serve a: Permettere l elaborazione e la memorizzazione
DettagliAlgoritmi Greedy. Tecniche Algoritmiche: tecnica greedy (o golosa) Un esempio
Algoritmi Greedy Tecniche Algoritmiche: tecnica greedy (o golosa) Idea: per trovare una soluzione globalmente ottima, scegli ripetutamente soluzioni ottime localmente Un esempio Input: lista di interi
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
DettagliCodici binari decimali
Codici binari decimali Si usano per rappresentare le dieci cifre decimali in binario dato che 2 3 < 10 < di 2 4 occorrono almeno 4 bits Binario Decimale BCD Eccesso-3 Biquinary 1 di 10 0 0 0000 0011 0100001
DettagliCodifica di Huffman e Lempel-Ziv-Welch A L B E R T O B E L U S S I A N N O A C C A D E M I C O /
Codifica di Huffman e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente
DettagliFondamenti di Internet e Reti. Antonio Capone, Matteo Cesana, Ilario Filippini, Guido Maier
Fondamenti di Internet e Reti Antonio Capone, Matteo Cesana, Ilario Filippini, Guido Maier Fondamenti di Internet e Reti 7 Livello Fisico Antonio Capone, Matteo Cesana, Ilario Filippini, Guido Maier Fondamenti
DettagliCodifica di Huffman e Lempel-Ziv-Welch
e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente la rappresentazione
Dettagli10 Proprietà di Equipartizione Asintotica
FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria
DettagliQuale polinomio locatore ottiene il decodificatore? Quale parola propone in uscita? Commentare la scelta del decodificatore.
TIT - Esame del 21/1/2016 Una parola di BCH primitivo (15,11) con j 0 =1, è ricevuta con il bit c 4 errato Qual è il potere correttore del codice? Scrivere la Key Equation Determinare il polinomio locatore
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliInformazione e sua rappresentazione: codifica. Il concetto di informazione
Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Roberto Canonico Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Capacità del canale discreto Teoria dell informazione Sorgente Codificatore di sorgente
Dettaglicarattere a b c d e f cod. var
Codici prefissi Un codice prefisso è un codice in cui nessuna parola codice è prefisso (parte iniziale) di un altra Ogni codice a lunghezza fissa è ovviamente prefisso. Ma anche il codice a lunghezza variabile
DettagliCorso di Fondamenti di Telecomunicazioni
Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE Prof. Giovanni Schembra 1 Argomenti della lezione Definizioni: Sorgente di informazione Sistema di comunicazione Segnali trasmissivi determinati
DettagliSorgenti discrete e informazione
Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un
DettagliLunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27
Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica ing. Alessandro Cilardo Corso di Laurea in Ingegneria Biomedica Il concetto di informazione Qualunque informazione è definita
DettagliReti di Calcolatori a.a
Analogico e digitale 2 Corso di laurea in Informatica Reti di Calcolatori a.a. 2007-2008 Prof. Roberto De Prisco Capitolo 3 Dati e segnali Per essere trasmessi i dati devono essere trasformati in segnali
DettagliLa codifica dei numeri
La codifica dei numeri La rappresentazione dei numeri con il sistema decimale può essere utilizzata come spunto per definire un metodo di codifica dei numeri all interno degli elaboratori: la sequenza
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 6 Teorema della codifica di sorgente Si consideri
DettagliConversione Analogico/Digitale
Conversione Analogico/Digitale 1 Fondamenti di Segnali e Trasmissione Conversione analogico/digitale (A/D) Per rappresentare numericamente un segnale continuo nel tempo e nelle ampiezze è necessario: Campionare
DettagliElementi di teoria dell informazione e della trasmissione
VERSIONE 19.4.01 Elementi di teoria dell informazione e della trasmissione Introduzione Efficienza nell uso dei supporti Quantità di informazione ed entropia La caratterizzazione statistica dei canali
DettagliCodici rivelatori e correttori
Codici rivelatori e correttori Federico Cerutti AA. 2011/2012 Modulo di Elementi di Informatica e Programmazione http://apollo.ing.unibs.it/fip/ 2011 Federico Cerutti Concetti
DettagliLa teoria dell informazione
Intelligenza artificiale, informatica, linguistica, scienze umane e molte altre discipline concorrono a formare il campo che oggi si definisce informatica umanistica Informatica Informazione+automatica
DettagliInformazione binaria: Codici per la rilevazione e correzione di errori Codici di compressione
Informazione binaria: Codici per la rilevazione e correzione di errori Codici di compressione Percorso di Preparazione agli Studi di Ingegneria Università degli Studi di Brescia Docente: Massimiliano Giacomin
DettagliParte Terza: Codificare l informazione. Fondamenti di informatica
Parte Terza: Codificare l informazione Fondamenti di informatica Informatica e telecomunicazione Cos è l informatica? Lo studio sistematico degli algoritmi che descrivono e trasformano l informazione:
DettagliAlgoritmi e Strutture Dati Laboratorio 15/12/2008. Daniele Loiacono
Algoritmi e Strutture Dati Laboratorio 15/12/2008 Problema della compressione Rappresentare i dati in modo efficiente Impiegare il numero minore di bit per la rappresentazione Goal: risparmio spazio su
DettagliCompressione di Testo
Compressione di Testo Michelangelo Diligenti Dipartimento di Ingegneria dell Informazione Università di Siena Email: diligmic@dii.unisi.it http://www.dii.unisi.it/~diligmic/bdm2011 M. Diligenti 1 Lo standard
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con
DettagliInformatica per le discipline umanistiche 2
Informatica per le discipline umanistiche 2 Rappresentazione dell informazione Rappresentazione dell informazione Informatica: studio sistematico degli algoritmi che descrivono e trasformano l informazione:
Dettagli10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore
10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore
DettagliUn ripasso di aritmetica: Conversione dalla base 10 alla base 2
Un ripasso di aritmetica: Conversione dalla base 10 alla base 2 Dato un numero N rappresentato in base dieci, la sua rappresentazione in base due sarà del tipo: c m c m-1... c 1 c 0 (le c i sono cifre
DettagliFrequenza lettere in inglese
Frequenza lettere in inglese Sequenza random (entropia log 27 = 4.75): XFOML RXKHRJFFJUJ ZLPWCFWKCYJ FFJEYVKCQSGHYDĚ Sequenza basata su frequenze (entropia circa 4.1): OCRO HLI RGWR NMIELWIS EU LL NBNESEBYAĚ
DettagliQUANTIZZAZIONE E CONVERSIONE IN FORMA NUMERICA. 1 Fondamenti Segnali e Trasmissione
UANTIZZAZIONE E CONVERSIONE IN FORMA NUMERICA Fondamenti Segnali e Trasmissione Campionamento e quantizzazione di un segnale analogico Si consideri il segnale x(t) campionato con passo T c. Campioni del
DettagliINFORMAZIONE E COMPLESSITA
INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze
DettagliIndice. A Riassunto formule principali sulla Teoria dell Informazione per sorgenti135
Indice 8 Teoria dell Informazione per sorgenti 123 8.1 Introduzione.................................... 123 8.2 Codifica di sorgente............................... 123 8.2.1 Classificazione tecniche di
DettagliTrasmissione dell informazione
Università degli Studi di Roma Tor Vergata Facoltà di Ingegneria Corso di Ingegneria Medica Trasmissione dell informazione La comunicazione Si tratta di un processo attraverso il quale due o più entità
Dettagli01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I
01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore
DettagliComunicazioni Elettriche II
Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 3 Teoria dell informazione Sorgente Codificatore
DettagliCodici. Introduzione. Sia A un insieme finito di simboli e C=A n l insieme di tutte le parole composte da n simboli di A
Codici Introduzione Sia A un insieme finito di simboli e C=A n l insieme di tutte le parole composte da n simboli di A Esempio A={0,1}, C=A 2 ={00,01,10,11} Sia C un insieme finito di N oggetti avente
DettagliModulazione PAM Multilivello, BPSK e QPSK
Modulazione PAM Multilivello, BPSK e QPSK P. Lombardo DIET, Univ. di Roma La Sapienza Modulazioni PAM Multilivello, BPSK e QPSK - 1 Rappresentazione analitica del segnale Sia {b(n)} una qualsiasi sequenza
DettagliLa codifica. dell informazione. (continua) Codifica dei numeri. Codifica dei numeri. Sono stati pertanto studiati codici alternativi per
La codifica dell informazione (continua) Codifica dei numeri Il codice ASCII consente di codificare le cifre decimali da 0 a 9 fornendo in questo modo un metodo per la rappresentazione dei numeri Il numero
DettagliLa codifica. dell informazione. Codifica dei numeri. (continua) Codifica dei numeri. Codifica dei numeri: il sistema decimale
La codifica dell informazione Il codice ASCII consente di codificare le cifre decimali da a 9 fornendo in questo modo un metodo per la rappresentazione dei numeri Il numero 324 potrebbe essere rappresentato
DettagliAlgoritmi di conversione Rappresentazione ottale e esadecimale. 25 settembre 2018
Algoritmi di conversione Rappresentazione ottale e esadecimale 25 settembre 2018 Notazione binaria per numeri naturali In base 2. I simboli ammessi sono 0,1. Una sequenza / stringa di 0 e 1, di lunghezza
DettagliCorso di Laurea in Ingegneria Informatica (Laurea on Line)
Milano 6//07 Corso di Laurea in Ingegneria Informatica (Laurea on Line) Corso di Fondamenti di Segnali e Trasmissione Seconda prova in itinere Carissimi studenti, scopo di questa seconda prova intermedia
DettagliConsiderazioni generali
Parte II PRINCIPALI CARATTERISTICHE DELLA TRASMISSIONE DIGITALE... 1 Considerazioni generali... 1 Schema semplificato di un sistema di trasmissione digitale... 3 Baud rate e bit rate... 6 MASSIMO BIT RATE
DettagliInformatica, Informazione e Telecomunicazioni. La codifica dell informazione. Supporto e informazione. Il concetto di informazione
La codifica dell informazione Fondamenti di Informatica A Ingegneria Gestionale Università degli Studi di Brescia Docente: Prof. Alfonso Gerevini Informatica, Informazione e Telecomunicazioni l informatica
DettagliTecnologie Multimediali a.a. 2018/2019. Docente: DOTT.SSA VALERIA FIONDA
Tecnologie Multimediali a.a. 2018/2019 Docente: DOTT.SSA VALERIA FIONDA Rappresentazione digitale dell audio IL CAMPIONAMENTO E LA QUANTIZZAZIONE I dati multimediali vengono digitalizzati attraverso due
DettagliCorso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE
Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE 1 Argomenti della lezione Definizioni: Sorgente di informazione Sistema di comunicazione Segnali trasmissivi determinati e aleatori Architettura
DettagliInformatica, Informazione e Telecomunicazioni. La codifica dell informazione. Il concetto di informazione. Supporto e informazione
La codifica dell informazione Elementi di Informatica e Programmazione Ingegneria Gestionale Università degli Studi di Brescia Docente: Prof. Ivan Serina Prof. Alfonso Gerevini Informatica, Informazione
DettagliSoluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni
Corso di Laurea in Ingegneria Informatica corso di Telecomunicazioni (Prof. G. Giunta) (editing a cura dell ing. F. Benedetto) Soluzioni di Esercizi di Esame di Segnali Aleatori per Telecomunicazioni Esame
DettagliLA TRASMISSIONE DIGITALE
LA TRASMISSIONE DIGITALE 1 VANTAGGI Maggiore immunità ai disturbi rispetto alla trasmissione analogica Nelle tratte a lunga percorrenza, che presentano stazioni intermedie, è possibile ripulire il segnale
DettagliInformazione e sua rappresentazione: codifica
Corso di Calcolatori Elettronici I A.A. 2010-2011 Informazione e sua rappresentazione: codifica Lezione 1-2 Università degli Studi di Napoli Federico II Facoltà di Ingegneria Informazione Quale è il centravanti
Dettagli2) Codici univocamente decifrabili e codici a prefisso.
Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il
DettagliNotazione posizionale. Codifica binaria. Rappresentazioni medianti basi diverse. Multipli del byte
Codifica binaria Rappresentazione di numeri Notazione di tipo posizionale (come la notazione decimale). Ogni numero è rappresentato da una sequenza di simboli Il valore del numero dipende non solo dalla
DettagliLa Teoria dell Informazione. Il termine calore. Le origini. Cosa intendiamo quando usiamo il termine informazione?
La Teoria dell Informazione Cosa intendiamo quando usiamo il termine informazione? Ogni termine del linguaggio scientifico deve essere preciso ed univoco. Polisemia vs Monosemia Il termine calore 1. «Renzo
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
DettagliCompressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.
Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia
DettagliTecnologie Multimediali a.a. 2017/2018. Docente: DOTT.SSA VALERIA FIONDA
Tecnologie Multimediali a.a. 2017/2018 Docente: DOTT.SSA VALERIA FIONDA Rappresentazione digitale dell audio IL CAMPIONAMENTO E LA QUANTIZZAZIONE I dati multimediali vengono digitalizzati attraverso due
DettagliLa codifica. dell informazione
La codifica dell informazione (continua) Codifica dei numeri Il codice ASCII consente di codificare le cifre decimali da 0 a 9 fornendo in questo modo un metodo per la rappresentazione dei numeri Il numero
DettagliCapitolo 3 Compressione sorgenti statiche
Capitolo 3 Compressione sorgenti statiche Elementi di codifica di sorgente Entropia Classificazione degli algoritmi Testo RLE Huffman statico Huffman dinamico Codifica aritmetica LZ Immagini Prestazioni
DettagliProgrammazione Greedy I codici di Huffman
Programmazione Greedy I codici di Huffman Codifica dell informazione La rappresentazione ordinaria dell informazione prevede l impiego di un numero costante di bit; per esempio ad ogni carattere del codice
DettagliL informazione numerica
L informazione numerica Sorgenti di informazione Abbiamo esaminato delle sorgenti di informazione analogiche (audio, video). Abbiamo visto come trasmetterle a distanza per mezzo di sistemi analogici. Come
Dettagli1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità
Dettagli4) Teorema fondamentale della codifica di canale. 6) Definizione di codifica di canale (FEC e ARQ)
Argomenti della Lezione 1) Classificazione dei codici di canale 2) Benefici della codifica di canale 3) Decodifica hard e soft 4) Teorema fondamentale della codifica di canale 5) Classificazione dei codici
DettagliIl tema proposto può essere risolto seguendo due ipotesi:
Per la trattazione delle tecniche TDM, PM e Trasmissione dati si rimanda alle schede 41, 42, 43, 44, 45, 46, 47 e 48 del libro Le Telecomunicazioni del Prof. F. Dell Aquila. Il tema proposto può essere
DettagliA cura del prof. Gino Tombolini Itis Montani Fermo
TEORIA DELL'IFORMAZIOE Una informazione è un frammento della realtà; noi possiamo conoscere tale realtà attraverso una rappresentazione di essa per mezzo di simboli secondo un codice convenuto, e che giunge
DettagliCompressione Parte 2. Prof. Filippo Milotta Informatica Musicale
Compressione Parte 2 Prof. Filippo Milotta milotta@dmi.unict.it Fattori di compressione per codifiche basate su PCM Dipendono dalla implementazione della PCM: IMA ADPCM: 4/1 (75%) Con specifica G.721:
DettagliInformatica 3. LEZIONE 16: Heap - Codifica di Huffmann. Modulo 1: Heap e code di priorità Modulo 2: Esempio applicativo: codifica di Huffmann
Informatica 3 LEZIONE 16: Heap - Codifica di Huffmann Modulo 1: Heap e code di priorità Modulo 2: Esempio applicativo: codifica di Huffmann Informatica 3 Lezione 16 - Modulo 1 Heap e code di priorità Introduzione
DettagliCodifica binaria: - numeri naturali -
Codifica binaria: - numeri naturali - Ingegneria Meccanica e dei Materiali Università degli Studi di Brescia Prof. Massimiliano Giacomin Tipologie di codici Per la rappresentazione di: caratteri alfabetici
DettagliCodifica di Huffman e Lempel-Ziv-Welch
Codifica di e Lempel-Ziv-Welch 1 ALBERTO BELUSSI ANNO ACCADEMICO 2009/2010 Tipi di compressione Senza perdita (lossless lossless): permettono di ricostruire perfettamente la rappresentazione del dato originale,
DettagliQUANTIZZAZIONE E CONVERSIONE IN FORMA NUMERICA
QUANTIZZAZIONE E CONVERSIONE IN FORMA NUMERICA 1 Fondamenti di segnali Fondamenti e trasmissione TLC Campionamento e quantizzazione di un segnale analogico Si consideri il segnale x(t) campionato con passo
Dettagli8 Derivati dell entropia
(F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta
DettagliInformazione e comunicazione per la sicurezza Esercizi tipo Telecomunicazioni
Informazione e comunicazione per la sicurezza Esercizi tipo Telecomunicazioni 1) Dato un canale trasmissivo la cui banda sia da 3 a 4 MHz, ed il cui rapporto segnale - rumore sia 24 db, calcolare la massima
DettagliCANALE STAZIONARIO CANALE TEMPO INVARIANTE
CANALE STAZIONARIO Si parla di un Canale Stazionario quando i fenomeni che avvengono possono essere modellati da processi casuali e le proprietà statistiche di tali processi sono indipendenti dal tempo.
DettagliEsercitazione 0. Alberto Marchesi Informatica A Ingegneria Matematica (sez. 2) 25 Settembre 2019
Esercitazione Alberto Marchesi Informatica A Ingegneria Matematica (sez. 2) 25 Settembre 219 Gli esercizi visti a lezione sono segnalati con ( ). Esercizio.1 ( ). Convertire in base 1 il numero (1111)2
DettagliIl Livello di presentazione
IL LIELLO I RESENTAIONE 1 La codifica dei dati 1 La compressione dei dati. 2 Tecnica di uffmann 3 Crittografia 18 Il Livello di presentazione La codifica dei dati Scopo fondamentale del livello di presentazione
Dettagli