Sorgenti discrete e informazione

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Sorgenti discrete e informazione"

Transcript

1 Sorgenti discrete e informazione La definizione formale della quantità di informazione è dovuta a Shannon Nella sua teoria si fa riferimento ad una sorgente di messaggi connessa tramite un canale a un destinatario In particolare ci riferiamo a una sorgente di messaggi discreti S C D

2 Sorgenti discrete e informazione Nel modello preso in considerazione da Shannon una sorgente discreta è in grado di emettere dei simboli appartenenti ad un insieme A detto alfabeto della sorgente Un messaggio m emesso dalla sorgente è una concatenazione di simboli dell'alfabeto S A s,s 2.. s N m = s k s k2... s km m = M è la lunghezza del messaggio A =N è la cardinalità dell'alfabeto

3 Sorgenti discrete e informazione L'informazione associata ai simboli emessi dalla sorgente viene definita facendo riferimento alla diminuzione dell'incertezza in seguito alla ricezione di un simbolo dell'alfabeto o in altri termini alla sorpresa che provoca la ricezione di un simbolo della sorgente S A s,s 2.. s N m = s k s k2... s km

4 Sorgenti discrete e informazione E' necessario quindi fare riferimento alle caratteristiche statistiche della sorgente Più un simbolo viene emesso raramente e maggiore è la sorpresa che provoca nel ricevitore e maggiore è la quantità di informazione che trasporta Al contrario un simbolo emesso frequentemente porta poca informazione (non è sorprendente aspettarsi l'emissione di questo simbolo)

5 Sorgenti discrete e informazione Una sorgente che emette un solo simbolo, non fornisce alcuna informazione se una moneta ha una faccia truccata (più pesante) ci si può aspettare dal lancio che questa faccia esca più frequentemente (poca informazione) e di conseguenza nel caso in cui esca l'altra ne saremmo maggiormente sopresi (più informazione) una vincita al super enalotto ci sorprenderebbe parecchio (oltre che renderci felici!) visto che si tratta di un evento raro (relativamente ad un giocatore)

6 Sorgenti discrete e informazione E' naturale allora misurare la sorpresa e quindi l'informazione riferendosi alla probabilità di emissione di un simbolo p(s k ) = p k = probabilità di emissione di s k Nel modello di Shannon la sorgente è rappresentata da un'urna contenente delle palline corrispondenti ai simboli dell'alfabeto La composizione dell'urna è determinata dalle probabilità di emissione dei simboli dell'alfabeto

7 Sorgenti discrete e informazione Se un simbolo s k ha probabilità p k di essere emesso il numero delle palline corrispondenti è pari a p k N p dove N p è il numero totale di palline dell'urna L'emissione di un simbolo corrisponde all'estrazione di una pallina dall'urna Le emissioni dei simboli sono indipendenti l'una dall'altra Dopo ogni estrazione la pallina viene rimessa nell'urna

8 Sorgenti discrete e informazione Questo modello consente di assimilare ad una sorgente discreta, non solo apparati che trasmettono informazioni nello spazio, ma anche testi (visti come successione di simboli), immagini ecc. I risultati della teoria dell'informazione sono quindi applicabili sia a problemi di trasmissione (aumento della velocità di trasmissione) che a problemi di memorizzazione delle informazioni (compressione dei dati)

9 Sorgenti discrete e informazione L'ipotesi di considerare i simboli emessi in modo indipendente l'uno dall'altro non è molto aderente alla realtà. es. nella lingua italiana dopo la lettera q si incontra quasi sempre la lettera u (tranne che nella parola soqquadro) in un brano di musica di genere ad es. rock'n roll la sequenza degli accordi segue degli schemi abbastanza prevedibili (es. do - fa sol) La trattazione matematica risulta semplificata

10 Definizione quantitativa di informazione Secondo Shannon la definizione di quantità di informazione deve rispettare i seguenti vincoli (assiomi) L'informazione I(s k ) associata ad un simbolo s k sarà una funzione di p k probabilità di emissione di s k Minore il valore di p k e maggiore sarà I(s k ) e viceversa L'informazione associata ad un messaggio m deve essere la somma delle informazioni di ciascun simbolo che lo compone

11 Definizione quantitativa di informazione Considerando che la probabilità di un messaggio m formato da M simboli è pari al prodotto delle probabilità di ogni simbolo (per l'indipendenza delle emissioni) I s k =f p k I m=f p =f m p k p =f km I m=i s k I s km =f p f k quindi f =f p km p k p km p f k p k p km p km

12 Definizione quantitativa di informazione Una funzione che trasformi un prodotto in una somma è il logaritmo I s k =f p k =log b p k L'unità di misura è il bit e per individuare la base b del logaritmo si deve definire la situazione in cui un simbolo ha informazione pari ad bit.

13 Definizione quantitativa di informazione La situazione di riferimento è quella della sorgente più semplice possibile (in pratica il lancio di una moneta): A={0,} alfabeto di due simboli p 0 = p = 0.5 I 0=I =log b b =2 b=2 0.5 =log b 2=

14 Definizione quantitativa di informazione Es. una moneta truccata ha: p T = 0.6 e p C = 0.4 I T =log 2 =0.737 bit 0.6 I C =log =.322bit come era da aspettarsi il simbolo più probabile (T) porta meno informazione

15 Entropia di una sorgente Per caratterizzare complessivamente la sorgente possiamo considerare il valore medio dell'informazione portata da un simbolo emesso effettuando la media ponderata delle informazioni (la somma delle probabiltà è ) N H = k= N p k I s k = k= p k log 2 p k bit/simbolo Tale grandezza viene chiamata Entropia della sorgente

16 Entropia di una sorgente Es. nel caso della moneta non truccata: 2 H= k= p k I s k = = bit/simbolo Per la moneta truccata: 2 H= k= p k I s k = = 0,970 bit/simbolo

17 Entropia di una sorgente Il significato profondo di questa grandezza è che se misuriamo la quantità media di informazione di un messaggio di M caratteri emesso dalla sorgente è pari: I m=m H bit es. un messaggio di 000 simboli di una sorgente con entropia pari a bit/simb ha associata in media un'informazione pari a 970 bit

18 Entropia di una sorgente Questo vuol dire che è possibile trovare una codifica univocamente decifrabile dei simboli della sorgente tale che un messaggio di M simboli sia rappresentabile con H M binit (cifre binarie) es. nel caso della moneta truccata, si può trovare una codifica in base alla quale 000 lanci di moneta siano rappresentabili con 970 cifre binarie anziché le 000 necessarie nella rappresentazione T=0 e C=

19 Entropia di una sorgente Es. Alfabeto={A,B,C,D} p A =0.60 I(A)=-log 2 (0.60)=0.737 bit p B =0.20 p C =0.5 p D =0.05 I(B)=-log 2 (0.20)=0.30 bit I(C)=-log 2 (0.5)=2.737 bit I(D)=-log 2 (0.05)=4,322 bit H= = =.29 bit/simb

20 Entropia di una sorgente Il significato è questo: se codifico la sorgente banalmente (4 simboli=2 binit a simbolo) un messaggio di es. 000 simboli occuperà 2000 binit; esiste una codifica che consente di rappresentare in media un messaggio di 000 simboli con 29 binit anziché 2000 (quasi la metà!) non è conveniente dare lo stesso peso (stessa lunghezza di rappresentazione) ad A che esce il 60% delle volte e a D che esce il 5% delle volte...

21 Entropia di una sorgente... se il messaggio verrà trasmesso si impiegherà poco più della metà del tempo se il messaggio deve essere memorizzato si occuperà poco più della metà della memoria converrà rappresentare con meno binit i simboli più frequenti La codifica cercata è la codifica di Huffman

22 Entropia di una sorgente Una sorgente con N simboli equiprobabili avrà la massima entropia tra le sorgenti di N simboli: N H= k= p k log 2 p k Si definisce ridondanza della sorgente: N = k = N log 2N = = N N log 2N = log 2 N bit/simbolo R = H H MAX

Modello di sistema di comunicazione

Modello di sistema di comunicazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2006-07 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio

Dettagli

Roberto Maieli La trasmissione dell informazione

Roberto Maieli La trasmissione dell informazione Roberto Maieli La trasmissione dell informazione Corso di AIC Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio

Dettagli

La teoria dell informazione

La teoria dell informazione Intelligenza artificiale, informatica, linguistica, scienze umane e molte altre discipline concorrono a formare il campo che oggi si definisce informatica umanistica Informatica Informazione+automatica

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

Teoria dell informazione

Teoria dell informazione Teoria dell informazione Giuseppe Ruggeri Università Mediterranea di Reggio Calabria Italy Outline Cos è l informazione? E possibile misurare l informazione? Limiti matematici nella rappresentazione dell

Dettagli

La codifica di sorgente

La codifica di sorgente Tecn_prog_sist_inform Gerboni Roberta è la rappresentazione efficiente dei dati generati da una sorgente discreta al fine poi di trasmetterli su di un opportuno canale privo di rumore. La codifica di canale

Dettagli

La teoria dell informazione

La teoria dell informazione La teoria dell informazione Perché la teoria dell informazione è importante per la linguistica computazionale 2005 Isabella Chiari 1 Informatica Informazione+automatica = informatica Trattamento automatico

Dettagli

LA CODIFICA. CANALE IDEALE E REALE

LA CODIFICA. CANALE IDEALE E REALE LA CODIFICA. CANALE IDEALE E REALE L A CODIFICA Per trasmettere i simboli generati dalla sorgente devo tradurli in segnali adatti al canale. Per effettuare la trasmissione dovremo: MODULARE il segnale:

Dettagli

Codifica di Huffman e Lempel-Ziv-Welch

Codifica di Huffman e Lempel-Ziv-Welch e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente la rappresentazione

Dettagli

Codifica di Huffman e Lempel-Ziv-Welch A L B E R T O B E L U S S I A N N O A C C A D E M I C O /

Codifica di Huffman e Lempel-Ziv-Welch A L B E R T O B E L U S S I A N N O A C C A D E M I C O / Codifica di Huffman e Lempel-Ziv-Welch 1 A L B E R T O B E L U S S I A N N O A C C A D E M I C O 2 0 1 0 / 2 0 1 1 Tipi di compressione Senza perdita (lossless): permettono di ricostruire perfettamente

Dettagli

Elementi di teoria dell informazione e della trasmissione

Elementi di teoria dell informazione e della trasmissione VERSIONE 19.4.01 Elementi di teoria dell informazione e della trasmissione Introduzione Efficienza nell uso dei supporti Quantità di informazione ed entropia La caratterizzazione statistica dei canali

Dettagli

La Teoria dell Informazione. Il termine calore. Le origini. Cosa intendiamo quando usiamo il termine informazione?

La Teoria dell Informazione. Il termine calore. Le origini. Cosa intendiamo quando usiamo il termine informazione? La Teoria dell Informazione Cosa intendiamo quando usiamo il termine informazione? Ogni termine del linguaggio scientifico deve essere preciso ed univoco. Polisemia vs Monosemia Il termine calore 1. «Renzo

Dettagli

L informazione numerica

L informazione numerica L informazione numerica Sorgenti di informazione Abbiamo esaminato delle sorgenti di informazione analogiche (audio, video). Abbiamo visto come trasmetterle a distanza per mezzo di sistemi analogici. Come

Dettagli

Esercizio. Una moneta viene lanciata 1000 volte. Su 1000 lanci, per 600 volte esce croce. Quale è la ridondanza presente nella moneta?

Esercizio. Una moneta viene lanciata 1000 volte. Su 1000 lanci, per 600 volte esce croce. Quale è la ridondanza presente nella moneta? Una sorgente di informazione può produrre 8 diversi simboli con probabilità diverse, e presenta una entropia effettiva di 2.4 bit/simbolo. Quale è il numero medio di byte necessari per contenere un messaggio

Dettagli

STII/Teoria dell Informazione

STII/Teoria dell Informazione STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione

Dettagli

Unità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9.

Unità 30. Sommario. Bibliografia. Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi. [Bel] -- [Ros] 9. Unità 30 Sommario Auto-informazione di un evento Auto-informazione di un esperimento aleatorio Esempi Bibliografia [Bel] -- [Ros] 9.3 [Pap] -- 1 Auto-informazione di un evento Prima di effettuare un esperimento

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Capacità del canale discreto Teoria dell informazione Sorgente Codificatore di sorgente

Dettagli

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità

Dettagli

Calcolo delle Probabilità

Calcolo delle Probabilità Calcolo delle Probabilità Il calcolo delle probabilità studia i modelli matematici delle cosiddette situazioni di incertezza. Molte situazioni concrete sono caratterizzate a priori da incertezza su quello

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Equiripartizione asintotica AEP Asymptotic Equiripartition Property AEP Nella teoria

Dettagli

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 2017-2018 Teoria dell informazione Esercitazione 3 Teoria dell informazione Sorgente Codificatore

Dettagli

Fondamenti dell Informatica

Fondamenti dell Informatica Informatica e Comunicazione Digitale (sede di Taranto) Fondamenti dell Informatica a.a. 2015-2016 Programma 2015-2016 1. Teoria dell Informazione 2. Algoritmi e problema 3. Algebra di Boole 4. La Macchina

Dettagli

INFORMAZIONE E COMPLESSITA

INFORMAZIONE E COMPLESSITA INFORMAZIONE E COMPLESSITA Antonio Restivo Università degli Studi di Palermo Lezioni Lincee di Scienze Informatiche Palermo 26 Febbraio 2015 Concetti fondamentali delle Scienze Informatiche Le Scienze

Dettagli

L informazione e la sua codifica (cap. 2, Intr. ai Sist.. Informatici) Corso di Architetture dell Informazione e della Comunicazione

L informazione e la sua codifica (cap. 2, Intr. ai Sist.. Informatici) Corso di Architetture dell Informazione e della Comunicazione L informazione e la sua codifica (cap. 2, Intr. ai Sist.. Informatici) Corso di Architetture dell Informazione e della Comunicazione Informazione e Informatica Informatica e telecomunicazione Cos è l informatica?

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 207-208 Informazioni sul corso Mercoledì 0.00-2.00 Aula 22 Giovedì 0.00-2.00 Aula 25 Venerdì

Dettagli

La Rappresentazione Dell Informazione

La Rappresentazione Dell Informazione La Rappresentazione Dell Informazione Parte III I codici I Codici Un codice è una funzione che associa ad una sequenza di simboli un significato Un codice serve a: Permettere l elaborazione e la memorizzazione

Dettagli

Codifica di Huffman e Lempel-Ziv-Welch

Codifica di Huffman e Lempel-Ziv-Welch Codifica di e Lempel-Ziv-Welch 1 ALBERTO BELUSSI ANNO ACCADEMICO 2009/2010 Tipi di compressione Senza perdita (lossless lossless): permettono di ricostruire perfettamente la rappresentazione del dato originale,

Dettagli

Indice. A Riassunto formule principali sulla Teoria dell Informazione per sorgenti135

Indice. A Riassunto formule principali sulla Teoria dell Informazione per sorgenti135 Indice 8 Teoria dell Informazione per sorgenti 123 8.1 Introduzione.................................... 123 8.2 Codifica di sorgente............................... 123 8.2.1 Classificazione tecniche di

Dettagli

La Rappresentazione dell Informazione

La Rappresentazione dell Informazione La Rappresentazione dell Informazione Parte III I codici Codici a.a. 27-28 Un codice è una funzione che associa ad una sequenza di simboli un significato Codice : {entità} {sequenze di simboli} Un codice

Dettagli

Informazione e Comunicazione

Informazione e Comunicazione TECNOLOGIE E PROGETTAZIONE ISTITUTO TECNICO SECONDO BIENNIO Rappresentazione dell Informazione GIORGIO PORCU www.thegiorgio.it Sommario Dato e Informazione Tipologie di informazione Comunicazione, Interfaccia,

Dettagli

Il concetto di informazione

Il concetto di informazione Il concetto di informazione Qualunque informazione è definita tramite tre caratteristiche fondamentali: 1. Valore indica il particolare elemento assunto dall informazione 2. Tipo indica l insieme degli

Dettagli

10 Proprietà di Equipartizione Asintotica

10 Proprietà di Equipartizione Asintotica FX Teoria dell Informazione e della Trasmissione 0 Proprietà di Equipartizione Asintotica Docente: Nicolò Cesa-Bianchi versione 6 aprile 206 Come nel caso della codifica sorgente, anche nel caso della

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 6 Teorema della codifica di sorgente Si consideri

Dettagli

A cura del prof. Gino Tombolini Itis Montani Fermo

A cura del prof. Gino Tombolini Itis Montani Fermo TEORIA DELL'IFORMAZIOE Una informazione è un frammento della realtà; noi possiamo conoscere tale realtà attraverso una rappresentazione di essa per mezzo di simboli secondo un codice convenuto, e che giunge

Dettagli

Statistica Inferenziale

Statistica Inferenziale Statistica Inferenziale Prof. Raffaella Folgieri Email: folgieri@mtcube.com aa 2009/2010 Riepilogo lezione 1 Abbiamo visto: Definizioni di statistica, statistica inferenziale, probabilità (interpretazione

Dettagli

Comunicazioni Elettriche Esercizi

Comunicazioni Elettriche Esercizi Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,

Dettagli

Elaborazione dell informazione. Elaborazione dell informazione. Rappresentazione dei numeri INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042)

Elaborazione dell informazione. Elaborazione dell informazione. Rappresentazione dei numeri INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042) Elaborazione dell informazione INFORMATICA PER LE DISCIPLINE UMANISTICHE 2 (13042) Elaborazione di informazione prevede una codifica come: Dato: insieme di simboli rappresentati su un supporto Negli elaboratori:

Dettagli

Capitolo 5 La trasmissione dell informazione

Capitolo 5 La trasmissione dell informazione Capitolo 5 La trasmissione dell informazione Sistema di comunicazione Sorgente messaggio Sistema di trasmissione Trasmettitore Canale di trasmissione segnale Ricevitore rumore messaggio Destinazione Caratterizzazione

Dettagli

Rappresentazione e Codifica dell Informazione

Rappresentazione e Codifica dell Informazione Rappresentazione e Codifica dell Informazione Capitolo 1 Chianese, Moscato, Picariello, Alla scoperta dei fondamenti dell informatica un viaggio nel mondo dei BIT, Liguori editore. ***disclaimer *** Quest

Dettagli

2) Codici univocamente decifrabili e codici a prefisso.

2) Codici univocamente decifrabili e codici a prefisso. Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il

Dettagli

Capitolo 3 Parte 1 La codifica dell informazione. Informatica e Informazione La codifica dell informazione Analogico vs digitale

Capitolo 3 Parte 1 La codifica dell informazione. Informatica e Informazione La codifica dell informazione Analogico vs digitale Capitolo 3 Parte 1 La codifica dell informazione Informatica e Informazione La codifica dell informazione Analogico vs digitale Informazione e Informatica Informatica e telecomunicazione: quale definizione?

Dettagli

Corso di Calcolatori Elettronici I

Corso di Calcolatori Elettronici I Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica Roberto Canonico Università degli Studi di Napoli Federico II A.A. 2016-2017 Roberto Canonico Corso di Calcolatori Elettronici

Dettagli

Informazione, Entropia e Probabilità

Informazione, Entropia e Probabilità Informazione, Entropia e Probabilità Alessandro Lenci Università di Pisa, Dipartimento di Linguistica Via Santa Maria, 36, 56100 Pisa, Italy alessandro.lenci@ilc.cnr.it Linguaggio e comunicazione - LO042

Dettagli

Teoria dell Informazione

Teoria dell Informazione Corso di Laurea Magistrale in Scienze dell Informazione Editoriale, Pubblica e Sociale Teoria dell Informazione Cosa è l informazione L informazione è qualcosa che si possiede e si può dare ad un altro

Dettagli

Teoria dell Informazione

Teoria dell Informazione Fondamenti di Informatica per la Sicurezza a.a. 2008/09 Teoria dell Informazione Stefano Ferrari UNIVERSITÀ DEGLI STUDI DI MILANO DIPARTIMENTO DI TECNOLOGIE DELL INFORMAZIONE Stefano Ferrari Università

Dettagli

1.2f: Operazioni Binarie

1.2f: Operazioni Binarie 1.2f: Operazioni Binarie 2 18 ott 2011 Bibliografia Questi lucidi 3 18 ott 2011 Operazioni binarie Per effettuare operazioni è necessario conoscere la definizione del comportamento per ogni coppia di simboli

Dettagli

Codice binario. Codice. Codifica - numeri naturali. Codifica - numeri naturali. Alfabeto binario: costituito da due simboli

Codice binario. Codice. Codifica - numeri naturali. Codifica - numeri naturali. Alfabeto binario: costituito da due simboli Codice La relazione che associa ad ogni successione ben formata di simboli di un alfabeto il dato corrispondente è detta codice. Un codice mette quindi in relazione le successioni di simboli con il significato

Dettagli

Pag. 1. La Rappresentazione e la Codifica delle informazioni (parte 2) Tipi di dati. Informatica Facoltà di Medicina Veterinaria

Pag. 1. La Rappresentazione e la Codifica delle informazioni (parte 2) Tipi di dati. Informatica Facoltà di Medicina Veterinaria 1 Università degli studi di Parma Dipartimento di Ingegneria dell Informazione Informatica a.a. 2012/13 Tipi di dati Informatica Facoltà di Medicina Veterinaria La Rappresentazione e la Codifica delle

Dettagli

Sicurezza di un Cifrario (C. Shannon)

Sicurezza di un Cifrario (C. Shannon) La teoria di Shannon segretezza perfetta sicurezza computazionale Sicurezza di un Cifrario (C. Shannon) SEGRETEZZA PERFETTA Un Cifrario è detto perfetto, o assolutamente sicuro, se, dopo aver intercettatto

Dettagli

Quale polinomio locatore ottiene il decodificatore? Quale parola propone in uscita? Commentare la scelta del decodificatore.

Quale polinomio locatore ottiene il decodificatore? Quale parola propone in uscita? Commentare la scelta del decodificatore. TIT - Esame del 21/1/2016 Una parola di BCH primitivo (15,11) con j 0 =1, è ricevuta con il bit c 4 errato Qual è il potere correttore del codice? Scrivere la Key Equation Determinare il polinomio locatore

Dettagli

Rappresentazione dell'informazione

Rappresentazione dell'informazione Rappresentazione dell'informazione Corrispondenza tra informazione I e sua rappresentazione P(I), composta da cifre ai di un alfabeto di simboli A I P(i) = {ai}, ai A Esempi di alfabeto: {a, b,..., z}

Dettagli

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media

Dettagli

Informatica, Informazione e Telecomunicazioni. La codifica dell informazione. Supporto e informazione. Il concetto di informazione

Informatica, Informazione e Telecomunicazioni. La codifica dell informazione. Supporto e informazione. Il concetto di informazione La codifica dell informazione Fondamenti di Informatica A Ingegneria Gestionale Università degli Studi di Brescia Docente: Prof. Alfonso Gerevini Informatica, Informazione e Telecomunicazioni l informatica

Dettagli

Informazione e sua rappresentazione: codifica

Informazione e sua rappresentazione: codifica Corso di Calcolatori Elettronici I Informazione e sua rappresentazione: codifica ing. Alessandro Cilardo Corso di Laurea in Ingegneria Biomedica Il concetto di informazione Qualunque informazione è definita

Dettagli

Informatica, Informazione e Telecomunicazioni. La codifica dell informazione. Il concetto di informazione. Supporto e informazione

Informatica, Informazione e Telecomunicazioni. La codifica dell informazione. Il concetto di informazione. Supporto e informazione La codifica dell informazione Elementi di Informatica e Programmazione Ingegneria Gestionale Università degli Studi di Brescia Docente: Prof. Ivan Serina Prof. Alfonso Gerevini Informatica, Informazione

Dettagli

Probabilità. Fulvio Bisi-Anna Torre

Probabilità. Fulvio Bisi-Anna Torre Probabilità Fulvio Bisi-Anna Torre FRATELLI E SORELLE Per la ricorrenza della festa della mamma, la sig.ra Luisa organizza una cena a casa sua, con le sue amiche che hanno almeno una figlia femmina. La

Dettagli

Informazione e sua rappresentazione: codifica

Informazione e sua rappresentazione: codifica Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Antonio Pescapè Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso

Dettagli

Informazione e sua rappresentazione: codifica. Il concetto di informazione

Informazione e sua rappresentazione: codifica. Il concetto di informazione Corso di Calcolatori Elettronici I A.A. 2011-2012 Informazione e sua rappresentazione: codifica Lezione 2 Prof. Roberto Canonico Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso

Dettagli

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) = 1 Esercizi settimana 3 Esercizio 1. Un urna contiene 8 palline bianche, 4 nere e rosse. Si assuma di vincere e ogni volta che si estragga una pallina nera, si perda 1e per ogni pallina bianca e non succeda

Dettagli

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione. Informatica Pietro Storniolo storniolo@csai.unipa.it http://www.pa.icar.cnr.it/storniolo/info267 Entropia e flusso di informazione di una sorgente La sorgente viene caratterizzata dal valor medio di I(x

Dettagli

PROBABILITÀ. a) 0,04 b) 0,8 c) 0,25 d) 0,64 e) 0,96

PROBABILITÀ. a) 0,04 b) 0,8 c) 0,25 d) 0,64 e) 0,96 QUESITI 1 PROBABILITÀ 1. (Da Medicina e Odontoiatria 2015) La probabilità con cui un paziente deve attendere meno di dieci minuti il proprio turno in un ambulatorio medico è 0,8. Qual è la probabilità

Dettagli

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) =

P(X > 0) = P(X 1 = 1) + P(X 1 = 1, X 2 = 1, X 3 = 1) = 1 Esercizi settimana 3 Esercizio 1. Un urna contiene 8 palline bianche, 4 nere e rosse. Si assuma di vincere e ogni volta che si estragga una pallina nera, si perda 1e per ogni pallina bianca e non succeda

Dettagli

Appunti del corso di Informatica 1 (IN110 Fondamenti) 5 Rappresentazione delle informazioni

Appunti del corso di Informatica 1 (IN110 Fondamenti) 5 Rappresentazione delle informazioni Università di Roma Tre Dipartimento di Matematica e Fisica Corso di Laurea in Matematica Appunti del corso di Informatica 1 (IN110 Fondamenti) 5 Rappresentazione delle informazioni Marco Liverani (liverani@mat.uniroma3.it)

Dettagli

Comunicazioni Elettriche II

Comunicazioni Elettriche II Comunicazioni Elettriche II Laurea Magistrale in Ingegneria Elettronica Università di Roma La Sapienza A.A. 27-28 Teoria dell informazione Esercitazione 7 Teoria dell informazione Sorgente Codificatore

Dettagli

Prova di esame di Trasmissione Numerica

Prova di esame di Trasmissione Numerica 19 Settembre 2013 Prova di esame di Trasmissione Numerica Parte quantitativa Candidato: Esercizio A Un collegamento radio tra antenne omnidirezionali poste a d = 20 KM e con portante f 0 = 27 MHz viene

Dettagli

CODIFICA DI SORGENTE. Schematizzazione generale sistema di comunicazione

CODIFICA DI SORGENTE. Schematizzazione generale sistema di comunicazione CODIFICA DI SORGENTE Informazione associata a sorgenti digitali, entropia Codifica di sorgenti senza memoria Codifica di sorgenti con memoria CODIFICA DI SORGENTE Schematizzazione generale sistema di comunicazione

Dettagli

Notazione posizionale. Codifica binaria. Rappresentazioni medianti basi diverse. Multipli del byte

Notazione posizionale. Codifica binaria. Rappresentazioni medianti basi diverse. Multipli del byte Codifica binaria Rappresentazione di numeri Notazione di tipo posizionale (come la notazione decimale). Ogni numero è rappresentato da una sequenza di simboli Il valore del numero dipende non solo dalla

Dettagli

Corso di Fondamenti di Telecomunicazioni

Corso di Fondamenti di Telecomunicazioni Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE Prof. Giovanni Schembra 1 Argomenti della lezione Definizioni: Sorgente di informazione Sistema di comunicazione Segnali trasmissivi determinati

Dettagli

Rappresentazione dei numeri

Rappresentazione dei numeri Corso di Calcolatori Elettronici I Rappresentazione dei numeri: sistemi di numerazione posizionale Prof. Roberto Canonico Università degli Studi di Napoli Federico II Dipartimento di Ingegneria Elettrica

Dettagli

Costruzione di macchine. Modulo di: Progettazione probabilistica e affidabilità. Marco Beghini. Lezione 3: Variabili aleatorie discrete notevoli

Costruzione di macchine. Modulo di: Progettazione probabilistica e affidabilità. Marco Beghini. Lezione 3: Variabili aleatorie discrete notevoli Costruzione di macchine Modulo di: Progettazione probabilistica e affidabilità Marco Beghini Lezione 3: Variabili aleatorie discrete notevoli Esperimenti binari ripetuti o esperimenti bernoulliani (Bernoulli

Dettagli

ESERCITAZIONE 5: PROBABILITÀ DISCRETA

ESERCITAZIONE 5: PROBABILITÀ DISCRETA ESERCITAZIONE 5: PROBABILITÀ DISCRETA e-mail: tommei@dm.unipi.it web: www.dm.unipi.it/ tommei Ricevimento: Martedi 16-18 Dipartimento di Matematica, piano terra, studio 126 6 Novembre 2012 Esercizi 1-2

Dettagli

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza

Dettagli

Codifica dell informazione

Codifica dell informazione Codifica dell informazione Gli algoritmi sono costituiti da istruzioni (blocchi sequenziali, condizionali, iterativi) che operano su dati. Per trasformare un programma in una descrizione eseguibile da

Dettagli

Codifica binaria: - numeri naturali -

Codifica binaria: - numeri naturali - Codifica binaria: - numeri naturali - Ingegneria Meccanica e dei Materiali Università degli Studi di Brescia Prof. Massimiliano Giacomin Tipologie di codici Per la rappresentazione di: caratteri alfabetici

Dettagli

Probabilità Condizionale - 1

Probabilità Condizionale - 1 Probabilità Condizionale - 1 Come varia la probabilità al variare della conoscenza, ovvero delle informazioni in possesso di chi la calcola? ESEMPIO - Calcolare la probabilità che in una estrazione della

Dettagli

L'Informazione e la sua Codifica. Maurizio Palesi

L'Informazione e la sua Codifica. Maurizio Palesi L'Informazione e la sua Codifica Maurizio Palesi 1 Obiettivo Il calcolatore è una macchina digitale Il suo linguaggio è composto da due soli simboli Gli esseri umani sono abituati a comunicare utlizzando

Dettagli

Corso di Calcolatori Elettronici I A.A Lezione 2 Rappresentazione dei numeri: sistemi di numerazione posizionale ing. Alessandro Cilardo

Corso di Calcolatori Elettronici I A.A Lezione 2 Rappresentazione dei numeri: sistemi di numerazione posizionale ing. Alessandro Cilardo Corso di Calcolatori Elettronici I A.A. 2012-2013 Lezione 2 Rappresentazione dei numeri: sistemi di numerazione posizionale ing. Alessandro Cilardo Accademia Aeronautica di Pozzuoli Corso Pegaso V GArn

Dettagli

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2006-07 Alberto Perotti Esperimento casuale Esperimento suscettibile di più risultati

Dettagli

Analogico vs. Digitale. LEZIONE II La codifica binaria. Analogico vs digitale. Analogico. Digitale

Analogico vs. Digitale. LEZIONE II La codifica binaria. Analogico vs digitale. Analogico. Digitale Analogico vs. Digitale LEZIONE II La codifica binaria Analogico Segnale che può assumere infiniti valori con continuità Digitale Segnale che può assumere solo valori discreti Analogico vs digitale Il computer

Dettagli

Compressione di Testo

Compressione di Testo Compressione di Testo Michelangelo Diligenti Dipartimento di Ingegneria dell Informazione Università di Siena Email: diligmic@dii.unisi.it http://www.dii.unisi.it/~diligmic/bdm2011 M. Diligenti 1 Lo standard

Dettagli

GRIGLIA DI CORREZIONE 2013 Matematica Classe V Scuola Primaria FASCICOLO 1

GRIGLIA DI CORREZIONE 2013 Matematica Classe V Scuola Primaria FASCICOLO 1 GRIGLIA DI CORREZIONE 2013 Matematica Classe V Scuola Primaria FASCICOLO 1 LEGENDA AMBITI: NU (Numeri), SF (Spazio e figure), DP (Dati e previsioni) LEGENDA PROCESSI: 1. Conoscere e padroneggiare i contenuti

Dettagli

1 Entropia: Riepilogo

1 Entropia: Riepilogo Corso: Gestione ed elaborazione grandi moli di dati Lezione del: 30 maggio 2006 Argomento: Entropia. Costruzione del modello di una sorgente. Codifica di Huffman. Scribes: Galato Filippo, Pesce Daniele,

Dettagli

Tecniche di compressione senza perdita

Tecniche di compressione senza perdita FONDAMENTI DI INFORMATICA Prof. PIER LUCA MONTESSORO Facoltà di Ingegneria Università degli Studi di Udine Tecniche di compressione senza perdita 2000 Pier Luca Montessoro (si veda la nota di copyright

Dettagli

Probabilità I. Concetto di probabilità. Definizioni di base: evento

Probabilità I. Concetto di probabilità. Definizioni di base: evento Concetto di probabilità Nozioni di eventi. Probabilità I Calcolo delle probabilità Definizioni di probabilità Calcolo di probabilità notevoli Probabilità condizionate Cos'è una probabilità? Idea di massima:

Dettagli

Frequenza lettere in inglese

Frequenza lettere in inglese Frequenza lettere in inglese Sequenza random (entropia log 27 = 4.75): XFOML RXKHRJFFJUJ ZLPWCFWKCYJ FFJEYVKCQSGHYDĚ Sequenza basata su frequenze (entropia circa 4.1): OCRO HLI RGWR NMIELWIS EU LL NBNESEBYAĚ

Dettagli

Corso di Informatica

Corso di Informatica CdLS in Odontoiatria e Protesi Dentarie Corso di Informatica Prof. Crescenzio Gallo crescenzio.gallo@unifg.it La Codifica 2 Informazioni Numeri Naturali Relativi Reali Testi Informazioni tradizionali Immagini

Dettagli

L Aritmetica del Calcolatore

L Aritmetica del Calcolatore L Aritmetica del Calcolatore Luca Gemignani luca.gemignani@unipi.it 23 febbraio 2018 Indice Lezione 1: Rappresentazione in Base e Numeri di Macchina. 1 Lezione 2: Aritmetica di Macchina. 3 Lezione 1: Rappresentazione

Dettagli

Probabilità I Calcolo delle probabilità

Probabilità I Calcolo delle probabilità Probabilità I Calcolo delle probabilità Nozioni di eventi. Definizioni di probabilità Calcolo di probabilità notevoli Probabilità condizionate Concetto di probabilità Cos'è una probabilità? Idea di massima:

Dettagli

Fondamenti di Informatica - 1. Prof. B.Buttarazzi A.A. 2011/2012

Fondamenti di Informatica - 1. Prof. B.Buttarazzi A.A. 2011/2012 Fondamenti di Informatica - 1 Prof. B.Buttarazzi A.A. 2011/2012 Sommario Rappresentazione dei numeri naturali (N) Rappresentazione dei numeri interi (Z) Modulo e segno In complemento a 2 Operazioni aritmetiche

Dettagli

Calcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012

Calcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012 Fisciano, 10/1/2012 Esercizio 1 Un esperimento consiste nel generare a caso un vettore di interi (x 1, x 2, x 3, x 4 ), dove x i {1, 2, 3, 4, 5, 6} i. (i) Si individui lo spazio campionario, determinandone

Dettagli

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A. 2004-05 Alberto Perotti DELEN-DAUIN Esperimento casuale Esperimento suscettibile di più

Dettagli

Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE

Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE Corso di Fondamenti di Telecomunicazioni 1 - INTRODUZIONE 1 Argomenti della lezione Definizioni: Sorgente di informazione Sistema di comunicazione Segnali trasmissivi determinati e aleatori Architettura

Dettagli