Fondamenti di Informatica. Cosa è l informazione. Informazione. Informatica e Comunicazione Digitale

Documenti analoghi
Fondamenti di Informatica. Cosa è l informazione. A cosa serve. Prof.V.L.Plantamura Informatica e Comunicazione Digitale a.a.

Fondamenti di Informatica. Cosa è l informazione. A cosa serve. Prof. V.L. Plantamura Informatica e Comunicazione Digitale a.a.

Fondamenti dell Informatica

Teoria dell Informazione

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

La teoria dell informazione

Si considerino due segnali analogici generati da sorgenti in banda base, con le seguenti caratteristiche:

Sicurezza di un Cifrario (C. Shannon)

La teoria dell informazione

1 Simulazione di prova d Esame di Stato

LAVORO DI UNA FORZA (1)

PROBABILITÀ E VARIABILI CASUALI

Preparazione alle gare di II livello delle Olimpiadi della Fisica 2014

Preparazione alle gare di II livello delle Olimpiadi della Fisica 2015

Teoria dell informazione

I moti. Daniel Gessuti

APPUNTI DI CALCOLO NUMERICO

STII/Teoria dell Informazione

Potenze, logaritmi, equazioni esponenziali e logaritmiche.

Informazione e Comunicazione

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

Il ciclo di base. La sequenza delle istruzioni. Interruzione. CPU - Memoria

Modello di sistema di comunicazione

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

10 Proprietà di Equipartizione Asintotica

che rappresenta l equazione differenziale del moto armonico. La soluzione dell equazione differenziale è espressa come

Liceo scientifico comunicazione opzione sportiva

Università di Napoli Parthenope Facoltà di Ingegneria

Meccanismi con sicurezza basata sul problema del logaritmo discreto

Comunicazioni Elettriche II

Elementi di teoria dell informazione e della trasmissione

Estrazione solido-liquido

Sorgenti discrete e informazione

Meccanica Dinamica del punto materiale

INTRODUZIONE ALLA TEORIA DEL TRAFFICO

Parte Terza: Codificare l informazione. Fondamenti di informatica

LA RETTA DI REGRESSIONE LINEARE E SISTEMI SOVRADETERMINATI

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

BIOLOGIA A. A CHIMICA

Gli strumenti necessari per lo studio

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

Roberto Maieli La trasmissione dell informazione

Informazione, Entropia e Probabilità

Di seguito, per semplicità, mostreremo esempi in cui il termine di destra della (*) f è costante nel tempo. %%%%%%%

Particella Libera. ne deriva che l Hamiltoniano è dato dalla somma degli Hamiltoniani rispettivi:

PRINCIPIO DI INDUZIONE

Lezione 12. Sottogruppi finiti di ordine fissato. I Teoremi di Sylow.

Facoltà di Ingegneria Prova scritta di Fisica I

8 Derivati dell entropia

Esercitazione 06: Verifica di strutture sollecitate a fatica

Chi sono e come contattarmi. Corso di Architettura degli Elaboratori. Bibliografia. Bibliografia (breaking news, sigh!)

intruso Sicurezza dei dati Sistema informatico dati S & D impiegano una codifica dei dati non standard e/o ridondante

Corso di Calcolatori Elettronici I

Università degli studi di Salerno corso di studi in Ingegneria Informatica TUTORATO DI FISICA. Lezioni 2/3 - Meccanica del punto materiale

Esercizi di Formulazione

IL RILIEVO TRADIZIONALE LE TRIANGOLAZIONI

Lezione n.15. Doppi bipoli

1. Quale delle seguenti affermazioni è corretta? (riscrivere la risposta corretta per esteso e solo sul foglio protocollo, non qui sotto): [4 punti]

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore

MODELLO ATOMISTICO PER I DATI OCSE SULL ISTRUZIONE

Reti Logiche Appello del 9 gennaio 2007 Seconde prove

CODICI CORRETTORI E RIVELATORI DI ERRORE

Figura 1: Modello del robot.

Informazione binaria: Codici per la rilevazione e correzione di errori

Esercizio (tratto dal Problema 2.6 del Mazzoldi)

TEORIA DELLA STIMA SET MEMBERSHIP

ELEMENTI DI LOGICA MATEMATICA LEZIONE X

Analisi delle correnti di Na secondo Hodgkin e Huxley. Prof. Mauro Toselli Dip. Biologia e Biotecnologie Università di Pavia

CAPITOLO 20 IL MODELLO MICROSCOPICO DELLA MATERIA ( ) ( ) ( ) " ( 1,50 "10 #3 m 3 ) ( ) ( ) = 1,0!10 5 Pa 3! 0,20 m 3 = 3,0 "10 2 K.

E UNO SPRECO INGIUSTIFICATO DI ENERGIA!

ANALISI DI SERIE TEMPORALI CAOTICHE

Preparazione alle gare di II livello delle Olimpiadi della Fisica 2017

Esercizio (tratto dal Problema 4.7 del Mazzoldi 2)

Informatica. Caratterizzazione del canale I simboli emessi dalla sorgente passano attraverso un canale di trasmissione.

PRINCIPIO DI INDUZIONE. k =. 2. k 2 n(n + 1)(2n + 1) 6

A. Teta APPUNTI DI MECCANICA RAZIONALE. Sistemi unidimensionali. a.a. 2016/17

Approssimazione secondo il criterio dei minimi quadrati (caso. discreto) sistema sovradeterminato m > n

Domanda per il rilascio di una concessione per una derivazione da un corso d' acqua pubblica a scopo idroelettrico (< 3000 kw)

La lezione di oggi. Equilibrio statico e dinamico. Leve. L elasticità in un solido e la legge di Hooke

Maturità scientifica P.N.I Q.1

Oligopolio. Lezione 25. Oligopolio. Oligopolio. Determinazione simultanea della quantità. Determinazione simultanea della quantità

TRASLAZIONI E DILATAZIONI

CRITTOGRAFIA CLASSICA PRINCIPI E CLASSIFICAZIONI

5.2 PROVE NON DISTRUTTIVE SULLE MURATURE Martinetti piatti L uso dei martinetti piatti nella diagnosi dello stato delle murature ha due -

Il Tableau M M O M M M M M M M M O M M M M. valore dell obiettivo (soluzione corrente) coeff. dell obiettivo. nomi delle variabili fuori base

Corso di Fondamenti di Informatica. Dispensa 9: Composizione di Classi. Prof. Domenico Rosaci

BIOLOGIA A. A CHIMICA

Firme digitali. Firma Digitale. Firma Digitale. Elementi di Crittografia Equivalente alla firma convenzionale

Meccanica Dinamica del punto materiale

Equalizzazione. (k) e cioè l uscita, campionata, dal filtro adattato) e Ah Gh. (1/ z ) la sua fattorizzazione, la

Corso di Dinamica e Modellistica degli Inquinanti Anno 2017 Modelli di riferimento per la dispersione di inquinanti in aria

Matematica e crittografia

Sicurezza di RSA. La decrittazione di un testo cifrato con RSA

Capitolo 1 Fisica, grandezze, unità di misura, metodo scientifico.

UNITÀ 1 LA MISURA DELLE GRANDEZZE FISICHE 1. Che cos è la Fisica. La fisica è una scienza sperimentale che studia i fenomeni naturali.

VALUTAZIONE INCERTEZZA DI MISURA

Modelli di Sistemi. Modelli concettual di supporto allo studio dei sistemi distribuiti Modelli architetturali

Transcript:

Inforatica e Counicazione Digitale Fondaenti di Inforatica rof.ssa E. Gentile a.a. 20-202 Cosa è l inforazione L inforazione è qualcosa che si possiede e si può dare ad un altro senza perderne il possesso. rof.ssa E. Gentile Fondaenti di Inforatica 2 Inforazione L Inforazione non attesa non può essere ricevuta Essa richiede una incertezza da parte di colui che la riceve Non deve essere Abigua. rof.ssa E. Gentile Fondaenti di Inforatica 3

A cosa serve er risolvere una incertezza er prendere decisioni er risolvere problei rof.ssa E. Gentile Fondaenti di Inforatica 4 Condizioni necessarie Sorgente e Ricevente hanno un codice in coune L incertezza del Ricevente è tra un nuero ben definito di possibilità rof.ssa E. Gentile Fondaenti di Inforatica 5 Messaggio Il Sorgente [S] produce un Messaggio [M] Il Messaggio odifica lo stato del Ricevente [R] S M R rof.ssa E. Gentile Fondaenti di Inforatica 6 2

Definizione di Inforazione Livello seantico: il significato Livello sintattico: la fora o struttura Livello pragatico: reazione del ricevente rof.ssa E. Gentile Fondaenti di Inforatica 7 Struttura dell inforazione La struttura delle inforazioni influisce sui tepi di accesso alle inforazioni stesse La struttura delle inforazioni nasconde l inforazione rispetto ad accessi diversi da quelli per cui la struttura è stata creata rof.ssa E. Gentile Fondaenti di Inforatica 8 Codice Nuero o sigla alfanuerica sostituente, allo scopo di facilitare il trattaento delle inforazioni, la descrizione di cose, persone e situazioni. (Voc. Zanichelli) In senso inforatico è una regola per far corrispondere dei noi (i dati) a degli oggetti (le inforazioni) rof.ssa E. Gentile Fondaenti di Inforatica 9 3

Definizione di Shannon L inforazione è tutto ciò che può consentire di ridurre il nostro grado di incertezza su un evento che si può verificare rof.ssa E. Gentile Fondaenti di Inforatica 0 rocesso counicativo È coposto da cinque parti: Un ittente: che produce un essaggio da counicare ad un altra entità Un trasettitore: che codifica il essaggio in odo che possa viaggiare su un canale di counicazione Un canale di counicazione Un ricevitore: che riceve ciò che viaggia sul canale e lo decodifica per riconoscere il essaggio Un destinatario: al quale giunge un essaggio rof.ssa E. Gentile Fondaenti di Inforatica Ipotesi di Shannon La trasissione dei siboli lungo il canale costituisce un fenoeno discreto Ovvero, l invio di ciascun sibolo richiede una certa quantità di tepo, finita e non nulla Esiste una sorgente di ruore Agisce sul canale odificando il contenuto sintattico dell inforazione, la sua fora rof.ssa E. Gentile Fondaenti di Inforatica 2 4

rocesso counicativo di Shannon S T R D N S = Sorgente; T = Trasettitore; R = Ricevitore; D = Destinatario; N = Sorgente di Ruore rof.ssa E. Gentile Fondaenti di Inforatica 3 roblei da affrontare Coe isurare la quantità di inforazione che viaggia lungo il canale Coe garantire trasissioni sicure Coe garantire trasissioni affidabili rof.ssa E. Gentile Fondaenti di Inforatica 4 Definizione di Entropia L entropia è la isura del disordine di un sistea iù ordinato o strutturato è un sistea inore è l entropia e viceversa rof.ssa E. Gentile Fondaenti di Inforatica 5 5

Inforazione Il BIT è la quantità di Inforazione che risolve un incertezza Binaria 0 X = {x,, x n } insiee di caratteri che può essere trasesso (x i ) la probabilità che x i sia trasesso ( x ) I i = log2 ( x ) i rof.ssa E. Gentile Fondaenti di Inforatica 6 Concetto di Incertezza iù grande è la nostra incertezza su ciò che dovrà contenere un essaggio, e aggiore sarà l inforazione che ricevereo quando il essaggio sarà arrivato rof.ssa E. Gentile Fondaenti di Inforatica 7 Misura dell inforazione È dunque logico fondare la isura dell inforazione associata ad un essaggio sulla probabilità che il essaggio stesso si verifichi rof.ssa E. Gentile Fondaenti di Inforatica 8 6

Sistea discreto Supponiao che il sorgente eette siboli discreti, ciascuno dei quali si suppone abbia la stessa durata degli altri Uno dei odi più seplici di specificare l inforazione contenuta in un sibolo discreto consiste nel prendere il logarito, cabiato di segno, della probabilità che tale sibolo venga eesso. rof.ssa E. Gentile Fondaenti di Inforatica 9 Misura dell inforazione H = log H indica la isura dell inforazione è la probabilità del sibolo Il logarito è in una base che deterina l unità di isura dell inforazione H = log2 bit rof.ssa E. Gentile Fondaenti di Inforatica 20 Inforazione edia di più siboli Si consideri una sorgente avente i tre siboli A, B e C, che vengono eessi con probabilità (A), (B) e (C) L inforazione associata ad A è: H A = log2 a per A che viene eesso per circa (a)-esii di tepo ( ) ( ) bit rof.ssa E. Gentile Fondaenti di Inforatica 2 7

Entropia della sorgente er una sorgente x, con siboli, se l i-esio sibolo ha una probabilità (i) H ( x) = ( i) log ( i) i= H prende il noe di entropia della sorgente bit/secondo rof.ssa E. Gentile Fondaenti di Inforatica 22 roprietà uno Se tutte le (i), una sola esclusa, sono nulle, allora H(x)=0 non essendovi incertezza sul risultato, non v è neppure inforazione rof.ssa E. Gentile Fondaenti di Inforatica 23 roprietà due Se tutte le (i) sono uguali i = allora H(x) è assia: H = ( ) ( x) log = log = rof.ssa E. Gentile Fondaenti di Inforatica 24 8

roprietà tre Siano in gioco due siboli, x e y, con possibilità per x e n per y Se (i,j) è la probabilità congiunta dell eissione dell i-esio sibolo di x e dell j-esio sibolo di y, allora l entropia della sorgente doppia è definita da: H n ( x, y) = ( i, j) log ( i, j) i= j= rof.ssa E. Gentile Fondaenti di Inforatica 25 Indipendenza dei siboli La relazione precedente include le sorgenti discrete in cui i siboli non sono indipendenti Esiste una effettiva interdipendenza fra i siboli la cui influenza può essere introdotta nell entropia rof.ssa E. Gentile Fondaenti di Inforatica 26 Interdipendenza Siano x e y due gruppi di siboli coe nella proprietà 3 er ogni valore i che x può assuere esiste una probabilità condizionale (i j) che y valga j rof.ssa E. Gentile Fondaenti di Inforatica 27 9

Entropia Condizionale L entropia condizionale di y sotto la condizione che lo preceda x è: H n ( y x) = ( i, j) log ( j i) i= j= rof.ssa E. Gentile Fondaenti di Inforatica 28 robabilità congiunte Le probabilità congiunte sono legate a quelle condizionali dalla relazione: ( i, j) = ( i) ( j i) Sostituendo questa relazione in quella definita nella proprietà 3 si ha: H n ( x, y) = ( i) ( j i) log ( i) ( j i) i= j= rof.ssa E. Gentile Fondaenti di Inforatica 29 ossia H n ( x, y) = ( i) ( j i) log ( i) ( i, j) log ( j i) Se i è costante: j= e quindi: i= j= i= j= ( i) ( j i) log ( i) = ( i) log ( i) H ( x, y) = n ( i) log ( i) ( i, j) log ( j i) i= i= j= n rof.ssa E. Gentile Fondaenti di Inforatica 30 0

Entropia Congiunta Il prio terine non è altro che H(x), entre il secondo terine è H(y x) ( x, y) = H ( x) + H ( y x) H Se i siboli sono indipendenti allora: ( x, y) = H ( x) H ( y) H + rof.ssa E. Gentile Fondaenti di Inforatica 3 Entropia Congiunta Se due sorgenti producono una successione di siboli che non hanno relazioni o legai fra loro, allora l entropia congiunta di una coppia di siboli qualsiasi è data dalla soa delle entropie relative ai due siboli rof.ssa E. Gentile Fondaenti di Inforatica 32 Esepio Si consideri il lancio di una oneta Sia all uscita testa che croce è associata una inforazione pari a: log = bit 2 L inforazione edia o entropia è: H = log log = bit sibolo 2 2 2 2 rof.ssa E. Gentile Fondaenti di Inforatica 33

Esepio 2 Consideriao una sorgente con 6 siboli A, B, C, D, E, F le cui probabilità sono: ( A) = 2 ( B) = 4 ( C) = 8 ( D) = 6 ( E) = 32 ( F ) = 32 rof.ssa E. Gentile Fondaenti di Inforatica 34 L inforazione edia 2 H = log 2 log 6 + 4 + 6 log 4 log 32 + 8 + 32 log 8 + log 32 32 = 5 bit 6 sibolo rof.ssa E. Gentile Fondaenti di Inforatica 35 Entropia in bit al secondo L entropia espressa in bit per sibolo è indicata con H L entropia isura in bit/secondo è indicata con H Se s è il tasso di invio dei siboli (nuero di bit trasessi in un secondo) allora: H =sh rof.ssa E. Gentile Fondaenti di Inforatica 36 2

Esepio 3 (i) (j i) (i,j)=(i)(j i) i (i) i i A B C i i A B C A 9/27 A 0 4/5 /5 A 0 4/5 /5 B 6/27 B /2 /2 0 B 8/27 8/27 0 C 2/27 C /2 2/5 /0 C /27 4/35 /35 rof.ssa E. Gentile Fondaenti di Inforatica 37 Ridondanza È evide te che la pres nza di una interd pendenza fra i siboli dii uisce l entropia della sorge te rispetto ad una che ab ia siboli tutti indip ndenti. Una successione di siboli che dipendono gli uni dagli altri si dice ridondante Misuriao la ridondanza di una successione di siboli calcolando di quanto è stata ridotta l entropia La ridondanza è quindi definita coe: H E = H ( y x) ( x) rof.ssa E. Gentile Fondaenti di Inforatica 38 Canale discreto La capacità di trasettere inforazioni in un canale discreto si può isurare ediante il nuero di bit per unità di tepo che possono venire trasessi La capacità è quindi: C = li T log N T ( T ) rof.ssa E. Gentile Fondaenti di Inforatica 39 3

Teorea Siano H (bit/sibolo) e C (bit/secondo), rispettivaente, l entropia di una sorgente e la capacità di un canale senza ruore; È possibile codificare i siboli eessi dalla sorgente in odo di trasettere in edia: (C/H)-ε siboli al secondo ove ε è un nuero positivo arbitrario (<C/H). Non è possibile trasettere con velocità superiore a C/H siboli al secondo. rof.ssa E. Gentile Fondaenti di Inforatica 40 Esepio oniao a 20 persone la doanda: Sei destro o ancino? La risposta sarà D=Destro o M=Mancino e sono equiprobabili e indipendenti: Supponiao che la risposta sia trasessa nell ordine giusto in cui è data: DDDMDDMDMDDDMD Non ci basta sapere quanti sono D e quanti M rof.ssa E. Gentile Fondaenti di Inforatica 4 Efficienza di codificazione Se diciao efficienza di codificazione il rapporto fra entropia del essaggio originale e la capacità di canale richiesta, risulta che nell esepio: 0,2864 η c = 00% = 84,6% 0,35 rof.ssa E. Gentile Fondaenti di Inforatica 42 4

Canali discreti con ruore Consideriao ora il caso in cui la trasissione non è perfetta a causa della presenza di ruore nel canale. Supponiao che il disturbo su un sibolo sia indipendente dai siboli precedenti e successivi. rof.ssa E. Gentile Fondaenti di Inforatica 43 Entropie H(x) = entropia della sorgente o d ingresso del canale H(y) = entropia del ricevente o d uscita del canale H(y/x) = entropia dell uscita, nota l entrata H(x/y) = entropia dell entrata, nota l uscita H(x,y) = entropia congiunta dell ingresso e dell uscita Relazioni H(x,y) = H(x) + H(y/x) H(x,y) = H(y) + H(x/y) rof.ssa E. Gentile Fondaenti di Inforatica 44 Sistea ideale di counicazioni Osservatore + Sorgente Trasettitore Ricevitore + Dispositivo di correzione r(t) rof.ssa E. Gentile Fondaenti di Inforatica 45 5

Canale binario sietrico -p 0 0 p H(x) H(y) p -p Sorgente Ricevente rof.ssa E. Gentile Fondaenti di Inforatica 46 L inforazione ( ) ( ) ( ) ( ) ( ) ( ) nessunerrore = 0 = è + è0 0 0 Ossia: ( 0) = ( p) + ( p) = p 2 2 La probabilità che l osservatore invii un è: = 2 2 ( errore) = ( ) = p + p p L entropia del segnale è: ( p) log( p) p log p rof.ssa E. Gentile Fondaenti di Inforatica 47 Tasso di trasissione del canale τ = ( x) H ( x y) bit sec H H(x/y) viene detto equivocazione e rappresenta l inforazione perduta per la presenza di ruore nel canale rof.ssa E. Gentile Fondaenti di Inforatica 48 6

Capacità di un canale discreto senza ruore { H ( x) H ( x y) } bit sec C = ax rof.ssa E. Gentile Fondaenti di Inforatica 49 7