APPUNTI DI TEORIA DEI CODICI

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "APPUNTI DI TEORIA DEI CODICI"

Transcript

1 UNIVERSITÀ DI CATANIA FACOLTÀ DI INGEGNERIA APPUNTI DI TEORIA DEI CODICI Autori: L. Cauchi V. La Terra R. Grasso F. Gullo Coperto da diritti di c copyright

2 Ho letto questi appunti scritti da Lucia Cauchi, Rosario Grasso, Valeria La Terra e Francesco Gullo, studenti che hanno seguito il mio corso di Teoria dei Codici negli anni accademici , e Lucia, Rosario e Valeria hanno contribuito alla stesura dei primi sei capitoli, mentre Francesco ha scritto il settimo. Ho deciso di inserirli nella mia pagina web perchè rispecchiano pienamente le mie lezioni e sono sicuro che essi riusciranno ad essere un ulteriore aiuto didattico agli studenti che hanno seguito e seguiranno il corso di Teoria dei Codici. Ringrazio Lucia Cauchi, Rosario Grasso, Valeria La Terra e Francesco Gullo, per la loro disponibilità a condividere liberamente il loro spontaneo lavoro, coperto da diritti di copyright legali e informatici, con tutti i loro colleghi e con il docente. Mi corre l obbligo di ringraziare il Professore Dean Hoffman che mi ha permesso, nel 1997, di seguire presso l Università di Auburn (USA) il suo corso di Coding Theory. Faccio inoltre presente che tali appunti nella parte riguardante la Teoria dei Codici trovano principale fonte bibliografica nel testo Coding Theory and Cryptography scritto da D. Hankerson, D. Hoffman, D.Leonard, C. Lindner, C. Rodger, K. Phelps, J. Wall. Lorenzo Milazzo

3 Indice 1 Cenni di Teoria dell Informazione I primi concetti Schema di codifica Codici univocamente decifrabile e istantanei Codici ottimi Algoritmo di Huffman La funzione entropia Proprietà della funzione entropia I Primi concetti Introduzione Probabilità e distanza Peso ed errore Prime tecniche di codifica Individuazione di errore Correzione di errore Codici lineari Introduzione Prodotto scalare in K n i

4 INDICE 3.3 Matrice generatrice Matrice di parità Algoritmo di generazione di H Coset Sindrome Codici perfetti Cardinalità di un codice C Codici MDS Codici estesi Codici perfetti Codice di Hamming Codice di Golay esteso Codici ciclici Polinomi su K Parole di C e polinomi Codici ciclici Codice ciclico e polinomi di K n Matrice generatrice Sindrome e matrice di parità Campi finiti e codici 2 - BCH Polinomio primitivo Campi finiti di Galois Polinomio minimo Codici di Hamming Codici 2-BCH ii

5 INDICE 6.6 Schema di codifica per codici 2-BCH Codici Reed Solomon Introduzione Codici Reed Solomon Correzione di un codice RS(2 r, δ) iii

6 Capitolo 1 Cenni di Teoria dell Informazione 1.1 I primi concetti Si definisce S 0 sorgente di un codice una coppia S 0 = (S, P ) dove S = {s 1, s 2,, s n } è un insieme finito di eventi che, come vedremo in seguito, si associano alle parole di un codice, e P = {p(s 1 ), p(s 2 ),..., p(s n )} è una distribuzione di probabilità sugli eventi di S, dove p(s i ) = p i, con 0 p i 1 e i p i = 1. Si definisce alfabeto di un codice l insieme finito di caratteri A = {a 1, a 2,, a r }, nel caso in cui il numero di simboli in A è r (cioè A = r) si dice che l alfabeto genera un codice r-ario, in questi appunti (soprattutto dal capitolo 2) saranno per lo più trattati casi in cui alfabeto è costituito da solo due caratteri e in particolare l alfabeto A = {0, 1}, tali codici sono detti binari. Una sequenza di caratteri u = a i1, a i2,..., a in è detta stringa e in essa possono esistere caratteri ripetuti. Il numero di caratteri presenti in una stringa u è detto lunghezza della stringa ed essa è rappresentata dalla simbologia l(u). Indichiamo con A l insieme di tutte le possibili stringhe che si possono formare con i caratteri dell alfabeto (indipendentemente dalla lunghezza). Se una stringa non ha caratteri si dice che essa è la stringa nulla. 1

7 1.2 Schema di codifica Si definisce codice C = {c 1, c 2,, c n } un particolare sottoinsieme finito di A, cioè C A, gli elementi c i di C sono detti parole del codice. È possibile avere codici con parole che hanno lunghezza differente oppure codici le cui parole hanno tutte la stessa lunghezza, in tal caso il codice è detto a blocchi. 1.2 Schema di codifica Se S 0 = (S, P ) è una sorgente di un codice, si definisce schema di codifica per S 0 la coppia ordinata (C, f), dove f : S C è un applicazione iniettiva detta funzione di assegnazione. Tale funzione definisce una corrispondenza uno a uno tra gli elementi di S con le parole del codice C. Si definisce lunghezza media l c di un codice C la quantità: n l c = p i l(f(s i )), (1.1) i=1 dove l(f(s i )) è la lunghezza della parola del codice f(s i ) che corrisponde all evento s i di probabilità p i, tale probabilità assume il valore della probabilità legata alla parola f(s i ). Un codice C 1 si dice più efficiente del codice C 2 se l C1 < l C2. Vediamo adesso di capire quando si usano codici a blocchi o codici a lunghezza variabile e in tal caso cerchiamo di stabilire un criterio di assegnazione che permetta di definire una funzione di assegnazione più conveniente. Esempio 1 Dato l insieme S = {a, b, c, d} con P definita nel seguente modo: p(a) = 2 17, p(b) = 2 17, p(c) = 9 17 e p(d) = Sia C 1 = {0, 11, 10, 100} il codice a lunghezza variabile e l applicazione f 1 : S C 1 così definita: f 1 (a) = 11, f 1 (b) = 0, f 1 (c) = 100 e f 1 (d) = 10. La lunghezza media di tale codice è: 2

8 1.2 Schema di codifica l1 = n 2 p i l(f(s i )) = = (1.2) i=1 Si consideri adesso un secondo codice C 2 = {00, 10, 11, 01010} e l applicazione f 2 : S C 2 così definita: f 2 (a) = 01010, f 2 (b) = 00, f 2 (c) = 10 e f 2 (d) = 11. Analogamente a quanto fatto per C 1 calcoliamo la sua lunghezza media: l2 = n 2 p i l(f(s i )) = = (1.3) i=1 Si vede facilmente che il codice C 2 è più efficiente del codice C 1. L esempio 1 mostra la particolarità che il codice C 2 che contiene la parola più lunga ha una lunghezza media minore, ciò è dovuto al fatto che in tale codice la funzione di assegnazione associa la parola più lunga del codice alla probabilità minore. Dall esempio precedente si evince inoltre che quando si ha una conoscenza più dettagliata del sistema mediante la distribuzione di probabilità P, allora è conveniente usare un codice a lunghezza variabile. L esempio che segue mostra maggiormente quando detto e in modo più generale. Esempio 2 Sia un codice non a blocchi definito dalla sorgente S = {s 1, s 2, s 3, s 4, s 5 } e p(s 1 ) = 1 ɛ e p({s 2, s 3, s 4, s 5 }) = ɛ. Se si utilizza un codice a blocchi binario con due caratteri non si riescono a rappresentare tutti gli eventi di S perchè esso può contenere al massimo 4 parole (2 2 = 4), quindi è necessario utilizzare un codice a blocchi di 3 caratteri che permette di rappresentare fino a 8 parole (2 3 = 8). È evidente che un codice a blocchi di lunghezza tre ha sempre lunghezza media tre e ciò è indipendente dalla distribuzione P. Se invece è utilizzato un codice a lunghezza variabile definito dalla seguente funzione di codifica: f(s 1 ) = 0 e f(s 2 ) = 111, f(s 3 ) = 101, f(s 4 ) = 001, f(s 5 ) = 110 si ha che la lunghezza media di tale codice è: l c = n i=1 p il(f(s i )) = 1 p(s 1 ) + 3 p(s 2 ) + 3 p(s 3 ) + 3 p(s 4 ) + 3 p(s 5 ) = 3

9 1.3 Codici univocamente decifrabile e istantanei 1 p(s 1 ) + 3 (p(s 2 ) + p(s 3 ) + p(s 4 ) + p(s 5 )) essendo ɛ < 1. l c = (1 ɛ) + 3 ɛ = ɛ < 3, (1.4) L esempio 2 mostra chiaramente che quando non si ha una distribuzione P uniforme è più conveniente usare un codice a lunghezza variabile perchè permette di realizzare un codice più efficiente, se invece P definisce una distribuzione uniforme allora in questo caso conviene utilizzare un codice a blocchi e sfruttare la teoria dei codici che verrà presentata nei capitoli seguenti che permette migliori possibilità di individuazione e correzione di errore. 1.3 Codici univocamente decifrabile e istantanei Prima di affrontare le problematiche inerenti alla correzione degli errori che possono accadere in una trasmissione di un codice in questa sessione si affronterà il problema della lettura di una stringa costituita dalle parole di un codice C. Consideriamo ad esempio il codice C = {0, 01, 001}, ci si accorge subito che la stringa 001 letta da sinistra verso destra può essere interpretata in due modi differenti: essa può contenere l unica parola del codice 001 oppure la sequenza delle due parole 0 e 01. L esempio precedente mostra un ambiguità che può essere risolta definendo dei codici particolari che permettono la lettura delle stringhe in maniera unica. È evidente che un codice a blocchi di lunghezza n non presenta tali problematiche in quanto la lettura di ogni singola parola viene effettuata con intervalli di n caratteri. Se un codice C è a lunghezza variabile si dice che esso è univocamente decifrabile se, date le due parole c 1, c 2,..., c k e d 1, d 2,..., d f, allora si ha che c 1, c 2,..., c k = d 1, d 2,..., d f se e solo se k = f e c l = d l per 1 l k. 4

10 1.3 Codici univocamente decifrabile e istantanei Da tale proprietà segue che un codice univocamente decifrabile è un codice che consente una lettura di una sua stringa da sinistra a destra senza generare ambiguità. Esempio 3 Il C = {1, 10, 100} è un codice decifrabile perchè qualunque stringa formata dalle sue parole è sempre leggibile in quanto il carattere 1 individua l inizio di ogni singola parola. Nella seguente stringa u = 1/10/100/1/1/1/1 si è posto il simbolo / per evidenziare meglio l inizio di ogni parola contenuta in essa. Un altra proprietà legata alla lettura delle stringhe di un codice C è quella legata alla necessità di riconoscere le parole del codice appena esse sono state ricevute, se un codice C ha questa proprietà esso è detto codice istantaneo. Esempio 4 Il codice C = {1, 01, 001} è un codice decifrabile e istantaneo, perchè al termine di ogni parola viene posto il carattere 1 che garantisce il termine di ogni singola parola, tale codice viene chiamato comma code. Il codice decifrabile descritto nell esempio 3 invece non ha le caratteristiche di essere istantaneo, infatti se ad esempio si è ricevuta la parola 10, non possiamo dire subito se siamo in presenza della parola 10 o se quello che abbiamo ricevuto è solo una parte della parola 100 ciò si può affermare solo alla ricezione del carattere successivo. Tutti i codici che sono istantanei sono chiaramente decifrabili, ma non è detto che un codice decifrabile sia istantaneo, ciò si deduce dalle considerazioni fatte nell esempio 4. NB: Tutti i codici a blocchi sono decifrabili e istantanei. I codici istantanei godono della proprietà del prefisso. Proprietà 1 (del prefisso) In un codice istantaneo C nessuna parola è prefisso (è posta all inizio) di un altra parola del codice, vale anche il viceversa. 5

11 1.3 Codici univocamente decifrabile e istantanei La dimostrazione della proprietà 1 è immediata ed essa è importante in quanto caratterizza i codici istantanei. Per i codici istantanei si ha il seguente teorema di Kraft. Teorema 1 (di Kraft) Se C è un codice r-ario istantaneo costituito da n parole di lunghezza l i, con 1 i n, allora deve essere verificata la disuguaglianza di Kraft: n 1 r l i i=1 1. (1.5) Se esistono n interi positivi l 1, l 2,..., l n e r che verificano la disuguaglianza di Kraft, allora esiste un codice istantaneo con n parole di lunghezza l 1, l 2,..., l n. Dim. Dimostriamo la prima parte del teorema. Sia C un codice costituito dalle parole {c 1, c 2,..., c n } aventi rispettivamente lunghezza l 1, l 2,..., l n. Sia L = max {l 1, l 2,..., l n }, consideriamo la parola c i di lunghezza l i dove c i = x 1 x 2...x li, costruiamo una stringa di lunghezza L, u i = x 1 x 2...x li y li +1y li +2...y L, dove i primi l i caratteri sono la parola c i mentre gli ultimi L l i caratteri y j con l i + 1 j L sono caratteri scelti tra gli r caratteri dell alfabeto del codice C senza restrizioni e con la possibilità di essere ripetuti. Il numero totale di differenti stringhe di tipo u i è r L l i (ciò perchè i primi l i caratteri in u i rimangono sempre invariati), inoltre si ha che tutte le stringhe u i formate non possono essere parole del codice C in quanto esso è istantaneo e gode della proprietà del prefisso. Ripetiamo tale procedura su ogni singola parola c i del codice per 1 i n, per ognuna di esse si formano r L l i stringhe differenti tutte di lunghezza L. Sommando su i si ottiene: 6

12 1.3 Codici univocamente decifrabile e istantanei n r L l i = i=1 n i=1 r L r l i (1.6) La quantità espressa dalla (1.6) esprime il numero totale di stringhe u i che si ottiene da ogni singola parola del codice c i con 1 i n ed esse sono tutte distinte e di lunghezza L. Il valore r L esprime il numero totale di stringhe differenti di lunghezza L che si possono formare con un alfabeto r-ario, ne segue che valgono le seguenti disuguaglianze. n i=1 r L r l i = r L n i=1 1 r l i r L n i=1 1 r l i 1. (1.7) La (1.7) verifica la disuguaglianza di Kraft e la prima parte del teorema è provata. Dimostriamo la seconda parte del teorema. Determiniamo un algoritmo che permette di determinare un codice istantaneo che abbia n parole rispettivamente di lunghezza l 1, l 2,..., l n. Se α 1 è il numero delle parole del nostro codice istantaneo C di lunghezza 1, allora è necessario che α 1 < r; se α 2 è il numero di parole di lunghezza 2 di C, allora tale valore deve essere minore del numero totale di parole distinte di lunghezza 2 che si possono formare con un alfabeto di r simboli, inoltre poichè C è un codice istantaneo per esso vale la proprietà del prefisso ed è quindi necessario eliminare tutte le parole di lunghezza 2 che hanno come prefisso le parole del codice di lunghezza 1, cioè deve valere la seguente diseguaglianza: α 2 < r 2 α 1 r. Analogamente se α 3 è il numero di parole del codice C con lunghezza 3 allora deve valere la seguente disuguaglianza: α 3 < r 3 α 1 r 2 α 2 r. (1.8) 7

13 1.3 Codici univocamente decifrabile e istantanei Dove il primo termine del secondo membro della (1.8) rappresenta il numero totale di parole distinte di lunghezza 3 che si possono formare con un alfabeto di r simboli a cui bisogna sottrarre le parole di lunghezza 3 che hanno come prefisso le parole del codice di lunghezza 2 (secondo termine del secondo membro nella disuguaglianza (1.8)) e le parole di lunghezza 3 che hanno come prefisso le parole del codice di lunghezza 1 (terzo termine del secondo membro nella disuguaglianza (1.8)). Se m è la massima lunghezza del codice C ( N.B. possono esistere lunghezze uguali cioè l i = l j ) e consideriamo tutti i possibili α i per 1 i m, il codice istantaneo esiste se ognuna delle seguenti disuguaglianze è vera. α 1 < r α 1 r + α 2 < r 2 α 1 r 2 + α 2 r + α 3 < r 3. (1.9). α 1 r m 1 + α 2 r m α m r m Vediamo cosa accade, ad esempio, se la terza disuguaglianza α 1 r 2 + α 2 r + α 3 < r 3 è vera. Tutti i suoi termini sono positivi, quindi si ha che vale anche la seguente disuguaglianza α 1 r 2 + α 2 r < r 3 ; è possibile dividere ambo i membri di quest ultima disuguaglianza per r, si ottiene α 1 r + α 2 < r 2, cioè anche la seconda disuguaglianza delle (1.9) è vera, seguendo un analogo procedimento è facile verificare che anche la prima disuguaglianza delle (1.9) è vera. Sfruttando la metodologia usata nel precedente caso particolare si può affermare che se una delle disuguaglianze della (1.9) è vera allora sono vere tutte le disuguaglianze che la precedono. Osserviamo l ultima disuguaglianza delle (1.9), se dividiamo ambo i membri per r m si ha: 8

14 1.3 Codici univocamente decifrabile e istantanei α 1 r + α 2 r α m r m 1, cioè m i=1 α i r i = n 1 r l i i=1 1. Tale disuguaglianza è la disuguaglianza di Kraft ed è vera per le ipotesi del teorema, quindi sono vere tutte le disuguaglianze che la precedono nella (1.9) e il teorema è provato. È importante notare che la seconda parte della dimostrazione del teorema precedente afferma che se un codice verifica la disuguaglianza di Kraft non è detto che esso sia istantaneo (vedi dall esempio 6), ma afferma che se è verificata la disuguaglianza di Kraft per i parametri l 1, l 2,..., l n e r, allora è possibile costruire un codice istantaneo r-ario con parole di lunghezza l 1, l 2,..., l n mediante l algoritmo presentato dalla dimostrazione del teorema di Kraft. Esempio 5 Consideriamo un codice 3-ario definito dall alfabeto A = {0, 1, 2} si vuole vedere se esiste un codice istantaneo con le seguenti lunghezze di parola: l 1 = l 2 = 1, l 3 = 2, l 4 = l 5 = 4, l 6 = 5. Come prima cosa verifichiamo se vale la disuguaglianza di Kraft: = (1.10) La disuguaglianza è verificata, cerchiamo un codice istantaneo che verifica le lunghezze l 1 = l 2 = 1, l 3 = 2, l 4 = l 5 = 4, l 6 = 5 seguendo l algoritmo definito nella seconda parte della dimostrazione del teorema di Kraft, le parole di lunghezza 1 sono c 1 = 0, c 2 = 1, la 9

15 1.3 Codici univocamente decifrabile e istantanei parola di lunghezza 2 è c 3 = 20, le parole di lunghezza 4 sono c 4 = 2100, c 5 = 2101, la parola di lunghezza 5 è c 6 = Il codice C = {0, 1, 20, 2100, 2101, 21100} è istantaneo perchè verifica la proprietà del prefisso. Esempio 6 Il codice C = {0, 11, 100, 110} verifica la diseguaglianza di Kraft infatti si ha che: = 1, ma tale codice non è istantaneo perchè non verifica la proprietà del prefisso. Un codice istantaneo è anche decifrabile e dal teorema di Kraft è immediato ottenere il seguente teorema. Teorema 2 Se esistono n interi positivi l 1, l 2,..., l n e r che verificano la disuguaglianza di Kraft, allora esiste un codice decifrabile con n parole di lunghezza l 1, l 2,..., l n. Resta da capire se per ogni codice decifrabile vale la disuguaglianza di Kraft, cioè se la prima parte del teorema di Kraft vale anche per i codici decifrabili. La risposta a tale quesito viene data dal seguente teorema di McMillan. Teorema 3 (di McMillan) Se C = {c 1, c 2,..., c n } è un codice decifrabile, allora vale la disuguaglianza di Kraft: n 1 r l i i=1 1. (1.11) Dim. Consideriamo α 1, α 2,..., α m il numero di parole del codice rispettivamente di lunghezza 1, 2,..., m. È facile verificare che il primo membro della disuguaglianza di Kraft può scriversi anche nel seguente modo: 10

16 1.3 Codici univocamente decifrabile e istantanei Eleviamo le due sommatorie ad un valore u, intero positivo: ( n i=1 ) u ( 1 m = r l i j=1 n i=1 α j r j 1 r l i = ) u = m j=1 α j r j. (1.12) ( α1 r + α 2 r α m r m ) u. (1.13) Per maggiore chiarezza l ultimo membro della (1.13) può essere scritto come il prodotto di u sommatorie che rappresentano lo stesso termine: ( α1 r + α 2 r + + α ) ( m α1 2 r m r + α 2 r + + α ) ( m α1 2 r m r + α 2 r + + α ) m. 2 r m (1.14) Lo svolgimento di tale prodotto può essere svolto ed espresso come la somma dei seguenti prodotti α i1α i2 α iu r i 1+i 2 + +i u. (1.15) i 1,i 2,,i u La sommatoria della (1.15) è estesa su tutti gli i 1, i 2,, i u con la limitazione 1 i j m con 1 j u. Posto k = i 1 + i i u la (1.15) può anche essere scritta nel seguente modo u m k=u i 1 +i i u =k α i1 α i2 α iu r k, (1.16) Nella (1.16) il valore minimo che può assumere k è u e il massimo è um e tale valore all interno della seconda sommatoria rimane sempre costante, quindi u m k=u 1 r k Consideriamo adesso la quantità: i 1 +i 2 + +i u=k α i1 α i2 α iu. (1.17) 11

17 1.3 Codici univocamente decifrabile e istantanei N k = α i1 α i2 α iu. (1.18) i 1 +i 2 + +i u=k Le quantità α i1, α i2,..., α iu rappresentano tutte le possibili parole di lunghezza k formate nel seguente modo: i primi i 1 caratteri individuano una parola del codice di lunghezza i 1, i successivi i 2 caratteri individuano una parola del codice di lunghezza i 2 fino ad arrivare agli ultimi i u che a loro volta sono una parola del codice di lunghezza i u. Figura 1.1: Stringhe della stessa lunghezza k, ma con sequenze di parole differenti e di differente lunghezza. Tutte queste stringhe essendo il codice decifrabile, quindi univocamente leggibile, sono tutte distinte tra di loro come si evince dalla (fig1.1), ricordiamo che se si ha un alfabeto r-ario il numero di tutte le possibili parole distinte di lunghezza k è r k, da cui segue che N k = α i1 α i2 α iu r k. (1.19) i 1 +i 2 + +i u=k Quindi la (1.17) può essere scritta nel seguente modo: u m k=u 1 r k In definitiva: i 1 +i i u =k α i1 α i1...α iu u m k=u 1 r k rk = u m k=u 1 = u m u u m. (1.20) 12

18 1.4 Codici ottimi ( n ) u 1 u m (1.21) r l i i=1 Elevando primo e secondo membro per 1 u si ha: n i=1 1 r l i (u) 1 u (m) 1 u (1.22) Per la scelta arbitraria di u si vede facilmente che per u vale la disuguaglianza di Kraft e il teorema è dimostrato. 1.4 Codici ottimi Data una sorgente S 0 consideriamo la famiglia C costituita da tutti i codici istantanei che si possono associare a S 0, chiaramente ad ogni codice di C è associata una sua lunghezza media, consideriamo la lunghezza media minima l min tra tutti i codici istantanei C ist associati a S 0, cioè lmin = min { lcist C ist C }. (1.23) Si definisce codice ottimo C un codice C ist istantaneo che ha lunghezza media l Cist uguale a l min. I codici ottimi godono delle seguenti tre proprietà. Proprietà 2 Se C è un codice ottimo associato alla sorgente S 0 = (S, P ) e c 1, c 2,..., c n sono le sue parole rispettivamente di lunghezza l 1, l 2,..., l n allora si ha che se p i > p j deve essere l i l j ( cioè alla probabilità maggiore si associa la parola di lunghezza minore) 13

19 1.4 Codici ottimi Dim. Supponiamo per assurdo che esiste un codice ottimo C per cui si ha che p i > p j e l i > l j. Costruiamo un codice C ottenuto da C in cui alla parola c i è associata la probabilità p j e alla parola c j è associata la probabilità p i mentre le altre parole c k sono legate alla stessa probabilità p k del codice C. Calcoliamo le lunghezze medie rispettivamente dei codici C e C e consideriamo la loro differenza. l C = l C = n k=1 i j n k=1 i j p k l k + p i l i + p j l j ; (1.24) p k l k + p i l j + p j l i ; (1.25) Dopo facili calcoli si ottiene. l C l C = p i l j + p j l i p i l i p j l j. (1.26) l C l C = p i (l j l i ) p j (l j l i ) = (p i p j ) (l j l i ) (1.27) Ricordando che l i > l j, (l j l i < 0) e p i > p j (p i p j > 0) ne segue che l C l C < 0 cioè l C < l C. Si è quindi determinato un codice C che è istantaneo, ma ha lunghezza media minore della lunghezza media del codice ottimo C e ciò è assurdo. Proprietà 3 Sia C un codice ottimo e sia l m la maggiore lunghezza tra le lunghezze delle parole del codice, allora esistono almeno due parole di lunghezza l m. Dim. Supponiamo per assurdo che esiste un codice ottimo C con una sola parola di lunghezza l m. Calcoliamo la sua lunghezza media m 1 l C = P k l k + P m l m (1.28) k=1 14

20 1.4 Codici ottimi Consideriamo l unica parola c m C di lunghezza l m e consideriamo il codice C ottenuto da C modificando soltanto c m mediante l eliminazione dell ultimo carattere. Il codice C è un codice istantaneo perchè gode della proprietà del prefisso e la sua lunghezza media è: m 1 l C = p k l k + p m (l m 1). (1.29) k=1 È evidente che l C < l C. Si è determinato ancora una volta un codice istantaneo con lunghezza media minore della lunghezza media del codice ottimo C e ciò è assurdo. Proprietà 4 Sia C un codice ottimo e c m una parola di lunghezza massima l m, allora esiste un altra parola c k di eguale lunghezza l m tale che i primi l m 1 caratteri di c m e c k sono uguali. Dim. Per la proprietà precedente in un codice ottimo C esistano almeno due parole di lunghezza massima l m. Supponiamo per assurdo che non esistono due parole di lunghezza l m i cui primi l m 1 caratteri sono uguali. Se consideriamo una di tali parole e cancelliamo il suo ultimo carattere otteniamo un nuovo codice istantaneo C che gode della proprietà del prefisso (nessuna sua parola è prefisso di un altra) e la sua lunghezza media è minore della lunghezza media del codice ottimo C Algoritmo di Huffman In questa sessione è presentato l Algoritmo di Huffman che consente di individuare un codice ottimo data una distribuzione di probabilità P. Tale algoritmo è valido per codici r-ari, ma qui sarà presentata la procedura che riguarda solo i codici binari. 15

21 1.4 Codici ottimi Algoritmo di Huffman 1. Si ordina la distribuzione di probabilità P 0 = {P 0 1, P 0 2,, P 0 n} in modo tale che le probabiltà hanno un ordine decrescente secondo gli indici, cioè P 0 i con i > j. P 0 j 2. Le due probabilità di valore inferiore, cioè P 0 n e P 0 n 1 si sommano, si ottiene il valore P 0 n 1 = P 0 n + P 0 n 1. Si considera la distribuzione di probabilità P 1 = { P 1 1, P 1 2,, P 1 n 1} in cui sono presenti tutte le probabilità di P 0 con esclusione dei valori P 0 n e P 0 n 1 al posto dei quali si è inserito il valore P 0 n 1. La distribuzione di probabilità P 1 è anch essa ordinata in ordine decrescente secondo gli indici e si ha che P 1 i = P 0 n 1 per qualche i con 1 i n Si ripete il passo precedente per altri n 2 passi. In ogni singolo passo j si determina una probabilità P j 1 n j valore minore. data dalla somma delle due probabilità di 4. Si ottiene la distribuzione di probabilità P n 2 costituita da soli due valori. 5. Si associano alle probabilità di P n 2 le parole 1 e 0 (la scelta è arbitraria), quindi alla distribuzione di probabilità P n 2 è associato il codice C n Una delle probabilità di P n 2 è del tipo P n 2 i i = 1, 2 (cioè del tipo P j 1 n j = P n 3 2 = P n P n 3 3 con con j = n 2), se ad essa nel passo precedente è stato associato il carattere k {0, 1}, allora nella distribuzione P n 3 alle probabilità P n 3 2 e P n 3 3 si associano le parole k1 e k0 (la scelta è arbitraria) e per essa si ottiene il codice C n Si ripete il procedimento precedente sino ad arrivare ad una assegnazione di parole alla distribuzione P 0. Tali parole associate alle probabilità di P 0 definiscono un codice ottimo binario C 0 e l algoritmo è concluso. 16

22 1.4 Codici ottimi Per maggiore chiarezza segue l esempio 7 che permette di esplicitare tutti i passi definiti nell algoritmo precedente. Esempio 7 Sia data la distribuzione di probabilità P 0 = {0.35, 0.20, 0.20, 0.15, 0.10}, le due probabilità di valore minore sono 0.10 e 0.15, la loro somma è 0.25, si ottiene nuova distribuzione di probabilità P 1 = {0.35, 0.25, 0.20, 0.20}. Seguendo lo stesso procedimento si sommano 0.20 e 0.20 si ottiene la distribuzione di probabilità P 2 = {0.40, 0.35, 0.25} e in seguito si sommano i valori0.35 e 0.25 si ottiene P 3 = {0.60, 0.40}. Definiamo adesso una codifica binaria seguendo i passi 5, 6 e 7 partendo dalla distribuzione P 3 fino ad arrivare alla distribuzione P 0. I passi dell algoritmo sono ben riassunti dalla tabella seguente * * * Tab.1 Il codice ottimo legato alla distribuzione di probabilità P 0 è C = {01, 11, 10, 001, 000}. È necessario adesso provare che il codice ottenuto dall algoritmo di Huffmann è un codice ottimo, ciò è ottenuto dal teorema seguente. Teorema 4 Se C i è un codice ottimo ottenuto dall algoritmo di Huffman, allora anche C i 1 è un codice ottimo. L algoritmo di Huffmann genera un codice ottimo. 17

23 1.4 Codici ottimi Dim. All ultima distribuzione di probabilità che si ottiene eseguendo l algoritmo di Huffman è associato il codice C n 2 = {0, 1} che è senz altro ottimo, quindi se in generale si prova che l algoritmo di Huffmann genera dal codice C i ottimo il codice C i 1 anch esso ottimo, allora si è provato il teorema. Consideriamo il codice ottimo C i = { c 1, c 2,..., cm 1}, sia L = l(cm 1 ). Applichiamo l algoritmo di Huffman al codice C i si ottiene il codice C i 1 = {c 1, c 2,..., c m 1 0, c m 1 1} e calcoliamo le lunghezze medie dei codici C i e C i 1 : li = m 2 k=1 p k l k + (p m 1 + p m ) L; (1.30) li 1 = m 2 k=1 p k l k + p m 1 (L + 1) + p m (L + 1). (1.31) Ricordiamo che nel codice C i 1 le ultime due parole hanno lunghezza L + 1. Sottraendo membro a membro la (1.30) dalla (1.31) si ha: li 1 l i = p m 1 + p m l i 1 = l i + p m 1 + p m. (1.32) Supponiamo per assurdo che C i 1 non sia un codice ottimo e quindi esiste un codice ottimo C i 1, associato alla distribuzione di probabilità di C i 1, tale che l i 1 < l i 1. Se C i 1 è ottimo, per le proprietà 2, 3 e 4, esisteranno due parole di lunghezza massima ed aventi i primi l m 1 caratteri uguali e associate alle probabilità p m e p m 1, cioè C i 1 = { c 1, c 2,..., c m 10, c m 11 }. Applicando l algoritmo di Huffman in senso opposto si determina un nuovo codice C i = { } c 1, c 2,..., c m 1. Anche per i due codici C i e C i 1 vale la relazione: l i 1 = l i + p m 1 + p m. (1.33) 18

24 1.5 La funzione entropia Poichè si è supposto che C i 1 è ottimo mentre per assurdo C i 1 non lo è allora deve valere la seguente disuguaglianza: l i 1 < l i 1 (1.34) Se ciò è vero confrontando le equazioni (1.32) e (1.33) si ha che vale la seguente disuguaglianza. l i < l i (1.35) Ciò implica che C i non è ottimo, questo è assurdo e il teorema è provato. 1.5 La funzione entropia Nell esempio 1 si è vista l importanza della conoscenza della distribuzione delle probabilità, da qui nasce l esigenza di determinare una funzione che permetta di misurare la conoscenza del sistema mediante la conoscenza della sua distribuzione di probabilità. Tale funzione H è la funzione entropia che è differente dalla grandezza fisica usata in termodinamica. Essa nasce dagli studi relativi alla conoscenza di informazioni di un sistema fatti da Shannon nel Consideriamo la variabile random X a cui associamo gli eventi X = {x 1, x 2,..., x q }. A ciascuno degli eventi x i è possibile associare una distribuzione di probabilità P = {p 1, p 2,..., p q }. La funzione entropia deve soddisfare le seguenti tre proprietà: 1. Se tutte le probabilità di P sono uguali cioè p i = 1 q allora H è una funzione crescente, cioè se q < q allora si ha: H ( 1 q, 1 q,..., 1 ) ( 1 < H q q, 1 q,..., 1 ) q 19

25 1.5 La funzione entropia. Nella realtà questa proprietà esprime che maggiore è il numero di eventi q maggiore è l incertezza legata agli eventi. 2. H è una funzione continua cioè a piccole variazioni di probabilità corrispondono piccole variazioni di H. 3. Vale il principio che un esperimento può essere scomposto in una successione di esperimenti successivi. Esempio 7 Diamo per quest ultima proprietà un esempio di un esperimento che è rappresentato graficamente nella seguente figura. Esso ha una distribuzione di probabilità P = { 1 2, 1 3, 1 6 } e può essere scomposto nella successione dei due esperimenti di probabilità P = { 1 2, 1 2 } e P = { 2 3, 1 3 }. Tale scomposizione può essere rappresentata mediante la funzione entropia nel seguente modo: H ( 1 2, 1 3, 1 ) ( 1 = H 6 2, 1 ) + 1 ( H 3, 1 ). 3 20

26 1.5 La funzione entropia Teorema 5 La sola funzione che verifica le tre proprietà 1, 2 e 3 è: H(p 1, p 2,, p q ) = c con c costante positiva. q p i log b p i (b > 1) (1.36) i=1 Dim. Poniamo H ( 1 q,, 1 ) = f(q). (1.37) q Supponiamo di avere s m eventi legati ad una determinata variabile random. Poichè deve valere la terza proprietà, s m può essere scomposto in m sequenze di s eventi, cioè: f(s m ) = mf(s). (1.38) Fissati t e n interi positivi è sempre possibile determinare un m tale che: 2 m t n < 2 m+1. (1.39) Passando ai logaritmi in base b e sfruttando le loro proprietà si ha: log b 2 m log b t n < log b 2 m+1, (1.40) m log b 2 n log b t < (m + 1) log b 2. (1.41) Dividendo per n log b 2 m n log b t }{{} log b {}}{ < m + 1 n. (1.42) 21

27 1.5 La funzione entropia Poichè f(q), per le proprietà 1 e 2, è una funzione continua e crescente si ha che applicandola alle disuguaglianze della (1.39) esse continuano a sussistere, cioè: dividendo per nf(2): f(2 m ) f(t n ) < f(2 m+1 ), (1.43) m n f(t) }{{} f(2) 1 2 {}}{ < m + 1 n Moltiplicando la 1 disuguaglianza della (1.44) per 1 si ottiene:. (1.44) f(t) f(2) m n. (1.45) Sommando la (1.45) con la 2 disuguaglianza della (1.42) si ha: log b t log b 2 f(t) f(2) < 1 n. (1.46) Allo stesso modo, moltiplicando la 2 disuguaglianza della (1.44) per 1 si ottiene: f(t) f(2) > m n 1 n. (1.47) Sommando la (1.47) con la 1 disuguaglianza della (1.42) si ha: log b t log b 2 f(t) f(2) > 1 n, (1.48) da cui si ricava: 1 n < log b t log b 2 f(t) f(2) < 1 n log b t log b 2 f(t) f(2) < 1 n (1.49) e per n si ha: lim log b t n log b 2 f(t) f(2) = 0 log b t log b 2 = f(t) f(2) f(t) = f(2) log b t log b 2 = c log b t. (1.50) Consideriamo adesso una distribuzione di probabilità con probabilità razionali: p i = k i j k j con k i intero i e i k i j k j = 1 (1.51) 22

28 1.5 La funzione entropia Scomponiamo l esperimento in una successione di due eventi mediante le distribuzioni di probabilità rappresentate nella figura seguente. È possibile allora scrivere: H ( 1 ki, 1 ki,, 1 ki ) = H (p 1, p 2,..., p m ) + p 1 c log b k 1 + p 2 c log b k p m c log b k m = H (p 1, p 2,..., p m ) + c p i log b k i. Dopo semplici calcoli si ha: H (p 1, p 2,..., p m ) = H ( 1 i k, i 1 i k,..., i c log b i k i c i p i log b k i = c log b j k j i c i p i log b k j c j i p i log b k i = c i ) 1 i k c i p i log b k i = i k i j k j p i log b La condizione necessaria del teorema è provata. k i i k j c i = c i p i log b k i = p i log p i. Il viceversa se H b (p 1, p 2,, p m ) = c m i=1 p i log b p i allora si ha che le proprietà sono tutte verificate e il teorema è provato. Dal teorema precedente si ha che per un sistema che ha una distribuzione di probabilità P = {p 1, p 2,, p m } la funzione entropia è definita come la quantità: m H b (p 1, p 2,, p m ) = p i log b p i. i=1 23

29 1.5 La funzione entropia Dove la costante c è stata normalizzata a 1. Se il valore di b in H è 2 allora l entropia prende il nome di entropia binaria Proprietà della funzione entropia Siano X e Y due variabili random e sia p(x i, y j ) la probabilità congiunta delle due variabili, allora l entropia congiunta a X e Y è definita come: H(X, Y ) = i,j p(x i, y j ) log 1 p(x i, y j ). (1.52) Enunciamo il seguente lemma omettendo la dimostrazione. Lemma 1 Sia {p 1, p 2,, p m } una distribuzione di probabilità e sia {q 1, q 2,..., q m } una sequenza di numeri reali con 0 q i 1 e q i 1, allora si ha che: pi log 1 p i p i log 1 q i (1.53) Consideriamo adesso una sequenza di teoremi che permettono di evidenziare alcune proprietà della funzione entropia. Teorema 6 Se X è una variabile aleatoria si ha che: 0 H(X) log q (1.54) Dim. Chiaramente H(X) 0. Per definizione di entropia si può scrivere: da cui: H(X) = q p i log 1 p i i=1 q i=1 p i log 1 1 q = q p i log q (1.55) i=1 H(X) log q (1.56) 24

30 1.5 La funzione entropia Teorema 7 Siano X e Y due variabili random, allora si ha: H(X, Y ) H(X) + H(Y ) (1.57) Dim. Se consideriamo la distribuzione di probabilità congiunta ad X e Y e sommo solo secondo l indice legato a una variabile random (cioè si varia i lasciando fissato j e viceversa) si ha: quindi: H(X) + H(Y ) = 1 p(x i ) log p(x i i ) + p(y j ) log j = i,j p(x 1 i, y j ) log p(x i ) + 1 p(x i, y j ) log p(y i,j j ) = = i,j p(x 1 i, y j ) log p(x i )p(y j ) p(x i, y j ) log i,j p(x i, y j ) = p(x i ), (1.58) j p(x i, y j ) = p(y j ). (1.59) i 1 p(y j ) = 1 p(x i, y j ) = H(X, Y ). Il teorema è provato. Siano X e Y due variabili random e p(y j x i ) la distribuzione di probabilità dell evento Y condizionato dall evento X, definiamo l entropia condizionata nel seguente modo: H(X Y ) = i,j 1 p(y j )p(x i y j ) log p(x i y j ) = j p(y j )H(X y j ) (1.60) Teorema 8 Se X e Y sono due variabili random, allora: H(X Y ) = H(X, Y ) H(Y ). (1.61) 25

31 1.5 La funzione entropia Dim. Dalla precedente definizione abbiamo: H(X Y ) = i,j p(y j )p(x i y j ) log 1 p(x i y j ). (1.62) Ricordando che: p(x i y j ) = p(x i, y j ) p(y j ). (1.63) possiamo scrivere: H(X Y ) = p(x i, y j ) log p(y j) p(x i,j i, y j ) = 1 p(x i, y j ) log p(x i,j i, y j ) 1 p(x i, y j ) log p(y i,j j ) = H(X, Y ) 1 p(y j ) log = H(X, Y ) H(Y ). p(y j j ) Il teorema è provato. Consideriamo l insieme dei possibili segnali che si presentano in ingresso ad un ricevitore E = {a 1,..., a m }, supponiamo di avere associata ad esso una distribuzione di probabilità p(a i ) con 1 i m. Possiamo allora scrivere l entropia in ingresso come: H(E) = i p(a i ) log p(a i ) = i p(a i ) log 1 p(a i ) (1.64) Siano U = {u 1,..., u m } l insieme dei segnali prodotti dalla sorgente in trasmissione, possiamo definire informazione la quantità: I(E, U) = H(E) H(E U). (1.65) Da essa è possibile definire capacità del canale come la quantità C = max E I(E, U). (1.66) Essa è legata alla determinazione di una distribuzione di probabilità E tale che rende massima I(E, U). 26

32 Capitolo 2 I Primi concetti 2.1 Introduzione In questo capitolo vengono presentati i primi concetti legati alla teoria dei codici. Le prime domande che si pongono sono legate alle motivazioni dell origine della teoria dei codici e alla sua utilità. Quando un sistema trasmissivo invia delle informazioni ad un sistema ricevente, possiamo pensare ad una comunicazione telefonica o trasmissioni via etere o anche trasmissioni che provengono dall esterno del nostro pianeta inviate da sonde, astronavi o shuttle, nella realtà fisica del nostro universo può accadere che tali trasmissioni vengano distorte e il segnale trasmesso ne risulti alterato nella sua ricezione. Il sistema su cui vengono inviate le informazioni viene chiamato canale. Esso può essere individuato dal mezzo trasmissivo su cui vengono inviate informazioni in una normale comunicazione telefonica o un in invio dati tra due sistemi informatici collegati, il canale può anche essere costituito dallo spazio in cui si propagano onde elettromagnetiche che trasportano informazioni. In ogni canale esiste sempre la presenza di rumore che compromette la trasmissione. Tale rumore si può legare a 27

33 2.1 Introduzione interferenze elettromagnetiche (disturbi radio, attività solare, ecc.), competizioni di trasmissione, fattori di disturbo random, e tanti altri fattori, ognuno legato al tipo di trasmissione che si sta effettuando. Un altro tipo di applicazione della teoria dei codici si ha quando si leggono informazioni su un supporto, in questo caso il rumore può essere legato alla non perfetta condizione del supporto (ad esmpio sporcizia, presenza di graffi in CD o DVD o invecchiamento del supporto) o a difficoltà del sistema di lettura. Per motivazioni legate al sistema hardware l informazione viaggia in sequenza di informazioni binarie e quindi essa viaggia mediante codici binari. In questi appunti a partire da questo capitolo saranno trattati codici a blocchi. La motivazione per cui nella maggior parte dei casi si usano codici a blocchi sta nel fatto che l esperienza fisica e quindi la rigorosa osservazione sperimentale, associa ai sistemi trasmissivi una distribuzione di probabilià costante. In particolare come detto precedentemente l alfabeto usato è del tipo A = {0, 1} e ogni suo carattere è chiamato bit. Ad ogni singolo bit, come rappresentato nella figura 2.1, può essere associata una probabilità p che esprime la probabilità che esso venga ricevuto correttamente, chiaramente la probabilità che un bit non sia trasmesso correttamente è 1 p. La probabilità p è chiaramente legata al sistema trasmissivo ed essa prende il nome di efficienza del canale, negli attuali sistemi trasmissivi essa supera il valore 0.97 cioè può assumere valori molto alti, ma è evidente che in un numero di bits molto alto la probabilità che l informazione venga inficiata da errore non è trascurabile. Un codice C 1, con efficienza p 1, si dice più efficiente del codice C 2, di efficienza p 2, se si ha che p 1 > p 2. Varie sono state nel tempo le tecniche di controllo e/o correzione di errore, alcune delle quali molto semplici come, ad esempio, l aggiunta di un bit ad ogni parola di un codice in modo tale che tutte le sue parole contengano un numero pari di bits 28

34 2.1 Introduzione 0 P 0 P - 1 P P 1 Figura 2.1: Efficienza di canale di valore 1. Il codice C = {111, 011, 001, 100, 110, 010} con l aggiunta del bit di parità diventa C = {1111, 0110, 0011, 1001, 1100, 0101}, si vede facilmente che se si riceve la parola 0010 avendo un numero di bits di valore 1 dispari non è una parola del codice. Un altra tecnica di controllo e correzione di errore, detta di ridondanza, è quella di trasmettere più volte la stessa parola e, in ricezione, di controllare se anche la sequenza di ricezione ha sempre la stessa ripetizione, se ciò non avviene allora si effettua la correzione scegliendo nella sequenza la parola del codice che è stata ripetuta più volte. Questa tecnica contrariamente alla precedente oltre ad individuare l errore permette anche di correggerlo, inoltre maggiore è il numero di ripetizioni di una stessa parola in una sequenza, maggiore è la probabilità che la correzione sia esatta. Esiste però un importante inconveniente in tale tecnica, essa infatti non permette un numero elevato di ripetizioni dato che maggiore è il loro numero, minore è la velocità di trasmissione di informazione. 29

35 2.2 Probabilità e distanza 2.2 Probabilità e distanza Il problema della correzione delle parole del codice è essenzialmente legato al concetto di probabilità. La probabilità che la parola v, avente lunghezza n e appartenente al codice a blocchi C di efficienza p, sia trasmessa correttamente è p n. Supponiamo adesso di trasmettere la parola v C, ma di ricevere la parola w / C, come risolvere il problema della correzione di w? È necessario definire una funzione che determini la probabilità che la parola v C sia trasmessa e la parola w / C sia ricevuta. In generale tale funzione può essere definita, indipendentemente dal concetto di parola inviata e ricevuta, nel seguente modo: φ : K n K n [0, 1], dove K n esprime l insieme di tutte le possibili parole di lunghezza n i cui caratteri appartengono all insieme K = {0, 1}, K rappresenta quindi l alfabeto del codice. Se Φ (v, w) è la probabilità che la parola v C è stata inviata e w ricevuta, allora si ha: Φ (v, w) = p n d (1 p) d, (2.1) dove d è il numero di bits differenti tra le parole v e w, n è la lunghezza delle parole del codice C, n d rappresenta il numero di bits trasmessi correttamente, d i bits trasmessi in maniera errata e 1 p è la probabilità che un singolo bit giunga in maniera errata. La quantità d è chiamata distanza tra le parole v e w e si indica con la simbologia d (v, w). Chiaramente non è difficile provare che tra due parole di lunghezza n vale la seguente uguaglianza d (v, w) = d (w, v). 30

36 2.2 Probabilità e distanza Esempio 1 Sia C un codice a blocchi di lunghezza 5. Per ogni parola v C la probabilità che v sia ricevuta correttamente (cioè w = v) è: Φ(v, v) = p 5 Se invece la parola inviata è v = e quella ricevuta è w = 11001, allora la distanza tra v e w è 2 e si ha che: Φ(v, w) = p 3 (1 p) 2 Individuiamo adesso una tecnica che permette di determinare la correzione di un errore in ricezione. Supponiamo di aver ricevuto la parola w e che essa non appartiene al codice C. Tale tecnica di correzione di errore è basata sull individuazione della parola v C tale che ad essa è associata la probabilità massima rispetto alla parola ricevuta w mediante la funzione Φ cioè: Φ (v, w) max = max {Φ (v, w) : v C}. (2.2) Quindi se si riceve una parola w non appartenente al codice a blocchi C si individua la parola del codice v tale che la funzione Φ è massima al variare di v in C, fissata w. Tale parola v si sostituisce a w. È possibile che in tale tecnica si abbia un insieme di parole del codice che hanno tutte la stessa probabilità massima, in tal caso si genera un ambiguità, in seguito vedremo come affrontare tale evenienza. Consideriamo adesso un risultato che permette di associare il concetto di probabilità definito dalla funzione Φ al concetto di distanza tra due parole. 31

37 2.2 Probabilità e distanza Teorema 9 Sia C un codice a blocchi di lunghezza n, con 1 2 < p < 1 e siano v 1 e v 2 due parole del codice C. Se d 1 è la distanza tra v 1 e la parola ricevuta w e d 2 è la distanza tra v 2 e w, allora si ha che: se e solo se d 1 > d 2, vale anche il viceversa. Φ(v 1, w) < Φ(v 2, w) (2.3) Dim. La disuguaglianza Φ(v 1, w) < Φ(v 2, w) vale se e solo se: p n d 1 (1 p) d 1 < p n d 2 (1 p) d 2 ; p n d 1 (1 p) d 1 p n d 2 (1 p) d 2 < 1; p n d 1 n+d 2 (1 p) d 1 d 2 < 1; p d 2 d 1 (1 p) (d 2 d 1 ) < 1; ( ) d2 d p 1 < 1. (2.4) 1 p Poichè per le ipotesi 1 2 < p < 1 si ha che p > 1 p ovvero: p 1 p > 1, 32

38 2.2 Probabilità e distanza allora la (2.4) è vera se e solo se l esponente è negativo cioè se: d 2 d 1 < 0 d 2 < d 1, (2.5) e il teorema è provato. Il teorema precedente assume una rilevanza fondamentale in quanto permette di abbandonare il concetto di probabilità e di sostituirlo con il concetto di distanza tra due parole. La tecnica di correzione di errore esposta precedentemente adesso cambia nel seguente modo: se si riceve una parola w non appartenente al codice C si individua la parola v C che ha distanza minima da w e si sostituisce a w, ciò equivale al fatto che la funzione Φ(v, w), fissata w, assume valore massimo per v C. L esempio seguente chiarisce meglio tale tecnica. Esempio 2 Sia il codice C = {01101, 01001, 10100, 10101} e supponiamo di ricevere la parola w = non appartenente al codice C. Esaminiamo la tabella seguente. C w distanza c c c c Tab.1 La parola del codice che ha distanza minima da w è c 3 = 10100, tale parola è quella che corregge w ed è quella che tra tutte le parole del codice C ha la massima probabilità di essere stata inviata in trasmissione. 33

39 2.3 Peso ed errore 2.3 Peso ed errore Si è precedentemente detto che l alfabeto dei codici a blocchi è K = {0, 1}, ma tale insieme di caratteri è anche un insieme numerico e su di esso possono essere definite due operazioni algebriche binarie, una di somma e l altra di prodotto definite dalla tabella seguente. Somma Prodotto = = = = = = = = 1 Tab.2 Le due operazioni di somma e prodotto danno all insieme K le proprietà di campo. L insieme K n, come precedentemente detto, è l insieme di tutte le possibili differenti parole binarie di lunghezza n, tale insieme è finito ed ha cardinalità uguale a 2 n, perchè ogni singola componente di una parola di K n può assumere valori 0 o 1. L insieme K n può anche assumere la struttura di spazio vettoriale se si interpretano le sue parole come vettori e su di esse si definiscono le operazioni di somma vettoriale e di prodotto esterno tra gli elementi di K e K n mediante i concetti di spazio vettoriale introdotti nei corsi base di algebra lineare. La somma tra le componenti corrispondenti di due parole è data dall operazione di somma definita su K. Un esempio di somma tra le due parole (101) e (111) è: (101) + (111) = (010). È importante notare che la somma di due parole uguali è uguale alla parola che possiede in tutte le sue componenti bits di valore 0, tale parola è detta nulla e si 34

40 2.3 Peso ed errore indica con il simbolo 0, cioè v K n si ha che v + v = 0. Tale proprietà permette di capire che la parola opposta di una qualunque parola v K n è la parola stessa. Si ha inoltre che vale la seguente proprietà. Proprietà 5 Se v + w = 0, allora si ha che v = w. Si è preferito evidenziare tale proprietà perchè molto spesso chi comincia a studiare questi argomenti commette l errore di scrivere v = w, ciò è sbagliato!!! Infatti se vale l eguaglianza v + w = 0, allora vale anche v + w + w = w che è equivalente a v + 0 = w ed infine si ha v = w. Diamo adesso l importante nozione di errore per un codice C a blocchi. Supponiamo che è stata inviata la parola v C e si sia ricevuta la differente parola w, allora si definisce errore tra v e w la parola u così definita: u = v + w. (2.6) Il concetto di errore legato alle parole v e w può per certi versi sembrare strano, infatti nella sua definizione si capisce facilmente che per determinare u non solo è necessaria la parola w conosciuta in ricezione, ma anche la parola trasmessa. Questo non deve sorprendere se si pensa che, come vedremo nel capitolo 3 e nei successivi, la teoria dei codici in correzione di errore ha come obiettivo principale quello di individuare, mediante tecniche matematiche, la parola u indipendentemente dalla conoscenza di v. Se si riesce in tale obiettivo, dopo aver verificato che w / C, per determinare v basta sommare le parole w + u e si ottiene la parola inviata. Se v K n, allora si definisce peso di v il numero di bits che hanno valore 1 in v. Tale valore si esprime secondo la simbologia wt(v). Ad esempio il peso della parola v = K 6 è uguale a tre, cioè wt (011001) = 3. 35

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza

Dettagli

1) Hamming bound, coset, codici equivalenti

1) Hamming bound, coset, codici equivalenti Argomenti della Lezione ) Hamming bound, coset, codici equivalenti 2) Esercizi sui codici lineari a blocchi Osservazione () Per effettuare la decodifica a rivelazione di errore si può seguire una delle

Dettagli

11. Misure con segno.

11. Misure con segno. 11. Misure con segno. 11.1. Misure con segno. Sia Ω un insieme non vuoto e sia A una σ-algebra in Ω. Definizione 11.1.1. (Misura con segno). Si chiama misura con segno su A ogni funzione ϕ : A R verificante

Dettagli

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria. Capitolo 2 Campi 2.1 Introduzione Studiamo ora i campi. Essi sono una generalizzazione dell insieme R dei numeri reali con le operazioni di addizione e di moltiplicazione. Nel secondo paragrafo ricordiamo

Dettagli

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g LEZIONE 3 3.. Matrici fortemente ridotte per righe. Nella precedente lezione abbiamo introdotto la nozione di soluzione di un sistema di equazioni lineari. In questa lezione ci poniamo il problema di descrivere

Dettagli

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

02 - Logica delle dimostrazioni

02 - Logica delle dimostrazioni Università degli Studi di Palermo Facoltà di Economia Dipartimento di Scienze Economiche, Aziendali e Statistiche Appunti del corso di Matematica 0 - Logica delle dimostrazioni Anno Accademico 015/016

Dettagli

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare

Dettagli

Insiemi numerici. Teoria in sintesi NUMERI NATURALI

Insiemi numerici. Teoria in sintesi NUMERI NATURALI Insiemi numerici Teoria in sintesi NUMERI NATURALI Una delle prime attività matematiche che viene esercitata è il contare gli elementi di un dato insieme. I numeri con cui si conta 0,,,. sono i numeri

Dettagli

04 - Logica delle dimostrazioni

04 - Logica delle dimostrazioni Università degli Studi di Palermo Facoltà di Economia CdS Sviluppo Economico e Cooperazione Internazionale Appunti del corso di Matematica 04 - Logica delle dimostrazioni Anno Accademico 013/014 D. Provenzano,

Dettagli

IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero

IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero Il teorema degli zeri è fondamentale per determinare se una funzione continua in un intervallo chiuso [ a ; b ] si annulla in almeno un punto interno

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con

Dettagli

CODICI CORRETTORI E RIVELATORI DI ERRORE

CODICI CORRETTORI E RIVELATORI DI ERRORE CODICI CORRETTORI E RIVELATORI DI ERRORE Una problematica che va affrontata quando si tratta di codificare informazioni è la gestione degli errori. Infatti, per quanto la tecnologia sia avanzata, può sempre

Dettagli

SERIE NUMERICHE FAUSTO FERRARI

SERIE NUMERICHE FAUSTO FERRARI SERIE NUMERICHE FAUSTO FERRARI Materiale propedeutico alle lezioni di Analisi Matematica per i corsi di Laurea in Ingegneria Energetica e Meccanica N-Z dell Università di Bologna. Anno Accademico 2003/2004.

Dettagli

La codifica digitale

La codifica digitale La codifica digitale Codifica digitale Il computer e il sistema binario Il computer elabora esclusivamente numeri. Ogni immagine, ogni suono, ogni informazione per essere compresa e rielaborata dal calcolatore

Dettagli

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media

Dettagli

SERIE NUMERICHE FAUSTO FERRARI

SERIE NUMERICHE FAUSTO FERRARI SERIE NUMERICHE FAUSTO FERRARI Materiale propedeutico alle lezioni di Complementi di Analisi Matematica ed Elementi di Calcolo delle probabilità per il corso di Laurea in Ingegneria per la parte di Elementi

Dettagli

Appunti sui Codici di Reed Muller. Giovanni Barbarino

Appunti sui Codici di Reed Muller. Giovanni Barbarino Appunti sui Codici di Reed Muller Giovanni Barbarino Capitolo 1 Codici di Reed-Muller I codici di Reed-Muller sono codici lineari su F q legati alle valutazioni dei polinomi sullo spazio affine. Per semplicità

Dettagli

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio

Dettagli

LEZIONE 2. ( ) a 1 x 1 + a 2 x a n x n = b, ove a j, b R sono fissati.

LEZIONE 2. ( ) a 1 x 1 + a 2 x a n x n = b, ove a j, b R sono fissati. LEZIONE 2 2 Sistemi di equazioni lineari Definizione 2 Un equazione lineare nelle n incognite x, x 2,, x n a coefficienti reali, è un equazione della forma (2 a x + a 2 x 2 + + a n x n = b, ove a j, b

Dettagli

Insiemi di numeri reali

Insiemi di numeri reali Capitolo 1 1.1 Elementi di teoria degli insiemi Se S è una totalità di oggetti x, si dice che S è uno spazio avente gli elementi x. Se si considerano alcuni elementi di S si dice che essi costituiscono

Dettagli

Precorso di Matematica

Precorso di Matematica UNIVERSITÀ DEGLI STUDI ROMA TRE FACOLTA DI ARCHITETTURA Precorso di Matematica Anna Scaramuzza Anno Accademico 2005-2006 4-10 Ottobre 2005 INDICE 1. ALGEBRA................................. 3 1.1 Equazioni

Dettagli

LEZIONE 12. v = α 1 v α n v n =

LEZIONE 12. v = α 1 v α n v n = LEZIONE 12 12.1. Combinazioni lineari. Definizione 12.1.1. Sia V uno spazio vettoriale su k = R, C e v 1,..., v n V vettori fissati. Un vettore v V si dice combinazione lineare di v 1,..., v n se esistono

Dettagli

0.1 Spazi Euclidei in generale

0.1 Spazi Euclidei in generale 0.1. SPAZI EUCLIDEI IN GENERALE 1 0.1 Spazi Euclidei in generale Sia V uno spazio vettoriale definito su R. Diremo, estendendo una definizione data in precedenza, che V è uno spazio vettoriale euclideo

Dettagli

Parte Seconda. Prova di selezione culturale

Parte Seconda. Prova di selezione culturale Parte Seconda Prova di selezione culturale TEORIA DEGLI INSIEMI MATEMATICA ARITMETICA Insieme = gruppo di elementi di cui si può stabilire inequivocabilmente almeno una caratteristica in comune. Esempi:

Dettagli

Codici Lineari G = [I K P], (1)

Codici Lineari G = [I K P], (1) Codici Lineari Nel seguito, indicheremo con F un generico campo finito. Come noto, F potrebbe essere l insieme delle cifre binarie F 2 = {0, 1} con le usuali operazioni di prodotto e somma modulo 2. Più

Dettagli

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p. Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia

Dettagli

Equazioni lineari con due o più incognite

Equazioni lineari con due o più incognite Equazioni lineari con due o più incognite Siano date le uguaglianze: k 0; x + y = 6; 3a + b c = 8. La prima ha un termine incognito rappresentato dal simbolo letterale k; la seconda ha due termini incogniti

Dettagli

04 - Numeri Complessi

04 - Numeri Complessi Università degli Studi di Palermo Facoltà di Economia CdS Statistica per l Analisi dei Dati Appunti del corso di Matematica 04 - Numeri Complessi Anno Accademico 2013/2014 M. Tumminello, V. Lacagnina e

Dettagli

Università degli Studi di Palermo Facoltà di Economia. CdS Sviluppo Economico e Cooperazione Internazionale. Appunti del corso di Matematica

Università degli Studi di Palermo Facoltà di Economia. CdS Sviluppo Economico e Cooperazione Internazionale. Appunti del corso di Matematica Università degli Studi di Palermo Facoltà di Economia CdS Sviluppo Economico e Cooperazione Internazionale Appunti del corso di Matematica 02 - I Numeri Reali Anno Accademico 2013/2014 D. Provenzano, M.

Dettagli

Esistenza ed unicità per equazioni differenziali

Esistenza ed unicità per equazioni differenziali Esistenza ed unicità per equazioni differenziali Per concludere queste lezioni sulle equazioni differenziali vogliamo dimostrare il teorema esistenza ed unicità per il problema di Cauchy. Faremo la dimostrazione

Dettagli

NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE

NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE ROBERTO GIAMBÒ 1. DEFINIZIONI E PRIME PROPRIETÀ In queste note saranno presentate alcune proprietà principali delle funzioni convesse di una variabile

Dettagli

Limiti di successioni

Limiti di successioni Capitolo 5 Limiti di successioni 5.1 Successioni Quando l insieme di definizione di una funzione coincide con l insieme N costituito dagli infiniti numeri naturali 1, 2, 3,... talvolta si considera anche

Dettagli

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x

Dettagli

8. Completamento di uno spazio di misura.

8. Completamento di uno spazio di misura. 8. Completamento di uno spazio di misura. 8.1. Spazi di misura. Spazi di misura completi. Definizione 8.1.1. (Spazio misurabile). Si chiama spazio misurabile ogni coppia ordinata (Ω, A), dove Ω è un insieme

Dettagli

Appunti di matematica per le Scienze Sociali Parte 1

Appunti di matematica per le Scienze Sociali Parte 1 Appunti di matematica per le Scienze Sociali Parte 1 1 Equazioni 1.1 Definizioni preliminari 1.1.1 Monomi Si definisce monomio ogni prodotto indicato di fattori qualsiasi, cioè uguali o diseguali, numerici

Dettagli

Elementi di Algebra e di Matematica Discreta Numeri interi, divisibilità, numerazione in base n

Elementi di Algebra e di Matematica Discreta Numeri interi, divisibilità, numerazione in base n Elementi di Algebra e di Matematica Discreta Numeri interi, divisibilità, numerazione in base n Cristina Turrini UNIMI - 2016/2017 Cristina Turrini (UNIMI - 2016/2017) Elementi di Algebra e di Matematica

Dettagli

Alcune nozioni di calcolo differenziale

Alcune nozioni di calcolo differenziale Alcune nozioni di calcolo differenziale G. Mastroeni, M. Pappalardo 1 Limiti per funzioni di piu variabili Supporremo noti i principali concetti algebrici e topologici relativi alla struttura dello spazio

Dettagli

ANALISI 1 - Teoremi e dimostrazioni vari

ANALISI 1 - Teoremi e dimostrazioni vari ANALISI 1 - Teoremi e dimostrazioni vari Sommario Proprietà dell estremo superiore per R... 2 Definitivamente... 2 Successioni convergenti... 2 Successioni monotone... 2 Teorema di esistenza del limite

Dettagli

Frazioni algebriche. Osserviamo che un espressione di questo tipo si ottiene talvolta quando ci si propone di ottenere il quoziente di due monomi.

Frazioni algebriche. Osserviamo che un espressione di questo tipo si ottiene talvolta quando ci si propone di ottenere il quoziente di due monomi. Frazioni algebriche 14 14.1 Definizione di frazione algebrica Diamo la seguente definizione: Definizione 14.1. Si definisce frazione algebrica un espressione del tipo A B polinomi. dove A e B sono Osserviamo

Dettagli

Università degli Studi di Palermo Facoltà di Economia. Dipartimento di Scienze Economiche, Aziendali e Statistiche. Appunti del corso di Matematica

Università degli Studi di Palermo Facoltà di Economia. Dipartimento di Scienze Economiche, Aziendali e Statistiche. Appunti del corso di Matematica Università degli Studi di Palermo Facoltà di Economia Dipartimento di Scienze Economiche, Aziendali e Statistiche Appunti del corso di Matematica 03 - I Numeri Reali Anno Accademico 2015/2016 M. Tumminello,

Dettagli

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente

Dettagli

a) Determinare il dominio, i limiti agli estremi del dominio e gli eventuali asintoti di f. Determinare inoltre gli zeri di f e studiarne il segno.

a) Determinare il dominio, i limiti agli estremi del dominio e gli eventuali asintoti di f. Determinare inoltre gli zeri di f e studiarne il segno. 1 ESERCIZI CON SOLUZIONE DETTAGLIATA Esercizio 1. Si consideri la funzione f(x) = e x 3e x +. a) Determinare il dominio, i limiti agli estremi del dominio e gli eventuali asintoti di f. Determinare inoltre

Dettagli

Pagine di Algebra lineare. di premessa al testo Pagine di Geometria di Sara Dragotti. Parte terza: SISTEMI LINEARI

Pagine di Algebra lineare. di premessa al testo Pagine di Geometria di Sara Dragotti. Parte terza: SISTEMI LINEARI Pagine di Algebra lineare di premessa al testo Pagine di Geometria di Sara Dragotti Parte terza: SISTEMI LINEARI 1. Definizioni Dato un campo K ed m 1 polinomi su K in n indeterminate di grado non superiore

Dettagli

STII/Teoria dell Informazione

STII/Teoria dell Informazione STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione

Dettagli

SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n

SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n SPAZI E SOTTOSPAZI 1 SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n Spazi di matrici. Spazi di polinomi. Generatori, dipendenza e indipendenza lineare, basi e dimensione. Intersezione e somma di sottospazi,

Dettagli

Condizione di allineamento di tre punti

Condizione di allineamento di tre punti LA RETTA L equazione lineare in x e y L equazione: 0 con,,, e non contemporaneamente nulli, si dice equazione lineare nelle due variabili e. Ogni coppia ; tale che: 0 si dice soluzione dell equazione.

Dettagli

M.P. Cavaliere ELEMENTI DI MATEMATICA E LOGICA MATEMATICA DISCRETA INSIEMI

M.P. Cavaliere ELEMENTI DI MATEMATICA E LOGICA MATEMATICA DISCRETA INSIEMI M.P. Cavaliere ELEMENTI DI MATEMATICA E LOGICA MATEMATICA DISCRETA INSIEMI Assumiamo come primitivo il concetto di insieme e quello di appartenenza di un elemento a un insieme. La notazione x A indica

Dettagli

Qualche informazione su gruppi e anelli

Qualche informazione su gruppi e anelli Qualche informazione su gruppi e anelli 1. Gruppi e sottogruppi: prime proprietà Cominciamo subito scrivendo la definizione formale di gruppo. Definizione 0.1. Un gruppo G è un insieme non vuoto dotato

Dettagli

1 Successioni di funzioni

1 Successioni di funzioni Analisi Matematica 2 Successioni di funzioni CORSO DI STUDI IN SMID CORSO DI ANALISI MATEMATICA 2 CAPITOLO 6 SERIE DI POTENZE Supponiamo di associare ad ogni n N (rispettivamente ad ogni n p, per qualche

Dettagli

ESAME DI MATEMATICA I parte Vicenza, 05/06/2017. x log 2 x?

ESAME DI MATEMATICA I parte Vicenza, 05/06/2017. x log 2 x? A. Peretti Svolgimento dei temi d esame di Matematica A.A. 6/7 ESAME DI MATEMATICA I parte Vicenza, 5/6/7 log? Domanda. Per quali valori di è definita l espressione L espressione è definita se l argomento

Dettagli

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione dei numeri relativi

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione dei numeri relativi Codice BCD Prima di passare alla rappresentazione dei numeri relativi in binario vediamo un tipo di codifica che ha una certa rilevanza in alcune applicazioni: il codice BCD (Binary Coded Decimal). È un

Dettagli

Equazioni di primo grado

Equazioni di primo grado Equazioni di primo grado 15 15.1 Identità ed equazioni Analizziamo le seguenti proposizioni: a ) cinque è uguale alla differenza tra sette e due ; b ) la somma di quattro e due è uguale a otto ; c ) il

Dettagli

1. Funzioni implicite

1. Funzioni implicite 1. Funzioni implicite 1.1 Il caso scalare Sia X R 2 e sia f : X R. Una funzione y : (a, b) R si dice definita implicitamente dall equazione f(x, y) = 0 in (a, b) quando: 1. (x, y(x)) X x (a, b); 2. f(x,

Dettagli

LEZIONE 4. { x + y + z = 1 x y + 2z = 3

LEZIONE 4. { x + y + z = 1 x y + 2z = 3 LEZIONE 4 4.. Operazioni elementari di riga. Abbiamo visto, nella precedente lezione, quanto sia semplice risolvere sistemi di equazioni lineari aventi matrice incompleta fortemente ridotta per righe.

Dettagli

La Rappresentazione dell Informazione

La Rappresentazione dell Informazione La Rappresentazione dell Informazione Maurizio Palesi Sommario In questo documento sarà trattato il modo in cui, in un calcolatore, vengono rappresentati i vari generi di informazione (testi, numeri interi,

Dettagli

TEN Radici quadrate modulo p e modulo p k. Radici quadrate modulo p, con p > 2.

TEN Radici quadrate modulo p e modulo p k. Radici quadrate modulo p, con p > 2. TEN 2008. Radici quadrate modulo p e modulo p k. Radici quadrate modulo p, con p > 2. Lemma 1. Sia n Z. Sia p > 2 un numero primo. (a) n è un quadrato modulo p se e solo se n p 1 2 1 mod p; (b) Sia n 0

Dettagli

Introduzione ai grafi

Introduzione ai grafi TFA A048 Anno Accademico 2012-13 Outline Cenni storici sui grafi Nozioni introduttive: cammini, connessione, alberi, cicli Cammini di costo minimo Origini storiche La nascita della teoria dei grafi risale

Dettagli

1 Funzioni reali di una variabile reale

1 Funzioni reali di una variabile reale 1 Funzioni reali di una variabile reale Qualche definizione e qualche esempio che risulteranno utili più avanti Durante tutto questo corso studieremo funzioni reali di una variabile reale, cioè Si ha f

Dettagli

Geometria analitica del piano pag 12 Adolfo Scimone

Geometria analitica del piano pag 12 Adolfo Scimone Geometria analitica del piano pag 12 Adolfo Scimone Fasci di rette Siano r e r' due rette distinte di equazioni r: ax + by + c r': a' x + b' y + c' Consideriamo la retta combinazione lineare delle due

Dettagli

Sistemi lineari. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara

Sistemi lineari. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara Sistemi lineari Lorenzo Pareschi Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara http://utenti.unife.it/lorenzo.pareschi/ lorenzo.pareschi@unife.it Lorenzo Pareschi (Univ. Ferrara)

Dettagli

La forma normale di Schur

La forma normale di Schur La forma normale di Schur Dario A Bini, Università di Pisa 30 ottobre 2013 Sommario Questo modulo didattico contiene risultati relativi alla forma normale di Schur, alle sue proprietà e alle sue applicazioni

Dettagli

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013 CORSO DI ANALISI MATEMATICA SOLUZIONI ESERCIZI PROPOSTI 8/03/03 D.BARTOLUCCI, D.GUIDO. La continuità uniforme I ESERCIZIO: Dimostrare che la funzione f(x) = x 3, x A = (, ] non è uniformemente continua

Dettagli

ESERCITAZIONE SUI PUNTI STAZIONARI DI FUNZIONI LIBERE E SULLE FUNZIONI OMOGENEE

ESERCITAZIONE SUI PUNTI STAZIONARI DI FUNZIONI LIBERE E SULLE FUNZIONI OMOGENEE ESERCITAZIONE SUI PUNTI STAZIONARI DI FUNZIONI LIBERE E SULLE FUNZIONI OMOGENEE 1 Funzioni libere I punti stazionari di una funzione libera di più variabili si ottengono risolvendo il sistema di equazioni

Dettagli

04 - Numeri Complessi

04 - Numeri Complessi Università degli Studi di Palermo Scuola Politecnica Dipartimento di Scienze Economiche, Aziendali e Statistiche Appunti del corso di Matematica 04 - Numeri Complessi Anno Accademico 2015/2016 M. Tumminello,

Dettagli

10 - Applicazioni del calcolo differenziale

10 - Applicazioni del calcolo differenziale Università degli Studi di Palermo Facoltà di Economia CdS Sviuppo Economico e Cooperazione Internazionale Appunti del corso di Matematica 10 - Applicazioni del calcolo differenziale Anno Accademico 2015/2016

Dettagli

A Analisi Matematica 1 (Corso di Laurea in Informatica e Bioinformatica) Simulazione compito d esame

A Analisi Matematica 1 (Corso di Laurea in Informatica e Bioinformatica) Simulazione compito d esame COGNOME NOME Matr. A Analisi Matematica (Corso di Laurea in Informatica e Bioinformatica) Firma dello studente Tempo: 3 ore. Prima parte: test a risposta multipla. Una ed una sola delle 4 affermazioni

Dettagli

Università degli Studi di Palermo Facoltà di Medicina e Chirurgia Anno Accademico 2011/12. Corso di Fisica(0) per il recupero dell OFA

Università degli Studi di Palermo Facoltà di Medicina e Chirurgia Anno Accademico 2011/12. Corso di Fisica(0) per il recupero dell OFA Università degli Studi di Palermo Facoltà di Medicina e Chirurgia Anno Accademico 2011/12 Corso di Fisica(0) per il recupero dell OFA Tutor: Dott. Stefano Panepinto Simbologia matematica Simbologia matematica

Dettagli

SCUOLA GALILEIANA DI STUDI SUPERIORI CLASSE DI SCIENZE NATURALI ESAME DI AMMISSIONE, PROVA DI MATEMATICA 13 SETTEMBRE 2011

SCUOLA GALILEIANA DI STUDI SUPERIORI CLASSE DI SCIENZE NATURALI ESAME DI AMMISSIONE, PROVA DI MATEMATICA 13 SETTEMBRE 2011 1 SCUOLA GALILEIANA DI STUDI SUPERIORI CLASSE DI SCIENZE NATURALI ESAME DI AMMISSIONE, PROVA DI MATEMATICA 13 SETTEMBRE 011 Problema 1. Sia Z l insieme dei numeri interi. a) Sia F 100 l insieme delle funzioni

Dettagli

Disequazioni di secondo grado

Disequazioni di secondo grado Disequazioni di secondo grado. Disequazioni Definizione: una disequazione è una relazione di disuguaglianza tra due espressioni. Detti p() e g() due polinomi definiti in un insieme A, una disequazione

Dettagli

FUNZIONI ELEMENTARI, DISEQUAZIONI, NUMERI REALI, PRINCIPIO DI INDUZIONE Esercizi risolti

FUNZIONI ELEMENTARI, DISEQUAZIONI, NUMERI REALI, PRINCIPIO DI INDUZIONE Esercizi risolti FUNZIONI ELEMENTARI, DISEQUAZIONI, NUMERI REALI, PRINCIPIO DI INDUZIONE Esercizi risolti Discutendo graficamente la disequazione x > 3 + x, verificare che l insieme delle soluzioni è un intervallo e trovarne

Dettagli

MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI. Anna TORRE

MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI. Anna TORRE MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI Anna TORRE Dipartimento di Matematica, Università di Pavia, Via Ferrata 1, 27100, Pavia, Italy. E-mail: anna.torre@unipv.it 1 SOLUZIONI:

Dettagli

Prontuario degli argomenti di Algebra

Prontuario degli argomenti di Algebra Prontuario degli argomenti di Algebra NUMERI RELATIVI Un numero relativo è un numero preceduto da un segno + o - indicante la posizione rispetto ad un punto di riferimento a cui si associa il valore 0.

Dettagli

Rappresentazione dei numeri interi in un calcolatore

Rappresentazione dei numeri interi in un calcolatore Corso di Calcolatori Elettronici I Rappresentazione dei numeri interi in un calcolatore Prof. Roberto Canonico Università degli Studi di Napoli Federico II Dipartimento di Ingegneria Elettrica e delle

Dettagli

Monomi L insieme dei monomi

Monomi L insieme dei monomi Monomi 10 10.1 L insieme dei monomi Definizione 10.1. Un espressione letterale in cui numeri e lettere sono legati dalla sola moltiplicazione si chiama monomio. Esempio 10.1. L espressione nelle due variabili

Dettagli

1) Codici ciclici. 2) Esempi di codici ciclici. 3) Algoritmi di codifica e decodifica. 4) Circuiti di codifica

1) Codici ciclici. 2) Esempi di codici ciclici. 3) Algoritmi di codifica e decodifica. 4) Circuiti di codifica Argomenti della Lezione ) Codici ciclici 2) Esempi di codici ciclici 3) Algoritmi di codifica e decodifica 4) Circuiti di codifica Codici ciclici Un codice lineare a blocchi (n,k) è ciclico se e solo se

Dettagli

Sistemi di 1 grado in due incognite

Sistemi di 1 grado in due incognite Sistemi di 1 grado in due incognite Problema In un cortile ci sono polli e conigli: in totale le teste sono 7 e zampe 18. Quanti polli e quanti conigli ci sono nel cortile? Soluzione Indichiamo con e con

Dettagli

1 IL LINGUAGGIO MATEMATICO

1 IL LINGUAGGIO MATEMATICO 1 IL LINGUAGGIO MATEMATICO Il linguaggio matematico moderno è basato su due concetti fondamentali: la teoria degli insiemi e la logica delle proposizioni. La teoria degli insiemi ci assicura che gli oggetti

Dettagli

FUNZIONI. y Y. Def. L insieme Y è detto codominio di f. Es. Siano X = R, Y = R e f : x y = 1 x associo il suo inverso). (ad un numero reale

FUNZIONI. y Y. Def. L insieme Y è detto codominio di f. Es. Siano X = R, Y = R e f : x y = 1 x associo il suo inverso). (ad un numero reale FUNZIONI Siano X e Y due insiemi. Def. Una funzione f definita in X a valori in Y è una corrispondenza (una legge) che associa ad ogni elemento X al più un elemento in Y. X Y Def. L insieme Y è detto codominio

Dettagli

FUNZIONI. y Y. Def. L insieme Y è detto codominio di f. Es. Siano X = R, Y = R e f : x y = 1 x associo il suo inverso). (ad un numero reale

FUNZIONI. y Y. Def. L insieme Y è detto codominio di f. Es. Siano X = R, Y = R e f : x y = 1 x associo il suo inverso). (ad un numero reale FUNZIONI Siano X e Y due insiemi. Def. Una funzione f definita in X a valori in Y è una corrispondenza (una legge) che associa ad ogni elemento X al piú un elemento in Y. X Y Def. L insieme Y è detto codominio

Dettagli

Precorsi di matematica

Precorsi di matematica Precorsi di matematica Francesco Dinuzzo 12 settembre 2005 1 Insiemi Il concetto di base nella matematica moderna è l insieme. Un insieme è una collezione di elementi. Gli elementi di un insieme vengono

Dettagli

Corso di Laurea in Fisica. Geometria. a.a Canale 3 Prof. P. Piazza Magiche notazioni

Corso di Laurea in Fisica. Geometria. a.a Canale 3 Prof. P. Piazza Magiche notazioni Corso di Laurea in Fisica. Geometria. a.a. 23-4. Canale 3 Prof. P. Piazza Magiche notazioni Siano V e W due spazi vettoriali e sia T : V W un applicazione lineare. Fissiamo una base B per V ed una base

Dettagli

Frazioni e numeri decimali

Frazioni e numeri decimali Frazioni e numeri decimali Sappiamo che uno stesso numero razionale può essere rappresentato sia sotto forma di frazione (in infiniti modi tra loro equivalenti) che sotto forma di numero decimale. Precisiamo

Dettagli

LOGARITMI. Corso di laurea: BIOLOGIA Tutor: Floris Marta; Max Artizzu PRECORSI DI MATEMATICA. L uguaglianza: a x = b

LOGARITMI. Corso di laurea: BIOLOGIA Tutor: Floris Marta; Max Artizzu PRECORSI DI MATEMATICA. L uguaglianza: a x = b Corso di laurea: BIOLOGIA Tutor: Floris Marta; Max Artizzu PRECORSI DI MATEMATICA LOGARITMI L uguaglianza: a x = b nella quale a e b rappresentano due numeri reali noti ed x un incognita, è un equazione

Dettagli

Argomento 2 IIparte Funzioni elementari e disequazioni

Argomento 2 IIparte Funzioni elementari e disequazioni Argomento IIparte Funzioni elementari e disequazioni Applicazioni alla risoluzione di disequazioni Disequazioni di I grado Per la risoluzione delle disequazioni di primo grado per via algebrica, si veda

Dettagli

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità

Dettagli

Alcune nozioni preliminari di teoria elementare di insiemi e funzioni

Alcune nozioni preliminari di teoria elementare di insiemi e funzioni Alcune nozioni preliminari di teoria elementare di insiemi e funzioni Alberto Pinto Corso Propedeutico - METS A.A. 2013/2014 1 Insiemi 1.1 Generalità Diamo la definizione di insieme secondo Georg Cantor,

Dettagli

Rappresentazione dei numeri interi in un calcolatore

Rappresentazione dei numeri interi in un calcolatore Corso di Calcolatori Elettronici I A.A. 2012-2013 Rappresentazione dei numeri interi in un calcolatore Prof. Roberto Canonico Università degli Studi di Napoli Federico II Dipartimento di Ingegneria Elettrica

Dettagli

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore 10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore

Dettagli

Cap. 2 - Rappresentazione in base 2 dei numeri interi

Cap. 2 - Rappresentazione in base 2 dei numeri interi Cap. 2 - Rappresentazione in base 2 dei numeri interi 2.1 I NUMERI INTERI RELATIVI I numeri relativi sono numeri con il segno: essi possono essere quindi positivi e negativi. Si dividono in due categorie:

Dettagli

1.1 Coordinate sulla retta e nel piano; rette nel piano

1.1 Coordinate sulla retta e nel piano; rette nel piano 1 Sistemi lineari 11 Coordinate sulla retta e nel piano; rette nel piano Coordinate sulla retta Scelti su una retta un primo punto O (origine) ed un diverso secondo punto U (unita ), l identificazione

Dettagli

Un monomio è in forma normale se è il prodotto di un solo fattore numerico e di fattori letterali con basi diverse. Tutto quanto sarà detto di

Un monomio è in forma normale se è il prodotto di un solo fattore numerico e di fattori letterali con basi diverse. Tutto quanto sarà detto di DEFINIZIONE Espressione algebrica costituita dal prodotto tra una parte numerica (coefficiente) e una o più variabili e/o costanti (parte letterale). Variabili e costanti possono comparire elevate a potenza

Dettagli

ESERCIZI SUI PUNTI DI NON DERIVABILITÀ TRATTI DA TEMI D ESAME

ESERCIZI SUI PUNTI DI NON DERIVABILITÀ TRATTI DA TEMI D ESAME ESERCIZI SUI PUNTI DI NON DERIVABILITÀ TRATTI DA TEMI D ESAME a cura di Michele Scaglia FUNZIONI DERIVABILI Sia f : domf R una funzione e sia 0 domf di accumulazione per domf Chiamiamo derivata prima di

Dettagli

Capitolo IV SPAZI VETTORIALI EUCLIDEI

Capitolo IV SPAZI VETTORIALI EUCLIDEI Capitolo IV SPAZI VETTORIALI EUCLIDEI È ben noto che in VO 3 si possono considerare strutture più ricche di quella di spazio vettoriale; si pensi in particolare all operazioni di prodotto scalare di vettori.

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Calcolo Numerico Dott.ssa M.C. De Bonis Università degli Studi della Basilicata, Potenza Facoltà di Ingegneria Corso di Laurea in Ingegneria Meccanica Risoluzione di Equazioni Algebriche Le equazioni

Dettagli

Corso di Analisi Matematica I numeri reali

Corso di Analisi Matematica I numeri reali Corso di Analisi Matematica I numeri reali Laurea in Informatica e Comunicazione Digitale A.A. 2013/2014 Università di Bari ICD (Bari) Analisi Matematica 1 / 57 1 Insiemi e logica 2 Campi ordinati 3 Estremo

Dettagli

Luca Costabile Esercizi di Logica Matematica Dispensa Calcolo Proposizionale 1

Luca Costabile Esercizi di Logica Matematica Dispensa Calcolo Proposizionale 1 Luca Costabile Esercizi di Logica Matematica Dispensa Calcolo Proposizionale 1 Esercizio 1.12 Per dimostrare che per ogni funzione esiste una formula in cui compaiono le variabili tale che la corrispondente

Dettagli

Introduciamo ora un altro campo, formato da un numero finito di elementi; il campo delle classi resto modulo n, con n numero primo.

Introduciamo ora un altro campo, formato da un numero finito di elementi; il campo delle classi resto modulo n, con n numero primo. Capitolo 3 Il campo Z n 31 Introduzione Introduciamo ora un altro campo, formato da un numero finito di elementi; il campo delle classi resto modulo n, con n numero primo 32 Le classi resto Definizione

Dettagli

Prima lezione. Gilberto Bini. 16 Dicembre 2006

Prima lezione. Gilberto Bini. 16 Dicembre 2006 16 Dicembre 2006 Vediamo alcune nozioni di teoria ingenua degli insiemi. Vediamo alcune nozioni di teoria ingenua degli insiemi. Un insieme è una collezione di oggetti di cui possiamo specificare una proprietà

Dettagli

CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI

CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI Consideriamo l insieme R = R {, + } ottenuto aggiungendo all insieme dei numeri reali i simboli e +. Introduciamo in

Dettagli