Il secondo teorema di Shannon

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Il secondo teorema di Shannon"

Transcript

1 Il secondo teorema di Shannon Appunti scritti da Alberto Leporati Dipartimento di Informatica, Sistemistica e Comunicazione (DISCo) Università degli Studi di Milano Bicocca Via Bicocca degli Arcimboldi 8, 2026 Milano Alcuni preliminari matematici Nel corso della dimostrazione del secondo teorema di Shannon utilizzeremo la seguente maggiorazione: λn k=0 ( ) n 2 nh(λ) con 0 < λ < k 2 dove H( ) è la funzione entropia per una sorgente binaria (o Bernoulliana), in grado cioè di emettere due simboli. Si assume che λn sia un intero. Useremo inoltre la legge debole dei grandi numeri. Teorema (Legge debole dei grandi numeri). Siano X,X 2,...,X n variabili casuali indipendenti, con la stessa distribuzione di probabilità, aventi media µ e varianza σ 2. Allora, per ogni ε > 0 e δ > 0 esiste un intero n 0 tale che, per ogni n > n 0, ] n P[ X i µ n ε δ o, equivalentemente, i= P[ n ] n X i µ > ε < δ i= Il teorema afferma che la media dei valori di X,X 2,...,X n può essere portata, con alta probabilità, vicino quanto si vuole al valore atteso µ. Una interpretazione alternativa ed equivalente è la seguente: la probabilità che la media dei valori di X,X 2,...,X n si discosti da µ di una quantità ε > 0 scelta a piacere può essere resa arbitrariamente piccola.

2 Si pensi, ad esempio, a X,X 2,...,X n come alle variabili casuali che descrivono i risultati di n esperimenti identici e indipendenti. Ogni esperimento darà in media il valore µ. La legge dei grandi numeri ci dice che si può portare il valore medio della sequenza di esperimenti vicino quanto si vuole al valore medio µ di ogni singolo esperimento. Ciò non avviene con certezza, ma con probabilità vicina a quanto si vuole. Useremo la legge dei grandi numeri quando codificheremo i messaggi in estensioni molto grandi del canale. Spediremo nel canale sequenze di n cifre binarie. La spedizione di ciascuna cifra binaria costituirà un esperimento Bernoulliano che avrà probabilità di errore pari a Q. Nella spedizione del blocco di n cifre binarie ci attenderemo quindi un numero medio di errori pari a nq. La legge dei grandi numeri ci assicurerà che il numero di errori che si sono effettivamente verificati, diviso per n, potrà essere portato vicino a Q quanto si vuole, con probabilità vicina a quanto si vuole, a patto di lavorare con valori di n sufficientemente grandi (lavorando quindi in estensioni del canale sufficientemente grandi, ovvero spedendo sequenze sufficientemente lunghe di cifre binarie). 2 Il secondo teorema di Shannon Dimostriamo ora un risultato fondamentale della Teoria dell Informazione: in un canale, anche in presenza di rumore, si riesce a trasmettere avvicinandosi arbitrariamente alla capacità del canale, mantenendo l affidabilità del canale (cioè la probabilità di ricevere correttamente i messaggi) arbitrariamente vicina a. Dimostreremo il teorema per il canale binario simmetrico (CBS), sia perché la dimostrazione è più semplice, sia perché è il tipo di canale più usato in pratica. Daremo anche alcune indicazioni su come estendere il teorema a canali più generali. 2. Regole di decisione Dato un canale, supponiamo di aver ricevuto il simbolo b j B. Come facciamo a decidere quale simbolo a i A è stato spedito? La scelta dipende dal canale, ovvero dalle probabilità P(b j a i ), e anche da come lo si usa, cioè dalle probabilità p(a i ) associate ai simboli a i A. Ad esempio, consideriamo il canale descritto dalla seguente matrice: a a 2 b b 2 b 3 [ ] e supponiamo che i simboli in ingresso siano equiprobabili: p(a ) = p(a 2 ) = 2 2

3 Allora, se riceviamo b è ragionevole supporre che sia stato spedito a. Analogamente, se riceviamo b 3 è ragionevole supporre che che sia stato spedito a 2. Se invece riceviamo b 2, potrebbe essere stato spedito sia a che a 2. Indichiamo con d(b j ) il simbolo di A scelto tramite la regola di decisione d, quando si riceve il simbolo b j. In generale, una regola di decisione è una funzione d : B A che ad ogni simbolo di B associa uno e un solo simbolo di A. Poiché B = s e A = q, ci sono q s diverse regole di decisione. Tra tutte queste si sceglie solitamente una regola di decisione di massima verosimiglianza, che prescrive di prendere per ogni simbolo di B ricevuto il simbolo di A più probabile. Se assumiamo che i simboli di A vengano scelti dal mittente con probabilità uniforme, una regola di decisione di massima verosimiglianza prescrive di associare a b j B il simbolo a A per il quale: P(a b j ) P(a i b j ) i Essendo queste delle probabilità all indietro, usando il teorema di Bayes possiamo esprimerle come: P(b j a )p(a ) p(b j ) P(b j a i )p(a i ) p(b j ) Poiché abbiamo supposto che i simboli di A siano equiprobabili (e quindi p(a ) = p(a i ) = q ), otteniamo: i P(b j a ) P(b j a i ) i Per il canale di cui sopra abbiamo quindi le seguenti due regole di decisione di massima verosimiglianza: Regola Regola 2 d(b ) = a d(b ) = a d(b 2 ) = a d(b 2 ) = a 2 d(b 3 ) = a 2 d(b 3 ) = a 2 Si osservi che, in generale, la regola di decisione di massima verosimiglianza non è unica. Poiché scegliamo di associare a al simbolo b j osservato, la probabilità di commettere un errore è data da: L errore medio P E è dato quindi da: P E = B P(E b j ) = P(a b j ) P(E b j )p(b j ) = B p(b j ) B P(a b j )p(b j ) 3

4 = B P(a b j )p(b j ) = B P(b j a )p(a ) p(b j ) p(b j ) = ( essendo i simboli di A equiprobabili, vale p(a ) = q = P(b j a ) q B 2.2 Il canale binario simmetrico (CBS) Dimostriamo ora il teorema di Shannon per il CBS: ) Q P Q P dove P è la probabilità di avere una trasmissione corretta, e Q = P è la probabilità di avere un errore di trasmissione. Assumiamo Q < 2, dato che: se Q = 2, abbiamo un canale completamente rumoroso, in cui i simboli di uscita sono indipendenti dai simboli dati in ingresso, e la capacità è 0; se Q > 2, il canale sbaglia a trasmettere la maggior parte delle volte. Tuttavia, possiamo scambiare il ruolo di 0 e in uscita e ottenere un canale in cui Q < 2. Lavoriamo con l n esima estensione del canale; in altre parole, spediamo blocchi di n bit. Indichiamo con (CBS) n l n esima estensione del CBS. Inoltre, indichiamo con A e con B rispettivamente gli alfabeti di ingresso e di uscita di (CBS) n. Si noti che l n esima estensione di un CBS è un canale uniforme. Ci sono 2 n configurazioni di n bit, e quindi potremmo pensare di porre A = B = {0,} n. Tuttavia, se vogliamo proteggerci dal rumore non possiamo usare tutte le 2 n possibili configurazioni per A: come abbiamo visto studiando i codici a correzione d errore, i messaggi validi devono costituire un sottoinsieme di tutti i possibili messaggi che transitano lungo il canale, e devono avere tra loro una distanza di Hamming abbastanza grande. D altra parte, dal canale può uscire qualunque sequenza di n cifre binarie, e quindi avremo A B = {0,} n (dove con si intende l inclusione stretta). Quanti messaggi ci vogliono allora per avvicinarsi alla capacità di canale? Se supponiamo di usare M messaggi equiprobabili, l informazione data da ciascuno 4

5 è: I(a i ) = log 2 /M = log 2 M Come abbiamo visto, la capacità di un CBS è: C = H(P) = H(Q) per messaggi formati da una cifra binaria; pertanto, per l n esima estensione la capacità è: nc = n[ H(Q)] Per avvicinarsi alla capacità di canale deve valere: con ε > 0, ovvero: I(a i ) = log 2 M = n(c ε ) M = 2 n(c ε ) = 2nC 2 nε Questo significa che, facendo crescere n, il denominatore può essere reso arbitrariamente grande; in altre parole, stiamo prendendo come messaggi validi una piccola frazione di tutti i possibili messaggi di lunghezza n. 2.3 Codifica casuale La seconda questione è: come facciamo a costruire un codice i cui messaggi validi siano equiprobabili e abbastanza distanti tra loro? Dato che non lo sappiamo fare in generale, ci affidiamo a una codifica casuale. Infatti, se n è grande allora due punti scelti a caso nello spazio n dimensionale saranno molto probabilmente distanti fra loro. Per codificare ogni messaggio, lanciamo una moneta per n volte e registriamo la sequenza di 0 e risultante. Faremo quindi in totale nm lanci della moneta, e otterremo uno dei 2 nm possibili codici. Un metodo alternativo (ed equivalente a quello appena descritto) di costruire il codice casuale è quello di scrivere tutte le possibili sequenze di n cifre binarie su altrettante striscioline di carta, metterle in un contenitore e fare M estrazioni casuali con reimmissione. Con entrambi i metodi è possibile che due messaggi diversi vengano codificati con la stessa sequenza di n cifre binarie; tuttavia, per n grande la probabilità che ciò avvenga è molto bassa. Immaginiamo ora gli M messaggi validi immersi nello spazio di Hamming n dimensionale (cioè lo spazio n dimensionale in cui la distanza è quella di Hamming). La probabilità che si verifichi un errore di trasmissione in qualsiasi cifra di ogni messaggio è Q = P, e quindi durante la trasmissione di un messaggio ci attendiamo che avvengano mediamente nq errori. Consideriamo una sfera il cui centro è il messaggio inviato a i, con un raggio pari a nq. Supponiamo di 5

6 incrementare il raggio della quantità nε 2 (cioè di una piccola frazione di n), con ε 2 > 0. Il nuovo raggio è: r = n(q + ε 2 ) Il valore di ε 2 deve essere abbastanza piccolo da valere Q + ε 2 < 2 ; il valore di ε 2 rispetto a ε verrà determinato più avanti. Per la legge dei grandi numeri, se n è grande il messaggio ricevuto b j si troverà fuori dalla nuova sfera con probabilità molto bassa. Quindi, se usiamo la regola di decisione di massima verosimiglianza e siamo in grado di dimostrare che quasi sicuramente nessuna sfera si interseca con altre sfere, abbiamo che il ricevente può quasi essere sicuro su quale messaggio è stato spedito. Guardando le cose dal punto di vista del ricevente, ciò equivale a considerare una sfera centrata nel messaggio ricevuto b j, e la probabilità che il messaggio a i inviato si trovi all interno della sfera. La regola di decisione di massima verosimiglianza ha una semplice interpretazione in termini di distanza di Hamming. Sia a i il messaggio inviato dal mittente, e b j quello ricevuto. Se la distanza di Hamming tra a i e b j è D, allora a i e b j differiscono in esattamente D posizioni, e la probabilità di ricevere b j avendo spedito a i è uguale alla probabilità che avvengano D trasmissioni (di una singola cifra binaria) errate e n D trasmissioni corrette: P(b j a i ) = Q D ( Q) n D Essendo Q < 2, questa quantità diminuisce all aumentare di D. Quindi, più lontano è b j da a i e minore è la probabilità di riceverlo. La regola di decisione di massima verosimiglianza seleziona il messaggio valido che massimizza P(b j a i ), ovvero il messaggio valido più vicino a b j rispetto alla distanza di Hamming. Quindi, correggere il messaggio ricevuto scegliendo il messaggio valido che ha distanza di Hamming minima equivale ad utilizzare la regola di massima verosimiglianza. Ciò avviene sempre quando si è in presenza di rumore bianco. Nel caso in cui due o più messaggi validi si trovino alla stessa distanza (minima) dal messaggio ricevuto, il ricevente non può far altro che tirare a indovinare. Se i messaggi validi che hanno distanza minima dal messaggio ricevuto sono k, otterremo il messaggio corretto con probabilità k. La regola di massima verosimiglianza è però difficile da analizzare. Useremo pertanto un altra regola di decisione che è molto simile. Nonostante tale regola non sia così buona quanto la regola di massima verosimiglianza, ci consentirà comunque di ottenere una probabilità d errore piccola quanto vogliamo. La regola di decisione adottata consiste nel considerare la sfera di raggio r = n(q + ε 2 ), centrata in b j e, se c è un solo messaggio a A all interno di questa sfera, sceglierlo. Scriviamo ora una formula che esprime la probabilità di non riuscire a decodificare correttamente il messaggio, utilizzando tale regola. Si verifica un errore se a i non si trova all interno della sfera S(r) centrata in b j, oppure se in tale sfera 6

7 c è più di un simbolo di A (dato che in tal caso non sappiamo quale scegliere per decodificare b j ). Quindi la probabilità P E d errore è: P E = P[a i S(r)] + P[a i S(r)] P[almeno un altro messaggio valido S(r)] Poiché P[a i S(r)], possiamo scrivere: P E P[a i S(r)] + P[almeno un altro messaggio valido S(r)] La frase almeno un altro messaggio valido S(r) significa uno o più messaggi validi diversi da a i S(r). Poiché, dato un numero finito di eventi E,E 2,...,E n (non necessariamente disgiunti) vale: P[E E 2... E n ] P[E ] + P[E 2 ] P[E n ] allora: P[almeno un altro messaggio valido S(r)] P[a S(r)] a A\{a i } da cui: P E P[a i S(r)] + a A\{a i } P[a S(r)] Il primo termine è la probabilità che il messaggio valido a i non si trovi nella sfera di raggio r (che è di poco maggiore della distanza di Hamming corrispondente a nq errori di trasmissione, che è il numero di errori che ci aspettiamo in media) centrata in b j, che è il messaggio ricevuto. Tale probabilità è uguale alla probabilità che il messaggio b j ricevuto non si trovi nella sfera di raggio r centrata in a i. Il secondo termine è la somma, su tutti i messaggi non inviati, che ciascuno di questi si trovi nella sfera di raggio r centrata in b j. Speriamo che, usando una codifica casuale, la probabilità che uno di questi messaggi si trovi in tale sfera sia molto bassa. Questa speranza nasce dal fatto che, per n molto grande, è molto improbabile che due messaggi presi a caso nello spazio n dimensionale si trovino vicini. Per la legge dei grandi numeri, il primo termine (che dipende solamente da a i ) può essere reso più piccolo di qualunque reale positivo δ = δ(ε 2,n) (la cui scelta cioè dipende da ε 2 e da n) prefissato aumentando il valore di n, cioè la lunghezza dei messaggi trasmessi. Infatti, come abbiamo detto, il numero medio di errori che si verificano durante la trasmissione di una sequenza di n cifre binarie è nq. Per ogni valore fissato di n ci sarà una probabilità che il numero effettivo di errori superi il suo valore medio di nε 2 o più. Man mano che n cresce, però, ciò diventa sempre meno probabile; più precisamente, per la legge debole dei grandi numeri vale: ε 2,δ > 0 n 0 tale che n > n 0 P[numero di errori > nq + nε 2 ] < δ 7

8 [ ] (equivalentemente, P numero di errori nq n ε 2 δ). Questo significa che, prendendo n sufficientemente grande, possiamo essere sicuri che: P[a i S(nQ + nε 2 )] < δ con δ arbitrariamente piccolo. Pertanto abbiamo: P E δ + P[a S(r)] 2.4 Il codice casuale medio a A\{a i } Per poter valutare la sommatoria presente nell ultima disuguaglianza, facciamo ora la media su tutti i possibili codici casuali. In ogni codifica casuale abbiamo M = 2 n(c ε ) messaggi di lunghezza n, e ci sono 2 nm possibili codici casuali. Supponiamo che tutti questi codici siano equiprobabili, cioè che ciascuno venga scelto con probabilità 2 nm. Indichiamo con P E la media, pesata con tali probabilità, delle probabilità di errore. Tenendo conto che δ è una costante, e che A = M, abbiamo: P E δ + (M ) P[a S(r)] δ + M P[a S(r)] (a a i ) () (la tilde indica sempre la media calcolata su tutti i possibili codici casuali). Per calcolare P[a S(r)] (per a a i ) fissiamo l attenzione su un qualunque messaggio a a i. La probabilità che a S(r) è il rapporto tra il volume della sfera e il volume totale dello spazio. Indichiamo con N(r) il numero di punti presenti all interno della sfera S(r). Poiché il volume totale dello spazio è 2 n, abbiamo: P[a S(r)] = N(r) 2 n Dato che stiamo lavorando in uno spazio di Hamming, vale: N(r) = + Ricordiamo inoltre che vale: ( ) n + ( ) n ( ) n = r r k=0 ( ) n k Possiamo applicare la disuguaglianza: r = n(q + ε 2 ) e Q + ε 2 < 2 λn k=0 ( ) n 2 nh(λ), con 0 < λ < k 2 8

9 a N(r), ponendo λ = Q + ε 2 ; otteniamo: N(r) 2 nh(λ) e quindi: P[a S(r)] 2 n[ H(λ)] (con a a i ) Tornando a P E, l equazione () diventa: Ricordiamo che la capacità dei CBS è: P E δ + M 2 n[ H(λ)] (2) C = H(P) = H(Q) Pertanto, l esponente che compare nell equazione (2) può essere scritto come: H(λ) = H(Q + ε 2 ) = H(Q) + H(Q) H(Q + ε 2 ) = C [H(Q + ε 2 ) H(Q)] (3) Dato che la funzione entropia ha la convessità verso il basso, e può essere limitata superiormente tracciando una retta tangente in qualsiasi punto di ascissa Q (0,), vale: dove: Essendo Q < 2 vale: dh dx H(Q + ε 2 ) H(Q) + ε 2 dh dx Q = log Q Q log Q = log Q Q 2Q < da cui Q < Q da cui Q Q > e quindi: dh dx Pertanto l equazione (3) diventa: Q = log Q Q > 0 H(λ) C ε 2 log Q Q = C ε 3 dove abbiamo posto: ε 3 = ε 2 log Q Q 9

10 Quindi l equazione (2) diventa: P E δ + M 2 n(c ε 3) δ + 2 n(c ε ) 2 n(c ε 3) δ + 2 n(ε ε 3 ) Questo significa che se scegliamo ε 2 abbastanza piccolo da avere: ε ε 3 = ε ε 2 log Q Q > 0 allora l errore medio P E può essere reso arbitrariamente piccolo scegliendo n sufficientemente grande. Avendo dimostrato che il codice medio, calcolato su tutti i possibili codici casuali, soddisfa i requisiti richiesti, esisterà almeno un codice casuale che li soddisfa. Abbiamo così dimostrato il secondo teorema di Shannon, che possiamo parafrasare come segue. Teorema 2 (Secondo teorema di Shannon). Esistono codici che sono arbitrariamente affidabili e che possono trasmettere una quantità di informazione arbitrariamente vicina alla capacità di canale (usando un opportuna estensione del CBS). Cosa impariamo da questo teorema? Anzitutto impariamo che esistono dei buoni codici dal punto di vista teorico. Il teorema di Shannon non ci mostra esattamente come costruire un buon codice, e quindi la dimostrazione non è costruttiva. D altra parte, il teorema ci fornisce un metodo che genererà dei buoni codici in media, e quindi non si può neanche dire che la dimostrazione sia puramente esistenziale. Vediamo anche che in tali codici bisogna spedire dei messaggi molto lunghi, e quindi in ogni messaggio bisognerà correggere molti errori. Spedire messaggi molto lunghi significa che il mittente dovrà raccogliere molte informazioni prima di spedire ogni messaggio, il che non è molto pratico. Inoltre, il ricevente dovrà utilizzare delle tabelle di decodifica molto grosse: infatti, essendo il codice utilizzato casuale, non siamo in grado di dare una descrizione compatta dei processi di codifica e decodifica, come avviene ad esempio per i codici di Hamming. Si tratta quindi di un importante risultato teorico, che però non ci aiuta molto nella pratica. 2.5 Il teorema di Shannon per canali generici La dimostrazione del teorema di Shannon per canali generici segue lo schema della dimostrazione per i CBS. La grossa differenza è che dobbiamo trovare una metrica equivalente a quella di Hamming (che tra l altro va bene solo per un canale dotato di rumore bianco). Dobbiamo poi contare il numero di possibili messaggi che si trovano all interno di una sfera, definita usando tale metrica. Infine, la formula 0

11 che esprime la capacità di canale non è più C = H(P) = H(Q), ma dobbiamo tornare alla definizione. La metrica di cui abbiamo bisogno deve tener conto della probabilità che si verifichino errori durante la trasmissione. Se il rumore non è più bianco, le sfere diventano degli ovali che sono più lunghi nelle direzioni in cui gli errori sono più probabili. Si prendono poi degli ovali aventi raggi tali che ci sia la stessa probabilità di errore in ogni direzione, centrati nel simbolo b j ricevuto, e li si ingrandisce come prima, in modo tale che (per la legge dei grandi numeri) quando n è sufficientemente grande, quasi certamente il messaggio a i spedito si trovi all interno dell ovale. Il valore di n deve anche essere abbastanza grande in modo tale che la probabilità che gli ovali si sovrappongano sia bassa. Infine, scegliamo il numero M di messaggi da spedire in modo da avvicinarci alla capacità del canale. Per il resto, la dimostrazione procede come quella per il CBS. 3 La disuguaglianza di Fano Dimostriamo ora la disuguaglianza di Fano, che ci servirà per dimostrare l inverso del teorema di Shannon. Poniamo innanzitutto: P E = P(a,b) e B,A\{a } P E = P E = B P(a,b) Consideriamo l espressione: H(P E ) + P E log(q ) = P E log q + P E log P E P E = P(a,b)log q + P E B L equivocazione H(A B) vale: B,A\{a } P(a,b)log P E H(A B) = B p(b)h(a b) = B p(b) A = B,A P(a,b)log = B,A\{a } P(a b)log P(a b) P(a b) P(a,b)log P(a b) + B P(a,b)log P(a b)

12 La differenza vale: H(A B) H(P E ) P E log(q ) = P E P(a,b)log (q )P(a b) + B B,A\{a } P(a,b)log P E P(a b) Applichiamo ora la disuguaglianza: ovvero (cambiando base): log x log e ln x x x da cui log x (x )log e ad ogni termine della somma. Tralasciando il fattore log e (che non cambia il risultato che otterremo) abbiamo: H(A B) H(P E ) P E log(q ) [ ] P E P(a,b) (q )P(a b) + B,A\{a } B = P E p(b) P E + P E p(b) P E q B,A\{a } B [ P(a,b) = P E q (q ) p(b) + P E p(b) (P E + P E ) B B = P E + P E (P E + P E ) = 0 P E P(a b) ] Pertanto vale: H(A B) H(P E ) + P E log(q ) che viene detta disuguaglianza di Fano. L uguaglianza vale quando ln x = x, ovvero quando x =. Dato che abbiamo usato la disuguaglianza ln x x in due posti diversi, si ha l uguaglianza quando valgono entrambe le seguenti condizioni:. P(a b) = P E q b, a a 2. P(a b) = P E b Tuttavia, la seconda condizione è inclusa nella prima (cioè la prima implica la seconda). Infatti possiamo scrivere: P(a b) = A b 2

13 e quindi: A\{a } Per la condizione, questa diventa: P E q Essendo A = q, si ottiene: P(a b) + P(a b) = A\{a } b + P(a b) = b P E q (q ) + P(a b) = b che è proprio la condizione 2. 4 L inverso del teorema di Shannon Mostriamo ora che la probabilità d errore non può essere resa arbitrariamente piccola se si supera la capacità del canale. In altre parole, non possiamo usare M = 2 n(c+ε) con ε > 0 messaggi validi equiprobabili, soddisfacendo i requisiti del teorema di Shannon. Infatti, supponiamo per assurdo di poterlo fare. Allora la variazione di entropia deve essere minore o uguale della capacità dell n esima estensione del CBS: H(A) H(A B) nc (4) dato che la capacità dell n esima estensione del CBS è, per definizione, il valore massimo di tale variazione. Dato che la probabilità di scegliere ogni messaggio valido è M, abbiamo: Pertanto, dalla (4) abbiamo: e quindi, dalla disuguaglianza di Fano: H(A) = M log M = log M = n(c + ε) n(c + ε) nc = nε H(A B) nε H(A B) H(P E ) + P E log(m ) Ricordiamo ora che vale H(P E ). Inoltre M < M, da cui log(m ) < log M. Otteniamo quindi: nε + P E n(c + ε) 3

14 da cui: P E nε n(c + ε) = ε /n C + ε n + ε C + ε > 0 Possiamo concludere che, per n che tende all infinito, P E non si avvicina ε a 0 ma si avvicina alla quantità C+ε, che è positiva. Questo significa che la probabilità d errore non può essere resa arbitrariamente piccola se si supera la capacità del canale. Riferimenti bibliografici [] N. Abramson. Information Theory and Coding. McGraw-Hill, 963. [2] R. H. Hamming. Coding and Information Theory. Second Edition. Prentice Hall, Englewood Cliffs,

Teoria dell informazione

Teoria dell informazione Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di

Dettagli

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI

TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio

Dettagli

Complementi di Analisi Matematica Ia. Carlo Bardaro

Complementi di Analisi Matematica Ia. Carlo Bardaro Complementi di Analisi Matematica Ia Carlo Bardaro Capitolo 1 Elementi di topologia della retta reale 1.1 Intorni, punti di accumulazione e insiemi chiusi Sia x 0 IR un fissato punto di IR. Chiameremo

Dettagli

Dimostrazione. Indichiamo con α e β (finiti o infiniti) gli estremi dell intervallo I. Poniamo

Dimostrazione. Indichiamo con α e β (finiti o infiniti) gli estremi dell intervallo I. Poniamo C.6 Funzioni continue Pag. 114 Dimostrazione del Corollario 4.25 Corollario 4.25 Sia f continua in un intervallo I. Supponiamo che f ammetta, per x tendente a ciascuno degli estremi dell intervallo, iti

Dettagli

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I 01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore

Dettagli

02 - Logica delle dimostrazioni

02 - Logica delle dimostrazioni Università degli Studi di Palermo Facoltà di Economia Dipartimento di Scienze Economiche, Aziendali e Statistiche Appunti del corso di Matematica 0 - Logica delle dimostrazioni Anno Accademico 015/016

Dettagli

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano

1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità

Dettagli

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza

Dettagli

1) Hamming bound, coset, codici equivalenti

1) Hamming bound, coset, codici equivalenti Argomenti della Lezione ) Hamming bound, coset, codici equivalenti 2) Esercizi sui codici lineari a blocchi Osservazione () Per effettuare la decodifica a rivelazione di errore si può seguire una delle

Dettagli

STII/Teoria dell Informazione

STII/Teoria dell Informazione STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione

Dettagli

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16 Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana - 015/16 Esercizio 1 Per quali valori n Z \ {0} l espressione è un numero intero positivo? (n + 5)(n + 6) 6n Soluzione. Il problema

Dettagli

Massimo limite e minimo limite di una funzione

Massimo limite e minimo limite di una funzione Massimo limite e minimo limite di una funzione Sia f : A R una funzione, e sia p DA). Per ogni r > 0, l insieme ) E f p r) = { fx) x A I r p) \ {p} } è non vuoto; inoltre E f p r ) E f p r ) se 0 < r r.

Dettagli

04 - Logica delle dimostrazioni

04 - Logica delle dimostrazioni Università degli Studi di Palermo Facoltà di Economia CdS Sviluppo Economico e Cooperazione Internazionale Appunti del corso di Matematica 04 - Logica delle dimostrazioni Anno Accademico 013/014 D. Provenzano,

Dettagli

I teoremi della funzione inversa e della funzione implicita

I teoremi della funzione inversa e della funzione implicita I teoremi della funzione inversa e della funzione implicita Appunti per il corso di Analisi Matematica 4 G. Mauceri Indice 1 Il teorema della funzione inversa 1 Il teorema della funzione implicita 3 1

Dettagli

LIMITI - ESERCIZI SVOLTI

LIMITI - ESERCIZI SVOLTI LIMITI - ESERCIZI SVOLTI ) Verificare mediante la definizione di ite che a) 3 5) = b) = + ) c) 3n n + n+ = + d) 3+ = 3. ) Calcolare utilizzando i teoremi sull algebra dei iti a) 3 + ) b) + c) 0 + d) ±

Dettagli

11. Misure con segno.

11. Misure con segno. 11. Misure con segno. 11.1. Misure con segno. Sia Ω un insieme non vuoto e sia A una σ-algebra in Ω. Definizione 11.1.1. (Misura con segno). Si chiama misura con segno su A ogni funzione ϕ : A R verificante

Dettagli

NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE

NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE ROBERTO GIAMBÒ 1. DEFINIZIONI E PRIME PROPRIETÀ In queste note saranno presentate alcune proprietà principali delle funzioni convesse di una variabile

Dettagli

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x

Dettagli

Limiti di successioni

Limiti di successioni Capitolo 5 Limiti di successioni 5.1 Successioni Quando l insieme di definizione di una funzione coincide con l insieme N costituito dagli infiniti numeri naturali 1, 2, 3,... talvolta si considera anche

Dettagli

15 Informazione e Predizione

15 Informazione e Predizione (FX) Teoria dell Informazione e della Trasmissione 5 Informazione e Predizione Docente: Nicolò Cesa-Bianchi versione 4 maggio 03 Consideriamo una sorgente X, p. Dallo studio della codifica sorgente, sappiamo

Dettagli

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i

..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente

Dettagli

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore

10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore 10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore

Dettagli

Sviluppi e derivate delle funzioni elementari

Sviluppi e derivate delle funzioni elementari Sviluppi e derivate delle funzioni elementari In queste pagine dimostriamo gli sviluppi del prim ordine e le formule di derivazioni delle principali funzioni elementari. Utilizzeremo le uguaglianze lim

Dettagli

IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero

IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero Il teorema degli zeri è fondamentale per determinare se una funzione continua in un intervallo chiuso [ a ; b ] si annulla in almeno un punto interno

Dettagli

Alcune v.a. discrete notevoli

Alcune v.a. discrete notevoli Alcune v.a. discrete notevoli Variabile aleatoria Bernoulliana Il risultato X di un esperimento aleatorio può essere classificato nel modo che segue: successo oppure insuccesso. Indichiamo: Successo =

Dettagli

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea) 10.4 Convergenze 166 10.4.3. Convergenza in Probabilità. Definizione 10.2. Data una successione X 1, X 2,...,,... di vettori aleatori e un vettore aleatorio X aventi tutti la stessa dimensione k diremo

Dettagli

Geometria e Topologia I (U1-4) 2006-mag-10 61

Geometria e Topologia I (U1-4) 2006-mag-10 61 Geometria e Topologia I (U1-4) 2006-mag-10 61 (15.9) Teorema. Consideriamo il piano affine. Se A A 2 (K) è un punto e r una retta che non passa per A, allora esiste unica la retta per A che non interseca

Dettagli

Lezione 6 Richiami di Geometria Analitica

Lezione 6 Richiami di Geometria Analitica 1 Piano cartesiano Lezione 6 Richiami di Geometria Analitica Consideriamo nel piano due rette perpendicolari che si intersecano in un punto O Consideriamo ciascuna di queste rette come retta orientata

Dettagli

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con

Dettagli

ANALISI 1 - Teoremi e dimostrazioni vari

ANALISI 1 - Teoremi e dimostrazioni vari ANALISI 1 - Teoremi e dimostrazioni vari Sommario Proprietà dell estremo superiore per R... 2 Definitivamente... 2 Successioni convergenti... 2 Successioni monotone... 2 Teorema di esistenza del limite

Dettagli

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria. Capitolo 2 Campi 2.1 Introduzione Studiamo ora i campi. Essi sono una generalizzazione dell insieme R dei numeri reali con le operazioni di addizione e di moltiplicazione. Nel secondo paragrafo ricordiamo

Dettagli

Tracce di soluzioni di alcuni esercizi di matematica 1 - gruppo 76-93

Tracce di soluzioni di alcuni esercizi di matematica 1 - gruppo 76-93 Tracce di soluzioni di alcuni esercizi di matematica 1 - gruppo 76-93 5. Funzioni continue Soluzione dell Esercizio 76. Osserviamo che possiamo scrivere p() = n (a n + u()) e q() = m (b m + v()) con lim

Dettagli

SOLUZIONI DEL 1 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA

SOLUZIONI DEL 1 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA SOLUZIONI DEL 1 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA 1 Esercizio 0.1 Dato P (A) = 0.5 e P (A B) = 0.6, determinare P (B) nei casi in cui: a] A e B sono incompatibili; b] A e B sono indipendenti;

Dettagli

Sperimentazioni di Fisica I mod. A Statistica - Lezione 3

Sperimentazioni di Fisica I mod. A Statistica - Lezione 3 Sperimentazioni di Fisica I mod. A Statistica - Lezione 3 A Garfagnini, M Mazzocco, C Sada Dipartimento di Fisica G. Galilei, Università di Padova AA 2014/2015 Elementi di Teoria della Probabilità L ineliminabile

Dettagli

Esistenza ed unicità per equazioni differenziali

Esistenza ed unicità per equazioni differenziali Esistenza ed unicità per equazioni differenziali Per concludere queste lezioni sulle equazioni differenziali vogliamo dimostrare il teorema esistenza ed unicità per il problema di Cauchy. Faremo la dimostrazione

Dettagli

Introduciamo ora un altro campo, formato da un numero finito di elementi; il campo delle classi resto modulo n, con n numero primo.

Introduciamo ora un altro campo, formato da un numero finito di elementi; il campo delle classi resto modulo n, con n numero primo. Capitolo 3 Il campo Z n 31 Introduzione Introduciamo ora un altro campo, formato da un numero finito di elementi; il campo delle classi resto modulo n, con n numero primo 32 Le classi resto Definizione

Dettagli

3.1 La probabilità: eventi e variabili casuali

3.1 La probabilità: eventi e variabili casuali Capitolo 3 Elementi di teoria della probabilità Abbiamo già notato come, per la ineliminabile presenza degli errori di misura, quello che otteniamo come risultato della stima del valore di una grandezza

Dettagli

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 1 a.a Soluzioni

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 1 a.a Soluzioni Corso di Laurea in Matematica Geometria 2 Foglio di esercizi n. 1 a.a. 2015-16 Soluzioni Gli esercizi sono presi dal libro di Manetti. Per svolgere questi esercizi, studiare con cura i paragrafi 3.1, 3.2,

Dettagli

8. Completamento di uno spazio di misura.

8. Completamento di uno spazio di misura. 8. Completamento di uno spazio di misura. 8.1. Spazi di misura. Spazi di misura completi. Definizione 8.1.1. (Spazio misurabile). Si chiama spazio misurabile ogni coppia ordinata (Ω, A), dove Ω è un insieme

Dettagli

Topologia, continuità, limiti in R n

Topologia, continuità, limiti in R n Topologia, continuità, limiti in R n Ultimo aggiornamento: 18 febbraio 2017 1. Preliminari Prima di iniziare lo studio delle funzioni di più variabili, in generale funzioni di k variabili e a valori in

Dettagli

Operazioni tra matrici e n-uple

Operazioni tra matrici e n-uple CAPITOLO Operazioni tra matrici e n-uple Esercizio.. Date le matrici 0 4 e dati λ = 5, µ =, si calcoli AB, BA, A+B, B A, λa+µb. Esercizio.. Per ognuna delle seguenti coppie di matrici A, B e scalari λ,

Dettagli

La definizione di Ultrafiltro e la regolarità per partizioni

La definizione di Ultrafiltro e la regolarità per partizioni La definizione di Ultrafiltro e la regolarità per partizioni Lorenzo Lami Definizione 1 (Filtro). Dato un insieme X, si dice filtro su X una collezione F di sottoinsiemi di X tali che: X F; / F; A F, B

Dettagli

Codici Lineari G = [I K P], (1)

Codici Lineari G = [I K P], (1) Codici Lineari Nel seguito, indicheremo con F un generico campo finito. Come noto, F potrebbe essere l insieme delle cifre binarie F 2 = {0, 1} con le usuali operazioni di prodotto e somma modulo 2. Più

Dettagli

Elementi di Algebra e di Matematica Discreta Numeri interi, divisibilità, numerazione in base n

Elementi di Algebra e di Matematica Discreta Numeri interi, divisibilità, numerazione in base n Elementi di Algebra e di Matematica Discreta Numeri interi, divisibilità, numerazione in base n Cristina Turrini UNIMI - 2016/2017 Cristina Turrini (UNIMI - 2016/2017) Elementi di Algebra e di Matematica

Dettagli

1. equivalenze e implicazioni logiche. Esercizio 1.2. Trovare le implicazioni che legano i seguenti enunciati (x, y R):

1. equivalenze e implicazioni logiche. Esercizio 1.2. Trovare le implicazioni che legano i seguenti enunciati (x, y R): . equivalenze e implicazioni logiche Esercizio.. Trovare le implicazioni che legano i seguenti enunciati (x, y R): () x < y, () x = y, () x y, () x y, () (x y) > 0. Osserviamo subito che (x y) > 0 equivale

Dettagli

Corso di Matematica per la Chimica. Dott.ssa Maria Carmela De Bonis a.a

Corso di Matematica per la Chimica. Dott.ssa Maria Carmela De Bonis a.a Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Risoluzione di Equazioni non lineari Sia F C 0 ([a, b]), cioé F è una funzione continua in un intervallo [a, b] R, tale che F(a)F(b) < 0 1.5 1 F(b) 0.5 0 a

Dettagli

Alcuni Teoremi sulle funzioni continue e uniforme continuità

Alcuni Teoremi sulle funzioni continue e uniforme continuità Alcuni Teoremi sulle funzioni continue e uniforme continuità Teorema 0. Una funzione f(x) è continua in x 0 se e solo se per ogni sucessione {x n } dom(f) con x n x 0 dom(f), risulta f(x n ) f(x 0 ). (Non

Dettagli

Teoria dell Informazione

Teoria dell Informazione Fondamenti di Informatica per la Sicurezza a.a. 2008/09 Teoria dell Informazione Stefano Ferrari UNIVERSITÀ DEGLI STUDI DI MILANO DIPARTIMENTO DI TECNOLOGIE DELL INFORMAZIONE Stefano Ferrari Università

Dettagli

Note sulla probabilità

Note sulla probabilità Note sulla probabilità Maurizio Loreti Dipartimento di Fisica Università degli Studi di Padova Anno Accademico 2002 03 1 La distribuzione del χ 2 0.6 0.5 N=1 N=2 N=3 N=5 N=10 0.4 0.3 0.2 0.1 0 0 5 10 15

Dettagli

SCUOLA GALILEIANA DI STUDI SUPERIORI CLASSE DI SCIENZE NATURALI ESAME DI AMMISSIONE, PROVA DI MATEMATICA 13 SETTEMBRE 2011

SCUOLA GALILEIANA DI STUDI SUPERIORI CLASSE DI SCIENZE NATURALI ESAME DI AMMISSIONE, PROVA DI MATEMATICA 13 SETTEMBRE 2011 1 SCUOLA GALILEIANA DI STUDI SUPERIORI CLASSE DI SCIENZE NATURALI ESAME DI AMMISSIONE, PROVA DI MATEMATICA 13 SETTEMBRE 011 Problema 1. Sia Z l insieme dei numeri interi. a) Sia F 100 l insieme delle funzioni

Dettagli

La codifica digitale

La codifica digitale La codifica digitale Codifica digitale Il computer e il sistema binario Il computer elabora esclusivamente numeri. Ogni immagine, ogni suono, ogni informazione per essere compresa e rielaborata dal calcolatore

Dettagli

Statistica ARGOMENTI. Calcolo combinatorio

Statistica ARGOMENTI. Calcolo combinatorio Statistica ARGOMENTI Calcolo combinatorio Probabilità Disposizioni semplici Disposizioni con ripetizione Permutazioni semplici Permutazioni con ripetizioni Combinazioni semplici Assiomi di probabilità

Dettagli

Analisi degli Errori di Misura. 08/04/2009 G.Sirri

Analisi degli Errori di Misura. 08/04/2009 G.Sirri Analisi degli Errori di Misura 08/04/2009 G.Sirri 1 Misure di grandezze fisiche La misura di una grandezza fisica è descrivibile tramite tre elementi: valore più probabile; incertezza (o errore ) ossia

Dettagli

Algebra Lineare e Geometria. Il teorema fondamentale dell algebra. 1 Non c è un ordine totale sull insieme dei complessi

Algebra Lineare e Geometria. Il teorema fondamentale dell algebra. 1 Non c è un ordine totale sull insieme dei complessi Università di Bergamo Anno accademico 2008 2009 Primo anno di Ingegneria Algebra Lineare e Geometria Il teorema fondamentale dell algebra 1 Non c è un ordine totale sull insieme dei complessi Vogliamo

Dettagli

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17 II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile

Dettagli

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prima prova in itinere

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prima prova in itinere Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica 69AA) A.A. 06/7 - Prima prova in itinere 07-0-03 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate.

Dettagli

Test per una media - varianza nota

Test per una media - varianza nota Situazione Test per una media - varianza nota Popolazione N(µ,σ 2 ); varianza σ 2 nota. µ 0 numero reale fissato. Test di livello α per µ Statistica: Z n = X n µ 0 σ/ n. H 0 H 1 Rifiutiamo H 0 se p-value

Dettagli

Derivazione. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara

Derivazione. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara Derivazione Lorenzo Pareschi Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara http://utenti.unife.it/lorenzo.pareschi/ lorenzo.pareschi@unife.it Lorenzo Pareschi (Univ. Ferrara)

Dettagli

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una

Dettagli

Esercizi 3. cos x ln(sin x), ln(e x 1 x ), ln( x 2 1), x sin x + x cos x + x, x 3 2x + 1. x 2 x + 2, x cos ex, x 2 e x.

Esercizi 3. cos x ln(sin x), ln(e x 1 x ), ln( x 2 1), x sin x + x cos x + x, x 3 2x + 1. x 2 x + 2, x cos ex, x 2 e x. I seguenti quesiti ed il relativo svolgimento sono coperti dal diritto d autore, pertanto essi non possono essere sfruttati a fini commerciali o di pubblicazione editoriale senza autorizzazione esplicita

Dettagli

04 - Numeri Complessi

04 - Numeri Complessi Università degli Studi di Palermo Scuola Politecnica Dipartimento di Scienze Economiche, Aziendali e Statistiche Appunti del corso di Matematica 04 - Numeri Complessi Anno Accademico 2015/2016 M. Tumminello,

Dettagli

( ) le colonne della matrice dei coefficienti, con. , risulta A 3 = A 1 + 4A 2 + 4A 5, A 4 = A 1 + A 2,

( ) le colonne della matrice dei coefficienti, con. , risulta A 3 = A 1 + 4A 2 + 4A 5, A 4 = A 1 + A 2, 1 Elementi di Analisi Matematica e Ricerca Operativa prova del 6 luglio 2016 1) Discutere il seguente problema di Programmazione Lineare: Trovare il massimo di p x 1, x 2, x 3, x 4 # x 2 + 4 x 3 + x 4

Dettagli

Insiemi numerici. Teoria in sintesi NUMERI NATURALI

Insiemi numerici. Teoria in sintesi NUMERI NATURALI Insiemi numerici Teoria in sintesi NUMERI NATURALI Una delle prime attività matematiche che viene esercitata è il contare gli elementi di un dato insieme. I numeri con cui si conta 0,,,. sono i numeri

Dettagli

Il Ricevente comunica pubblicamente una chiave e. Il Mittente codifica il messaggio usando la funzione f(m, e) = C e

Il Ricevente comunica pubblicamente una chiave e. Il Mittente codifica il messaggio usando la funzione f(m, e) = C e Crittografia a chiave pubblica. Il problema della crittografia è semplice da enunciare: vi sono due persone, il Mittente e il Ricevente, che vogliono comunicare fra loro senza che nessun altro possa leggere

Dettagli

Esercizi sulle equazioni differenziali a cura di Sisto Baldo, Elisabetta Ossanna e Sandro Innocenti

Esercizi sulle equazioni differenziali a cura di Sisto Baldo, Elisabetta Ossanna e Sandro Innocenti Esercizi sulle equazioni differenziali a cura di Sisto Baldo, Elisabetta Ossanna e Sandro Innocenti 1. Verifica che y(t) = 1 t + e t è una soluzione dell equazione y (t) = y(t) + t.. Scrivi un equazione

Dettagli

1 Successioni di funzioni

1 Successioni di funzioni Analisi Matematica 2 Successioni di funzioni CORSO DI STUDI IN SMID CORSO DI ANALISI MATEMATICA 2 CAPITOLO 6 SERIE DI POTENZE Supponiamo di associare ad ogni n N (rispettivamente ad ogni n p, per qualche

Dettagli

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.

Compressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p. Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia

Dettagli

Disequazioni di secondo grado

Disequazioni di secondo grado Disequazioni di secondo grado. Disequazioni Definizione: una disequazione è una relazione di disuguaglianza tra due espressioni. Detti p() e g() due polinomi definiti in un insieme A, una disequazione

Dettagli

DIFFERENZIAZIONE. Sia f una funzione reale di variabile reale con dominio un intervallo. Se f è derivabile in un punto x 0, allora: f(x) f(x 0 ) lim

DIFFERENZIAZIONE. Sia f una funzione reale di variabile reale con dominio un intervallo. Se f è derivabile in un punto x 0, allora: f(x) f(x 0 ) lim DIFFERENZIAZIONE 1 Regola della catena Sia f una funzione reale di variabile reale con dominio un intervallo. Se f è derivabile in un punto x 0, allora: f(x) f(x 0 ) lim = f (x 0 ). x x 0 x x 0 Questa

Dettagli

LOGICA MATEMATICA PER INFORMATICA

LOGICA MATEMATICA PER INFORMATICA LOGICA MATEMATICA PER INFORMATICA A.A. 10/11, DISPENSA N. 2 Sommario. Assiomi dell identità, modelli normali. Forma normale negativa, forma normale prenessa, forma normale di Skolem. 1. L identità Esistono

Dettagli

In altri termini, il logaritmo in base a di b è quel numero c tale per cui a elevato a c è uguale a b. In simboli

In altri termini, il logaritmo in base a di b è quel numero c tale per cui a elevato a c è uguale a b. In simboli LOGARITMO Il logaritmo è un operatore matematico indicato generalmente con loga(b); detta a la base e b l'argomento, il logaritmo in base a di b è definito come l'esponente a cui elevare la base per ottenere

Dettagli

Funzioni derivabili (V. Casarino)

Funzioni derivabili (V. Casarino) Funzioni derivabili (V. Casarino) Esercizi svolti 1) Applicando la definizione di derivata, calcolare la derivata in = 0 delle funzioni: a) 5 b) 3 4 c) + 1 d) sin. ) Scrivere l equazione della retta tangente

Dettagli

Lezione 4. Problemi trattabili e soluzioni sempre più efficienti. Gianluca Rossi

Lezione 4. Problemi trattabili e soluzioni sempre più efficienti. Gianluca Rossi Lezione 4 Problemi trattabili e soluzioni sempre più efficienti Gianluca Rossi Trattabile o intrattabile? Consideriamo ora il problema, ben noto a tutti gli studenti a partire dalla scuola media, di calcolare

Dettagli

FUNZIONI ELEMENTARI, DISEQUAZIONI, NUMERI REALI, PRINCIPIO DI INDUZIONE Esercizi risolti

FUNZIONI ELEMENTARI, DISEQUAZIONI, NUMERI REALI, PRINCIPIO DI INDUZIONE Esercizi risolti FUNZIONI ELEMENTARI, DISEQUAZIONI, NUMERI REALI, PRINCIPIO DI INDUZIONE Esercizi risolti Discutendo graficamente la disequazione x > 3 + x, verificare che l insieme delle soluzioni è un intervallo e trovarne

Dettagli

DAI NUMERI NATURALI AI NUMERI RAZIONALI

DAI NUMERI NATURALI AI NUMERI RAZIONALI DAI NUMERI NATURALI AI NUMERI RAZIONALI 1. L insieme dei numeri naturali Nel sistema assiomatico ZF, l Assioma dell infinito stabilisce che: Esiste un insieme A, i cui elementi sono insiemi e tale che

Dettagli

AM210 - Analisi Matematica 3: Soluzioni Tutorato 1

AM210 - Analisi Matematica 3: Soluzioni Tutorato 1 AM210 - Analisi Matematica 3: Soluzioni Tutorato 1 Università degli Studi Roma Tre - Dipartimento di Matematica Docente: Luca Biasco Tutori: Patrizio Caddeo, Davide Ciaccia 19 ottobre 2016 1 Se z = (1

Dettagli

CP110 Probabilità: Esonero 1

CP110 Probabilità: Esonero 1 Dipartimento di Matematica, Roma Tre Pietro Caputo 2016-17, II semestre 11 aprile, 2017 CP110 Probabilità: Esonero 1 Cognome Nome Matricola Firma Nota: 1. L unica cosa che si può usare durante l esame

Dettagli

Precorsi di matematica

Precorsi di matematica Precorsi di matematica Francesco Dinuzzo 12 settembre 2005 1 Insiemi Il concetto di base nella matematica moderna è l insieme. Un insieme è una collezione di elementi. Gli elementi di un insieme vengono

Dettagli

1 Ampliamento del piano e coordinate omogenee

1 Ampliamento del piano e coordinate omogenee 1 Ampliamento del piano e coordinate omogenee Vogliamo dare una idea, senza molte pretese, dei concetti che stanno alla base di alcuni calcoli svolti nella classificazione delle coniche. Supponiamo di

Dettagli

Lezione 4 Ugo Vaccaro

Lezione 4 Ugo Vaccaro Teoria dell Informazione II Anno Accademico 206 207 Lezione 4 Ugo Vaccaro Nella lezione scorsa abbiamo derivato il seguente risultato. Teorema Per ogni codifica UD per una sorgente DSSM con alfabeto sorgente

Dettagli

Le derivate parziali

Le derivate parziali Sia f(x, y) una funzione definita in un insieme aperto A R 2 e sia P 0 = x 0, y 0 un punto di A. Essendo A un aperto, esiste un intorno I(P 0, δ) A. Preso un punto P(x, y) I(P 0, δ), P P 0, possiamo definire

Dettagli

ANALISI 1 1 QUINTA LEZIONE

ANALISI 1 1 QUINTA LEZIONE ANALISI 1 1 QUINTA LEZIONE 1 prof. Claudio Saccon, Dipartimento di Matematica Applicata, Via F. Buonarroti 1/C email: saccon@mail.dm.unipi.it web: http://www2.ing.unipi.it/ d6081/index.html Ricevimento:

Dettagli

Soluzioni degli esercizi proposti

Soluzioni degli esercizi proposti Soluzioni degli esercizi proposti.9 a La cardinalità dell insieme dei numeri,..., 0 n che sono multipli di 5 è 0n 5. Dunque, poiché siamo in una condizione di equiprobabilità, la probabilità richiesta

Dettagli

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.

CODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore. CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore

Dettagli

Note del corso di Calcolabilità e Linguaggi Formali - Lezione 10

Note del corso di Calcolabilità e Linguaggi Formali - Lezione 10 Note del corso di Calcolabilità e Linguaggi Formali - Lezione 10 Alberto Carraro DAIS, Università Ca Foscari Venezia http://www.dsi.unive.it/~acarraro 1 Teoremi fondamentali della Recursion Theory Theorem

Dettagli

P (F E) = P (E) P (F E) = = 25

P (F E) = P (E) P (F E) = = 25 Regola del prodotto Conoscete la definizione di probabilità condizionata. Definizione 1. Siano E e F due eventi di uno spazio campionario S. Supponiamo P (F ) > 0. La probabilità condizionata dell evento

Dettagli

ESERCIZI SUI PUNTI DI NON DERIVABILITÀ TRATTI DA TEMI D ESAME

ESERCIZI SUI PUNTI DI NON DERIVABILITÀ TRATTI DA TEMI D ESAME ESERCIZI SUI PUNTI DI NON DERIVABILITÀ TRATTI DA TEMI D ESAME a cura di Michele Scaglia FUNZIONI DERIVABILI Sia f : domf R una funzione e sia 0 domf di accumulazione per domf Chiamiamo derivata prima di

Dettagli

Congruenze. Alberto Abbondandolo Forte dei Marmi, 17 Novembre 2006

Congruenze. Alberto Abbondandolo Forte dei Marmi, 17 Novembre 2006 Congruenze Alberto Abbondandolo Forte dei Marmi, 17 Novembre 2006 1 Il resto nella divisione tra interi Consideriamo i numeri naturali 0, 1, 2, 3,... ed effettuiamone la divisione per 3, indicando il resto:

Dettagli

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 2 a.a Soluzioni

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 2 a.a Soluzioni Corso di Laurea in Matematica Geometria 2 Foglio di esercizi n. 2 a.a. 2015-16 Soluzioni Gli esercizi sono presi dal libro di Manetti. Per svolgere questi esercizi, studiare con cura i paragrafi 3.5, 3.6,

Dettagli

MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI. Anna TORRE

MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI. Anna TORRE MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI Anna TORRE Dipartimento di Matematica, Università di Pavia, Via Ferrata 1, 27100, Pavia, Italy. E-mail: anna.torre@unipv.it 1 SOLUZIONI:

Dettagli

Comunicazioni Elettriche Esercizi

Comunicazioni Elettriche Esercizi Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,

Dettagli

VARIABILI CASUALI CONTINUE

VARIABILI CASUALI CONTINUE p. 1/1 VARIABILI CASUALI CONTINUE Una variabile casuale continua può assumere tutti gli infiniti valori appartenenti ad un intervallo di numeri reali. p. 1/1 VARIABILI CASUALI CONTINUE Una variabile casuale

Dettagli

UNIVERSITÀ di ROMA TOR VERGATA

UNIVERSITÀ di ROMA TOR VERGATA UNIVERSITÀ di ROMA TOR VERGATA Corso di Laurea Magistrale in Scienze della Nutrizione Umana Corso di Statistica Medica, anno 2015-16 P.Baldi Lista di esercizi 4, 11 febbraio 2016. Esercizio 1 Una v.a.

Dettagli

UNIVERSITÀ di ROMA TOR VERGATA

UNIVERSITÀ di ROMA TOR VERGATA UNIVERSITÀ di ROMA TOR VERGATA Corso di Statistica, anno 2010-11 P.Baldi Lista di esercizi 3. Corso di Laurea in Biotecnologie Esercizio 1 Una v.a. X segue una legge N(2, ). Calcolare a1) P(X 1) a2) P(2

Dettagli

(2) se A A, allora A c A; (3) se {A n } A, allora +

(2) se A A, allora A c A; (3) se {A n } A, allora + 1. Spazi di misura In questo paragrafo accenneremo alla nozione di spazio di misura. Definizione 1. Sia X un insieme non vuoto. Una famiglia A di sottoinsiemi di X è una σ-algebra se : (1) A; (2) se A

Dettagli

Equivalentemente, le colonne di A sono linearmente indipendenti se e solo se

Equivalentemente, le colonne di A sono linearmente indipendenti se e solo se Lezioni di Algebra Lineare. Versione novembre 2008 VI. Il determinante Il determinante det A di una matrice A, reale e quadrata, è un numero reale associato ad A. Dunque det è una funzione dall insieme

Dettagli

Corso di Laurea in Matematica Geometria 2. Esercizi di preparazione allo scritto a.a Topologia

Corso di Laurea in Matematica Geometria 2. Esercizi di preparazione allo scritto a.a Topologia Corso di Laurea in Matematica Geometria 2 Esercizi di preparazione allo scritto a.a. 2015-16 Esercizio 1. Dimostrare che Topologia 1. d(x, y) = max 1 i n x i y i definisce una distanza su R n. 2. d(x,

Dettagli

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione dei numeri relativi

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione dei numeri relativi Codice BCD Prima di passare alla rappresentazione dei numeri relativi in binario vediamo un tipo di codifica che ha una certa rilevanza in alcune applicazioni: il codice BCD (Binary Coded Decimal). È un

Dettagli

1 Polinomio di Taylor 1. 2 Formula di Taylor 2. 3 Alcuni sviluppi notevoli 2. 4 Uso della formula di Taylor nel calcolo dei limiti 4

1 Polinomio di Taylor 1. 2 Formula di Taylor 2. 3 Alcuni sviluppi notevoli 2. 4 Uso della formula di Taylor nel calcolo dei limiti 4 1 POLINOMIO DI TAYLOR 1 Formula di Taylor Indice 1 Polinomio di Taylor 1 Formula di Taylor 3 Alcuni sviluppi notevoli 4 Uso della formula di Taylor nel calcolo dei iti 4 5 Soluzioni degli esercizi 6 La

Dettagli