Il secondo teorema di Shannon
|
|
- Domenica Pasquali
- 6 anni fa
- Visualizzazioni
Transcript
1 Il secondo teorema di Shannon Appunti scritti da Alberto Leporati Dipartimento di Informatica, Sistemistica e Comunicazione (DISCo) Università degli Studi di Milano Bicocca Via Bicocca degli Arcimboldi 8, 2026 Milano Alcuni preliminari matematici Nel corso della dimostrazione del secondo teorema di Shannon utilizzeremo la seguente maggiorazione: λn k=0 ( ) n 2 nh(λ) con 0 < λ < k 2 dove H( ) è la funzione entropia per una sorgente binaria (o Bernoulliana), in grado cioè di emettere due simboli. Si assume che λn sia un intero. Useremo inoltre la legge debole dei grandi numeri. Teorema (Legge debole dei grandi numeri). Siano X,X 2,...,X n variabili casuali indipendenti, con la stessa distribuzione di probabilità, aventi media µ e varianza σ 2. Allora, per ogni ε > 0 e δ > 0 esiste un intero n 0 tale che, per ogni n > n 0, ] n P[ X i µ n ε δ o, equivalentemente, i= P[ n ] n X i µ > ε < δ i= Il teorema afferma che la media dei valori di X,X 2,...,X n può essere portata, con alta probabilità, vicino quanto si vuole al valore atteso µ. Una interpretazione alternativa ed equivalente è la seguente: la probabilità che la media dei valori di X,X 2,...,X n si discosti da µ di una quantità ε > 0 scelta a piacere può essere resa arbitrariamente piccola.
2 Si pensi, ad esempio, a X,X 2,...,X n come alle variabili casuali che descrivono i risultati di n esperimenti identici e indipendenti. Ogni esperimento darà in media il valore µ. La legge dei grandi numeri ci dice che si può portare il valore medio della sequenza di esperimenti vicino quanto si vuole al valore medio µ di ogni singolo esperimento. Ciò non avviene con certezza, ma con probabilità vicina a quanto si vuole. Useremo la legge dei grandi numeri quando codificheremo i messaggi in estensioni molto grandi del canale. Spediremo nel canale sequenze di n cifre binarie. La spedizione di ciascuna cifra binaria costituirà un esperimento Bernoulliano che avrà probabilità di errore pari a Q. Nella spedizione del blocco di n cifre binarie ci attenderemo quindi un numero medio di errori pari a nq. La legge dei grandi numeri ci assicurerà che il numero di errori che si sono effettivamente verificati, diviso per n, potrà essere portato vicino a Q quanto si vuole, con probabilità vicina a quanto si vuole, a patto di lavorare con valori di n sufficientemente grandi (lavorando quindi in estensioni del canale sufficientemente grandi, ovvero spedendo sequenze sufficientemente lunghe di cifre binarie). 2 Il secondo teorema di Shannon Dimostriamo ora un risultato fondamentale della Teoria dell Informazione: in un canale, anche in presenza di rumore, si riesce a trasmettere avvicinandosi arbitrariamente alla capacità del canale, mantenendo l affidabilità del canale (cioè la probabilità di ricevere correttamente i messaggi) arbitrariamente vicina a. Dimostreremo il teorema per il canale binario simmetrico (CBS), sia perché la dimostrazione è più semplice, sia perché è il tipo di canale più usato in pratica. Daremo anche alcune indicazioni su come estendere il teorema a canali più generali. 2. Regole di decisione Dato un canale, supponiamo di aver ricevuto il simbolo b j B. Come facciamo a decidere quale simbolo a i A è stato spedito? La scelta dipende dal canale, ovvero dalle probabilità P(b j a i ), e anche da come lo si usa, cioè dalle probabilità p(a i ) associate ai simboli a i A. Ad esempio, consideriamo il canale descritto dalla seguente matrice: a a 2 b b 2 b 3 [ ] e supponiamo che i simboli in ingresso siano equiprobabili: p(a ) = p(a 2 ) = 2 2
3 Allora, se riceviamo b è ragionevole supporre che sia stato spedito a. Analogamente, se riceviamo b 3 è ragionevole supporre che che sia stato spedito a 2. Se invece riceviamo b 2, potrebbe essere stato spedito sia a che a 2. Indichiamo con d(b j ) il simbolo di A scelto tramite la regola di decisione d, quando si riceve il simbolo b j. In generale, una regola di decisione è una funzione d : B A che ad ogni simbolo di B associa uno e un solo simbolo di A. Poiché B = s e A = q, ci sono q s diverse regole di decisione. Tra tutte queste si sceglie solitamente una regola di decisione di massima verosimiglianza, che prescrive di prendere per ogni simbolo di B ricevuto il simbolo di A più probabile. Se assumiamo che i simboli di A vengano scelti dal mittente con probabilità uniforme, una regola di decisione di massima verosimiglianza prescrive di associare a b j B il simbolo a A per il quale: P(a b j ) P(a i b j ) i Essendo queste delle probabilità all indietro, usando il teorema di Bayes possiamo esprimerle come: P(b j a )p(a ) p(b j ) P(b j a i )p(a i ) p(b j ) Poiché abbiamo supposto che i simboli di A siano equiprobabili (e quindi p(a ) = p(a i ) = q ), otteniamo: i P(b j a ) P(b j a i ) i Per il canale di cui sopra abbiamo quindi le seguenti due regole di decisione di massima verosimiglianza: Regola Regola 2 d(b ) = a d(b ) = a d(b 2 ) = a d(b 2 ) = a 2 d(b 3 ) = a 2 d(b 3 ) = a 2 Si osservi che, in generale, la regola di decisione di massima verosimiglianza non è unica. Poiché scegliamo di associare a al simbolo b j osservato, la probabilità di commettere un errore è data da: L errore medio P E è dato quindi da: P E = B P(E b j ) = P(a b j ) P(E b j )p(b j ) = B p(b j ) B P(a b j )p(b j ) 3
4 = B P(a b j )p(b j ) = B P(b j a )p(a ) p(b j ) p(b j ) = ( essendo i simboli di A equiprobabili, vale p(a ) = q = P(b j a ) q B 2.2 Il canale binario simmetrico (CBS) Dimostriamo ora il teorema di Shannon per il CBS: ) Q P Q P dove P è la probabilità di avere una trasmissione corretta, e Q = P è la probabilità di avere un errore di trasmissione. Assumiamo Q < 2, dato che: se Q = 2, abbiamo un canale completamente rumoroso, in cui i simboli di uscita sono indipendenti dai simboli dati in ingresso, e la capacità è 0; se Q > 2, il canale sbaglia a trasmettere la maggior parte delle volte. Tuttavia, possiamo scambiare il ruolo di 0 e in uscita e ottenere un canale in cui Q < 2. Lavoriamo con l n esima estensione del canale; in altre parole, spediamo blocchi di n bit. Indichiamo con (CBS) n l n esima estensione del CBS. Inoltre, indichiamo con A e con B rispettivamente gli alfabeti di ingresso e di uscita di (CBS) n. Si noti che l n esima estensione di un CBS è un canale uniforme. Ci sono 2 n configurazioni di n bit, e quindi potremmo pensare di porre A = B = {0,} n. Tuttavia, se vogliamo proteggerci dal rumore non possiamo usare tutte le 2 n possibili configurazioni per A: come abbiamo visto studiando i codici a correzione d errore, i messaggi validi devono costituire un sottoinsieme di tutti i possibili messaggi che transitano lungo il canale, e devono avere tra loro una distanza di Hamming abbastanza grande. D altra parte, dal canale può uscire qualunque sequenza di n cifre binarie, e quindi avremo A B = {0,} n (dove con si intende l inclusione stretta). Quanti messaggi ci vogliono allora per avvicinarsi alla capacità di canale? Se supponiamo di usare M messaggi equiprobabili, l informazione data da ciascuno 4
5 è: I(a i ) = log 2 /M = log 2 M Come abbiamo visto, la capacità di un CBS è: C = H(P) = H(Q) per messaggi formati da una cifra binaria; pertanto, per l n esima estensione la capacità è: nc = n[ H(Q)] Per avvicinarsi alla capacità di canale deve valere: con ε > 0, ovvero: I(a i ) = log 2 M = n(c ε ) M = 2 n(c ε ) = 2nC 2 nε Questo significa che, facendo crescere n, il denominatore può essere reso arbitrariamente grande; in altre parole, stiamo prendendo come messaggi validi una piccola frazione di tutti i possibili messaggi di lunghezza n. 2.3 Codifica casuale La seconda questione è: come facciamo a costruire un codice i cui messaggi validi siano equiprobabili e abbastanza distanti tra loro? Dato che non lo sappiamo fare in generale, ci affidiamo a una codifica casuale. Infatti, se n è grande allora due punti scelti a caso nello spazio n dimensionale saranno molto probabilmente distanti fra loro. Per codificare ogni messaggio, lanciamo una moneta per n volte e registriamo la sequenza di 0 e risultante. Faremo quindi in totale nm lanci della moneta, e otterremo uno dei 2 nm possibili codici. Un metodo alternativo (ed equivalente a quello appena descritto) di costruire il codice casuale è quello di scrivere tutte le possibili sequenze di n cifre binarie su altrettante striscioline di carta, metterle in un contenitore e fare M estrazioni casuali con reimmissione. Con entrambi i metodi è possibile che due messaggi diversi vengano codificati con la stessa sequenza di n cifre binarie; tuttavia, per n grande la probabilità che ciò avvenga è molto bassa. Immaginiamo ora gli M messaggi validi immersi nello spazio di Hamming n dimensionale (cioè lo spazio n dimensionale in cui la distanza è quella di Hamming). La probabilità che si verifichi un errore di trasmissione in qualsiasi cifra di ogni messaggio è Q = P, e quindi durante la trasmissione di un messaggio ci attendiamo che avvengano mediamente nq errori. Consideriamo una sfera il cui centro è il messaggio inviato a i, con un raggio pari a nq. Supponiamo di 5
6 incrementare il raggio della quantità nε 2 (cioè di una piccola frazione di n), con ε 2 > 0. Il nuovo raggio è: r = n(q + ε 2 ) Il valore di ε 2 deve essere abbastanza piccolo da valere Q + ε 2 < 2 ; il valore di ε 2 rispetto a ε verrà determinato più avanti. Per la legge dei grandi numeri, se n è grande il messaggio ricevuto b j si troverà fuori dalla nuova sfera con probabilità molto bassa. Quindi, se usiamo la regola di decisione di massima verosimiglianza e siamo in grado di dimostrare che quasi sicuramente nessuna sfera si interseca con altre sfere, abbiamo che il ricevente può quasi essere sicuro su quale messaggio è stato spedito. Guardando le cose dal punto di vista del ricevente, ciò equivale a considerare una sfera centrata nel messaggio ricevuto b j, e la probabilità che il messaggio a i inviato si trovi all interno della sfera. La regola di decisione di massima verosimiglianza ha una semplice interpretazione in termini di distanza di Hamming. Sia a i il messaggio inviato dal mittente, e b j quello ricevuto. Se la distanza di Hamming tra a i e b j è D, allora a i e b j differiscono in esattamente D posizioni, e la probabilità di ricevere b j avendo spedito a i è uguale alla probabilità che avvengano D trasmissioni (di una singola cifra binaria) errate e n D trasmissioni corrette: P(b j a i ) = Q D ( Q) n D Essendo Q < 2, questa quantità diminuisce all aumentare di D. Quindi, più lontano è b j da a i e minore è la probabilità di riceverlo. La regola di decisione di massima verosimiglianza seleziona il messaggio valido che massimizza P(b j a i ), ovvero il messaggio valido più vicino a b j rispetto alla distanza di Hamming. Quindi, correggere il messaggio ricevuto scegliendo il messaggio valido che ha distanza di Hamming minima equivale ad utilizzare la regola di massima verosimiglianza. Ciò avviene sempre quando si è in presenza di rumore bianco. Nel caso in cui due o più messaggi validi si trovino alla stessa distanza (minima) dal messaggio ricevuto, il ricevente non può far altro che tirare a indovinare. Se i messaggi validi che hanno distanza minima dal messaggio ricevuto sono k, otterremo il messaggio corretto con probabilità k. La regola di massima verosimiglianza è però difficile da analizzare. Useremo pertanto un altra regola di decisione che è molto simile. Nonostante tale regola non sia così buona quanto la regola di massima verosimiglianza, ci consentirà comunque di ottenere una probabilità d errore piccola quanto vogliamo. La regola di decisione adottata consiste nel considerare la sfera di raggio r = n(q + ε 2 ), centrata in b j e, se c è un solo messaggio a A all interno di questa sfera, sceglierlo. Scriviamo ora una formula che esprime la probabilità di non riuscire a decodificare correttamente il messaggio, utilizzando tale regola. Si verifica un errore se a i non si trova all interno della sfera S(r) centrata in b j, oppure se in tale sfera 6
7 c è più di un simbolo di A (dato che in tal caso non sappiamo quale scegliere per decodificare b j ). Quindi la probabilità P E d errore è: P E = P[a i S(r)] + P[a i S(r)] P[almeno un altro messaggio valido S(r)] Poiché P[a i S(r)], possiamo scrivere: P E P[a i S(r)] + P[almeno un altro messaggio valido S(r)] La frase almeno un altro messaggio valido S(r) significa uno o più messaggi validi diversi da a i S(r). Poiché, dato un numero finito di eventi E,E 2,...,E n (non necessariamente disgiunti) vale: P[E E 2... E n ] P[E ] + P[E 2 ] P[E n ] allora: P[almeno un altro messaggio valido S(r)] P[a S(r)] a A\{a i } da cui: P E P[a i S(r)] + a A\{a i } P[a S(r)] Il primo termine è la probabilità che il messaggio valido a i non si trovi nella sfera di raggio r (che è di poco maggiore della distanza di Hamming corrispondente a nq errori di trasmissione, che è il numero di errori che ci aspettiamo in media) centrata in b j, che è il messaggio ricevuto. Tale probabilità è uguale alla probabilità che il messaggio b j ricevuto non si trovi nella sfera di raggio r centrata in a i. Il secondo termine è la somma, su tutti i messaggi non inviati, che ciascuno di questi si trovi nella sfera di raggio r centrata in b j. Speriamo che, usando una codifica casuale, la probabilità che uno di questi messaggi si trovi in tale sfera sia molto bassa. Questa speranza nasce dal fatto che, per n molto grande, è molto improbabile che due messaggi presi a caso nello spazio n dimensionale si trovino vicini. Per la legge dei grandi numeri, il primo termine (che dipende solamente da a i ) può essere reso più piccolo di qualunque reale positivo δ = δ(ε 2,n) (la cui scelta cioè dipende da ε 2 e da n) prefissato aumentando il valore di n, cioè la lunghezza dei messaggi trasmessi. Infatti, come abbiamo detto, il numero medio di errori che si verificano durante la trasmissione di una sequenza di n cifre binarie è nq. Per ogni valore fissato di n ci sarà una probabilità che il numero effettivo di errori superi il suo valore medio di nε 2 o più. Man mano che n cresce, però, ciò diventa sempre meno probabile; più precisamente, per la legge debole dei grandi numeri vale: ε 2,δ > 0 n 0 tale che n > n 0 P[numero di errori > nq + nε 2 ] < δ 7
8 [ ] (equivalentemente, P numero di errori nq n ε 2 δ). Questo significa che, prendendo n sufficientemente grande, possiamo essere sicuri che: P[a i S(nQ + nε 2 )] < δ con δ arbitrariamente piccolo. Pertanto abbiamo: P E δ + P[a S(r)] 2.4 Il codice casuale medio a A\{a i } Per poter valutare la sommatoria presente nell ultima disuguaglianza, facciamo ora la media su tutti i possibili codici casuali. In ogni codifica casuale abbiamo M = 2 n(c ε ) messaggi di lunghezza n, e ci sono 2 nm possibili codici casuali. Supponiamo che tutti questi codici siano equiprobabili, cioè che ciascuno venga scelto con probabilità 2 nm. Indichiamo con P E la media, pesata con tali probabilità, delle probabilità di errore. Tenendo conto che δ è una costante, e che A = M, abbiamo: P E δ + (M ) P[a S(r)] δ + M P[a S(r)] (a a i ) () (la tilde indica sempre la media calcolata su tutti i possibili codici casuali). Per calcolare P[a S(r)] (per a a i ) fissiamo l attenzione su un qualunque messaggio a a i. La probabilità che a S(r) è il rapporto tra il volume della sfera e il volume totale dello spazio. Indichiamo con N(r) il numero di punti presenti all interno della sfera S(r). Poiché il volume totale dello spazio è 2 n, abbiamo: P[a S(r)] = N(r) 2 n Dato che stiamo lavorando in uno spazio di Hamming, vale: N(r) = + Ricordiamo inoltre che vale: ( ) n + ( ) n ( ) n = r r k=0 ( ) n k Possiamo applicare la disuguaglianza: r = n(q + ε 2 ) e Q + ε 2 < 2 λn k=0 ( ) n 2 nh(λ), con 0 < λ < k 2 8
9 a N(r), ponendo λ = Q + ε 2 ; otteniamo: N(r) 2 nh(λ) e quindi: P[a S(r)] 2 n[ H(λ)] (con a a i ) Tornando a P E, l equazione () diventa: Ricordiamo che la capacità dei CBS è: P E δ + M 2 n[ H(λ)] (2) C = H(P) = H(Q) Pertanto, l esponente che compare nell equazione (2) può essere scritto come: H(λ) = H(Q + ε 2 ) = H(Q) + H(Q) H(Q + ε 2 ) = C [H(Q + ε 2 ) H(Q)] (3) Dato che la funzione entropia ha la convessità verso il basso, e può essere limitata superiormente tracciando una retta tangente in qualsiasi punto di ascissa Q (0,), vale: dove: Essendo Q < 2 vale: dh dx H(Q + ε 2 ) H(Q) + ε 2 dh dx Q = log Q Q log Q = log Q Q 2Q < da cui Q < Q da cui Q Q > e quindi: dh dx Pertanto l equazione (3) diventa: Q = log Q Q > 0 H(λ) C ε 2 log Q Q = C ε 3 dove abbiamo posto: ε 3 = ε 2 log Q Q 9
10 Quindi l equazione (2) diventa: P E δ + M 2 n(c ε 3) δ + 2 n(c ε ) 2 n(c ε 3) δ + 2 n(ε ε 3 ) Questo significa che se scegliamo ε 2 abbastanza piccolo da avere: ε ε 3 = ε ε 2 log Q Q > 0 allora l errore medio P E può essere reso arbitrariamente piccolo scegliendo n sufficientemente grande. Avendo dimostrato che il codice medio, calcolato su tutti i possibili codici casuali, soddisfa i requisiti richiesti, esisterà almeno un codice casuale che li soddisfa. Abbiamo così dimostrato il secondo teorema di Shannon, che possiamo parafrasare come segue. Teorema 2 (Secondo teorema di Shannon). Esistono codici che sono arbitrariamente affidabili e che possono trasmettere una quantità di informazione arbitrariamente vicina alla capacità di canale (usando un opportuna estensione del CBS). Cosa impariamo da questo teorema? Anzitutto impariamo che esistono dei buoni codici dal punto di vista teorico. Il teorema di Shannon non ci mostra esattamente come costruire un buon codice, e quindi la dimostrazione non è costruttiva. D altra parte, il teorema ci fornisce un metodo che genererà dei buoni codici in media, e quindi non si può neanche dire che la dimostrazione sia puramente esistenziale. Vediamo anche che in tali codici bisogna spedire dei messaggi molto lunghi, e quindi in ogni messaggio bisognerà correggere molti errori. Spedire messaggi molto lunghi significa che il mittente dovrà raccogliere molte informazioni prima di spedire ogni messaggio, il che non è molto pratico. Inoltre, il ricevente dovrà utilizzare delle tabelle di decodifica molto grosse: infatti, essendo il codice utilizzato casuale, non siamo in grado di dare una descrizione compatta dei processi di codifica e decodifica, come avviene ad esempio per i codici di Hamming. Si tratta quindi di un importante risultato teorico, che però non ci aiuta molto nella pratica. 2.5 Il teorema di Shannon per canali generici La dimostrazione del teorema di Shannon per canali generici segue lo schema della dimostrazione per i CBS. La grossa differenza è che dobbiamo trovare una metrica equivalente a quella di Hamming (che tra l altro va bene solo per un canale dotato di rumore bianco). Dobbiamo poi contare il numero di possibili messaggi che si trovano all interno di una sfera, definita usando tale metrica. Infine, la formula 0
11 che esprime la capacità di canale non è più C = H(P) = H(Q), ma dobbiamo tornare alla definizione. La metrica di cui abbiamo bisogno deve tener conto della probabilità che si verifichino errori durante la trasmissione. Se il rumore non è più bianco, le sfere diventano degli ovali che sono più lunghi nelle direzioni in cui gli errori sono più probabili. Si prendono poi degli ovali aventi raggi tali che ci sia la stessa probabilità di errore in ogni direzione, centrati nel simbolo b j ricevuto, e li si ingrandisce come prima, in modo tale che (per la legge dei grandi numeri) quando n è sufficientemente grande, quasi certamente il messaggio a i spedito si trovi all interno dell ovale. Il valore di n deve anche essere abbastanza grande in modo tale che la probabilità che gli ovali si sovrappongano sia bassa. Infine, scegliamo il numero M di messaggi da spedire in modo da avvicinarci alla capacità del canale. Per il resto, la dimostrazione procede come quella per il CBS. 3 La disuguaglianza di Fano Dimostriamo ora la disuguaglianza di Fano, che ci servirà per dimostrare l inverso del teorema di Shannon. Poniamo innanzitutto: P E = P(a,b) e B,A\{a } P E = P E = B P(a,b) Consideriamo l espressione: H(P E ) + P E log(q ) = P E log q + P E log P E P E = P(a,b)log q + P E B L equivocazione H(A B) vale: B,A\{a } P(a,b)log P E H(A B) = B p(b)h(a b) = B p(b) A = B,A P(a,b)log = B,A\{a } P(a b)log P(a b) P(a b) P(a,b)log P(a b) + B P(a,b)log P(a b)
12 La differenza vale: H(A B) H(P E ) P E log(q ) = P E P(a,b)log (q )P(a b) + B B,A\{a } P(a,b)log P E P(a b) Applichiamo ora la disuguaglianza: ovvero (cambiando base): log x log e ln x x x da cui log x (x )log e ad ogni termine della somma. Tralasciando il fattore log e (che non cambia il risultato che otterremo) abbiamo: H(A B) H(P E ) P E log(q ) [ ] P E P(a,b) (q )P(a b) + B,A\{a } B = P E p(b) P E + P E p(b) P E q B,A\{a } B [ P(a,b) = P E q (q ) p(b) + P E p(b) (P E + P E ) B B = P E + P E (P E + P E ) = 0 P E P(a b) ] Pertanto vale: H(A B) H(P E ) + P E log(q ) che viene detta disuguaglianza di Fano. L uguaglianza vale quando ln x = x, ovvero quando x =. Dato che abbiamo usato la disuguaglianza ln x x in due posti diversi, si ha l uguaglianza quando valgono entrambe le seguenti condizioni:. P(a b) = P E q b, a a 2. P(a b) = P E b Tuttavia, la seconda condizione è inclusa nella prima (cioè la prima implica la seconda). Infatti possiamo scrivere: P(a b) = A b 2
13 e quindi: A\{a } Per la condizione, questa diventa: P E q Essendo A = q, si ottiene: P(a b) + P(a b) = A\{a } b + P(a b) = b P E q (q ) + P(a b) = b che è proprio la condizione 2. 4 L inverso del teorema di Shannon Mostriamo ora che la probabilità d errore non può essere resa arbitrariamente piccola se si supera la capacità del canale. In altre parole, non possiamo usare M = 2 n(c+ε) con ε > 0 messaggi validi equiprobabili, soddisfacendo i requisiti del teorema di Shannon. Infatti, supponiamo per assurdo di poterlo fare. Allora la variazione di entropia deve essere minore o uguale della capacità dell n esima estensione del CBS: H(A) H(A B) nc (4) dato che la capacità dell n esima estensione del CBS è, per definizione, il valore massimo di tale variazione. Dato che la probabilità di scegliere ogni messaggio valido è M, abbiamo: Pertanto, dalla (4) abbiamo: e quindi, dalla disuguaglianza di Fano: H(A) = M log M = log M = n(c + ε) n(c + ε) nc = nε H(A B) nε H(A B) H(P E ) + P E log(m ) Ricordiamo ora che vale H(P E ). Inoltre M < M, da cui log(m ) < log M. Otteniamo quindi: nε + P E n(c + ε) 3
14 da cui: P E nε n(c + ε) = ε /n C + ε n + ε C + ε > 0 Possiamo concludere che, per n che tende all infinito, P E non si avvicina ε a 0 ma si avvicina alla quantità C+ε, che è positiva. Questo significa che la probabilità d errore non può essere resa arbitrariamente piccola se si supera la capacità del canale. Riferimenti bibliografici [] N. Abramson. Information Theory and Coding. McGraw-Hill, 963. [2] R. H. Hamming. Coding and Information Theory. Second Edition. Prentice Hall, Englewood Cliffs,
Teoria dell informazione
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria dell informazione A.A. 2008-09 Alberto Perotti DELEN-DAUIN Modello di sistema di comunicazione Il modello di
DettagliTEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
DettagliComplementi di Analisi Matematica Ia. Carlo Bardaro
Complementi di Analisi Matematica Ia Carlo Bardaro Capitolo 1 Elementi di topologia della retta reale 1.1 Intorni, punti di accumulazione e insiemi chiusi Sia x 0 IR un fissato punto di IR. Chiameremo
DettagliDimostrazione. Indichiamo con α e β (finiti o infiniti) gli estremi dell intervallo I. Poniamo
C.6 Funzioni continue Pag. 114 Dimostrazione del Corollario 4.25 Corollario 4.25 Sia f continua in un intervallo I. Supponiamo che f ammetta, per x tendente a ciascuno degli estremi dell intervallo, iti
Dettagli01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I
01CXGBN Trasmissione numerica parte 6: calcolo delle probabilità I 1 Probabilità di errore BER e SER Per rappresentare la bontà di un sistema di trasmissione numerica in termini di probabilità di errore
Dettagli02 - Logica delle dimostrazioni
Università degli Studi di Palermo Facoltà di Economia Dipartimento di Scienze Economiche, Aziendali e Statistiche Appunti del corso di Matematica 0 - Logica delle dimostrazioni Anno Accademico 015/016
Dettagli1) Probabilità di errore di trasmissione. 2) Capacità di canale. 3) Esempi di calcolo della capacità. 4) Disuguaglianza di Fano
Argomenti della Lezione 1) Probabilità di errore di trasmissione ) Capacità di canale 3) Esempi di calcolo della capacità 4) Disuguaglianza di Fano 5) Teorema inverso della codifica di canale 1 Probabilità
DettagliLunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27
Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza
Dettagli1) Hamming bound, coset, codici equivalenti
Argomenti della Lezione ) Hamming bound, coset, codici equivalenti 2) Esercizi sui codici lineari a blocchi Osservazione () Per effettuare la decodifica a rivelazione di errore si può seguire una delle
DettagliSTII/Teoria dell Informazione
STII/Teoria dell Informazione Docente: Prof. Luisa Gargano Classe: Matricole Pari Testo principale: T. Cover, J. Thomas, Elements of Information Theory, Wiley. p./28 Un pò di storia La Teoria dell informazione
DettagliEsercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16
Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana - 015/16 Esercizio 1 Per quali valori n Z \ {0} l espressione è un numero intero positivo? (n + 5)(n + 6) 6n Soluzione. Il problema
DettagliMassimo limite e minimo limite di una funzione
Massimo limite e minimo limite di una funzione Sia f : A R una funzione, e sia p DA). Per ogni r > 0, l insieme ) E f p r) = { fx) x A I r p) \ {p} } è non vuoto; inoltre E f p r ) E f p r ) se 0 < r r.
Dettagli04 - Logica delle dimostrazioni
Università degli Studi di Palermo Facoltà di Economia CdS Sviluppo Economico e Cooperazione Internazionale Appunti del corso di Matematica 04 - Logica delle dimostrazioni Anno Accademico 013/014 D. Provenzano,
DettagliI teoremi della funzione inversa e della funzione implicita
I teoremi della funzione inversa e della funzione implicita Appunti per il corso di Analisi Matematica 4 G. Mauceri Indice 1 Il teorema della funzione inversa 1 Il teorema della funzione implicita 3 1
DettagliLIMITI - ESERCIZI SVOLTI
LIMITI - ESERCIZI SVOLTI ) Verificare mediante la definizione di ite che a) 3 5) = b) = + ) c) 3n n + n+ = + d) 3+ = 3. ) Calcolare utilizzando i teoremi sull algebra dei iti a) 3 + ) b) + c) 0 + d) ±
Dettagli11. Misure con segno.
11. Misure con segno. 11.1. Misure con segno. Sia Ω un insieme non vuoto e sia A una σ-algebra in Ω. Definizione 11.1.1. (Misura con segno). Si chiama misura con segno su A ogni funzione ϕ : A R verificante
DettagliNOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE
NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE ROBERTO GIAMBÒ 1. DEFINIZIONI E PRIME PROPRIETÀ In queste note saranno presentate alcune proprietà principali delle funzioni convesse di una variabile
Dettaglinon solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da
NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x
DettagliLimiti di successioni
Capitolo 5 Limiti di successioni 5.1 Successioni Quando l insieme di definizione di una funzione coincide con l insieme N costituito dagli infiniti numeri naturali 1, 2, 3,... talvolta si considera anche
Dettagli15 Informazione e Predizione
(FX) Teoria dell Informazione e della Trasmissione 5 Informazione e Predizione Docente: Nicolò Cesa-Bianchi versione 4 maggio 03 Consideriamo una sorgente X, p. Dallo studio della codifica sorgente, sappiamo
Dettagli..., x M. : codice o sequenza di bit che rappresentano il messaggio x i ; n i : lunghezza in bit del codice C X i
Definizioni X : sorgente di informazione discreta; X k : messaggi prodotti da X ; ogni messaggio è una v.c.d., k è l'indice temporale; alfabeto di X : insieme {x,..., x } degli messaggi che la sorgente
Dettagli10.. Codici correttori d errore. Modulo TLC:TRASMISSIONI Codici correttori d errore
10.. Codici correttori d errore Codici correttori d errore 2 Obiettivi: correggere o rivelare errori nella trasmissione di sequenze numeriche (sequenze di simboli, usualmente binari) Correzione di errore
DettagliSviluppi e derivate delle funzioni elementari
Sviluppi e derivate delle funzioni elementari In queste pagine dimostriamo gli sviluppi del prim ordine e le formule di derivazioni delle principali funzioni elementari. Utilizzeremo le uguaglianze lim
DettagliIL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero
IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero Il teorema degli zeri è fondamentale per determinare se una funzione continua in un intervallo chiuso [ a ; b ] si annulla in almeno un punto interno
DettagliAlcune v.a. discrete notevoli
Alcune v.a. discrete notevoli Variabile aleatoria Bernoulliana Il risultato X di un esperimento aleatorio può essere classificato nel modo che segue: successo oppure insuccesso. Indichiamo: Successo =
DettagliP ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)
10.4 Convergenze 166 10.4.3. Convergenza in Probabilità. Definizione 10.2. Data una successione X 1, X 2,...,,... di vettori aleatori e un vettore aleatorio X aventi tutti la stessa dimensione k diremo
DettagliGeometria e Topologia I (U1-4) 2006-mag-10 61
Geometria e Topologia I (U1-4) 2006-mag-10 61 (15.9) Teorema. Consideriamo il piano affine. Se A A 2 (K) è un punto e r una retta che non passa per A, allora esiste unica la retta per A che non interseca
DettagliLezione 6 Richiami di Geometria Analitica
1 Piano cartesiano Lezione 6 Richiami di Geometria Analitica Consideriamo nel piano due rette perpendicolari che si intersecano in un punto O Consideriamo ciascuna di queste rette come retta orientata
DettagliDef. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice
Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 205 206 Lezione 4 Ugo Vaccaro Il risultato principale che abbiamo scoperto nella lezione scorsa è il seguente: data una sorgente DSSM X, X 2,..., X i,... con
DettagliANALISI 1 - Teoremi e dimostrazioni vari
ANALISI 1 - Teoremi e dimostrazioni vari Sommario Proprietà dell estremo superiore per R... 2 Definitivamente... 2 Successioni convergenti... 2 Successioni monotone... 2 Teorema di esistenza del limite
DettagliRiassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.
Capitolo 2 Campi 2.1 Introduzione Studiamo ora i campi. Essi sono una generalizzazione dell insieme R dei numeri reali con le operazioni di addizione e di moltiplicazione. Nel secondo paragrafo ricordiamo
DettagliTracce di soluzioni di alcuni esercizi di matematica 1 - gruppo 76-93
Tracce di soluzioni di alcuni esercizi di matematica 1 - gruppo 76-93 5. Funzioni continue Soluzione dell Esercizio 76. Osserviamo che possiamo scrivere p() = n (a n + u()) e q() = m (b m + v()) con lim
DettagliSOLUZIONI DEL 1 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA
SOLUZIONI DEL 1 0 TEST DI PREPARAZIONE ALLA 1 a PROVA INTERMEDIA 1 Esercizio 0.1 Dato P (A) = 0.5 e P (A B) = 0.6, determinare P (B) nei casi in cui: a] A e B sono incompatibili; b] A e B sono indipendenti;
DettagliSperimentazioni di Fisica I mod. A Statistica - Lezione 3
Sperimentazioni di Fisica I mod. A Statistica - Lezione 3 A Garfagnini, M Mazzocco, C Sada Dipartimento di Fisica G. Galilei, Università di Padova AA 2014/2015 Elementi di Teoria della Probabilità L ineliminabile
DettagliEsistenza ed unicità per equazioni differenziali
Esistenza ed unicità per equazioni differenziali Per concludere queste lezioni sulle equazioni differenziali vogliamo dimostrare il teorema esistenza ed unicità per il problema di Cauchy. Faremo la dimostrazione
DettagliIntroduciamo ora un altro campo, formato da un numero finito di elementi; il campo delle classi resto modulo n, con n numero primo.
Capitolo 3 Il campo Z n 31 Introduzione Introduciamo ora un altro campo, formato da un numero finito di elementi; il campo delle classi resto modulo n, con n numero primo 32 Le classi resto Definizione
Dettagli3.1 La probabilità: eventi e variabili casuali
Capitolo 3 Elementi di teoria della probabilità Abbiamo già notato come, per la ineliminabile presenza degli errori di misura, quello che otteniamo come risultato della stima del valore di una grandezza
DettagliCorso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 1 a.a Soluzioni
Corso di Laurea in Matematica Geometria 2 Foglio di esercizi n. 1 a.a. 2015-16 Soluzioni Gli esercizi sono presi dal libro di Manetti. Per svolgere questi esercizi, studiare con cura i paragrafi 3.1, 3.2,
Dettagli8. Completamento di uno spazio di misura.
8. Completamento di uno spazio di misura. 8.1. Spazi di misura. Spazi di misura completi. Definizione 8.1.1. (Spazio misurabile). Si chiama spazio misurabile ogni coppia ordinata (Ω, A), dove Ω è un insieme
DettagliTopologia, continuità, limiti in R n
Topologia, continuità, limiti in R n Ultimo aggiornamento: 18 febbraio 2017 1. Preliminari Prima di iniziare lo studio delle funzioni di più variabili, in generale funzioni di k variabili e a valori in
DettagliOperazioni tra matrici e n-uple
CAPITOLO Operazioni tra matrici e n-uple Esercizio.. Date le matrici 0 4 e dati λ = 5, µ =, si calcoli AB, BA, A+B, B A, λa+µb. Esercizio.. Per ognuna delle seguenti coppie di matrici A, B e scalari λ,
DettagliLa definizione di Ultrafiltro e la regolarità per partizioni
La definizione di Ultrafiltro e la regolarità per partizioni Lorenzo Lami Definizione 1 (Filtro). Dato un insieme X, si dice filtro su X una collezione F di sottoinsiemi di X tali che: X F; / F; A F, B
DettagliCodici Lineari G = [I K P], (1)
Codici Lineari Nel seguito, indicheremo con F un generico campo finito. Come noto, F potrebbe essere l insieme delle cifre binarie F 2 = {0, 1} con le usuali operazioni di prodotto e somma modulo 2. Più
DettagliElementi di Algebra e di Matematica Discreta Numeri interi, divisibilità, numerazione in base n
Elementi di Algebra e di Matematica Discreta Numeri interi, divisibilità, numerazione in base n Cristina Turrini UNIMI - 2016/2017 Cristina Turrini (UNIMI - 2016/2017) Elementi di Algebra e di Matematica
Dettagli1. equivalenze e implicazioni logiche. Esercizio 1.2. Trovare le implicazioni che legano i seguenti enunciati (x, y R):
. equivalenze e implicazioni logiche Esercizio.. Trovare le implicazioni che legano i seguenti enunciati (x, y R): () x < y, () x = y, () x y, () x y, () (x y) > 0. Osserviamo subito che (x y) > 0 equivale
DettagliCorso di Matematica per la Chimica. Dott.ssa Maria Carmela De Bonis a.a
Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Risoluzione di Equazioni non lineari Sia F C 0 ([a, b]), cioé F è una funzione continua in un intervallo [a, b] R, tale che F(a)F(b) < 0 1.5 1 F(b) 0.5 0 a
DettagliAlcuni Teoremi sulle funzioni continue e uniforme continuità
Alcuni Teoremi sulle funzioni continue e uniforme continuità Teorema 0. Una funzione f(x) è continua in x 0 se e solo se per ogni sucessione {x n } dom(f) con x n x 0 dom(f), risulta f(x n ) f(x 0 ). (Non
DettagliTeoria dell Informazione
Fondamenti di Informatica per la Sicurezza a.a. 2008/09 Teoria dell Informazione Stefano Ferrari UNIVERSITÀ DEGLI STUDI DI MILANO DIPARTIMENTO DI TECNOLOGIE DELL INFORMAZIONE Stefano Ferrari Università
DettagliNote sulla probabilità
Note sulla probabilità Maurizio Loreti Dipartimento di Fisica Università degli Studi di Padova Anno Accademico 2002 03 1 La distribuzione del χ 2 0.6 0.5 N=1 N=2 N=3 N=5 N=10 0.4 0.3 0.2 0.1 0 0 5 10 15
DettagliSCUOLA GALILEIANA DI STUDI SUPERIORI CLASSE DI SCIENZE NATURALI ESAME DI AMMISSIONE, PROVA DI MATEMATICA 13 SETTEMBRE 2011
1 SCUOLA GALILEIANA DI STUDI SUPERIORI CLASSE DI SCIENZE NATURALI ESAME DI AMMISSIONE, PROVA DI MATEMATICA 13 SETTEMBRE 011 Problema 1. Sia Z l insieme dei numeri interi. a) Sia F 100 l insieme delle funzioni
DettagliLa codifica digitale
La codifica digitale Codifica digitale Il computer e il sistema binario Il computer elabora esclusivamente numeri. Ogni immagine, ogni suono, ogni informazione per essere compresa e rielaborata dal calcolatore
DettagliStatistica ARGOMENTI. Calcolo combinatorio
Statistica ARGOMENTI Calcolo combinatorio Probabilità Disposizioni semplici Disposizioni con ripetizione Permutazioni semplici Permutazioni con ripetizioni Combinazioni semplici Assiomi di probabilità
DettagliAnalisi degli Errori di Misura. 08/04/2009 G.Sirri
Analisi degli Errori di Misura 08/04/2009 G.Sirri 1 Misure di grandezze fisiche La misura di una grandezza fisica è descrivibile tramite tre elementi: valore più probabile; incertezza (o errore ) ossia
DettagliAlgebra Lineare e Geometria. Il teorema fondamentale dell algebra. 1 Non c è un ordine totale sull insieme dei complessi
Università di Bergamo Anno accademico 2008 2009 Primo anno di Ingegneria Algebra Lineare e Geometria Il teorema fondamentale dell algebra 1 Non c è un ordine totale sull insieme dei complessi Vogliamo
DettagliII Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17
II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile
DettagliCorso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prima prova in itinere
Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica 69AA) A.A. 06/7 - Prima prova in itinere 07-0-03 La durata della prova è di tre ore. Le risposte devono essere adeguatamente giustificate.
DettagliTest per una media - varianza nota
Situazione Test per una media - varianza nota Popolazione N(µ,σ 2 ); varianza σ 2 nota. µ 0 numero reale fissato. Test di livello α per µ Statistica: Z n = X n µ 0 σ/ n. H 0 H 1 Rifiutiamo H 0 se p-value
DettagliDerivazione. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara
Derivazione Lorenzo Pareschi Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara http://utenti.unife.it/lorenzo.pareschi/ lorenzo.pareschi@unife.it Lorenzo Pareschi (Univ. Ferrara)
Dettagli1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano
Argomenti della Lezione 1) Entropia di variabili aleatorie continue ) Esempi di variabili aleatorie continue 3) Canali di comunicazione continui 4) Canale Gaussiano 5) Limite di Shannon 1 Entropia di una
DettagliEsercizi 3. cos x ln(sin x), ln(e x 1 x ), ln( x 2 1), x sin x + x cos x + x, x 3 2x + 1. x 2 x + 2, x cos ex, x 2 e x.
I seguenti quesiti ed il relativo svolgimento sono coperti dal diritto d autore, pertanto essi non possono essere sfruttati a fini commerciali o di pubblicazione editoriale senza autorizzazione esplicita
Dettagli04 - Numeri Complessi
Università degli Studi di Palermo Scuola Politecnica Dipartimento di Scienze Economiche, Aziendali e Statistiche Appunti del corso di Matematica 04 - Numeri Complessi Anno Accademico 2015/2016 M. Tumminello,
Dettagli( ) le colonne della matrice dei coefficienti, con. , risulta A 3 = A 1 + 4A 2 + 4A 5, A 4 = A 1 + A 2,
1 Elementi di Analisi Matematica e Ricerca Operativa prova del 6 luglio 2016 1) Discutere il seguente problema di Programmazione Lineare: Trovare il massimo di p x 1, x 2, x 3, x 4 # x 2 + 4 x 3 + x 4
DettagliInsiemi numerici. Teoria in sintesi NUMERI NATURALI
Insiemi numerici Teoria in sintesi NUMERI NATURALI Una delle prime attività matematiche che viene esercitata è il contare gli elementi di un dato insieme. I numeri con cui si conta 0,,,. sono i numeri
DettagliIl Ricevente comunica pubblicamente una chiave e. Il Mittente codifica il messaggio usando la funzione f(m, e) = C e
Crittografia a chiave pubblica. Il problema della crittografia è semplice da enunciare: vi sono due persone, il Mittente e il Ricevente, che vogliono comunicare fra loro senza che nessun altro possa leggere
DettagliEsercizi sulle equazioni differenziali a cura di Sisto Baldo, Elisabetta Ossanna e Sandro Innocenti
Esercizi sulle equazioni differenziali a cura di Sisto Baldo, Elisabetta Ossanna e Sandro Innocenti 1. Verifica che y(t) = 1 t + e t è una soluzione dell equazione y (t) = y(t) + t.. Scrivi un equazione
Dettagli1 Successioni di funzioni
Analisi Matematica 2 Successioni di funzioni CORSO DI STUDI IN SMID CORSO DI ANALISI MATEMATICA 2 CAPITOLO 6 SERIE DI POTENZE Supponiamo di associare ad ogni n N (rispettivamente ad ogni n p, per qualche
DettagliCompressione Dati. Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.
Compressione Dati Teorema codifica sorgente: Entropia fornisce un limite sia inferiore che superiore al numero di bit per simbolo sorgente.. p.1/21 Compressione Dati Teorema codifica sorgente: Entropia
DettagliDisequazioni di secondo grado
Disequazioni di secondo grado. Disequazioni Definizione: una disequazione è una relazione di disuguaglianza tra due espressioni. Detti p() e g() due polinomi definiti in un insieme A, una disequazione
DettagliDIFFERENZIAZIONE. Sia f una funzione reale di variabile reale con dominio un intervallo. Se f è derivabile in un punto x 0, allora: f(x) f(x 0 ) lim
DIFFERENZIAZIONE 1 Regola della catena Sia f una funzione reale di variabile reale con dominio un intervallo. Se f è derivabile in un punto x 0, allora: f(x) f(x 0 ) lim = f (x 0 ). x x 0 x x 0 Questa
DettagliLOGICA MATEMATICA PER INFORMATICA
LOGICA MATEMATICA PER INFORMATICA A.A. 10/11, DISPENSA N. 2 Sommario. Assiomi dell identità, modelli normali. Forma normale negativa, forma normale prenessa, forma normale di Skolem. 1. L identità Esistono
DettagliIn altri termini, il logaritmo in base a di b è quel numero c tale per cui a elevato a c è uguale a b. In simboli
LOGARITMO Il logaritmo è un operatore matematico indicato generalmente con loga(b); detta a la base e b l'argomento, il logaritmo in base a di b è definito come l'esponente a cui elevare la base per ottenere
DettagliFunzioni derivabili (V. Casarino)
Funzioni derivabili (V. Casarino) Esercizi svolti 1) Applicando la definizione di derivata, calcolare la derivata in = 0 delle funzioni: a) 5 b) 3 4 c) + 1 d) sin. ) Scrivere l equazione della retta tangente
DettagliLezione 4. Problemi trattabili e soluzioni sempre più efficienti. Gianluca Rossi
Lezione 4 Problemi trattabili e soluzioni sempre più efficienti Gianluca Rossi Trattabile o intrattabile? Consideriamo ora il problema, ben noto a tutti gli studenti a partire dalla scuola media, di calcolare
DettagliFUNZIONI ELEMENTARI, DISEQUAZIONI, NUMERI REALI, PRINCIPIO DI INDUZIONE Esercizi risolti
FUNZIONI ELEMENTARI, DISEQUAZIONI, NUMERI REALI, PRINCIPIO DI INDUZIONE Esercizi risolti Discutendo graficamente la disequazione x > 3 + x, verificare che l insieme delle soluzioni è un intervallo e trovarne
DettagliDAI NUMERI NATURALI AI NUMERI RAZIONALI
DAI NUMERI NATURALI AI NUMERI RAZIONALI 1. L insieme dei numeri naturali Nel sistema assiomatico ZF, l Assioma dell infinito stabilisce che: Esiste un insieme A, i cui elementi sono insiemi e tale che
DettagliAM210 - Analisi Matematica 3: Soluzioni Tutorato 1
AM210 - Analisi Matematica 3: Soluzioni Tutorato 1 Università degli Studi Roma Tre - Dipartimento di Matematica Docente: Luca Biasco Tutori: Patrizio Caddeo, Davide Ciaccia 19 ottobre 2016 1 Se z = (1
DettagliCP110 Probabilità: Esonero 1
Dipartimento di Matematica, Roma Tre Pietro Caputo 2016-17, II semestre 11 aprile, 2017 CP110 Probabilità: Esonero 1 Cognome Nome Matricola Firma Nota: 1. L unica cosa che si può usare durante l esame
DettagliPrecorsi di matematica
Precorsi di matematica Francesco Dinuzzo 12 settembre 2005 1 Insiemi Il concetto di base nella matematica moderna è l insieme. Un insieme è una collezione di elementi. Gli elementi di un insieme vengono
Dettagli1 Ampliamento del piano e coordinate omogenee
1 Ampliamento del piano e coordinate omogenee Vogliamo dare una idea, senza molte pretese, dei concetti che stanno alla base di alcuni calcoli svolti nella classificazione delle coniche. Supponiamo di
DettagliLezione 4 Ugo Vaccaro
Teoria dell Informazione II Anno Accademico 206 207 Lezione 4 Ugo Vaccaro Nella lezione scorsa abbiamo derivato il seguente risultato. Teorema Per ogni codifica UD per una sorgente DSSM con alfabeto sorgente
DettagliLe derivate parziali
Sia f(x, y) una funzione definita in un insieme aperto A R 2 e sia P 0 = x 0, y 0 un punto di A. Essendo A un aperto, esiste un intorno I(P 0, δ) A. Preso un punto P(x, y) I(P 0, δ), P P 0, possiamo definire
DettagliANALISI 1 1 QUINTA LEZIONE
ANALISI 1 1 QUINTA LEZIONE 1 prof. Claudio Saccon, Dipartimento di Matematica Applicata, Via F. Buonarroti 1/C email: saccon@mail.dm.unipi.it web: http://www2.ing.unipi.it/ d6081/index.html Ricevimento:
DettagliSoluzioni degli esercizi proposti
Soluzioni degli esercizi proposti.9 a La cardinalità dell insieme dei numeri,..., 0 n che sono multipli di 5 è 0n 5. Dunque, poiché siamo in una condizione di equiprobabilità, la probabilità richiesta
DettagliCODIFICA CANALE. Comunicazione con successo: ricevitore ottiene output sorgente. Rumore. Sorgente Cofificatore Canale. Decodificatore.
CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore Ricevitore Rumore Comunicazione con successo: ricevitore ottiene output sorgente. p.1/24 CODIFICA CANALE Sorgente Cofificatore Canale Decodificatore
DettagliNote del corso di Calcolabilità e Linguaggi Formali - Lezione 10
Note del corso di Calcolabilità e Linguaggi Formali - Lezione 10 Alberto Carraro DAIS, Università Ca Foscari Venezia http://www.dsi.unive.it/~acarraro 1 Teoremi fondamentali della Recursion Theory Theorem
DettagliP (F E) = P (E) P (F E) = = 25
Regola del prodotto Conoscete la definizione di probabilità condizionata. Definizione 1. Siano E e F due eventi di uno spazio campionario S. Supponiamo P (F ) > 0. La probabilità condizionata dell evento
DettagliESERCIZI SUI PUNTI DI NON DERIVABILITÀ TRATTI DA TEMI D ESAME
ESERCIZI SUI PUNTI DI NON DERIVABILITÀ TRATTI DA TEMI D ESAME a cura di Michele Scaglia FUNZIONI DERIVABILI Sia f : domf R una funzione e sia 0 domf di accumulazione per domf Chiamiamo derivata prima di
DettagliCongruenze. Alberto Abbondandolo Forte dei Marmi, 17 Novembre 2006
Congruenze Alberto Abbondandolo Forte dei Marmi, 17 Novembre 2006 1 Il resto nella divisione tra interi Consideriamo i numeri naturali 0, 1, 2, 3,... ed effettuiamone la divisione per 3, indicando il resto:
DettagliCorso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 2 a.a Soluzioni
Corso di Laurea in Matematica Geometria 2 Foglio di esercizi n. 2 a.a. 2015-16 Soluzioni Gli esercizi sono presi dal libro di Manetti. Per svolgere questi esercizi, studiare con cura i paragrafi 3.5, 3.6,
DettagliMATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI. Anna TORRE
MATEMATICA PER LO STUDIO DELLE INTERAZIONI STRATEGICHE: TEORIA DEI GIOCHI Anna TORRE Dipartimento di Matematica, Università di Pavia, Via Ferrata 1, 27100, Pavia, Italy. E-mail: anna.torre@unipv.it 1 SOLUZIONI:
DettagliComunicazioni Elettriche Esercizi
Comunicazioni Elettriche Esercizi Alberto Perotti 9 giugno 008 Esercizio 1 Un processo casuale Gaussiano caratterizzato dai parametri (µ = 0, σ = 0.5) ha spettro nullo al di fuori dellintervallo f [1.5kHz,
DettagliVARIABILI CASUALI CONTINUE
p. 1/1 VARIABILI CASUALI CONTINUE Una variabile casuale continua può assumere tutti gli infiniti valori appartenenti ad un intervallo di numeri reali. p. 1/1 VARIABILI CASUALI CONTINUE Una variabile casuale
DettagliUNIVERSITÀ di ROMA TOR VERGATA
UNIVERSITÀ di ROMA TOR VERGATA Corso di Laurea Magistrale in Scienze della Nutrizione Umana Corso di Statistica Medica, anno 2015-16 P.Baldi Lista di esercizi 4, 11 febbraio 2016. Esercizio 1 Una v.a.
DettagliUNIVERSITÀ di ROMA TOR VERGATA
UNIVERSITÀ di ROMA TOR VERGATA Corso di Statistica, anno 2010-11 P.Baldi Lista di esercizi 3. Corso di Laurea in Biotecnologie Esercizio 1 Una v.a. X segue una legge N(2, ). Calcolare a1) P(X 1) a2) P(2
Dettagli(2) se A A, allora A c A; (3) se {A n } A, allora +
1. Spazi di misura In questo paragrafo accenneremo alla nozione di spazio di misura. Definizione 1. Sia X un insieme non vuoto. Una famiglia A di sottoinsiemi di X è una σ-algebra se : (1) A; (2) se A
DettagliEquivalentemente, le colonne di A sono linearmente indipendenti se e solo se
Lezioni di Algebra Lineare. Versione novembre 2008 VI. Il determinante Il determinante det A di una matrice A, reale e quadrata, è un numero reale associato ad A. Dunque det è una funzione dall insieme
DettagliCorso di Laurea in Matematica Geometria 2. Esercizi di preparazione allo scritto a.a Topologia
Corso di Laurea in Matematica Geometria 2 Esercizi di preparazione allo scritto a.a. 2015-16 Esercizio 1. Dimostrare che Topologia 1. d(x, y) = max 1 i n x i y i definisce una distanza su R n. 2. d(x,
DettagliCorso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione dei numeri relativi
Codice BCD Prima di passare alla rappresentazione dei numeri relativi in binario vediamo un tipo di codifica che ha una certa rilevanza in alcune applicazioni: il codice BCD (Binary Coded Decimal). È un
Dettagli1 Polinomio di Taylor 1. 2 Formula di Taylor 2. 3 Alcuni sviluppi notevoli 2. 4 Uso della formula di Taylor nel calcolo dei limiti 4
1 POLINOMIO DI TAYLOR 1 Formula di Taylor Indice 1 Polinomio di Taylor 1 Formula di Taylor 3 Alcuni sviluppi notevoli 4 Uso della formula di Taylor nel calcolo dei iti 4 5 Soluzioni degli esercizi 6 La
Dettagli