Capacità di canale in molte salse

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Capacità di canale in molte salse"

Transcript

1 Capacità di canale in molte salse. Bernardini 6 maggio 008 Indice 1 Introduzione 1 Modelli di canale 1.1 Matrice di transizione Funzione aleatoria Canali reversibili 3.1 Definizione Capacità di un canale reversibile Esempi di canali reversibili Canale binario simmetrico Canale con cancellazione Crittografia Canale Gaussiano Introduzione Queste note sono alcuni appunti sulla capacità di canale fatta a modo mio... Modelli di canale.1 Matrice di transizione Il modo più comunemente usato in letteratura per descrivere il comportamento di un canale è basato sulle probabilità di transizione associate al canale. Più precisamente, un canale è descritto specificando l alfabeto dei simboli di ingresso A X, l alfabeto dei simboli di uscita A Y e la probabilità P[Y = y X = x] di avere il simbolo y A Y in uscita quando in ingresso si ha il simbolo x A X. È conveniente organizzare le probabilità di transizione del canale in una matrice M le cui righe sono indicizzate dai simboli di uscita, le cui colonne sono indicizzate dai simboli di ingresso e avente nell elemento di riga y e colonna x la probabilità P[Y = y X = x], ossia M y,x := P[Y = y X = x], x A X, y A Y. (1) Se indichiamo con p X e p Y i vettori (colonna) delle probabilità dei simboli di ingresso e uscita, è facile verificare che p Y = Mp X () 1

2 X Y X Q X q Y Q Y q Q (a) E N(0, ) (b) E N(0, ) Figura 1: (a) Canale Gaussiano additivo (b) Versione quantizzata del canale in (a). Funzione aleatoria Nonostante la descrizione tramite matrice di transizione sia molto comune, in queste note useremo una descrizione alternativa (a mio parere più intuitiva) basato su una funzione aleatoria. Più precisamente, modelleremo un canale con ingresso a valori nell alfabeto A X e uscite a valori in A Y come una funzione C : A X A E A Y (3) dove il secondo argomento è una variabile aleatoria E, indipendente dall ingresso. Intuitivamente, E rappresenta il rumore introdotto dal canale. Nonostante il modello a funzione aleatoria possa sembrare meno generale del modello basato sulla matrice di probabilità di transizione, è possibile dimostrare che ogni canale può essere rappresentato tramite un opportuna funzione aleatoria con E uniformemente distribuita su [0, 1]. Nel seguito indicheremo con C X=x la funzione del rumore ottenuta fissando il primo argomento di C a x. Più precisamente, C X=x (e) := C(x, e) (4) 3 Canali reversibili 3.1 Definizione Un tipo di canale molto generale e abbastanza semplice da studiare è il canale reversibile. Definzione 1. Un canale C : A X A E A Y è detto reversibile se per ogni x A X la funzione C X=x è iniettiva. Informalmente, possiamo dire che un canale è reversibile se dall osservazione del suo ingresso e della sua uscita possiamo determinare il rumore che ha causato la transizione. L esempio più semplice di canale reversibile è il canale additivo in cui l uscita è pari alla somma dell ingresso e del rumore. Esempi di canali addittivi sono il canale Gaussiano (Fig. 1), in cui A X = A Y = A E = e il rumore è una variabile aleatoria Gaussiana, ed il canale binario simmetrico (Fig. ) in cui A X = A Y = A E = {0, 1}, p E (1) = ǫ e la somma va interpretata modulo. 3. Capacità di un canale reversibile Il calcolo della capacità di un canale reversibile sfrutta la seguente conseguenza importante della reversibilità. Proprietà 1. Siano X, Y ed E le variabili aleatorie associate con, rispettivamente, l ingresso, l uscita ed il rumore di un canale reversibile. Vale la seguente uguaglianza H(XY ) = H(XE). (5)

3 0 1 ε ε 0 X Y ε 1 1 ε 1 (a) (b) E { 0, 1 } P[E=1] = ε Figura : (a) Grafo di transizione di un canale binario simmetrico (b) Modello basato su funzione aleatoria Dimostrazione. Per dimostrare la (5) è sufficiente osservare che la coppia ingresso-uscita (X, Y ) è funzione deterministica della coppia ingresso-rumore (X, E) e che tale funzione è biunivoca poiché la reversibilità ci permette di ricavare E a partire da X e Y. L informazione mutua tra ingresso e uscita in un canale reversibile è pari a I(X; Y ) = H(X) + H(Y ) H(XY ) Def. di info mutua (6a) = H(X) + H(Y ) H(XE) eversibilità (Proprietà 1) (6b) = H(X) + H(Y ) H(X) H(E) Indipendenza del rumore (6c) = H(Y ) H(E) (6d) Ne segue che la capacità di un canale reversibile è pari a C = max p X H(Y ) H(E) (7) Dalla (7) deduciamo inoltre che per calcolare la capacità di un canale reversibile è sufficiente scegliere le probabilità dell ingresso X in modo da massimizzare l entropia dell uscita H(Y ). In particolare, se è possibile scegliere le probabilità di X in modo da avere Y uniformemente distribuita, la capacità del canale risulta essere pari a log A Y H(E). Commento 3.1 L equazione (7) ha un interpretazione molto intuitiva: in un canale reversibile l effetto del rumore è di cancellare H(E) bit di informazione dalla massima informazione mutua disponibile max px H(Y ). 4 Esempi di canali reversibili 4.1 Canale binario simmetrico Il caso del canale binario simmetrico è particolarmente semplice poiché è sufficiente scegliere p X (0) = p X (1) = 1/ per avere Y uniformemente distribuito (e quindi con entropia massima). Ne segue che la capacità del canale binario simmetrico è pari a 4. Canale con cancellazione log A Y H(E) = 1 H(E) (8) Un altro modello di canale molto importante è il canale con cancellazione mostrato in Fig. 3. Il canale con cancellazione corrisponde, per esempio, al canale visto a livello applicativo da programmi che usano protocolli di trasporto che non garantiscono la ricezione del pacchetto (es. UDP). In un canale con cancellazione l alfabeto di uscita è ottenuto aggiungendo all alfabeto di ingresso un simbolo che rappresenta l evento dato perso. Come si può vedere dalla Fig. 3, in un canale a cancellazione con probabilità di perdita ǫ ogni 3

4 ε A 1 0 ε ε ε 1 ε 1 ε 1 ε 1 ε A (a) 1 0 X Y E (b) Figura 3: (a) Grafo di transizione di un canale a cancellazione (b) Modello basato su funzione aleatoria simbolo viene mappato nel simbolo stesso con probabilità 1 ǫ e nel simbolo (ossia, il dato viene perso) con probabilità ǫ. È chiaro che in un canale a cancellazione non possiamo avere l uscita uniformemente distribuita poiché la probabilità di è sempre ǫ. Per calcolare la capacità di un canale a cancellazione, calcoliamo l entropia di Y H(Y ) = p Y (y)log p Y (y) y A Y = p Y ( )log p Y ( ) p Y (a)log p Y (a) a A X = ǫ log ǫ (1 ǫ)p X (a)log [(1 ǫ)p X (a)] a A X = ǫ log ǫ (1 ǫ) (9) p X (a)[log (1 ǫ) + log p X (a)] a A X = ǫ log ǫ (1 ǫ) log (1 ǫ) p X (a) + p X (a)log p X (a) a A X a A X Da cui deduciamo = H(E) + (1 ǫ)h(x) I(X; Y ) = H(Y ) H(E) = (1 ǫ)h(x) (10) Per massimizzare l informazione mutua (10) è sufficiente massimizzare H(X) scegliendo X uniformemente distributa. La capacità del canale con cancellazione è quindi pari a C = (1 ǫ)log A X (11) 4

5 4.3 Crittografia Un esempio di canale naturalmente modellabile tramite una funzione aleatoria è un algoritmo di crittografia, dove la chiave gioca il ruolo del rumore introdotto dal canale. Commento 4.1 Si osservi che non è detto a priori che un canale crittografico sia reversibile, ossia, non è detto che dato il testo in chiaro e il testo cifrato sia possibile risalire alla chiave. Nonostante ciò, è intuitivo che uno schema di cifratura non reversibile risulterebbe debole poiché la mancanza di reversibilità implicherebbe l esistenza di almeno un testo in chiaro X, un testo cifrato Y e due chiavi, K 1 e K, tali che si ottiene Y cifrando X indifferentemente con K 1 o con K. L esistenza di tali chiavi equivalenti semplifica il lavoro al crittanalista poiché gli è sufficiente trovare una delle due chiavi per risalire al testo in chiaro. Tale intuizione sul ruolo della reversibilità in crittografia sarà confermata in seguito. L informazione mutua tra il testo in chiaro X e il testo cifrato Y si scrive I(X; Y ) = H(X) + H(Y ) H(XY ) Def. informazione mutua (1a) H(X) + H(Y ) H(Y E) (X, Y ) funzione di (Y, E) (1b) = H(X) H(E Y ) H(Y E) = H(E Y ) + H(Y ) (1c) H(X) H(E) Condizionare abbassa l entropia (1d) H(X) log A E H(E) log A E (1e) Dalla (1) si vede che l informazione che passa attraverso il canale crittografico è l informazione contenuta nel messaggio in chiaro [H(X)] a cui si deve togliere l incertezza che ci resta sulla chiave una volta che conosciamo il testo cifrato [H(E Y )]. In un certo senso, possiamo dire che l algoritmo cancella H(E Y ) bit di informazione da X. In uno schema di crittografia noi siamo interessati a rendere minima l informazione mutua tra testo in chiaro e testo cifrato. Dalla (1) deduciamo che il numero di bit cancellati non può essere mai superiore a log A E, dove A E è lo spazio delle possibili chiavi. Perchè il numero di bit cancellati raggiunga tale limite superiore, le tre diseguaglianze in (1b), (1d) e (1e) devono essere verificate col segno di uguaglianza e perché questo accada deveono essere verificate le seguenti condizioni Uguaglianza in (1b) La (1b) è verificata col segno di uguaglianza se e solo se la funzione che mappa (Y, E) in (X, Y ) è biunivoca o, in altre parole, se il canale crittografico è reversibile Uguaglianza in (1d) La (1d) è verificata col segno di uguaglianza se e solo se Y ed E sono indipendenti. Vedremo più avanti quali condizioni implichino l indipendenza di Y e E. Uguaglianza in (1e) La (1e) è verificata col segno di uguaglianza se e solo se E è scelta a caso in maniera uniforme sullo spazio delle chiavi. Indipendenza di Y ed E Delle tre condizioni necessarie per l uguaglianza in (1), l indipendenza di Y ed E è l unica che non abbia un chiaro significato intuitivo. Osserviamo che perché Y ed E siano indipendenti è necessario e sufficiene che la probabilità condizionata p Y E (y e) := P[Y = y E = e] (13) non dipenda da e. Siano E : A X A E A Y e D : A Y A E A X le funzioni di cifratura e decifratura. Poiché la funzione D E=e è l inversa di E E=e si ha, supponendo che la chiave E venga scelta indipedentemente dal testo in chiaro X P[Y = y E = e] = P[Y = y, E = e] P[E = e] = P[X = D e(y), E = e] P[E = e] = P[X = D e(y)]p[e = e] = P[X = D e (y)] = p X (D e (y)) P[E = e] 5 (14)

6 Dalla (14) deduciamo che richiedere l indipendenza tra Y ed E equivale a richiedere che p X (D E=e (y)) = p X (D(y, e)) = p X (D Y =y (e)) (15) non dipenda da e. In altre parole, per ogni y, i simboli di ingresso appartenenti all immagine di D Y =y devono avere tutti la stessa probabilità. Un modo semplice per garantirsi la (15) è avere il testo in chiaro uniformemente distribuito su tutto l alfabeto. Commento 4. Dovendo sia comprimere che cifrare, cosa conviene fare prima? La risposta è: prima si comprime e poi si cifra. Ci sono almeno tre motivi per eseguire prima la compressione: (i) comprimendo prima si riduce la quantità di dati da cifrare e si risparma costo computazionale; (ii) è ragionevole aspettarsi che un buon algoritmo di crittografia restituisca una stringa quasi casuale e quindi difficilmente comprimibile e (iii) è ragionevole aspettarsi che un buon algoritmo di compressione restituisca stringhe di bit uniformemente distribuite, rendendo più robusta l applicazione della crittografia. 1 Commento 4.3 La teoria appena presentata può sollevare alcuni dubbi: cosa vuol dire che N H(E) bit vengono cancellati? Quali bit? I primi? Gli ultimi? E poi, perché la robustezza dipende dalle proprietà statistiche dell ingresso? Le due domande sono in realtà collegate tra loro. Per quanto riguarda la domanda su quali siano i bit cancellati, la risposta è che non è necessariamente detto che sia possibile individuare un insieme di N bit che resteranno ignoti dopo che l avversario ha finito il suo attacco. Dire che N bit di informazione verranno cancellati vuol dire che l avversario, dopo aver provato tutte le possibili chiavi, si troverà tra le mani N messaggi, tutti ugualmente plausibili. Per fare un esempio un po giocattolo, se provando tutte le 56 chiavi del DES l attaccante ottenesse 56 sequenze spazzatura e i due messaggi mi piace la cioccolata, e due uova al tegamino, l algoritmo di cifratura avrebbe cancellato 1 bit di informazione, nonostante i due messaggi non differiscano per un bit solo. Si osservi come tale tipo di sicurezza sia molto più forte della sicurezza computazionale che di solito si considera in crittografia. Infatti, mentre un avversario avente a disposizione un enorme potenza computazionale potrebbe (in teoria) essere in grado di crackare qualsiasi algoritmo; la robustezza implicata dall equazione (1) è indipendente da questioni computazionali poiché l attaccante non sarà mai in grado di recuperare l informazione cancellata, (o, in altre parole, non sarà mai in grado di risolvere l ambiguità tra i N messaggi plausibili) qualunque sia la potenza di calcolo a sua disposizione. L esempio più estremo di cancellazione dell informazione è dato dal cifrario di Verman (noto anche col nome di one-time pad nella letteratura inglese). In un implementazione informatizzata la chiave è una stringa di bit aleatori iid e con p(0) = p(1) = 1/ lunga quanto il messaggio da trasmettere. La cifratura avviene facendo lo XO del messaggio con la chiave. In altre parole, il cifrario di Verman è un canale binario simmetrico a capacità nulla (dove però il rumore è sotto il nostro controllo). Poiché l entropia della chiave non è inferiore all entropia del messaggio, il cifrario di Verman cancella completamente l informazione trasmessa. Il principale difetto (serio) del cifrario di Verman è che richiede una chiave lunga quanto il messaggio e se avessi un canale sicuro su cui spedire la chiave, potrei sfruttare tale canale per spedire il messaggio... Qual è il legame tra la cancellazione dei bit e la richiesta di avere l ingresso uniformemente distribuito? Per capirlo, supponiamo di mandare il messaggio Tanti baci in ingresso al DES. È molto probabile che un possibile avversario, provando tutte le 56 chiavi possibili trovi 56 1 schifezze ed una sola stringa sensata. Se invece il messaggio viene compresso in modo tale che (quasi) ogni stringa di bit rappresenti un messaggio sensato, l avversario si troverà tra le mani circa 56 messaggi sensati, senza nessuna idea su quale scegliere... Al limite, se il nostro algoritmo di compressione fosse perfetto, anche una banale sostituzione monoalfabetica su 16 bit (ossia, ogni parola di 16 bit viene sostituita dal suo XO con la chiave) potrebbe risultare molto robusta poiché l avversario dovrebbe scegliere tra 16 = messaggi sensati. 4.4 Canale Gaussiano Nonostante finora si siano considerati solamente canali con alfabeti discreti, esistono anche canali con ingresso e uscita continue. L esempio più importante di canale con variabili continue è il canale Gaussiano additivo 1 Ma attenzione ad eventuali parti fisse del bitstream compresso (es. header)! Non è comunque detto che il cifrario di Verman sia totalmente inutile. Per esempio, prevedendo di dover scambiare messaggi riservati con un altra persona, potrei crearmi un DVD di bit casuali da consegnare direttamente all altro partner. 6

7 in cui l ingresso e l uscita assumono valori in e il rumore è una variabile aleatoria a media nulla e varianza σ e (vedi Fig. 1a). Analizzaremo il canale gaussiano additivo Fig. 1a approssimandolo con un canale con alfabeti discreti A X = A E = A Y = Z( ) := {n, n Z} (16) Più precisamente, otterremo la versione discreta del canale in Fig. 1a inserendo all ingresso e all uscita del canale un quantizzatore uniforme con passo (mostrato con un blocco etichettato con Q in Fig. 1b). Intuitivamente, il quantizzatore aggiunto rovina un po le prestazioni massime ottenibili dal canale, ma quando tende a zero tale perdita di prestazioni tende a diventare trascurabile. È facile vedere che al canale di Fig. 1b può ora essere aggiunto un quantizzatore sul ramo del rumore, ottenendo il canale additivo di Fig. 1c, dove X q e E q assumono valori nell alfabeto Z( ). e E q è la versione quantizzata del rumore E in Fig. 1a. L idea è di calcolare la capacità del canale Gaussiano di Fig. 1a, calcolando la capacità del canale di Fig. 1c e facendo tendere a zero. Poiché il canale in Fig. 1c è reversibile, l informazione mutua tra l ingresso e l uscita si scrive I(X q ; Y q ) = H(Y q ) H(E q ) (17) Per poter ulteriormente elaborare l equazione (17) è necessario poter esprimere l entropia delle variabili quantizzate Y q e E q in funzione delle proprietà statistiche di Y ed E. Proprietà. Sia X una variabile aleatoria continua con densità f X e sia X q = Q (X) = X/ la sua versione quantizzata con quantizzatore uniforme con passo. Per che tende a zero l entropia di X q può essere approssimata con H(X q ) h X log. (18) dove è detta entropia differenziale di X. h X := f X (a)log f X (a)da (19) Dimostrazione. È un semplice calcolo H(X q ) = n ZP[X q = n ] log P[X q = n ] Def. di entropia (0a) = n Z [ ] [ n + / ] n + / f X (a)da log f X (a)da n / n / X q = n sse X n + [ /, /] (0b) n Z f X (n )log ( f X (n )) f X circa costante in n + [ /, /] log n Z (0c) f X (n ) n Z f X (n )log f X (n ) (0d) = log n Z f X (n )log f X (n ) f X (n ) = 1 n Z (0e) log f X (a)log f X (a)da Approssimazione dell integrale (0f) = log + h X Definizione di h X (0g) 7

8 È interessante riscrivere l entropia differenziale di X in funzione dell entropia differenziale di X := X/σ x che può essere interpretata come X normalizzata a varianza unitaria. Proprietà 3. Sia X una variabile aleatoria continua con densità f X e sia X := X/σ x. Vale la seguente uguaglianza h X = h X + log σ x (1) Dimostrazione. La densità di probabilità di X è f X (a) = σ x f X (σ x a) () Ne segue che h X = f X (a)log f X (a)da Def. entropia differenziale (3a) = σ x f X (σ x a)log [σ x f X (σ x a)] da Eq. () (3b) = f X (b)log [σ x f X (b)] db Cambio di variabile b = σ x a (3c) = f X (b)log σ x db f X (b)log f X (b)db Logaritmo del prodotto (3d) = log σ x + h X f X (a)da = 1 e def. entropia diff. (3e) La (1) segue immediatamente dalla (3). Corollario 1. Sia X una variabile aleatoria con varianza σx e sia X = X/σ x. L entropia differenziale di X vale σ x h X = h X + log = h X + 1 log σx (4) L informazione mutua (17) può ora essere scritta I(X q ; Y q ) = h Y + 1 log h E 1 log σ y = h Y h E + 1 log σ y σ e = h Y h E + 1 log σx + = h Y h E + 1 ( ) log 1 + σ x (5) dove abbiamo sfruttato il fatto che, essendo E e X indipendenti, si ha σ y = σ x + σ e. Il calcolo della capacità di canale richiede di scegliere X in modo massimizzare l informazione mutua (5); ma è evidente come (5) possa assumere valori arbitrariamente elevati, a patto di scegliere σ x sufficientemente grande. Commento 4.4 Cosa possiamo dedurre? Che possiamo trasmettere quantità di informazione arbitrariamente elevate per ogni uso del canale di Fig. 1a? Ebbene sì, ma d altronde il risultato non è così sorprendente come potrebbe sembrare... Supponiamo di avere un canale Gaussiano con σ e = 1 V e supponiamo di voler trasmettere, con errore trascurabile, 10 bit per uso del canale. Una possibile soluzione è associare al simbolo n {0,..., 10 1} un livello di tensione pari a n(10σ e ) = 10n V. Poiché la distanza tra un livello e il successivo è pari a 10 volte la deviazione standard del rumore, siamo sicuri che la probabilità di errore sarà trascurabile. Il difetto dello schema appena suggerito è però che la massima tensione necessaria è pari a 10 ( 10 1) = V, ossia, più di 10 kv... 8

9 Il punto è che sul canale Gaussiano possiamo trasmettere quanti bit per uso vogliamo, a patto di spendere abbastanza potenza. Si noti che nei casi analizzati in precedenza la potenza dell ingresso era automaticamente limitata dal fatto che l alfabeto di ingresso era finito. Nel caso di canale Gaussiano invece l alfabeto di ingresso è infinito e le potenze in gioco possono essere limitate. In un caso pratico non abbiamo a disposizione una quantità di potenza limitata P. Il nostro problema diventa quindi il problema di massimizzare (5) sotto il vincolo σx = P. Usando tale vincolo la (5) diventa I(X q ; Y q ) = h Y h E + 1 ( log 1 + P ) (6) Si osservi ora che l unico parametro su cui possiamo agire nella (6) è l entropia differenziale h Y dell uscita normalizzata. Si può dimostrare che h Y assume il suo valore massimo quando Y è Gaussiana. Poiché la somma di due variabili aleatorie Gaussiane indipendenti è ancora Gaussiana, è facile vedere che possiamo massimizzare l informazione mutua (6) scegliendo un ingresso Gaussiano. In tal caso si ha h Y = h E (poiché sia E che Y sono Gaussiane) e la (6) offre C = 1 ( log 1 + P ) (7) 9

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...

Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata

Dettagli

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione in virgola mobile

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione in virgola mobile Problemi connessi all utilizzo di un numero di bit limitato Abbiamo visto quali sono i vantaggi dell utilizzo della rappresentazione in complemento alla base: corrispondenza biunivoca fra rappresentazione

Dettagli

Parte 3. Rango e teorema di Rouché-Capelli

Parte 3. Rango e teorema di Rouché-Capelli Parte 3. Rango e teorema di Rouché-Capelli A. Savo Appunti del Corso di Geometria 203-4 Indice delle sezioni Rango di una matrice, 2 Teorema degli orlati, 3 3 Calcolo con l algoritmo di Gauss, 6 4 Matrici

Dettagli

Scheda n.5: variabili aleatorie e valori medi

Scheda n.5: variabili aleatorie e valori medi Scheda n.5: variabili aleatorie e valori medi October 26, 2008 1 Variabili aleatorie Per la definizione rigorosa di variabile aleatoria rimandiamo ai testi di probabilità; essa è non del tutto immediata

Dettagli

Parte 2. Determinante e matrice inversa

Parte 2. Determinante e matrice inversa Parte. Determinante e matrice inversa A. Savo Appunti del Corso di Geometria 013-14 Indice delle sezioni 1 Determinante di una matrice, 1 Teorema di Cramer (caso particolare), 3 3 Determinante di una matrice

Dettagli

Introduzione alla scienza della comunicazione (E. T. Jaynes)

Introduzione alla scienza della comunicazione (E. T. Jaynes) Introduzione alla scienza della comunicazione (E T Jaynes) S Bonaccorsi Department of Mathematics University of Trento Corso di Mathematical model for the Physical, Natural and Social Sciences Outline

Dettagli

Statistica e biometria. D. Bertacchi. Variabili aleatorie. V.a. discrete e continue. La densità di una v.a. discreta. Esempi.

Statistica e biometria. D. Bertacchi. Variabili aleatorie. V.a. discrete e continue. La densità di una v.a. discreta. Esempi. Iniziamo con definizione (capiremo fra poco la sua utilità): DEFINIZIONE DI VARIABILE ALEATORIA Una variabile aleatoria (in breve v.a.) X è funzione che ha come dominio Ω e come codominio R. In formule:

Dettagli

Premesse alla statistica

Premesse alla statistica Premesse alla statistica Versione 22.10.08 Premesse alla statistica 1 Insiemi e successioni I dati di origine sperimentale si presentano spesso non come singoli valori, ma come insiemi di valori. Richiamiamo

Dettagli

2) Codici univocamente decifrabili e codici a prefisso.

2) Codici univocamente decifrabili e codici a prefisso. Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il

Dettagli

Introduzione alla crittografia. Il crittosistema RSA e la sua sicurezza

Introduzione alla crittografia. Il crittosistema RSA e la sua sicurezza Introduzione alla crittografia. Il crittosistema RSA e la sua sicurezza Prof. Massimiliano Sala MINICORSI 2011. Crittografia a chiave pubblica: oltre RSA Università degli Studi di Trento, Lab di Matematica

Dettagli

Nota: Eventi meno probabili danno maggiore informazione

Nota: Eventi meno probabili danno maggiore informazione Entropia Informazione associata a valore x avente probabilitá p(x é i(x = log 2 p(x Nota: Eventi meno probabili danno maggiore informazione Entropia di v.c. X P : informazione media elementi di X H(X =

Dettagli

Fasi di creazione di un programma

Fasi di creazione di un programma Fasi di creazione di un programma 1. Studio Preliminare 2. Analisi del Sistema 6. Manutenzione e Test 3. Progettazione 5. Implementazione 4. Sviluppo 41 Sviluppo di programmi Per la costruzione di un programma

Dettagli

Introduzione. Margine di ampiezza... 2 Margine di fase... 5 Osservazione... 6 Margini di stabilità e diagrammi di Bode... 6

Introduzione. Margine di ampiezza... 2 Margine di fase... 5 Osservazione... 6 Margini di stabilità e diagrammi di Bode... 6 ppunti di Controlli utomatici Capitolo 7 parte II Margini di stabilità Introduzione... Margine di ampiezza... Margine di fase... 5 Osservazione... 6 Margini di stabilità e diagrammi di ode... 6 Introduzione

Dettagli

ESERCIZI DI ALGEBRA LINEARE E GEOMETRIA

ESERCIZI DI ALGEBRA LINEARE E GEOMETRIA ESERCIZI DI ALGEBRA LINEARE E GEOMETRIA Francesco Bottacin Padova, 24 febbraio 2012 Capitolo 1 Algebra Lineare 1.1 Spazi e sottospazi vettoriali Esercizio 1.1. Sia U il sottospazio di R 4 generato dai

Dettagli

Scelte in condizioni di rischio e incertezza

Scelte in condizioni di rischio e incertezza CAPITOLO 5 Scelte in condizioni di rischio e incertezza Esercizio 5.1. Tizio ha risparmiato nel corso dell anno 500 euro; può investirli in obbligazioni che rendono, in modo certo, il 10% oppure in azioni

Dettagli

VERIFICA DELLE IPOTESI

VERIFICA DELLE IPOTESI VERIFICA DELLE IPOTESI Introduzione Livelli di significatività Verifica di ipotesi sulla media di una popolazione normale Verifica di ipotesi sulla varianza di una popolazione normale Verifica di ipotesi

Dettagli

Codici Numerici. Modifica dell'informazione. Rappresentazione dei numeri.

Codici Numerici. Modifica dell'informazione. Rappresentazione dei numeri. Codici Numerici. Modifica dell'informazione. Rappresentazione dei numeri. A partire da questa lezione, ci occuperemo di come si riescono a codificare con sequenze binarie, quindi con sequenze di 0 e 1,

Dettagli

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Fondamenti di calcolo booleano

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Fondamenti di calcolo booleano Breve introduzione storica Nel 1854, il prof. Boole pubblica un trattato ormai famosissimo: Le leggi del pensiero. Obiettivo finale del trattato è di far nascere la matematica dell intelletto umano, un

Dettagli

11) convenzioni sulla rappresentazione grafica delle soluzioni

11) convenzioni sulla rappresentazione grafica delle soluzioni 2 PARAGRAFI TRATTATI 1)La funzione esponenziale 2) grafici della funzione esponenziale 3) proprietá delle potenze 4) i logaritmi 5) grafici della funzione logaritmica 6) principali proprietá dei logaritmi

Dettagli

Crittografia. Appunti a cura del prof. Ing. Mario Catalano

Crittografia. Appunti a cura del prof. Ing. Mario Catalano Crittografia Appunti a cura del prof. Ing. Mario Catalano La crittografia La crittografia è la scienza che studia la scrittura e la lettura di messaggi in codice. Solitamente, i meccanismi crittografici

Dettagli

Corso di Laurea in Ingegneria Informatica e Automatica (A-O) Università di Roma La Sapienza

Corso di Laurea in Ingegneria Informatica e Automatica (A-O) Università di Roma La Sapienza Corso di Laurea in Ingegneria Informatica e Automatica (A-O) Università di Roma La Sapienza CALCOLO DELLE PROBABILITÀ E STATISTICA ESAME DEL 17/2/215 NOME: COGNOME: MATRICOLA: Esercizio 1 Un sistema di

Dettagli

Master della filiera cereagricola. Impresa e mercati. Facoltà di Agraria Università di Teramo. Giovanni Di Bartolomeo Stefano Papa

Master della filiera cereagricola. Impresa e mercati. Facoltà di Agraria Università di Teramo. Giovanni Di Bartolomeo Stefano Papa Master della filiera cereagricola Giovanni Di Bartolomeo Stefano Papa Facoltà di Agraria Università di Teramo Impresa e mercati Parte prima L impresa L impresa e il suo problema economico L economia studia

Dettagli

Dimensione di uno Spazio vettoriale

Dimensione di uno Spazio vettoriale Capitolo 4 Dimensione di uno Spazio vettoriale 4.1 Introduzione Dedichiamo questo capitolo ad un concetto fondamentale in algebra lineare: la dimensione di uno spazio vettoriale. Daremo una definizione

Dettagli

Capitolo 20: Scelta Intertemporale

Capitolo 20: Scelta Intertemporale Capitolo 20: Scelta Intertemporale 20.1: Introduzione Gli elementi di teoria economica trattati finora possono essere applicati a vari contesti. Tra questi, due rivestono particolare importanza: la scelta

Dettagli

I punteggi zeta e la distribuzione normale

I punteggi zeta e la distribuzione normale QUINTA UNITA I punteggi zeta e la distribuzione normale I punteggi ottenuti attraverso una misurazione risultano di difficile interpretazione se presi in stessi. Affinché acquistino significato è necessario

Dettagli

PROGETTO LAUREE SCIENTIFICHE -MATEMATICA 2006/2007 Modelli Matematici per la Società Incontro del 15.02.07

PROGETTO LAUREE SCIENTIFICHE -MATEMATICA 2006/2007 Modelli Matematici per la Società Incontro del 15.02.07 PROGETTO LAUREE SCIENTIFICHE -MATEMATICA 2006/2007 Modelli Matematici per la Società Incontro del 15.02.07 CODICI MONOALFABETICI E ANALISI DELLE FREQUENZE (organizzata da Francesca Visentin) Riprendiamo

Dettagli

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Processi casuali A.A. 2007-08. Alberto Perotti, Roberto Garello

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Processi casuali A.A. 2007-08. Alberto Perotti, Roberto Garello Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Processi casuali A.A. 2007-08 Alberto Perotti, Roberto Garello DELEN-DAUIN Processi casuali Sono modelli probabilistici

Dettagli

CIRCUITI INTELLIGENTI Parte 5: PCA e ICA

CIRCUITI INTELLIGENTI Parte 5: PCA e ICA Ing. Simone SCARDAPANE Circuiti e Algoritmi per l Elaborazione dei Segnali Anno Accademico 2012/2013 Indice della Lezione 1. Analisi delle Componenti Principali 2. Auto-Associatori 3. Analisi delle Componenti

Dettagli

PROBLEMI DI SCELTA. Problemi di. Scelta. Modello Matematico. Effetti Differiti. A Carattere Continuo. A più variabili d azione (Programmazione

PROBLEMI DI SCELTA. Problemi di. Scelta. Modello Matematico. Effetti Differiti. A Carattere Continuo. A più variabili d azione (Programmazione 1 PROBLEMI DI SCELTA Problemi di Scelta Campo di Scelta Funzione Obiettivo Modello Matematico Scelte in condizioni di Certezza Scelte in condizioni di Incertezza Effetti Immediati Effetti Differiti Effetti

Dettagli

Analisi matriciale delle reti di Petri (P/T) - sifoni e trappole -

Analisi matriciale delle reti di Petri (P/T) - sifoni e trappole - Analisi matriciale delle reti di Petri (P/T) - sifoni e trappole - - richiami preliminari sulle proprietà strutturali - Abbiamo visto che alcune caratteristiche dei sistemi dinamici (DES compresi) non

Dettagli

Teoria dei Giochi non Cooperativi

Teoria dei Giochi non Cooperativi Politecnico di Milano Descrizione del gioco Egoismo Razionalità 1 L insieme dei giocatori 2 La situazione iniziale 3 Le sue possibili evoluzioni 4 I suoi esiti finali I Giochi della teoria Perché studiare

Dettagli

Richiami di teoria della probabilitá e Modelli Grafici

Richiami di teoria della probabilitá e Modelli Grafici Modelli di computazione affettiva e comportamentale Data: 23 Aprile 2010 Richiami di teoria della probabilitá e Modelli Grafici Docente: Prof. Giuseppe Boccignone Scriba: Matteo Battistini 1 Richiami di

Dettagli

4 3 4 = 4 x 10 2 + 3 x 10 1 + 4 x 10 0 aaa 10 2 10 1 10 0

4 3 4 = 4 x 10 2 + 3 x 10 1 + 4 x 10 0 aaa 10 2 10 1 10 0 Rappresentazione dei numeri I numeri che siamo abituati ad utilizzare sono espressi utilizzando il sistema di numerazione decimale, che si chiama così perché utilizza 0 cifre (0,,2,3,4,5,6,7,8,9). Si dice

Dettagli

Misure della dispersione o della variabilità

Misure della dispersione o della variabilità QUARTA UNITA Misure della dispersione o della variabilità Abbiamo visto che un punteggio di per sé non ha alcun significato e lo acquista solo quando è posto a confronto con altri punteggi o con una statistica.

Dettagli

Probabilità discreta

Probabilità discreta Probabilità discreta Daniele A. Gewurz 1 Che probabilità c è che succeda...? Una delle applicazioni della combinatoria è nel calcolo di probabilità discrete. Quando abbiamo a che fare con un fenomeno che

Dettagli

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione dell informazione negli elaboratori

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione dell informazione negli elaboratori Informazione e computer Si può rappresentare l informazione attraverso varie forme: Numeri Testi Suoni Immagini 0001010010100101010 Computer Cerchiamo di capire come tutte queste informazioni possano essere

Dettagli

RAPPRESENTAZIONE DEI NUMERI BINARI. Corso di Fondamenti di Informatica AA 2010-2011

RAPPRESENTAZIONE DEI NUMERI BINARI. Corso di Fondamenti di Informatica AA 2010-2011 RAPPRESENTAZIONE DEI NUMERI BINARI Corso di Fondamenti di Informatica AA 2010-2011 Prof. Franco Zambonelli Numeri interi positivi Numeri interi senza segno Caratteristiche generali numeri naturali (1,2,3,...)

Dettagli

Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B. Evento prodotto: Evento in cui si verifica sia A che B ; p(a&b) = p(a) x p(b/a)

Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B. Evento prodotto: Evento in cui si verifica sia A che B ; p(a&b) = p(a) x p(b/a) Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B Eventi indipendenti: un evento non influenza l altro Eventi disgiunti: il verificarsi di un evento esclude l altro Evento prodotto:

Dettagli

ESERCITAZIONE 1. 15 novembre 2012

ESERCITAZIONE 1. 15 novembre 2012 ESERCITAZIONE 1 Economia dell Informazione e dei Mercati Finanziari C.d.L. in Economia degli Intermediari e dei Mercati Finanziari (8 C.F.U.) C.d.L. in Statistica per le decisioni finanziarie ed attuariali

Dettagli

Obiettivi dell Analisi Numerica. Avviso. Risoluzione numerica di un modello. Analisi Numerica e Calcolo Scientifico

Obiettivi dell Analisi Numerica. Avviso. Risoluzione numerica di un modello. Analisi Numerica e Calcolo Scientifico M. Annunziato, DIPMAT Università di Salerno - Queste note non sono esaustive ai fini del corso p. 3/43 M. Annunziato, DIPMAT Università di Salerno - Queste note non sono esaustive ai fini del corso p.

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Calcolo Numerico Dott.ssa M.C. De Bonis Università degli Studi della Basilicata, Potenza Facoltà di Ingegneria Corso di Laurea in Ingegneria Meccanica Sistemi di Numerazione Sistema decimale La

Dettagli

Lezione 9: Cambio di base

Lezione 9: Cambio di base Lezione 9: Cambio di base In questa lezione vogliamo affrontare uno degli argomenti piu ostici per lo studente e cioè il cambio di base all interno di uno spazio vettoriale, inoltre cercheremo di capire

Dettagli

1 Serie di Taylor di una funzione

1 Serie di Taylor di una funzione Analisi Matematica 2 CORSO DI STUDI IN SMID CORSO DI ANALISI MATEMATICA 2 CAPITOLO 7 SERIE E POLINOMI DI TAYLOR Serie di Taylor di una funzione. Definizione di serie di Taylor Sia f(x) una funzione definita

Dettagli

1.5. ISTOGRAMMA 17. Figura 1.3: Istogramma ottenuto mediante campionamento da VA Gaussiana (η x =0, σ 2 X =1).

1.5. ISTOGRAMMA 17. Figura 1.3: Istogramma ottenuto mediante campionamento da VA Gaussiana (η x =0, σ 2 X =1). .5. ISTOGRAMMA 7.5 Istogramma A partire dalle considerazioni svolte nel paragrafo precedente, posto x m = min(x,,x N e x M = max(x,,x N, possiamo ottenere una stima della densità di probabilità p (x suddividendo

Dettagli

RISONANZA. Introduzione. Risonanza Serie.

RISONANZA. Introduzione. Risonanza Serie. RISONANZA Introduzione. Sia data una rete elettrica passiva, con elementi resistivi e reattivi, alimentata con un generatore di tensione sinusoidale a frequenza variabile. La tensione di alimentazione

Dettagli

3. TEORIA DELL INFORMAZIONE

3. TEORIA DELL INFORMAZIONE 3. TEORIA DELL INFORMAZIONE INTRODUZIONE MISURA DI INFORMAZIONE SORGENTE DISCRETA SENZA MEMORIA ENTROPIA DI UNA SORGENTE NUMERICA CODIFICA DI SORGENTE 1 TEOREMA DI SHANNON CODICI UNIVOCAMENTE DECIFRABILI

Dettagli

Introduzione. Rappresentazione di numeri in macchina, condizion

Introduzione. Rappresentazione di numeri in macchina, condizion Introduzione. Rappresentazione di numeri in macchina, condizionamento e stabilità Dipartimento di Matematica tel. 011 0907503 stefano.berrone@polito.it http://calvino.polito.it/~sberrone Laboratorio di

Dettagli

Utilizzo I mintermini si usano quando si considererà la funzione di uscita Q come Somma di Prodotti (S. P.) ossia OR di AND.

Utilizzo I mintermini si usano quando si considererà la funzione di uscita Q come Somma di Prodotti (S. P.) ossia OR di AND. IPSI G. Plana Via Parenzo 46, Torino efinizione di Mintermine onsiderata una qualunque riga della tabella di verità in cui la funzione booleana di uscita Q vale, si definisce mintermine il prodotto logico

Dettagli

Introduzione alla Teoria degli Errori

Introduzione alla Teoria degli Errori Introduzione alla Teoria degli Errori 1 Gli errori di misura sono inevitabili Una misura non ha significato se non viene accompagnata da una ragionevole stima dell errore ( Una scienza si dice esatta non

Dettagli

Parte 6. Applicazioni lineari

Parte 6. Applicazioni lineari Parte 6 Applicazioni lineari A Savo Appunti del Corso di Geometria 203-4 Indice delle sezioni Applicazioni fra insiemi, 2 Applicazioni lineari tra spazi vettoriali, 2 3 Applicazioni lineari da R n a R

Dettagli

16.3.1 Alberi binari di ricerca

16.3.1 Alberi binari di ricerca 442 CAPITOLO 16. STRUTTURE DI DATI DINAMICHE root 7 5 11 2 8 13 10 Figura 16.11 Esempio di albero binario: ogni nodo contiene il dato da immagazzinare e tre puntatori che definiscono le sue relazioni di

Dettagli

Interpretazione astratta

Interpretazione astratta Interpretazione astratta By Giulia Costantini (819048) e Giuseppe Maggiore (819050) Contents Interpretazione astratta... 2 Idea generale... 2 Esempio di semantica... 2 Semantica concreta... 2 Semantica

Dettagli

COME MASSIMIZZARE UNA FUNZIONE DI UTILITÀ

COME MASSIMIZZARE UNA FUNZIONE DI UTILITÀ icroeconomia Douglas Bernheim, ichael Whinston Copyright 009 The cgraw-hill Companies srl COE ASSIIZZARE UNA FUNZIONE DI UTILITÀ Supponiamo che il reddito mensile di Elena sia pari a Y e sia interamente

Dettagli

Rappresentazione dei numeri in un calcolatore

Rappresentazione dei numeri in un calcolatore Corso di Calcolatori Elettronici I A.A. 2010-2011 Rappresentazione dei numeri in un calcolatore Lezione 2 Università degli Studi di Napoli Federico II Facoltà di Ingegneria Rappresentazione dei numeri

Dettagli

Introduzione agli Algoritmi Genetici Prof. Beatrice Lazzerini

Introduzione agli Algoritmi Genetici Prof. Beatrice Lazzerini Introduzione agli Algoritmi Genetici Prof. Beatrice Lazzerini Dipartimento di Ingegneria della Informazione Via Diotisalvi, 2 56122 PISA ALGORITMI GENETICI (GA) Sono usati per risolvere problemi di ricerca

Dettagli

Dispense di Informatica per l ITG Valadier

Dispense di Informatica per l ITG Valadier La notazione binaria Dispense di Informatica per l ITG Valadier Le informazioni dentro il computer All interno di un calcolatore tutte le informazioni sono memorizzate sottoforma di lunghe sequenze di

Dettagli

09 - Funzioni reali di due variabili reali

09 - Funzioni reali di due variabili reali Università degli Studi di Palermo Facoltà di Economia CdS Sviluppo Economico e Cooperazione Internazionale Appunti del corso di Matematica 09 - Funzioni reali di due variabili reali Anno Accademico 2013/2014

Dettagli

Esercizio 1 Dato il gioco ({1, 2, 3}, v) con v funzione caratteristica tale che:

Esercizio 1 Dato il gioco ({1, 2, 3}, v) con v funzione caratteristica tale che: Teoria dei Giochi, Trento, 2004/05 c Fioravante Patrone 1 Teoria dei Giochi Corso di laurea specialistica: Decisioni economiche, impresa e responsabilità sociale, A.A. 2004/05 Soluzioni degli esercizi

Dettagli

LEZIONE n. 5 (a cura di Antonio Di Marco)

LEZIONE n. 5 (a cura di Antonio Di Marco) LEZIONE n. 5 (a cura di Antonio Di Marco) IL P-VALUE (α) Data un ipotesi nulla (H 0 ), questa la si può accettare o rifiutare in base al valore del p- value. In genere il suo valore è un numero molto piccolo,

Dettagli

Politecnico di Milano. Facoltà di Ingegneria Industriale. Corso di Analisi e Geometria 2. Sezione D-G. (Docente: Federico Lastaria).

Politecnico di Milano. Facoltà di Ingegneria Industriale. Corso di Analisi e Geometria 2. Sezione D-G. (Docente: Federico Lastaria). Politecnico di Milano. Facoltà di Ingegneria Industriale. Corso di Analisi e Geometria 2. Sezione D-G. (Docente: Federico Lastaria). Aprile 20 Indice Serie numeriche. Serie convergenti, divergenti, indeterminate.....................

Dettagli

E naturale chiedersi alcune cose sulla media campionaria x n

E naturale chiedersi alcune cose sulla media campionaria x n Supponiamo che un fabbricante stia introducendo un nuovo tipo di batteria per un automobile elettrica. La durata osservata x i delle i-esima batteria è la realizzazione (valore assunto) di una variabile

Dettagli

LE FIBRE DI UNA APPLICAZIONE LINEARE

LE FIBRE DI UNA APPLICAZIONE LINEARE LE FIBRE DI UNA APPLICAZIONE LINEARE Sia f:a B una funzione tra due insiemi. Se y appartiene all immagine di f si chiama fibra di f sopra y l insieme f -1 y) ossia l insieme di tutte le controimmagini

Dettagli

Alcune nozioni preliminari di teoria elementare di insiemi e funzioni

Alcune nozioni preliminari di teoria elementare di insiemi e funzioni Alcune nozioni preliminari di teoria elementare di insiemi e funzioni Alberto Pinto Corso di Matematica - NUCT 1 Insiemi 1.1 Generalità Diamo la definizione di insieme secondo Georg Cantor, matematico

Dettagli

La variabile casuale Binomiale

La variabile casuale Binomiale La variabile casuale Binomiale Si costruisce a partire dalla nozione di esperimento casuale Bernoulliano che consiste in un insieme di prove ripetute con le seguenti caratteristiche: i) ad ogni singola

Dettagli

I SISTEMI DI NUMERAZIONE

I SISTEMI DI NUMERAZIONE ISTITUTO DI ISTRUZIONE SUPERIORE G. M. ANGIOY CARBONIA I SISTEMI DI NUMERAZIONE Prof. G. Ciaschetti Fin dall antichità, l uomo ha avuto il bisogno di rappresentare le quantità in modo simbolico. Sono nati

Dettagli

La logica statistica della verifica (test) delle ipotesi

La logica statistica della verifica (test) delle ipotesi La logica statistica della verifica (test) delle ipotesi Come posso confrontare diverse ipotesi? Nella statistica inferenziale classica vengono sempre confrontate due ipotesi: l ipotesi nulla e l ipotesi

Dettagli

Accuratezza di uno strumento

Accuratezza di uno strumento Accuratezza di uno strumento Come abbiamo già accennato la volta scora, il risultato della misurazione di una grandezza fisica, qualsiasi sia lo strumento utilizzato, non è mai un valore numerico X univocamente

Dettagli

Serie numeriche. 1 Definizioni e proprietà elementari

Serie numeriche. 1 Definizioni e proprietà elementari Serie numeriche Definizioni e proprietà elementari Sia { } una successione, definita per ogni numero naturale n n. Per ogni n n, consideriamo la somma s n degli elementi della successione di posto d s

Dettagli

Informatica. Rappresentazione dei numeri Numerazione binaria

Informatica. Rappresentazione dei numeri Numerazione binaria Informatica Rappresentazione dei numeri Numerazione binaria Sistemi di numerazione Non posizionali: numerazione romana Posizionali: viene associato un peso a ciascuna posizione all interno della rappresentazione

Dettagli

La Massimizzazione del profitto

La Massimizzazione del profitto La Massimizzazione del profitto Studio del comportamento dell impresa, soggetto a vincoli quando si compiono scelte. Ora vedremo un modello per analizzare le scelte di quantità prodotta e come produrla.

Dettagli

Scambio delle chiavi. mercoledì 7 dicembre 2011

Scambio delle chiavi. mercoledì 7 dicembre 2011 Scambio delle chiavi 1 mercoledì 7 dicembre 2011 Distribuzione della chiave Dati due terminali A e B, si possono avere varie alternative per la distribuzione delle chiavi. 1. A sceglie una chiave e la

Dettagli

SISTEMI DI NUMERAZIONE E CODICI

SISTEMI DI NUMERAZIONE E CODICI SISTEMI DI NUMERAZIONE E CODICI Il Sistema di Numerazione Decimale Il sistema decimale o sistema di numerazione a base dieci usa dieci cifre, dette cifre decimali, da O a 9. Il sistema decimale è un sistema

Dettagli

Segnali e Sistemi. Dispensa integrativa per l insegnamento di Elementi di Controlli Automatici. Gianni Borghesan e Giovanni Marro

Segnali e Sistemi. Dispensa integrativa per l insegnamento di Elementi di Controlli Automatici. Gianni Borghesan e Giovanni Marro Segnali e Sistemi Dispensa integrativa per l insegnamento di Elementi di Controlli Automatici Gianni Borghesan e Giovanni Marro Indice Introduzione 2. Notazione............................. 2 2 Classificazione

Dettagli

Introduzione all analisi dei segnali digitali.

Introduzione all analisi dei segnali digitali. Introduzione all analisi dei segnali digitali. Lezioni per il corso di Laboratorio di Fisica IV Isidoro Ferrante A.A. 2001/2002 1 Segnali analogici Si dice segnale la variazione di una qualsiasi grandezza

Dettagli

PROBABILITÀ - SCHEDA N. 2 LE VARIABILI ALEATORIE

PROBABILITÀ - SCHEDA N. 2 LE VARIABILI ALEATORIE Matematica e statistica: dai dati ai modelli alle scelte www.dima.unige/pls_statistica Responsabili scientifici M.P. Rogantin e E. Sasso (Dipartimento di Matematica Università di Genova) PROBABILITÀ -

Dettagli

0.6 Filtro di smoothing Gaussiano

0.6 Filtro di smoothing Gaussiano 2 Figura 7: Filtro trapezoidale passa basso. In questo filtro l rappresenta la frequenza di taglio ed l, l rappresenta un intervallo della frequenza con variazione lineare di H, utile ad evitare le brusche

Dettagli

Capitolo 9: PROPAGAZIONE DEGLI ERRORI

Capitolo 9: PROPAGAZIONE DEGLI ERRORI Capitolo 9: PROPAGAZIOE DEGLI ERRORI 9.1 Propagazione degli errori massimi ella maggior parte dei casi le grandezze fisiche vengono misurate per via indiretta. Il valore della grandezza viene cioè dedotto

Dettagli

Codifiche a lunghezza variabile

Codifiche a lunghezza variabile Sistemi Multimediali Codifiche a lunghezza variabile Marco Gribaudo marcog@di.unito.it, gribaudo@elet.polimi.it Assegnazione del codice Come visto in precedenza, per poter memorizzare o trasmettere un

Dettagli

La scelta in condizioni di incertezza

La scelta in condizioni di incertezza La scelta in condizioni di incertezza 1 Stati di natura e utilità attesa. L approccio delle preferenza per gli stati Il problema posto dall incertezza riformulato (state-preference approach). L individuo

Dettagli

LEZIONE 14. a 1,1 v 1 + a 1,2 v 2 + a 1,3 v 3 + + a 1,n 1 v n 1 + a 1,n v n = w 1

LEZIONE 14. a 1,1 v 1 + a 1,2 v 2 + a 1,3 v 3 + + a 1,n 1 v n 1 + a 1,n v n = w 1 LEZIONE 14 141 Dimensione di uno spazio vettoriale Abbiamo visto come l esistenza di una base in uno spazio vettoriale V su k = R, C, permetta di sostituire a V, che può essere complicato da trattare,

Dettagli

Analisi 2. Argomenti. Raffaele D. Facendola

Analisi 2. Argomenti. Raffaele D. Facendola Analisi 2 Argomenti Successioni di funzioni Definizione Convergenza puntuale Proprietà della convergenza puntuale Convergenza uniforme Continuità e limitatezza Teorema della continuità del limite Teorema

Dettagli

Università di Napoli Parthenope Facoltà di Ingegneria

Università di Napoli Parthenope Facoltà di Ingegneria Università di Napoli Parthenope Facoltà di Ingegneria Corso di rasmissione Numerica docente: Prof. Vito Pascazio 18 a Lezione: 13/1/4 19 a Lezione: 14/1/4 Sommario rasmissione di segnali PM numerici su

Dettagli

Note su quicksort per ASD 2010-11 (DRAFT)

Note su quicksort per ASD 2010-11 (DRAFT) Note su quicksort per ASD 010-11 (DRAFT) Nicola Rebagliati 7 dicembre 010 1 Quicksort L algoritmo di quicksort è uno degli algoritmi più veloci in pratica per il riordinamento basato su confronti. L idea

Dettagli

La dualità nella Programmazione Lineare

La dualità nella Programmazione Lineare Capitolo 5 La dualità nella Programmazione Lineare In questo capitolo verrà introdotto un concetto di fondamentale importanza sia per l analisi dei problemi di Programmazione Lineare, sia per lo sviluppo

Dettagli

Economia Applicata ai sistemi produttivi. 06.05.05 Lezione II Maria Luisa Venuta 1

Economia Applicata ai sistemi produttivi. 06.05.05 Lezione II Maria Luisa Venuta 1 Economia Applicata ai sistemi produttivi 06.05.05 Lezione II Maria Luisa Venuta 1 Schema della lezione di oggi Argomento della lezione: il comportamento del consumatore. Gli economisti assumono che il

Dettagli

i=1 Y i, dove Y i, i = 1,, n sono indipendenti e somiglianti e con la stessa distribuzione di Y.

i=1 Y i, dove Y i, i = 1,, n sono indipendenti e somiglianti e con la stessa distribuzione di Y. Lezione n. 5 5.1 Grafici e distribuzioni Esempio 5.1 Legame tra Weibull ed esponenziale; TLC per v.a. esponenziali Supponiamo che X Weibull(α, β). (i) Si consideri la distribuzione di Y = X β. (ii) Fissato

Dettagli

Corso di Automazione Industriale 1. Capitolo 4

Corso di Automazione Industriale 1. Capitolo 4 Simona Sacone - DIST Corso di Automazione Corso Industriale di 1 Automazione Industriale 1 Capitolo 4 Analisi delle prestazioni tramite l approccio simulativo Aspetti statistici della simulazione: generazione

Dettagli

EQUAZIONI E DISEQUAZIONI POLINOMIALI E COLLEGAMENTI CON LA GEOMETRIA ELEMENTARE

EQUAZIONI E DISEQUAZIONI POLINOMIALI E COLLEGAMENTI CON LA GEOMETRIA ELEMENTARE EQUAZIONI E DISEQUAZIONI POLINOMIALI E COLLEGAMENTI CON LA GEOMETRIA ELEMENTARE 1. EQUAZIONI Definizione: un equazione è un uguaglianza tra due espressioni letterali (cioè in cui compaiono numeri, lettere

Dettagli

LE SUCCESSIONI 1. COS E UNA SUCCESSIONE

LE SUCCESSIONI 1. COS E UNA SUCCESSIONE LE SUCCESSIONI 1. COS E UNA SUCCESSIONE La sequenza costituisce un esempio di SUCCESSIONE. Ecco un altro esempio di successione: Una successione è dunque una sequenza infinita di numeri reali (ma potrebbe

Dettagli

Modellistica e controllo dei motori in corrente continua

Modellistica e controllo dei motori in corrente continua Modellistica e controllo dei motori in corrente continua Note per le lezioni del corso di Controlli Automatici A.A. 2008/09 Prof.ssa Maria Elena Valcher 1 Modellistica Un motore in corrente continua si

Dettagli

Introduzione. Consideriamo la classica caratteristica corrente-tensione di un diodo pn reale: I D. V γ

Introduzione. Consideriamo la classica caratteristica corrente-tensione di un diodo pn reale: I D. V γ Appunti di Elettronica Capitolo 3 Parte II Circuiti limitatori di tensione a diodi Introduzione... 1 Caratteristica di trasferimento di un circuito limitatore di tensione... 2 Osservazione... 5 Impiego

Dettagli

Stima per intervalli Nei metodi di stima puntuale è sempre presente un ^ errore θ θ dovuto al fatto che la stima di θ in genere non coincide con il parametro θ. Sorge quindi l esigenza di determinare una

Dettagli

La categoria «ES» presenta (di solito) gli stessi comandi

La categoria «ES» presenta (di solito) gli stessi comandi Utilizzo delle calcolatrici FX 991 ES+ Parte II PARMA, 11 Marzo 2014 Prof. Francesco Bologna bolfra@gmail.com ARGOMENTI DELLA LEZIONE 1. Richiami lezione precedente 2.Calcolo delle statistiche di regressione:

Dettagli

13. Campi vettoriali

13. Campi vettoriali 13. Campi vettoriali 1 Il campo di velocità di un fluido Il concetto di campo in fisica non è limitato ai fenomeni elettrici. In generale il valore di una grandezza fisica assegnato per ogni punto dello

Dettagli

I SISTEMI DI NUMERAZIONE

I SISTEMI DI NUMERAZIONE Istituto di Istruzione Superiore G. Curcio Ispica I SISTEMI DI NUMERAZIONE Prof. Angelo Carpenzano Dispensa di Informatica per il Liceo Scientifico opzione Scienze Applicate Sommario Sommario... I numeri...

Dettagli

La Minimizzazione dei costi

La Minimizzazione dei costi La Minimizzazione dei costi Il nostro obiettivo è lo studio del comportamento di un impresa che massimizza il profitto sia in mercati concorrenziali che non concorrenziali. Ora vedremo la fase della minimizzazione

Dettagli

PROBABILITA, VALORE ATTESO E VARIANZA DELLE QUANTITÁ ALEATORIE E LORO RELAZIONE CON I DATI OSSERVATI

PROBABILITA, VALORE ATTESO E VARIANZA DELLE QUANTITÁ ALEATORIE E LORO RELAZIONE CON I DATI OSSERVATI statistica, Università Cattaneo-Liuc, AA 006-007, lezione del 08.05.07 IDICE (lezione 08.05.07 PROBABILITA, VALORE ATTESO E VARIAZA DELLE QUATITÁ ALEATORIE E LORO RELAZIOE CO I DATI OSSERVATI 3.1 Valore

Dettagli

Caratterizzazione dei segnali aleatori nel dominio della frequenza

Caratterizzazione dei segnali aleatori nel dominio della frequenza Capitolo 5 Caratterizzazione dei segnali aleatori nel dominio della frequenza 5. Introduzione In questo capitolo affrontiamo lo studio dei segnali aleatori nel dominio della frequenza. Prendiamo come esempio

Dettagli

Statistiche campionarie

Statistiche campionarie Statistiche campionarie Sul campione si possono calcolare le statistiche campionarie (come media campionaria, mediana campionaria, varianza campionaria,.) Le statistiche campionarie sono stimatori delle

Dettagli

SOMMARIO. 13.1 I radicali pag. 3. 13.2 I radicali aritmetici pag. 5. 13.3 Moltiplicazione e divisione fra radicali aritmetici pag.

SOMMARIO. 13.1 I radicali pag. 3. 13.2 I radicali aritmetici pag. 5. 13.3 Moltiplicazione e divisione fra radicali aritmetici pag. SOMMARIO CAPITOLO : I RADICALI. I radicali pag.. I radicali aritmetici pag.. Moltiplicazione e divisione fra radicali aritmetici pag.. Potenza di un radicale aritmetico pag.. Trasporto di un fattore esterno

Dettagli