Introduzione alla scienza della comunicazione (E. T. Jaynes)
|
|
|
- Simone Salvadori
- 10 anni fa
- Просмотров:
Транскрипт
1 Introduzione alla scienza della comunicazione (E T Jaynes) S Bonaccorsi Department of Mathematics University of Trento Corso di Mathematical model for the Physical, Natural and Social Sciences
2 Outline 1 Introduzione 2 Un canale senza rumore 3 La sorgente di informazioni 4 Entropia 5 Codifica ottimale 6 Un canale con rumore
3 Origini della teoria La scienza della comunicazione ha una data di nascita precisa, identificata nel lavoro di Shannon del 1948
4 Origini della teoria Claude Shannon Nel 1948 pubblicò in due parti il saggio Una teoria matematica della comunicazione, in cui si concentrava sul problema di ricostruire, con un certo grado di certezza, le informazioni trasmesse da un mittente Shannon utilizzò strumenti quali l analisi casuale e le grandi deviazioni, che in quegli anni si stavano appena sviluppando Fu in questa ricerca che Shannon coniò la parola bit, per designare l unità elementare d informazione La sua teoria dell informazione pose le basi per progettare i sistemi informatici Come tutte le teorie scientifiche importanti, ha avuto dei precursori I precursori Il lavoro di Shannon si basa e riorganizza in maniera sistematica le ricerche di Gibbs, Nyquist, Hartley, Szilard, von Neumann e Wiener
5 Origini della teoria Claude Shannon Nel 1948 pubblicò in due parti il saggio Una teoria matematica della comunicazione, in cui si concentrava sul problema di ricostruire, con un certo grado di certezza, le informazioni trasmesse da un mittente Shannon utilizzò strumenti quali l analisi casuale e le grandi deviazioni, che in quegli anni si stavano appena sviluppando Fu in questa ricerca che Shannon coniò la parola bit, per designare l unità elementare d informazione La sua teoria dell informazione pose le basi per progettare i sistemi informatici Come tutte le teorie scientifiche importanti, ha avuto dei precursori I precursori Il lavoro di Shannon si basa e riorganizza in maniera sistematica le ricerche di Gibbs, Nyquist, Hartley, Szilard, von Neumann e Wiener
6 Canali, messaggi, trasmissioni Iniziamo con la trasmissione di un segnale da un trasmettitore a un ricevitore Parleremo spesso in termini antropomorfi (la persona che invia il messaggio, chi lo riceve) ma ovviamente uno o entrambi potrebbero essere macchine La trasmissione avviene tramite un canale Se il messaggio ricevuto determina in maniera univoca il messaggio inviato allora diremo che il canale è senza rumore
7 Canali, messaggi, trasmissioni Già Nyquist e Hartley compresero che non era il messaggio in sé, ma la varietà di possibili messaggi, a determinare l utilità di un canale di trasmissione: un canale è tanto più utile quanto più è in grado di inviare messaggi diversi Indichiamo con W (t) il numero di messaggi diversi che avrebbero potuto essere inviati in un tempo t W (t) è un numero che cresce in maniera esponenziale, W (t) exp(c t): Esempio: alfabeto binario tempo: possibili messaggi: t = 1 0, 1 t = 2 00, 01, 10, 11 t = 3 000, 001,, 111
8 Canali, messaggi, trasmissioni Definizione La capacità di un canale di trasmissione è l esponente che determina il comportamento di W (t): 1 C = lim log W (t) t t L unità di misura di C è il bit, se il logaritmo è preso in base 2, oppure il nit se prendiamo logaritmi in base naturale Example Un canale di trasmissione che invia n segnali al secondo presi da un alfabeto che contiene a simboli ha la potenzialità di inviare W (t) = a n t messaggi in un tempo t e una capacità C = n log 2 (a) (espressa in bit/sec)
9 Canali, messaggi, trasmissioni Definizione La capacità di un canale di trasmissione è l esponente che determina il comportamento di W (t): 1 C = lim log W (t) t t L unità di misura di C è il bit, se il logaritmo è preso in base 2, oppure il nit se prendiamo logaritmi in base naturale Example Un canale di trasmissione che invia n segnali al secondo presi da un alfabeto che contiene a simboli ha la potenzialità di inviare W (t) = a n t messaggi in un tempo t e una capacità C = n log 2 (a) (espressa in bit/sec)
10 Canale di trasmissione con vincolo di frequenza Supponiamo di imporre un vincolo ai messaggi inviati, richiedendo una frequenza f i al simbolo A i ( i f i = 1) Allora il numero di possibili N! messaggi di lunghezza N = n t è W (t) = e si ottiene (N f 1 )! (N f a )! (formula di Stirling) C = n f i log(f i ) in nits/sec i Se imponiamo una distribuzione uniforme ai vari simboli, otterremo che C = n log(a), ossia la stessa capacità del canale senza vincoli Se vincoliamo un canale a trasmettere tutti i simboli con uguale frequenza, non diminuiamo la sua capacità Possiamo anche leggere la cosa da un altro punto di vista: in un canale, la gran parte dei messaggi possibili hanno una frequenza uniforme di presenza delle varie lettere
11 Canale di trasmissione con vincolo di frequenza Supponiamo di imporre un vincolo ai messaggi inviati, richiedendo una frequenza f i al simbolo A i ( i f i = 1) Allora il numero di possibili N! messaggi di lunghezza N = n t è W (t) = e si ottiene (N f 1 )! (N f a )! (formula di Stirling) C = n f i log(f i ) in nits/sec i Se imponiamo una distribuzione uniforme ai vari simboli, otterremo che C = n log(a), ossia la stessa capacità del canale senza vincoli Se vincoliamo un canale a trasmettere tutti i simboli con uguale frequenza, non diminuiamo la sua capacità Possiamo anche leggere la cosa da un altro punto di vista: in un canale, la gran parte dei messaggi possibili hanno una frequenza uniforme di presenza delle varie lettere
12 Canale di trasmissione con vincolo di tempo Supponiamo che ad ogni simbolo A i sia associato un tempo di trasmissione t i In questo caso, i dettagli del calcolo della capacità C sono più complicati; il risultato, invece, si può esprimere molto semplicemente Theorem Per calcolare la capacità di un canale in cui ogni simbolo A i ha tempo di trasmissione t i e non vi sono altri vincoli sui possibili messaggi, definita la funzione di partizione Z (λ) = i exp( λ t i), si ottiene la capacità C come la radice reale dell equazione Z (λ) = 1 La quantità W (t) si massimizza scegliendo la distribuzione di frequenze canonica, ossia f i = exp( C t i ) Questo non vuol dire che il canale è più efficiente nel trasmettere messaggi codificati in questo modo (nella pratica, il canale trasmette sempre e solo un messaggio per volta) Invece, lo interpretiamo dicendo che la gran parte dei potenziali messaggi che potrebbero essere inviati in un tempo t nel canale verificano la distribuzione canonica delle frequenze relative dei simboli
13 La sorgente di informazioni Abbiamo visto che in un canale con vincolo sui tempi, la maggior parte dei messaggi che il canale può inviare ha una distribuzione di frequenze canonica: f i = exp( C t i ) In un sistema di comunicazione, in realtà, si lavora in senso opposto: se è nota la frequenza dei vari simboli, si sceglieranno i tempi di invio dei simboli in accordo con la formula precedente, in modo da rendere massima la capacità del canale Il codice Morse Il codice Morse è una forma di alfabeto che viene usata in un canale di trasmissione binario; tuttavia, a differenza dei moderni codici binari che usano solo due stati (comunemente rappresentati con 0 e 1), il Morse ne usa cinque: punto ( ), linea ( ), intervallo breve (tra ogni lettera), intervallo medio (tra parole) e intervallo lungo (tra frasi) Il costo di un messaggio telegrafato dipendeva dalla sua lunghezza, per questo vennero scegli codici brevi per i simboli frequentemente usati (E =, T = ) e codici lunghi per i simboli meno frequenti Q = )
14 La sorgente di informazione in termini probabilistici Fu N Wiener a suggerire che la sorgente di informazioni dovesse essere descritta in termini probabilistici: associare ad un possibile messaggio M k la sua probabilità p k
15 La sorgente di informazione in termini probabilistici Probabilità per chi? Da un punto di vista concettuale, è difficile comprendere questo passo Chi invia il messaggio sa che cosa vuole inviare; non è qui la sorgente di incertezza Il messaggio inviato è unico ; non ha senso parlare di probabilità come frequenza (pensate ad esempio ad un canale di trasmissione che si distruggerà dopo aver inviato un unico messaggio) Chi riceve il messaggio non sa che cosa riceverà Qui vi è incertezza Tuttavia, questa mancanza di conoscenza non è legata al canale, né può servire a costruire il canale di trasmissione stesso (che esiste indipendentemente, in qualche senso, dal fatto che qualcuno riceva il messaggio) La risposta che Jaynes dà al problema è più semplice: l incertezza di cui parla Shannon è di chi disegna il canale di trasmissione
16 La sorgente di informazione in termini probabilistici Probabilità per chi? Da un punto di vista concettuale, è difficile comprendere questo passo Chi invia il messaggio sa che cosa vuole inviare; non è qui la sorgente di incertezza Il messaggio inviato è unico ; non ha senso parlare di probabilità come frequenza (pensate ad esempio ad un canale di trasmissione che si distruggerà dopo aver inviato un unico messaggio) Chi riceve il messaggio non sa che cosa riceverà Qui vi è incertezza Tuttavia, questa mancanza di conoscenza non è legata al canale, né può servire a costruire il canale di trasmissione stesso (che esiste indipendentemente, in qualche senso, dal fatto che qualcuno riceva il messaggio) La risposta che Jaynes dà al problema è più semplice: l incertezza di cui parla Shannon è di chi disegna il canale di trasmissione
17 La sorgente di informazione in termini probabilistici Probabilità per chi? Da un punto di vista concettuale, è difficile comprendere questo passo Chi invia il messaggio sa che cosa vuole inviare; non è qui la sorgente di incertezza Il messaggio inviato è unico ; non ha senso parlare di probabilità come frequenza (pensate ad esempio ad un canale di trasmissione che si distruggerà dopo aver inviato un unico messaggio) Chi riceve il messaggio non sa che cosa riceverà Qui vi è incertezza Tuttavia, questa mancanza di conoscenza non è legata al canale, né può servire a costruire il canale di trasmissione stesso (che esiste indipendentemente, in qualche senso, dal fatto che qualcuno riceva il messaggio) La risposta che Jaynes dà al problema è più semplice: l incertezza di cui parla Shannon è di chi disegna il canale di trasmissione
18 La sorgente di informazione in termini probabilistici Probabilità per chi? Da un punto di vista concettuale, è difficile comprendere questo passo Chi invia il messaggio sa che cosa vuole inviare; non è qui la sorgente di incertezza Il messaggio inviato è unico ; non ha senso parlare di probabilità come frequenza (pensate ad esempio ad un canale di trasmissione che si distruggerà dopo aver inviato un unico messaggio) Chi riceve il messaggio non sa che cosa riceverà Qui vi è incertezza Tuttavia, questa mancanza di conoscenza non è legata al canale, né può servire a costruire il canale di trasmissione stesso (che esiste indipendentemente, in qualche senso, dal fatto che qualcuno riceva il messaggio) La risposta che Jaynes dà al problema è più semplice: l incertezza di cui parla Shannon è di chi disegna il canale di trasmissione
19 La sorgente di informazione in termini probabilistici Probabilità per chi? Da un punto di vista concettuale, è difficile comprendere questo passo Chi invia il messaggio sa che cosa vuole inviare; non è qui la sorgente di incertezza Il messaggio inviato è unico ; non ha senso parlare di probabilità come frequenza (pensate ad esempio ad un canale di trasmissione che si distruggerà dopo aver inviato un unico messaggio) Chi riceve il messaggio non sa che cosa riceverà Qui vi è incertezza Tuttavia, questa mancanza di conoscenza non è legata al canale, né può servire a costruire il canale di trasmissione stesso (che esiste indipendentemente, in qualche senso, dal fatto che qualcuno riceva il messaggio) La risposta che Jaynes dà al problema è più semplice: l incertezza di cui parla Shannon è di chi disegna il canale di trasmissione
20 Le probabilità a priori Come può, allora, un ingegnere determinare la distribuzione a priori p k del messaggio M k? Nella scienza delle comunicazioni classica, l unico tipo di conoscenza a priori a disposizione dell ingegnere è statistica anche perché questa è l unica che possa essere trattata correttamente dalla matematica Conclusione Il tipico problema che deve essere affrontato risulta, allora, quello di costruire un sistema di codifica e di invio di messaggi, su un canale affidabile, in cui i simboli trasmessi rappresentano un testo scritto, in modo da rendere massima la velocità di trasmissione del messaggio
21 Entropia Entropia Nella teoria dell informazione - e in rapporto alla teoria dei segnali - l entropia misura la quantità di incertezza o informazione presente in un segnale aleatorio Per definire l entropia, iniziamo a fissare la nozione di informazione Diremo che l informazione veicolata dall accadere di un evento ha il signoficato tecnico di misura della sorpresa veicolata dall evento L informazione, nel senso della teoria delle comunicazioni, è tanto maggiore quanto meno l evento era atteso L informazione I(A) di un evento A sarà la funzione I(A) = log 2 (P(A)), A Ω
22 Entropia Entropia Nella teoria dell informazione - e in rapporto alla teoria dei segnali - l entropia misura la quantità di incertezza o informazione presente in un segnale aleatorio Per definire l entropia, iniziamo a fissare la nozione di informazione Diremo che l informazione veicolata dall accadere di un evento ha il signoficato tecnico di misura della sorpresa veicolata dall evento L informazione, nel senso della teoria delle comunicazioni, è tanto maggiore quanto meno l evento era atteso L informazione I(A) di un evento A sarà la funzione I(A) = log 2 (P(A)), A Ω Se un evento è certo: P(A) = 1, allora l informazione veicolata da A è nulla: I(A) = 0 Se un evento è impossibile: P(B) = 0, allora I(B) = + che interpretiamo dicendo che non è possibile ottenere informazione da un evento impossibile
23 Entropia Entropia Nella teoria dell informazione - e in rapporto alla teoria dei segnali - l entropia misura la quantità di incertezza o informazione presente in un segnale aleatorio Per definire l entropia, iniziamo a fissare la nozione di informazione Diremo che l informazione veicolata dall accadere di un evento ha il signoficato tecnico di misura della sorpresa veicolata dall evento L informazione, nel senso della teoria delle comunicazioni, è tanto maggiore quanto meno l evento era atteso L informazione I(A) di un evento A sarà la funzione I(A) = log 2 (P(A)), A Ω L entropia di una variabile aleatoria X è la media dell informazione I(x i ) dei possibili valori della variabile stessa: H(X) = i p i log 2 (p i ), p i = P(X = x i )
24 Entropia Iniziamo dal caso del lancio di una moneta (X ha una distribuzione di Bernoulli; il suo vettore di probabilità è π = (x, 1 x) con 0 x 1) L entropia è H(X) = h(x) = x log(x) (1 x) log(1 x) H(X) e la scriviamo come una funzione della probabilità x di ottenere un successo La funzione h(x) si annulla agli estremi ed è massima al centro; in altre parole: l incertezza è nulla in corrispondenza alle situazioni in cui il risultato dell esperimento è determinato già a priori, ed è massima quando gli esiti a priori possibili sono equiprobabili, e non si sa davvero che pesci pigliare : Pr(X = 1) l entropia è una misura dell incertezza
25 Entropia Può sembrare strano che si usi una media per determinare l incertezza di una variabile aleatoria Il punto è capire che l incertezza è informazione potenziale mentre, a posteriori, sapere l esito dell esperimento aumenta l informazione e diminuisce l incertezza Theorem Se Ω è un alfabeto con a simboli, 0 H(X) log(a) con H(X) = 0 se e solo se X è deterministica (assume uno dei suoi valori con probabilità 1), H(X) = log(a) se e solo se X ha una distribuzione uniforme
26 Codifica di messaggi con frequenza di simboli nota Ritorniamo al nostro ingegnere alle prese con la scelta della distribuzione a priori sullo spazio dei messaggi Supponiamo di avere a disposizione le frequenze relative dei simboli A i osservate nel passato Se non abbiamo a disposizione altre informazioni, potremo ritenere che queste frequenze si conserveranno anche in futuro Allora, cercheremo una distribuzione di probabilità P sullo spazio dei messaggi che ci porti ad avere le frequenze attese uguali a quelle osservate nel passato Dopo alcuni passaggi si ottiene che la distribuzione da scegliere è data da P(M) = f N 1 1 f N 2 2 fa Na dove N 1,, N a sono le quantità dei simboli A 1,, A a rispettivamente presenti nel messaggio M
27 Codifica di messaggi con frequenza di simboli nota Ritorniamo al nostro ingegnere alle prese con la scelta della distribuzione a priori sullo spazio dei messaggi Supponiamo di avere a disposizione le frequenze relative dei simboli A i osservate nel passato Se non abbiamo a disposizione altre informazioni, potremo ritenere che queste frequenze si conserveranno anche in futuro Allora, cercheremo una distribuzione di probabilità P sullo spazio dei messaggi che ci porti ad avere le frequenze attese uguali a quelle osservate nel passato Dopo alcuni passaggi si ottiene che la distribuzione da scegliere è data da P(M) = f N 1 1 f N 2 2 fa Na dove N 1,, N a sono le quantità dei simboli A 1,, A a rispettivamente presenti nel messaggio M
28 Codifica efficiente Avendo trovato le probabilità P(M), il nostro ingegnere può tradurre il messaggio in codice binario con un efficiente algoritmo messo a punto dallo stesso Shannon (1948) e, indipendentemente, da R M Fano Il codice di Shannon-Fano è un codice prefisso, ossia ha la proprietà che nessuna codifica valida è il prefisso (parte iniziale) di un altra codifica valida del sistema Questo codice è subottimale nel senso che, in genere, la sua codifica non ha la migliore possibile lunghezza attesa delle parole codici; da un punto di vista pratico, è stato sostituito dal codice di Huffman e poi da codifiche più complesse
29 Codifica efficiente Avendo trovato le probabilità P(M), il nostro ingegnere può tradurre il messaggio in codice binario con un efficiente algoritmo messo a punto dallo stesso Shannon (1948) e, indipendentemente, da R M Fano Diamo un esempio in un caso in cui la codifica del codice di Shannon-Fano non è ottimale Si inizia elencando i messaggi possibili in ordine decrescente di probabilità: Messaggi: probabilità: A 0,39 B 0,18 C 0,16 D 0,15 E 0,12
30 Codifica efficiente Avendo trovato le probabilità P(M), il nostro ingegnere può tradurre il messaggio in codice binario con un efficiente algoritmo messo a punto dallo stesso Shannon (1948) e, indipendentemente, da R M Fano Se separano in due classi, in modo che le probabilità delle due classi siano circa uguali: Classi di messaggi: probabilità: A, B 0,57 e si continua a dividere finché C, D, E 0,43 tutte le classi non sono ridotte a un solo elemento:
31 Codifica efficiente Avendo trovato le probabilità P(M), il nostro ingegnere può tradurre il messaggio in codice binario con un efficiente algoritmo messo a punto dallo stesso Shannon (1948) e, indipendentemente, da R M Fano così: A, B C, D, E 1 simbolo: 0 1 simbolo: 1 A B C D, E 2 simbolo: 0 2 simbolo: 1 2 simbolo: 0 2 simbolo: 1 D E 3 simb: 0 3 simb: 1
32 Codifica efficiente Abbiamo quindi ottenuto la seguente codifica Messaggi: probabilità: codifica: A 0,39 00 B 0,18 01 C 0,16 10 D 0, E 0, per cui si ottiene che il numero medio di simboli inviati, per ogni messaggio, è pari a 2 (0, , , 16) + 3 (0, , 12) = 2, 27
33 Un canale con rumore Esaminiamo il caso più semplice, in cui il rumore agisce indipendentemente, senza memoria, su ogni lettera che viene trasmessa Se ogni lettera ha una probabilità p di essere trasmessa in maniera errata, allora per un messaggio di N lettere la probabilità di contenere r errori è data dalla distribuzione binomiale P(r errori) = ( N r ) p r (1 p) N r ed il numero medio di errori attesi è Np Se Np << 1, potremmo ritenerci soddisfatti dal nostro canale di comunicazione oppure no: pensate ad esempio cosa succede se inviamo una istruzione errata ad un satellite in orbita! Abbiamo già parlato di codici a correzione di errore In questa lezione ci accontentiamo di un sistema più semplice, comunque molto utilizzato in pratica: il metodo della somma di controllo checksum
34 Un canale con rumore Esaminiamo il caso più semplice, in cui il rumore agisce indipendentemente, senza memoria, su ogni lettera che viene trasmessa Se ogni lettera ha una probabilità p di essere trasmessa in maniera errata, allora per un messaggio di N lettere la probabilità di contenere r errori è data dalla distribuzione binomiale P(r errori) = ( N r ) p r (1 p) N r ed il numero medio di errori attesi è Np Se Np << 1, potremmo ritenerci soddisfatti dal nostro canale di comunicazione oppure no: pensate ad esempio cosa succede se inviamo una istruzione errata ad un satellite in orbita! Abbiamo già parlato di codici a correzione di errore In questa lezione ci accontentiamo di un sistema più semplice, comunque molto utilizzato in pratica: il metodo della somma di controllo checksum
35 Un canale con rumore Esaminiamo il caso più semplice, in cui il rumore agisce indipendentemente, senza memoria, su ogni lettera che viene trasmessa Se ogni lettera ha una probabilità p di essere trasmessa in maniera errata, allora per un messaggio di N lettere la probabilità di contenere r errori è data dalla distribuzione binomiale P(r errori) = ( N r ) p r (1 p) N r ed il numero medio di errori attesi è Np Se Np << 1, potremmo ritenerci soddisfatti dal nostro canale di comunicazione oppure no: pensate ad esempio cosa succede se inviamo una istruzione errata ad un satellite in orbita! Abbiamo già parlato di codici a correzione di errore In questa lezione ci accontentiamo di un sistema più semplice, comunque molto utilizzato in pratica: il metodo della somma di controllo checksum
36 Un canale con rumore Supponiamo di avere un alfabeto formato da 2 8 = 256 caratteri (byte), ognuno dei quali viene inviato sotto forma di 8 bit (numeri binari) Al termine di un messaggio (N caratteri) viene inviato un N + 1-esimo carattere, pari alla somma (modulo 256) dei precedenti N Chi riceve il messaggio ricalcola questa somma e la confronta con il carattere di controllo: se i due numeri sono uguali, allora possiamo essere praticamente certi che non vi siano stati errori (infatti, gli errori avrebbero dovuto essere almeno 2 e tali da annullarsi a vicenda: evento che ha una probabilità assai bassa); se i due numeri sono diversi, allora c è stato sicuramente un errore di trasmissione e chi riceve può semplicemente chiedere che il messaggio venga inviato di nuovo
37 Un canale con rumore Supponiamo di avere un alfabeto formato da 2 8 = 256 caratteri (byte), ognuno dei quali viene inviato sotto forma di 8 bit (numeri binari) Al termine di un messaggio (N caratteri) viene inviato un N + 1-esimo carattere, pari alla somma (modulo 256) dei precedenti N Chi riceve il messaggio ricalcola questa somma e la confronta con il carattere di controllo: se i due numeri sono uguali, allora possiamo essere praticamente certi che non vi siano stati errori (infatti, gli errori avrebbero dovuto essere almeno 2 e tali da annullarsi a vicenda: evento che ha una probabilità assai bassa); se i due numeri sono diversi, allora c è stato sicuramente un errore di trasmissione e chi riceve può semplicemente chiedere che il messaggio venga inviato di nuovo
38 Un canale con rumore Supponiamo di avere un alfabeto formato da 2 8 = 256 caratteri (byte), ognuno dei quali viene inviato sotto forma di 8 bit (numeri binari) Al termine di un messaggio (N caratteri) viene inviato un N + 1-esimo carattere, pari alla somma (modulo 256) dei precedenti N Chi riceve il messaggio ricalcola questa somma e la confronta con il carattere di controllo: se i due numeri sono uguali, allora possiamo essere praticamente certi che non vi siano stati errori (infatti, gli errori avrebbero dovuto essere almeno 2 e tali da annullarsi a vicenda: evento che ha una probabilità assai bassa); se i due numeri sono diversi, allora c è stato sicuramente un errore di trasmissione e chi riceve può semplicemente chiedere che il messaggio venga inviato di nuovo
39 Un canale con rumore Indichiamo con q = (1 p) N+1 la probabilità che tutti i caratteri siano esattamente inviati Allora, per ottenere una trasmissione senza errori: con probabilità q, sono necessari N + 1 simboli; con probabilità (1 q)q sono necessari 2(N + 1) simboli; e, in generale, con probabilità q(1 q) k 1 sono necessari k(n + 1) simboli
40 Un canale con rumore Indichiamo con q = (1 p) N+1 la probabilità che tutti i caratteri siano esattamente inviati Allora, per ottenere una trasmissione senza errori: con probabilità q, sono necessari N + 1 simboli; con probabilità (1 q)q sono necessari 2(N + 1) simboli; e, in generale, con probabilità q(1 q) k 1 sono necessari k(n + 1) simboli
41 Un canale con rumore Indichiamo con q = (1 p) N+1 la probabilità che tutti i caratteri siano esattamente inviati Allora, per ottenere una trasmissione senza errori: con probabilità q, sono necessari N + 1 simboli; con probabilità (1 q)q sono necessari 2(N + 1) simboli; e, in generale, con probabilità q(1 q) k 1 sono necessari k(n + 1) simboli
42 Un canale con rumore La lunghezza media del messaggio inviato è data dalla formula E[L] = k(n + 1) q(1 q) k 1 = N + 1 (1 p) N+1 k=0 Se N >> 1, allora possiamo approssimare E[L] Ne Np Se Np = O(1) allora la procedura funziona abbastanza bene (ci aspettiamo di dover mandare un numero di caratteri dell ordine di N) Se Np >> 1 allora questa procedura non può funzionare (il numero di caratteri da inviare cresce esponenzialmente!)
43 Un canale con rumore La lunghezza media del messaggio inviato è data dalla formula E[L] = k(n + 1) q(1 q) k 1 = N + 1 (1 p) N+1 k=0 Se N >> 1, allora possiamo approssimare E[L] Ne Np Se Np = O(1) allora la procedura funziona abbastanza bene (ci aspettiamo di dover mandare un numero di caratteri dell ordine di N) Se Np >> 1 allora questa procedura non può funzionare (il numero di caratteri da inviare cresce esponenzialmente!)
44 Un canale con rumore La lunghezza media del messaggio inviato è data dalla formula E[L] = k(n + 1) q(1 q) k 1 = N + 1 (1 p) N+1 k=0 Se N >> 1, allora possiamo approssimare E[L] Ne Np Se Np = O(1) allora la procedura funziona abbastanza bene (ci aspettiamo di dover mandare un numero di caratteri dell ordine di N) Se Np >> 1 allora questa procedura non può funzionare (il numero di caratteri da inviare cresce esponenzialmente!)
45 Un canale con rumore C è un trucco che permette di fare funzionare l intera procedura Dividiamo l intero messaggio in m blocchi di lunghezza n = N/m e trasmettiamo ognuno di loro con il suo carattere di controllo Otteniamo, con un ragionamento analogo a quanto visto prima, che la lunghezza media del messaggio inviato è E[L] = m n + 1 (1 p) n+1 = N n + 1 n(1 p) n+1
46 Un canale con rumore C è un trucco che permette di fare funzionare l intera procedura Dividiamo l intero messaggio in m blocchi di lunghezza n = N/m e trasmettiamo ognuno di loro con il suo carattere di controllo Otteniamo, con un ragionamento analogo a quanto visto prima, che la lunghezza media del messaggio inviato è E[L] = m n + 1 (1 p) n+1 = N n + 1 n(1 p) n+1 Se i blocchi sono troppo lunghi, allora il numero di blocchi da ripetere sarà grande e quindi la lunghezza del messaggio esploderà; se i blocchi sono troppo corti, allora invieremo un numero elevato di codici di controllo sostanzialmente inutili
47 Un canale con rumore C è un trucco che permette di fare funzionare l intera procedura Dividiamo l intero messaggio in m blocchi di lunghezza n = N/m e trasmettiamo ognuno di loro con il suo carattere di controllo Otteniamo, con un ragionamento analogo a quanto visto prima, che la lunghezza media del messaggio inviato è E[L] = m n + 1 (1 p) n+1 = N n + 1 n(1 p) n+1 Se cerchiamo di minimizzare la lunghezza media E[L] fissato N, si ottiene il minimo con la scelta di n(n + 1) log(1 p) = 0, ossia n(n + 1) = log(1 p) quindi, in pratica, sarà sufficiente scegliere n 1 p
48 Un canale con rumore C è un trucco che permette di fare funzionare l intera procedura Dividiamo l intero messaggio in m blocchi di lunghezza n = N/m e trasmettiamo ognuno di loro con il suo carattere di controllo Otteniamo, con un ragionamento analogo a quanto visto prima, che la lunghezza media del messaggio inviato è E[L] = m n + 1 (1 p) n+1 = N n + 1 n(1 p) n+1 Se cerchiamo di minimizzare la lunghezza media E[L] fissato N, si ottiene il minimo con la scelta di n(n + 1) log(1 p) = 0, ossia n(n + 1) = log(1 p) quindi, in pratica, sarà sufficiente scegliere n 1 e la lunghezza p media del ( numero ) medio di messaggi inviati è dell ordine di n + 1 E[L] N exp(1/n) N(1 + 2 p) n
49 Un canale con rumore Se la probabilità di errore è p = 10 4 allora risulta praticamente impossibile mandare un messaggio di N = 10 5 caratteri senza errori: E[L] Ne Np Ci aspettiamo infatti di dover mandare in media e 10 N byte, ossia di dover ripetere l invio del messaggio 22 mila volte prima di ottenere un messaggio privo di errori Se dividiamo il messaggio in blocchi di lunghezza 100, allora la lunghezza( media) del messaggio inviato n + 1 E[L] N exp(1/n) N(1 + 2 p) n è dell ordine di 1, 02N Ossia, dobbiamo inviare N caratteri, n caratteri di controllo (che corrisponde al fattore ( ) n+1 n ) e in media 10 blocchi (che corrisponde al fattore exp(1/n)) devono essere ripetuti
50 Un canale con rumore Se la probabilità di errore è p = 10 4 allora risulta praticamente impossibile mandare un messaggio di N = 10 5 caratteri senza errori: E[L] Ne Np Ci aspettiamo infatti di dover mandare in media e 10 N byte, ossia di dover ripetere l invio del messaggio 22 mila volte prima di ottenere un messaggio privo di errori Se dividiamo il messaggio in blocchi di lunghezza 100, allora la lunghezza( media) del messaggio inviato n + 1 E[L] N exp(1/n) N(1 + 2 p) n è dell ordine di 1, 02N Ossia, dobbiamo inviare N caratteri, n caratteri di controllo (che corrisponde al fattore ( ) n+1 n ) e in media 10 blocchi (che corrisponde al fattore exp(1/n)) devono essere ripetuti
51 Un canale con rumore Inoltre, il minimo ( ) nella formula n + 1 E[L] N exp(1/n) N(1 + 2 p) n è stabile rispetto alla scelta di n: scegliendo comunque n nell intervallo (40, 250) si ottiene E[L] 1, 03N Se la probabilità di errore fosse dell ordine di p = 10 6, allora la tecnica di dividere il messaggio in blocchi di lunghezza n intorno a 1000 porta a inviare, in media E[L] 1, 002N caratteri
52 Un canale con rumore Inoltre, il minimo ( ) nella formula n + 1 E[L] N exp(1/n) N(1 + 2 p) n è stabile rispetto alla scelta di n: scegliendo comunque n nell intervallo (40, 250) si ottiene E[L] 1, 03N Se la probabilità di errore fosse dell ordine di p = 10 6, allora la tecnica di dividere il messaggio in blocchi di lunghezza n intorno a 1000 porta a inviare, in media E[L] 1, 002N caratteri
OSSERVAZIONI TEORICHE Lezione n. 4
OSSERVAZIONI TEORICHE Lezione n. 4 Finalità: Sistematizzare concetti e definizioni. Verificare l apprendimento. Metodo: Lettura delle OSSERVAZIONI e risoluzione della scheda di verifica delle conoscenze
Siamo così arrivati all aritmetica modulare, ma anche a individuare alcuni aspetti di come funziona l aritmetica del calcolatore come vedremo.
DALLE PESATE ALL ARITMETICA FINITA IN BASE 2 Si è trovato, partendo da un problema concreto, che con la base 2, utilizzando alcune potenze della base, operando con solo addizioni, posso ottenere tutti
2) Codici univocamente decifrabili e codici a prefisso.
Argomenti della Lezione ) Codici di sorgente 2) Codici univocamente decifrabili e codici a prefisso. 3) Disuguaglianza di Kraft 4) Primo Teorema di Shannon 5) Codifica di Huffman Codifica di sorgente Il
Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione in virgola mobile
Problemi connessi all utilizzo di un numero di bit limitato Abbiamo visto quali sono i vantaggi dell utilizzo della rappresentazione in complemento alla base: corrispondenza biunivoca fra rappresentazione
Algoritmi e strutture dati. Codici di Huffman
Algoritmi e strutture dati Codici di Huffman Memorizzazione dei dati Quando un file viene memorizzato, esso va memorizzato in qualche formato binario Modo più semplice: memorizzare il codice ASCII per
Strutturazione logica dei dati: i file
Strutturazione logica dei dati: i file Informazioni più complesse possono essere composte a partire da informazioni elementari Esempio di una banca: supponiamo di voler mantenere all'interno di un computer
PROBABILITA CONDIZIONALE
Riferendoci al lancio di un dado, indichiamo con A l evento esce un punteggio inferiore a 4 A ={1, 2, 3} B l evento esce un punteggio dispari B = {1, 3, 5} Non avendo motivo per ritenere il dado truccato,
Statistica Matematica A - Ing. Meccanica, Aerospaziale I prova in itinere - 19 novembre 2004
Statistica Matematica A - Ing. Meccanica, Aerospaziale I prova in itinere - 19 novembre 200 Esercizio 1 Tre apparecchiature M 1, M 2 e M 3 in un anno si guastano, in maniera indipendente, con probabilità
Entropia. Motivazione. ? Quant è l informazione portata dalla sequenza? Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,...
Entropia Motivazione Abbiamo una sequenza S di N simboli (campioni audio, pixel, caratteri,... ) s,s 2,s 3,... ognuno dei quali appartiene ad un alfabeto A di M elementi.? Quant è l informazione portata
Calcolo delle Probabilità
Calcolo delle Probabilità Il calcolo delle probabilità studia i modelli matematici delle cosidette situazioni di incertezza. Molte situazioni concrete sono caratterizzate a priori da incertezza su quello
Il concetto di valore medio in generale
Il concetto di valore medio in generale Nella statistica descrittiva si distinguono solitamente due tipi di medie: - le medie analitiche, che soddisfano ad una condizione di invarianza e si calcolano tenendo
Statistica e biometria. D. Bertacchi. Variabili aleatorie. V.a. discrete e continue. La densità di una v.a. discreta. Esempi.
Iniziamo con definizione (capiremo fra poco la sua utilità): DEFINIZIONE DI VARIABILE ALEATORIA Una variabile aleatoria (in breve v.a.) X è funzione che ha come dominio Ω e come codominio R. In formule:
Un modello matematico di investimento ottimale
Un modello matematico di investimento ottimale Tiziano Vargiolu 1 1 Università degli Studi di Padova Liceo Scientifico Benedetti Venezia, giovedì 30 marzo 2011 Outline 1 Investimento per un singolo agente
PROBABILITA CONDIZIONALE
Riferendoci al lancio di un dado, indichiamo con A l evento esce un punteggio inferiore a 4 A ={1, 2, 3} B l evento esce un punteggio dispari B = {1, 3, 5} Non avendo motivo per ritenere il dado truccato,
La variabile casuale Binomiale
La variabile casuale Binomiale Si costruisce a partire dalla nozione di esperimento casuale Bernoulliano che consiste in un insieme di prove ripetute con le seguenti caratteristiche: i) ad ogni singola
PROBABILITA. Sono esempi di fenomeni la cui realizzazione non è certa a priori e vengono per questo detti eventi aleatori (dal latino alea, dado)
L esito della prossima estrazione del lotto L esito del lancio di una moneta o di un dado Il sesso di un nascituro, così come il suo peso alla nascita o la sua altezza.. Il tempo di attesa ad uno sportello
PROBABILITÀ - SCHEDA N. 2 LE VARIABILI ALEATORIE
Matematica e statistica: dai dati ai modelli alle scelte www.dima.unige/pls_statistica Responsabili scientifici M.P. Rogantin e E. Sasso (Dipartimento di Matematica Università di Genova) PROBABILITÀ -
Stima per intervalli Nei metodi di stima puntuale è sempre presente un ^ errore θ θ dovuto al fatto che la stima di θ in genere non coincide con il parametro θ. Sorge quindi l esigenza di determinare una
Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B. Evento prodotto: Evento in cui si verifica sia A che B ; p(a&b) = p(a) x p(b/a)
Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B Eventi indipendenti: un evento non influenza l altro Eventi disgiunti: il verificarsi di un evento esclude l altro Evento prodotto:
Corso di Matematica. Corso di Laurea in Farmacia, Facoltà di Farmacia. Università degli Studi di Pisa. Maria Luisa Chiofalo.
Corso di Matematica Corso di Laurea in Farmacia, Facoltà di Farmacia Università degli Studi di Pisa Maria Luisa Chiofalo Scheda 18 Esercizi svolti sul calcolo delle probabilità I testi degli esercizi sono
Esercizi di Probabilità e Statistica
Esercizi di Probabilità e Statistica Samuel Rota Bulò 16 luglio 2006 V.a. discrete e distribuzioni discrete Esercizio 1 Dimostrare la proprietà della mancanza di memoria della legge geometrica, ovvero
Dispense di Informatica per l ITG Valadier
La notazione binaria Dispense di Informatica per l ITG Valadier Le informazioni dentro il computer All interno di un calcolatore tutte le informazioni sono memorizzate sottoforma di lunghe sequenze di
Esercitazione #5 di Statistica. Test ed Intervalli di Confidenza (per una popolazione)
Esercitazione #5 di Statistica Test ed Intervalli di Confidenza (per una popolazione) Dicembre 00 1 Esercizi 1.1 Test su media (con varianza nota) Esercizio n. 1 Il calore (in calorie per grammo) emesso
Codifiche a lunghezza variabile
Sistemi Multimediali Codifiche a lunghezza variabile Marco Gribaudo [email protected], [email protected] Assegnazione del codice Come visto in precedenza, per poter memorizzare o trasmettere un
Fondamenti e didattica di Matematica Finanziaria
Fondamenti e didattica di Matematica Finanziaria Silvana Stefani Piazza dell Ateneo Nuovo 1-20126 MILANO U6-368 [email protected] 1 Unità 9 Contenuti della lezione Operazioni finanziarie, criterio
Capitolo 13: L offerta dell impresa e il surplus del produttore
Capitolo 13: L offerta dell impresa e il surplus del produttore 13.1: Introduzione L analisi dei due capitoli precedenti ha fornito tutti i concetti necessari per affrontare l argomento di questo capitolo:
Una sperimentazione. Probabilità. Una previsione. Calcolo delle probabilità. Nonostante ciò, è possibile dire qualcosa.
Una sperimentazione Probabilità Si sta sperimentando l efficacia di un nuovo farmaco per il morbo di Parkinson. Duemila pazienti partecipano alla sperimentazione: metà di essi vengono trattati con il nuovo
Probabilità discreta
Probabilità discreta Daniele A. Gewurz 1 Che probabilità c è che succeda...? Una delle applicazioni della combinatoria è nel calcolo di probabilità discrete. Quando abbiamo a che fare con un fenomeno che
(concetto classico di probabilità)
Probabilità matematica (concetto classico di probabilità) Teoria ed esempi Introduzione Il calcolo delle probabilità è la parte della matematica che si occupa di prevedere, sulla base di regole e leggi
Statistiche campionarie
Statistiche campionarie Sul campione si possono calcolare le statistiche campionarie (come media campionaria, mediana campionaria, varianza campionaria,.) Le statistiche campionarie sono stimatori delle
PROCEDURA INVENTARIO DI MAGAZZINO di FINE ESERCIZIO (dalla versione 3.2.0)
PROCEDURA INVENTARIO DI MAGAZZINO di FINE ESERCIZIO (dalla versione 3.2.0) (Da effettuare non prima del 01/01/2011) Le istruzioni si basano su un azienda che ha circa 1000 articoli, che utilizza l ultimo
Dimensione di uno Spazio vettoriale
Capitolo 4 Dimensione di uno Spazio vettoriale 4.1 Introduzione Dedichiamo questo capitolo ad un concetto fondamentale in algebra lineare: la dimensione di uno spazio vettoriale. Daremo una definizione
4 3 4 = 4 x 10 2 + 3 x 10 1 + 4 x 10 0 aaa 10 2 10 1 10 0
Rappresentazione dei numeri I numeri che siamo abituati ad utilizzare sono espressi utilizzando il sistema di numerazione decimale, che si chiama così perché utilizza 0 cifre (0,,2,3,4,5,6,7,8,9). Si dice
Calcolo delle probabilità
Calcolo delle probabilità Laboratorio di Bioinformatica Corso A aa 2005-2006 Statistica Dai risultati di un esperimento si determinano alcune caratteristiche della popolazione Calcolo delle probabilità
La distribuzione Normale. La distribuzione Normale
La Distribuzione Normale o Gaussiana è la distribuzione più importante ed utilizzata in tutta la statistica La curva delle frequenze della distribuzione Normale ha una forma caratteristica, simile ad una
Sistema operativo: Gestione della memoria
Dipartimento di Elettronica ed Informazione Politecnico di Milano Informatica e CAD (c.i.) - ICA Prof. Pierluigi Plebani A.A. 2008/2009 Sistema operativo: Gestione della memoria La presente dispensa e
LA TRASMISSIONE DELLE INFORMAZIONI QUARTA PARTE 1
LA TRASMISSIONE DELLE INFORMAZIONI QUARTA PARTE 1 I CODICI 1 IL CODICE BCD 1 Somma in BCD 2 Sottrazione BCD 5 IL CODICE ECCESSO 3 20 La trasmissione delle informazioni Quarta Parte I codici Il codice BCD
COMUNICAZIONI ELETTRICHE + TRASMISSIONE NUMERICA COMPITO 13/7/2005
COMUNICAZIONI ELETTRICHE + TRASMISSIONE NUMERICA COMPITO 13/7/005 1. Gli esercizi devono essere risolti su fogli separati: uno per la prima parte del compito (esercizi 1/4), uno per la seconda parte (esercizi
matematica probabilmente
IS science centre immaginario scientifico Laboratorio dell'immaginario Scientifico - Trieste tel. 040224424 - fax 040224439 - e-mail: [email protected] - www.immaginarioscientifico.it indice Altezze e
Test statistici di verifica di ipotesi
Test e verifica di ipotesi Test e verifica di ipotesi Il test delle ipotesi consente di verificare se, e quanto, una determinata ipotesi (di carattere biologico, medico, economico,...) è supportata dall
Cosa dobbiamo già conoscere?
Cosa dobbiamo già conoscere? Insiemistica (operazioni, diagrammi...). Insiemi finiti/numerabili/non numerabili. Perché la probabilità? In molti esperimenti l esito non è noto a priori tuttavia si sa dire
risulta (x) = 1 se x < 0.
Questo file si pone come obiettivo quello di mostrarvi come lo studio di una funzione reale di una variabile reale, nella cui espressione compare un qualche valore assoluto, possa essere svolto senza necessariamente
MINIMI QUADRATI. REGRESSIONE LINEARE
MINIMI QUADRATI. REGRESSIONE LINEARE Se il coefficiente di correlazione r è prossimo a 1 o a -1 e se il diagramma di dispersione suggerisce una relazione di tipo lineare, ha senso determinare l equazione
Schemi delle Lezioni di Matematica Generale. Pierpaolo Montana
Schemi delle Lezioni di Matematica Generale Pierpaolo Montana Al-giabr wa al-mukabalah di Al Khuwarizmi scritto approssimativamente nel 820 D.C. Manuale arabo da cui deriviamo due nomi: Algebra Algoritmo
APPUNTI SU PROBLEMI CON CALCOLO PERCENTUALE
APPUNTI SU PROBLEMI CON CALCOLO PERCENTUALE 1. Proporzionalità diretta e proporzionalità inversa Analizziamo le seguenti formule Peso Lordo = Peso Netto + Tara Ricavo = Utile + Costo Rata = Importo + Interesse
Metodi statistici per le ricerche di mercato
Metodi statistici per le ricerche di mercato Prof.ssa Isabella Mingo A.A. 2014-2015 Facoltà di Scienze Politiche, Sociologia, Comunicazione Corso di laurea Magistrale in «Organizzazione e marketing per
Relazioni statistiche: regressione e correlazione
Relazioni statistiche: regressione e correlazione È detto studio della connessione lo studio si occupa della ricerca di relazioni fra due variabili statistiche o fra una mutabile e una variabile statistica
f(x) = 1 x. Il dominio di questa funzione è il sottoinsieme proprio di R dato da
Data una funzione reale f di variabile reale x, definita su un sottoinsieme proprio D f di R (con questo voglio dire che il dominio di f è un sottoinsieme di R che non coincide con tutto R), ci si chiede
A intervalli regolari ogni router manda la sua tabella a tutti i vicini, e riceve quelle dei vicini.
Algoritmi di routing dinamici (pag.89) UdA2_L5 Nelle moderne reti si usano algoritmi dinamici, che si adattano automaticamente ai cambiamenti della rete. Questi algoritmi non sono eseguiti solo all'avvio
Sommario. Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi.
Algoritmi 1 Sommario Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi. 2 Informatica Nome Informatica=informazione+automatica. Definizione Scienza che si occupa dell
Appunti di informatica. Lezione 2 anno accademico 2015-2016 Mario Verdicchio
Appunti di informatica Lezione 2 anno accademico 2015-2016 Mario Verdicchio Sistema binario e logica C è un legame tra i numeri binari (0,1) e la logica, ossia la disciplina che si occupa del ragionamento
1. Distribuzioni campionarie
Università degli Studi di Basilicata Facoltà di Economia Corso di Laurea in Economia Aziendale - a.a. 2012/2013 lezioni di statistica del 3 e 6 giugno 2013 - di Massimo Cristallo - 1. Distribuzioni campionarie
VINCERE AL BLACKJACK
VINCERE AL BLACKJACK Il BlackJack è un gioco di abilità e fortuna in cui il banco non può nulla, deve seguire incondizionatamente le regole del gioco. Il giocatore è invece posto continuamente di fronte
LE FUNZIONI A DUE VARIABILI
Capitolo I LE FUNZIONI A DUE VARIABILI In questo primo capitolo introduciamo alcune definizioni di base delle funzioni reali a due variabili reali. Nel seguito R denoterà l insieme dei numeri reali mentre
Basi di matematica per il corso di micro
Basi di matematica per il corso di micro Microeconomia (anno accademico 2006-2007) Lezione del 21 Marzo 2007 Marianna Belloc 1 Le funzioni 1.1 Definizione Una funzione è una regola che descrive una relazione
Informazione analogica e digitale
L informazione L informazione si può: rappresentare elaborare gestire trasmettere reperire L informatica offre la possibilità di effettuare queste operazioni in modo automatico. Informazione analogica
E naturale chiedersi alcune cose sulla media campionaria x n
Supponiamo che un fabbricante stia introducendo un nuovo tipo di batteria per un automobile elettrica. La durata osservata x i delle i-esima batteria è la realizzazione (valore assunto) di una variabile
APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI
APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI Indice 1 Le frazioni algebriche 1.1 Il minimo comune multiplo e il Massimo Comun Divisore fra polinomi........ 1. Le frazioni algebriche....................................
Metodi e Modelli Matematici di Probabilità per la Gestione
Metodi e Modelli Matematici di Probabilità per la Gestione Prova scritta del 30/1/06 Esercizio 1 Una banca ha N correntisti. Indichiamo con N n il numero di correntisti esistenti il giorno n-esimo. Descriviamo
Prova di autovalutazione Prof. Roberta Siciliano
Prova di autovalutazione Prof. Roberta Siciliano Esercizio 1 Nella seguente tabella è riportata la distribuzione di frequenza dei prezzi per camera di alcuni agriturismi, situati nella regione Basilicata.
Teoria dei Giochi. Anna Torre
Teoria dei Giochi Anna Torre Almo Collegio Borromeo 14 marzo 2013 email: [email protected] sito web del corso:www-dimat.unipv.it/atorre/borromeo2013.html IL PARI O DISPARI I II S T S (-1, 1) (1, -1)
Corrispondenze e funzioni
Corrispondenze e funzioni L attività fondamentale della mente umana consiste nello stabilire corrispondenze e relazioni tra oggetti; è anche per questo motivo che il concetto di corrispondenza è uno dei
Elementi di Psicometria con Laboratorio di SPSS 1
Elementi di Psicometria con Laboratorio di SPSS 1 29-Analisi della potenza statistica vers. 1.0 (12 dicembre 2014) Germano Rossi 1 [email protected] 1 Dipartimento di Psicologia, Università di Milano-Bicocca
Matematica generale CTF
Successioni numeriche 19 agosto 2015 Definizione di successione Monotonìa e limitatezza Forme indeterminate Successioni infinitesime Comportamento asintotico Criterio del rapporto per le successioni Definizione
CORSO DI CALCOLO DELLE PROBABILITÀ E STATISTICA. Esercizi su eventi, previsioni e probabilità condizionate
CORSO DI CALCOLO DELLE PROBABILITÀ E STATISTICA Esercizi su eventi, previsioni e probabilità condizionate Nota: Alcuni esercizi sono tradotti, più o meno fedelmente, dal libro A first course in probability
Viene lanciata una moneta. Se esce testa vinco 100 euro, se esce croce non vinco niente. Quale è il valore della mia vincita?
Viene lanciata una moneta. Se esce testa vinco 00 euro, se esce croce non vinco niente. Quale è il valore della mia vincita? Osserviamo che il valore della vincita dipende dal risultato dell esperimento
G3. Asintoti e continuità
G3 Asintoti e continuità Un asintoto è una retta a cui la funzione si avvicina sempre di più senza mai toccarla Non è la definizione formale, ma sicuramente serve per capire il concetto di asintoto Nei
1. la probabilità che siano tutte state uccise con pistole; 2. la probabilità che nessuna sia stata uccisa con pistole;
Esercizi di Statistica della 5 a settimana (Corso di Laurea in Biotecnologie, Università degli Studi di Padova). Esercizio 1. L FBI ha dichiarato in un rapporto che il 44% delle vittime di un omicidio
la scienza della rappresentazione e della elaborazione dell informazione
Sistema binario Sommario informatica rappresentare informazioni la differenza Analogico/Digitale i sistemi di numerazione posizionali il sistema binario Informatica Definizione la scienza della rappresentazione
Psicometria (8 CFU) Corso di Laurea triennale STANDARDIZZAZIONE
Psicometria (8 CFU) Corso di Laurea triennale Un punteggio all interno di una distribuzione è in realtà privo di significato se preso da solo. Sapere che un soggetto ha ottenuto un punteggio x=52 in una
Corso di Laurea in Scienze e Tecnologie Biomolecolari. NOME COGNOME N. Matr.
Corso di Laurea in Scienze e Tecnologie Biomolecolari Matematica e Statistica II Prova di esame del 18/7/2013 NOME COGNOME N. Matr. Rispondere ai punti degli esercizi nel modo più completo possibile, cercando
Macroeconomia, Esercitazione 2. 1 Esercizi. 1.1 Moneta/1. 1.2 Moneta/2. 1.3 Moneta/3. A cura di Giuseppe Gori (giuseppe.gori@unibo.
acroeconomia, Esercitazione 2. A cura di Giuseppe Gori ([email protected]) 1 Esercizi. 1.1 oneta/1 Sapendo che il PIL reale nel 2008 è pari a 50.000 euro e nel 2009 a 60.000 euro, che dal 2008 al
MICROECONOMIA La teoria del consumo: Alcuni Arricchimenti. Enrico Saltari Università di Roma La Sapienza
MICROECONOMIA La teoria del consumo: Alcuni Arricchimenti Enrico Saltari Università di Roma La Sapienza 1 Dotazioni iniziali Il consumatore dispone ora non di un dato reddito monetario ma di un ammontare
Economia Applicata ai sistemi produttivi. 06.05.05 Lezione II Maria Luisa Venuta 1
Economia Applicata ai sistemi produttivi 06.05.05 Lezione II Maria Luisa Venuta 1 Schema della lezione di oggi Argomento della lezione: il comportamento del consumatore. Gli economisti assumono che il
LEZIONE 23. Esempio 23.1.3. Si consideri la matrice (si veda l Esempio 22.2.5) A = 1 2 2 3 3 0
LEZIONE 23 231 Diagonalizzazione di matrici Abbiamo visto nella precedente lezione che, in generale, non è immediato che, data una matrice A k n,n con k = R, C, esista sempre una base costituita da suoi
ESERCITAZIONE 13 : STATISTICA DESCRITTIVA E ANALISI DI REGRESSIONE
ESERCITAZIONE 13 : STATISTICA DESCRITTIVA E ANALISI DI REGRESSIONE e-mail: [email protected] web: www.dm.unipi.it/ tommei Ricevimento: su appuntamento Dipartimento di Matematica, piano terra, studio 114
Quando troncare uno sviluppo in serie di Taylor
Quando troncare uno sviluppo in serie di Taylor Marco Robutti October 13, 2014 Lo sviluppo in serie di Taylor di una funzione è uno strumento matematico davvero molto utile, e viene spesso utilizzato in
Statistica. Lezione 6
Università degli Studi del Piemonte Orientale Corso di Laurea in Infermieristica Corso integrato in Scienze della Prevenzione e dei Servizi sanitari Statistica Lezione 6 a.a 011-01 Dott.ssa Daniela Ferrante
Determinare la grandezza della sottorete
Determinare la grandezza della sottorete Ogni rete IP possiede due indirizzi non assegnabili direttamente agli host l indirizzo della rete a cui appartiene e l'indirizzo di broadcast. Quando si creano
Corso di. Dott.ssa Donatella Cocca
Corso di Statistica medica e applicata Dott.ssa Donatella Cocca 1 a Lezione Cos'è la statistica? Come in tutta la ricerca scientifica sperimentale, anche nelle scienze mediche e biologiche è indispensabile
LA STATISTICA si interessa del rilevamento, dell elaborazione e dello studio dei dati; studia ciò che accade o come è fatto un gruppo numeroso di
STATISTICA LA STATISTICA si interessa del rilevamento, dell elaborazione e dello studio dei dati; studia ciò che accade o come è fatto un gruppo numeroso di oggetti; cerca, attraverso l uso della matematica
Teoria delle code. Sistemi stazionari: M/M/1 M/M/1/K M/M/S
Teoria delle code Sistemi stazionari: M/M/1 M/M/1/K M/M/S Fabio Giammarinaro 04/03/2008 Sommario INTRODUZIONE... 3 Formule generali di e... 3 Leggi di Little... 3 Cosa cerchiamo... 3 Legame tra N e le
ANALISI DELLE FREQUENZE: IL TEST CHI 2
ANALISI DELLE FREQUENZE: IL TEST CHI 2 Quando si hanno scale nominali o ordinali, non è possibile calcolare il t, poiché non abbiamo medie, ma solo frequenze. In questi casi, per verificare se un evento
1. PRIME PROPRIETÀ 2
RELAZIONI 1. Prime proprietà Il significato comune del concetto di relazione è facilmente intuibile: due elementi sono in relazione se c è un legame tra loro descritto da una certa proprietà; ad esempio,
CAPITOLO 10 I SINDACATI
CAPITOLO 10 I SINDACATI 10-1. Fate l ipotesi che la curva di domanda di lavoro di una impresa sia data da: 20 0,01 E, dove è il salario orario e E il livello di occupazione. Ipotizzate inoltre che la funzione
Un modello matematico di investimento ottimale
Un modello matematico di investimento ottimale Tiziano Vargiolu 1 1 Università degli Studi di Padova Liceo Scientifico Benedetti Venezia, giovedì 30 marzo 2011 Outline 1 Preliminari di calcolo delle probabilità
Funzioni. Parte prima. Daniele Serra
Funzioni Parte prima Daniele Serra Nota: questi appunti non sostituiscono in alcun modo le lezioni del prof. Favilli, né alcun libro di testo. Sono piuttosto da intendersi a integrazione di entrambi. 1
Corso di Matematica per la Chimica
Dott.ssa Maria Carmela De Bonis a.a. 203-4 I sistemi lineari Generalità sui sistemi lineari Molti problemi dell ingegneria, della fisica, della chimica, dell informatica e dell economia, si modellizzano
Statistica inferenziale
Statistica inferenziale Popolazione e campione Molto spesso siamo interessati a trarre delle conclusioni su persone che hanno determinate caratteristiche (pazienti, atleti, bambini, gestanti, ) Osserveremo
Il sapere tende oggi a caratterizzarsi non più come un insieme di contenuti ma come un insieme di metodi e di strategie per risolvere problemi.
E. Calabrese: Fondamenti di Informatica Problemi-1 Il sapere tende oggi a caratterizzarsi non più come un insieme di contenuti ma come un insieme di metodi e di strategie per risolvere problemi. L'informatica
APPUNTI DI MATEMATICA ALGEBRA \ INSIEMISTICA \ TEORIA DEGLI INSIEMI (1)
ALGEBRA \ INSIEMISTICA \ TEORIA DEGLI INSIEMI (1) Un insieme è una collezione di oggetti. Il concetto di insieme è un concetto primitivo. Deve esistere un criterio chiaro, preciso, non ambiguo, inequivocabile,
Misure di base su una carta. Calcoli di distanze
Misure di base su una carta Calcoli di distanze Per calcolare la distanza tra due punti su una carta disegnata si opera nel modo seguente: 1. Occorre identificare la scala della carta o ricorrendo alle
SPC e distribuzione normale con Access
SPC e distribuzione normale con Access In questo articolo esamineremo una applicazione Access per il calcolo e la rappresentazione grafica della distribuzione normale, collegata con tabelle di Clienti,
LA DISTRIBUZIONE DI PROBABILITÀ DEI RITORNI AZIONARI FUTURI SARÀ LA MEDESIMA DEL PASSATO?
LA DISTRIBUZIONE DI PROBABILITÀ DEI RITORNI AZIONARI FUTURI SARÀ LA MEDESIMA DEL PASSATO? Versione preliminare: 25 Settembre 2008 Nicola Zanella E-Mail: [email protected] ABSTRACT In questa ricerca ho
VARIABILI ALEATORIE CONTINUE
VARIABILI ALEATORIE CONTINUE Se X è una variabile aleatoria continua, la probabilità che X assuma un certo valore x fissato è in generale zero, quindi non ha senso definire una distribuzione di probabilità
UNIVERSITÀ DEGLI STUDI DI TERAMO
UNIVERSITÀ DEGLI STUDI DI TERAMO CORSO DI LAUREA IN ECONOMIA BANCARIA FINANZIARIA ED ASSICURATIVA (Classe 7) Corso di Matematica per l Economia (Prof. F. Eugeni) TEST DI INGRESSO Teramo, ottobre 00 SEZIONE
Informatica 3. LEZIONE 21: Ricerca su liste e tecniche di hashing. Modulo 1: Algoritmi sequenziali e basati su liste Modulo 2: Hashing
Informatica 3 LEZIONE 21: Ricerca su liste e tecniche di hashing Modulo 1: Algoritmi sequenziali e basati su liste Modulo 2: Hashing Informatica 3 Lezione 21 - Modulo 1 Algoritmi sequenziali e basati su
3 GRAFICI DI FUNZIONI
3 GRAFICI DI FUNZIONI Particolari sottoinsiemi di R che noi studieremo sono i grafici di funzioni. Il grafico di una funzione f (se non è specificato il dominio di definizione) è dato da {(x, y) : x dom
Più processori uguale più velocità?
Più processori uguale più velocità? e un processore impiega per eseguire un programma un tempo T, un sistema formato da P processori dello stesso tipo esegue lo stesso programma in un tempo TP T / P? In
