Probabilità e incertezza di misura

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Probabilità e incertezza di misura"

Transcript

1 Probabilità e incertezza di misura G. D Agostini Dipartimento di Fisica, Università La Sapienza, Roma 30 ottobre 2001

2 ii

3 Probabilità Indice I Dal concetto di probabilità ai problemi di probabilità inversa 1 1 Incertezza e probabilità Determinismo e probabilismo nei metodi di indagine scientifica Incertezze in Fisica e nelle altre scienze naturali Limiti all accuratezza delle misure - un esempio Imparare dagli esperimenti: il problema dell induzione Limiti del metodo di falsificazione Decisioni in condizioni di incertezza Concetto di probabilità Semplici valutazioni di probabilità Ricapitolando Problemi Valutazioni e interpretazioni della probabilità Primi interessi in stime quantitative di probabilità Valutazione combinatoria Probabilità e frequenza Legge empirica del caso e definizione frequentista Interpretazione oggettivista e soggettivista della probabilità Concetto di probabilità condizionata Eventi di probabilità nulla Probabilità e scommesse eque e quote di scommessa Definizione soggettiva di probabilità La definizione ISO Note sul termine soggettivo Ruolo virtuale della scommessa, valore dei soldi e ordini di grandezza non intuitivamente percepibili Speranza matematica e previsione di vincita Previsione di guadagno e decisioni Decisioni vantaggiose e etica della ricerca Regola di penalizzazione - il bastone e la carota Ricapitolando Problemi

4 Statistica Il iv INDICE 3 Elementi di calcolo combinatorio Problemi elementari tipici Disposizioni e combinazioni Regola fondamentale del calcolo combinatorio Numero di -disposizioni di oggetti Numero di -disposizioni semplici di oggetti Numero di permutazioni di oggetti Combinazioni Coefficienti binomiali Note su nomenclatura e simbologia Note sul calcolo dei grandi numeri Ordinamenti, occupazioni ed estrazioni Alcuni esempi classici Ricapitolando Problemi Regole della probabilità Probabilità della somma logica di due eventi incompatibili Eventi e insiemi probabilità come misura Evento condizionato Regole di base della probabilità - assiomi Dimostrazioni delle proprietà della probabilità Relazione fra probabilità condizionata e congiunta Condizionamento da eventi di probabilità nulla Indipendenza stocastica (o in probabilità) Altre proprietà della probabilità condizionata Legge della moltiplicazione Legge delle alternative Indipendenza logica e indipendenza stocastica Ricapitolando Problemi Probabilità delle cause e meccanismo di aggiornamento delle probabilità Inferenza probabilistica Teorema di Bayes Chiavi di lettura del teorema di Bayes Visione combinatoria del teorema di Bayes Esempi tipici di applicazione Classificazione di eventi e rapporto segnale rumore Uso iterativo del teorema di Bayes bayesiana: imparare dall esperienza caso del sospetto baro I fatti Riaggiornamento della probabilità Confronto fra inferenza diretta e inferenza iterativa Dipendenza dalla probabilità iniziale Pregiudizio, indizi e conclusioni

5 Osservazioni Distribuzione INDICE Probabilità e decisione Recupero e superamento del metodo di falsificazione indipendenti e prodotto delle verosimiglianze Fattore di Bayes e incremento logaritmico delle quote di scommessa Indifferenza iniziale e massima verosimiglianza Problema della verificabilità ed estensione del concetto di evento Ricapitolando Problemi v II Variabili casuali - I Variabili casuali e distribuzioni di probabilità di variabili discrete Numeri aleatori Distribuzione di probabilità di probabilità e distribuzioni statistiche Esempi di costruzione di distribuzioni di variabili casuali Proprietà delle distribuzioni di probabilità discrete Distribuzioni elementari notevoli Distribuzione uniforme discreta Distribuzione uniforme discreta - caso generale Processo di Bernoulli Combinazione di molti processi di Bernoulli indipendenti e di uguale probabilità Distribuzione geometrica Sintesi di una distribuzione di probabilità: previsione e incertezza di previsione Previsione (o valore atteso) come baricentro della distribuzione Osservazioni su terminologia e notazioni Valore atteso di una funzione di una variabile casuale Valore atteso di distribuzioni elementari Distribuzione uniforme discreta Processo di Bernoulli Distribuzione geometrica Incertezza standard di previsione Varianza e deviazione standard Proprietà formali di varianza e deviazione standard Momenti di una distribuzione e altri e indicatori di forma Entropia come misura dello stato di incertezza Deviazione standard delle distribuzioni elementari Distribuzione uniforme fra Distribuzione uniforme di valori fra e Processo di Bernoulli Distribuzione geometrica Processo di Bernoulli e percezione di probabilità prossime a 0 o a

6 Distribuzione Processo Proprietà vi INDICE 6.17 Previsione e incertezza di previsione di vincita in giochi d azzardo Gioco della roulette I sistemi per vincere al lotto Misure di centralità e di dispersione di distribuzioni statistiche Ricapitolando Problemi Distribuzioni di probabilità di variabili discrete - II Distribuzione binomiale binomiale da capo Proprietà della distribuzione binomiale e note sul suo uso Valore atteso e deviazione standard Usi tipici della distribuzione binomiale Distribuzione di Poisson di Poisson - prima parte Formule ricorsive per la distribuzione binomiale e di Poisson riproduttiva delle distribuzioni di probabilità binomiale e di Poisson Altre distribuzioni di interesse Distribuzione di Pascal Binomiale negativa Distribuzione ipergeometrica Cammino casuale e problema della rovina del giocatore Quanto credere in? Alcuni esempi numerici Disuguaglianza di Markov Disuguaglianza di Cebicev Intervalli di probabilità, o di credibilità Previsione, penalizzazione e valore sul quale scommettere Previsione di frequenza relativa e legge dei grandi numeri Previsione di una distribuzione statistica Introduzione al concetto di correlazione fra variabili casuali Un esempio storico di distribuzione di Poisson come introduzione al problema della verifica delle leggi statistiche Previsione a del tipo di distribuzione Stima puntuale del parametro della distribuzione Previsione quantitativa della distribuzione statistica, subordinata, e confronto con le osservazioni Inferenza probabilistica su Previsione della distribuzione statistica subordinata all incerteza su Estensione dei teoremi sulla probabilità alle funzioni di probabilità discrete Ricapitolando Problemi

7 Distribuzioni. INDICE vii 8 Distribuzioni di probabilità di variabili continue Variabili casuali continue e densità di probabilità Probabilità nulle con diversi gradi di fiducia Dal grado di fiducia alla probabilità finita Funzione densità di probabilità Proprietà della funzione densità di probabilità e della funzione di ripartizione Valori attesi Distribuzione uniforme continua Simulazione al computer di processi stocastici Costruzioni di altre semplici variabili casuali Generica distribuzione uniforme fra e Processo di Bernoulli con e distribuzione binomiale Distribuzione uniforme lungo discreta Marcia a caso Scelta pesata Scelta uniforme triangolari Distribuzione esponenziale Distribuzione esponenziale doppia Distribuzione normale Distribuzione normale standardizzata Uso delle tabelle dell integrale della distribuzione normale standardizzata Derivazione della gaussiana come limite di funzione binomiale o poissoniana Proprietà riproduttiva della distribuzione normale Processo di Poisson - Seconda parte Distribuzione del tempo di attesa del primo successo Relazione fra esponenziale e poissoniana Relazione fra esponenziale e geometrica Tempo di attesa del-mo successo Intensità di più processi di Poisson indipendenti Vita media di decadimento Funzione generatrice dei momenti Binomiale Poissoniana Gaussiana Altre proprietà e applicazioni Altre distribuzioni di interesse Beta Gamma Chi di Student Ricapitolando Problemi

8 Esempi Esempi viii INDICE III Variabili casuali - II Variabili casuali multiple Vettori aleatori Variabili casuali doppie discrete Variabili casuali doppie continue Distribuzioni marginali Estensione dei teoremi sulla probabilità alle distribuzioni di probabilità Distribuzioni condizionate Variabili casuali indipendenti Formula delle alternative e teorema di Bayes Previsione e incertezza di previsione Covarianza e coefficiente di correlazione Variabili correlate e misura della correlazione Proprietà formali di covarianza e coefficiente di correlazione Matrice di covarianza e matrice di correlazione di variabili doppie discrete di distribuzione bidimensionale continua Distribuzione uniforme in un rettangolo Distribuzione uniforme in un triangolo Distribuzione multinomiale Distribuzione normale bivariata Caso generale di distribuzione multivariata Derivate dirispetto alle variabili casuali Distribuzioni statistiche multivariate varie Funzioni di variabili casuali e teoremi limite Propagazione delle incertezze Soluzione generale per variabili discrete Regola generale Convoluzione di due funzioni di probabilità Trasformazione di una variabile distribuita uniformemente Soluzione generale per variabili continue Cambiamento di variabile Trasformazioni di una distribuzione uniforme Applicazioni alle simulazioni di variabili casuali Trasformazione lineare di una variabile distribuita normalmente Caso di funzioni non monotone Somma di due variabili Somma di due variabili distribuite uniformemente Somma di due variabili distribuite normalmente Uso della funzione generatrice dei momenti con e$ e$ poissoniane gaussiane ! #"$, con % &"' ($"'),

9 INDICE ix 10.5 Stime a bruta forza: metodi di Monte Carlo Riepilogo di alcune proprietà delle funzioni di variabili casuali Valore atteso e varianza di combinazioni lineari Valore atteso e varianza della distribuzione binomiale. 283 Valore atteso e varianza della distribuzione di Erlang. 283 Previsione di una media aritmetica di variabili aleatorie analoghe Correlazione fra diverse combinazioni lineari di variabili casuali Covarianza di due medie aritmetiche Correlazione fra una variabile e una combinazione lineare che la contiene Legge dei grandi numeri Limite della media aritmetica Teorema di Bernoulli Lancio di una moneta Sul recupero dei numeri ritardatari Teorema del limite centrale Distribuzione della media aritmetica Convergenza in distribuzione della binomiale e della poissoniana Estensione del teorema del limite centrale a variabili non indipendenti Simulazione di numeri aleatori distribuiti secondo una distribuzione normale Linearizzazione Esempio di applicazione alle incertezze di misure Moto browniano, pallinometro ed errori di misura Distribuzione di velocità delle molecole di un gas perfetto Problemi IV Applicazioni di statistica inferenziale Impostazione del problema. Caso di verosimiglianza gaussiana Introduzione Verosimiglianza normale con nota Effetto di una prior rilevante: combinazione di risultati Derivazione di Gauss della gaussiana Caso di forte vincolo dato dalla prior Caso di ignota Ragionamento intuitivo Possibili dubbi sul modello normale Inferenza simultanea su e Prior uniforme in in*,+.-/ Prior uniforme Incertezza su Distribuzione di Conclusioni e raccomandazioni

10 x INDICE 11.7 Distribuzione predittiva Combinazione scettica Problemi Verosimiglianza binomiale e poissoniana. Approssimazioni Misure di conteggi, di proporzioni e di efficienze Inferenza su5 e (o ) in condizioni di normalità Caso poissoniano Caso binomiale Caso generale di inferenza con verosimiglianza binomiale Caso di routine Casi critici Combinazione di misure indipendenti Uso della prior coniugata Beta di6 7 Caso generale inferenza con verosimiglianza poissoniana Caso routine Caso con prior uniforme Combinazione di risultati Uso della prior coniugata Gamma Inferenza sull intensità del processo di Poisson da osservazioni effettuate con diversi tempi di osservazione Sufficienza statistica, limite a normale e metodi frequentistici Effetti sistematici e di rumore Considerazioni generali Soluzioni esatte sotto ipotesi di normalità Incertezza sullo zero dello strumento Correzione per errori sistematici noti Correlazione fra i risultati introdotta dalla non perfetta conoscenza dello zero dello strumento Effetto del background nella misura dell intensità di un processo di Poisson Propagazioni di incertezza, approssimazioni e linearizzazioni Matrice di covarianza di dati correlati Offset uncertainty Normalization uncertainty General case Adattamento di curve ai dati sperimentali e stima dei parametri Inferenza sui parametri di una legge Come tener conto anche di possibili incertezze sulle Formule dei minimi quadrati nota e costante ;:ignote e supposte costanti ;:diverse e note a priori

11 INDICE xi 16 Test di ipotesi Riepilogo dell approccio probabilistico Schema di test di ipotesi nell approccio frequentista Conclusioni V Soluzione dei problemi 373

12 xii INDICE

13 Parte III Variabili casuali - II

14

15 La Caso E e)?=3.1, Capitolo 9 Variabili casuali multiple 9.1 Vettori aleatori Nei capitoli precedenti abbiamo considerato un numero aleatorio alla volta, introducendo il formalismo generale per descrivere lo stato di incertezza rispetto. Come si può bene immaginare, nei casi reali ci si trova spesso a dover considerare più grandezze dai valori incerti. Facciamo degli esempi. Consideriamo 100 lancio consecutivi di una moneta. Si può essere interessati al numero di teste, al numero di croci, al numero più elevato di teste consecutive che si è verificato e al numero di cambiamenti di esito (ogni volta che dopo un certo numero di teste è uscita croce e viceversa). Quali risultati sarà possibile ottenere?=0, 0, 0, 0>,=1, 0, 0, 0>,...=50, 50, 1, 49>,...=100, 100, 100, 100>? (Con =...> è indicata la lista ordinata dei valori numerici di ciascuna delle variabili di interesse. Molte di queste combinazioni risultano impossibili.) Scelgo uno studente a caso che abbia terminato tutti gli esami del corso. Che voti ha riportato in ciascuno degli esami?=18, 18, 18,..., 18>,=19, 18, 18,..., 18>,...,=30, 30, 30,..., 30>? (Con =...> è indicata la lista dei possibili risultati, ordinata per ordine alfabetico degli esami.) Si lancia una pallina su un tavolo di0;?@7cmacb@7cm? In quale punto del piano si fermerà?=0.0, 0.0>,=0.0, 0.1>,=0.1, 0.1>,...=120.0, 80.0>, (discretizzando al millimetro le coordinate, prese a partire da uno spigolo) legge fisica che lega la grandezza (misurata in unità arbitrarie) al tempo è del SeE di JI e tipo D!EFG"H). e)valgono rispettivamente 3 e 1 (unità arbitrarie) e la misura è affetta da errori casuali, quali valori e di tempi2ik L0 con strumenti reali ) si osserveranno ai (misurati osservato NIO MPGQSR e UTVQS? M??=3.7, 6.7>,=3.8, 6.7>,...=4.0, 7.0>,...=4.5, 7.5>? inverso del precedente: avendo ai tempii W0e U?, cosa si può dire sui valori veri dei coefficienti 0.4>,...=3.3, 0.6>,...=3.4, 0.5>?

16 Si 232 Variabili casuali multiple Ricapitolando, in generale si è in stato di incertezza rispetto alla realizzazione di variabili casuali, o, come si dice, rispetto a un vettore aleatorio di componenti, anche chiamato -tupla (leggi entupla ) di valori. Come al solito, lo stato di incertezza su ciascun possibile vettore aleatorio sarà quantificato da un grado di fiducia. Vediamo separatamente il caso discreto e quello continuo. Successivamente, molte delle proprietà saranno descritte in modo generale per i due casi, eventualmente scegliendo variabili discrete o continue per gli esempi, a seconda di quella che meglio si presta al caso Variabili casuali doppie discrete Il concetto di distribuzione di probabilità si estende in modo naturale alle variabili multiple. Cominciamo anche in questo caso con le variabili discrete e, per semplicità, con il caso bidimensionale. L estensione al caso generale è immediato. La funzione di probabilità è 1 : 4XZY[\ ] D!^X_$`!Y[9X (9.1) la quale è definita non negativa e compresa fra 0 e 1. Le possibili coppie di valori di e$ (o il vettore, o n-tupla, di dimensione 2), ciascuna con il suo grado di fiducia4xzy[, danno luogo alla distribuzione congiunta delle variabili. La condizione di normalizzazione richiede che la somma su tutte le coppie sia pari a 1. Questo può essere scritto in diversi modi. Si può pensare a ciascuna coppia come un puntoa (,$ gli ^cn! eduaf g8 del piano ) e ordinata jkli]man\ h@i mediante jkli] D!kX_$L!Yko h@i l indiceb. La somma delle probabilità jklikxzyk\ `0pQ h.i sommare su tutti punti deve dare 1: può indicare la variabile con l indiceb,la$ conq jrkst ] D!kX_$u!Ytv jrkst kxzyt\ u0pq e sommare su tutte le possibilità degli indici: Facciamo un esempio che chiarisca l uso del simbolow kst. Se la variabile jkst può assumere 3 valori e la variabile$ kxzytx giyxzyzi{g"'4i XZYg"XZYzI( 2 valori si ha che "}XZYe"'~ XZYzI(e" 9~3XZY 1 ƒr 6Ĝ ŠŒ f Žsta per ƒr fˆ4 ŠN Ž. Si ricordi inoltre quanto detto nel capitolo 6 sulla flessibilità dell uso di simboli.

17 9.1 Vettori aleatori 233 j s 4XZY[x 0pX si può infine scrivere più semplicemente intendendo semplicemente che la sommatoria corre su tutti i possibili valori di e diy. Anche in 9 VXZY \ F] 9 X9$W 'Y j questo caso si definisce una funzione di ripartizione, in perfetta analogia al caso unidimensionale: k ' kxzy {X t '9 Essa soddisfa le seguenti proprietà: e YzI ossiaixzyiš uxzysei 1.^XZY è non decrescente, perfœž Ÿ!XZY œv Y; 2.^XZY tende a 0 Ÿ ; 4XZY[tende a 1 per œ " Ÿ!XZY œ " Ÿ ; 3.^XZY è continua a destra; 4.kXZYk kxzykp Jk IXZYk I. La tabella 9.1 mostra un esempio di distribuzione doppia di variabili discrete Variabili casuali doppie continue 4XZY[\ ] '^X_$ Y M Per introdurre le variabili continue partiamo dalla funzione di ripartizione: 9 9 ª «XZYG «G 9 %YV Q V4XZY[\ F^XZY %9%Y Q ] rœ ' ' "' 4±JY $W 'Y "%Y ³² Q ^XZY \ # ^XZY Y X In questo caso l elemento infinitesimo di probabilità è pari a: Esso ha il significato di La funzione densità di probabilità, ottenuta dalla funzione di ripartizione come rappresenta invece il grado di fiducia del punto4xzy[, come discusso di µz$ al momento di introdurre le variabili continue. Le proprietà della densità di probabilità congiunta4xzy[sono analoghe al caso unidimensionale visto nel capitolo precedente. Ricordiamo soltanto che4xzy[ha le dimensioni inverse 9 9 ^XZY G%9 Y `0pQ e che la condizione di normalizzazione diventa:

18 234 4XZY[ Variabili casuali multiple YI Y eœy~ ^XZY YzI Y /œy ~ gi 9~ ª Y gi 9~ ª Y[ Tabella 9.1: Esempio di distribuzione congiunta e di marginalizzazione. 9.2 Distribuzioni marginali Dalla distribuzione di probabilità congiunta è possibile ottenere la distribuzione di probabilità di una delle variabili, sommando (in senso lato, che per il caso continuo equivale ad integrare) le probabilità di tutte le possibilità delle altre variabili per un certo valore della variabile di interesse. Nel caso discreto si ha, ad esempio rispetto alla : ] D!k\ jt ] D!kX_$` Yt9Q Questa operazione è detta di marginalizzazione e la tabella 9.1 ne mostra un esempio (si noti come le distribuzioni di ciascuna delle variabili sono ottenute sommando a margine i valori della tabella della probabilità congiunta). Nel caso di variabili continue si ha 2 : eo ^XZY %Y¹X (9.2) e analogalmente pery, integrando su. Le distribuzioni ottenute con questa operazioni sono chiamate distribuzioni marginali. Sia chiaro che, in principio, tale appellativo dovrebbe essere superfluo, in quanto ogni indicareºƒrˆà Ž distribuzione 2 Chiaramenteºƒr Žeºƒr Žsono in genere funzioni diverse, anche se entrambe indicate con lo stesso simboloºƒm»ž, cambiando solo la variabile nell argomento. A volte, per ricordare che si tratta di funzioni diverse, siº_¼ƒrˆ Žeº¾½ƒr Ž. In modo analogo dovremmo conº¼ Á,½ƒrˆ/ Ž, e ºƒrˆ Ž[  così via. Eviteremo ºƒrĜ m 3Žd ÀÃ Ä questo ºƒrˆ Ž[ Å Æ%Ç modo più preciso (e pesante) in quanto non ci sono ragioni per temere ambiguità. Allo stesso modo gli estremi degli integrali saranno omessi a sottintendere che essi si estendono su tutti i possibili valori di ÈÇ ºƒrĜ m 3Žd ÊÉ :

19 9.2 Distribuzioni marginali Figura 9.1: Visualizzazione qualitativa, mediante lego plot, della distribuzione di probabilità di tabella 9.1: in altoëì,í9î³ï Ðe in bassoñ}ì,í9î³ï Ð. Si faccia attenzione al fatto che la rappresentazione grafica non corrisponde esattamente alla distribuzione di partenza: perche?

20 $ sia 236 Variabili casuali multiple di una sola variabile può essere pensata come una marginale rispetto ad altre infinite variabili che non interessano. In sostanza, quando si parla esplicitamente di distribuzione marginale, significa semplicemente che si sta facendo riferimento ad una distribuzione congiunta di partenza. Si noti inoltre l interpretazione della marginale come, per così dire, proiezione della congiunta (non da prendere in modo rigoroso nel senso geometrico). 9.3 Estensione dei teoremi sulla probabilità alle distribuzioni di probabilità Questo argomento è già stato introdotto nel paragrafo 7.16, limitatamente alle variabili distrete. L estensione alle variabili continue è abbastanza immediata, essendo sufficiente sostituire alle probabilità gli elementi infinitesimi di probabilità. Riprendiamo ora il discorso in maniera più generale, aggiungendo anche delle osservazioni sull interpretazioni delle distribuzioni condizionate Distribuzioni condizionate In analogia alla probabilità condizionata esistono le distribuzioni di probabilità condizionate, nel senso chepuò ÒÓY[ essere subordinata alla conoscenza che uguale ay, ovvero Ò $u!y[. Essa è indicata con ed è funzione soltanto di, mentreysvolge, per così dire, il ruolo di parametro. Quindi esistono tante diverse ÒÓY[quanti sono i possibili valori di$, infiniti nel caso che$ sia una variabile continua. Come detto nel paragrafo 7.16, l estensione al caso discreto è immediata. Vediamo come ci si ]mô'ò Õ \ comporta per ]mô ±6Õ il caso continuo. Ricordiamo la formula che lega probabilità condizionata alla congiunta (vedi paragrafo 4.6): (9.3) Ì«Í ØÅÙ#ØHÍ ÚdÍ ÛÝÜ ÞßÏ ÐgÞ }àì,í ØHÙ#ØÅÍ Ú dízð[áì,ïøœü!øhïoú dï.ð â Nel caso di variabile casuale continua possiamo scrivere in perfetta analogia: con]yf $ 'Y " dy[ Ö šòóy d 7. Passando ^XZY ddy alle funzioni densità di probabilità si ha Y[dY X šòóy x 4XZY[ da cui cony Ö 7.Si ricorda che, come visto per la (9.3), neanche la (9.5) definisce la distribuzione condizionata. In particolare,šòóy può essere valutata Ì,ÏãØHÜØÅÏäÚ dï Ð Î(9.4) Y[ (9.5)

21 9.3 Estensione dei teoremi sulla probabilità alle distribuzioni di probabilità 237 senza che sia nota (o abbia importanza) la funzione congiunta4xzy[(vedi discussioni ai paragrafi ). È comunque chiaro che, qualora invece la 4XZY[sia assegnata, essa contiene l informazione più completa sullo stato di incertezza di$ e di$, in quanto šòóy da essa å è possibile ricavarsi le marginali e le condizionate, ad esempio: 4XZY[ Q Si noti come la formula (9.5) non dipenda dal fatto che leýsiano probabilità o densità di probabilità, ovvero la formula è indipendentemente dal tipo di variabili. Inoltre, per simmetria, si ha ^XZY M ÒÓY[ʵ2Y MY}ÒÓeʵ29Q (9.6) ^XZY9X_æ XyQyQyQr FY[^µ ÒÓY[^µ mæ ÒÓ^XZY 9QyQyQ Così pure, in modo analogo alla (4.22), si ha, nel caso di molte variabili: Variabili casuali indipendenti Se la distribuzione di una variabile, subordinata ad un certo valore di un altra variabile, è uguale alla distribuzione x marginale ÒÓY[ si dice che le due variabili sono (stocasticamente) indipendenti. Questa condizione equivale a richiedere Y x Y}ÒÓe (9.7) ^XZY Fe^µ Y[9X o ]mô ±6Õ ]mô}êµ2]mõ 9Q (9.8) analoga della Nel caso di molte variabili, la condizione di indipendenza richiede le (9.7) per ciascuna delle coppie, o, equivalentemente e più succintamente: 4XZYX_æ Xyµyµyµy\ F^µ2Y[^µ mæv9µyµyµ4q (9.9) Formula delle alternative e teorema di Bayes La versione generale del teorema di Bayes discende dalle espressioni della ÒÓY[ Y ÒÓze probabilità congiunta in funzione delle condizionate e delle marginali. Infatti dalla (9.6) segue a$ di4xzy[ analoga della (5.3). Ricordando chey[è la marginale rispetto si ottiene l analoga della formula delle alternative (mostriamo il solo caso continuo, quello discreto è assolutamente simile) Y[ X (9.10) Y 4XZY[d6 Y}ÒÓeçdãX (9.11)

22 238 Variabili casuali multiple che, sostituita nella (9.10), dà luogo alla formula più consueta del teorema di Bayes per variabili continue, ÒÓY[\ del åquale faremo largo uso nell inferenza su Y ÒÓçed Y ÒÓze Q valori di grandezze fisiche: (9.12) 9.4 Previsione e incertezza di previsione La valutazione dei valori attese segue in modo naturale dal caso di una sola variabile. Questo può essere visto più chiaramente nel caso di variabili discrete: il valore atteso di una funzione di variabili casuali si calcola facendo la somma, estesa su tutto il campo di definizione, del prodotto della funzione, calcolata in ogni punto, per la probabilità di quel punto. Come si vede, questa definizione non dipende dal numero di variabili casuali (ovvero dalle dimensioni dello spazio che contiene il vettore aleatorio), quindi nel caso più generale: E è ÅX_$ÀX{äXyµyµyµ ³² j j j é µyµyµ è^xzy9x_æ[xyµyµyµ;z^xzy9x_æ[xyµyµyµ 9Q (9.13) Nel caso di variabili continue, la probabilità di un punto viene sostituita dal concetto di elemento infinitesimo di probabilità di trovare le variabili casuali nell intorno di quel punto e le sommatorie diventano integrali su tutte le variabili: E è ÅX_$ÀX{äXyµyµyµ;³²e µyµyµ è4xzyx_æ Xyµyµyµ2^µ 4XZYX_æ XyµyµyµydædYdæäµyµyµ (9.14) Dalla formula generale ci possiamo calcolare il valore atteso e la varianza di ciacuna delle variabili. Prendendo, ad esempio, la e considerando, per semplicità, ma senza perdere in generalità, due sole variabili continue, si tratta di calcolare E Je E r ê gd} (². Il fatto che queste due funzioni, di cui si è interessati al valore E è J³² atteso, dipendano Wèez4XZY[ddY soltanto da una variabile semplifica i calcoli, in quanto, in generale èenë 4XZY[dYVì d Wèeʵ ed^x (9.15) ottenendo lo stesso risultato che si sarebbe ottenuto utilizzando la funzione marginale della variabile di interesse. Abbiamo quindi ricondotto il problema del calcolo di media e di deviazione standard nel caso molte variabili (multivariato) a quello di una sola variabile (univariato). Questo risultato è confortante. Difatti abbiamo già detto che per ogni evento è possibile definire un numero arbitrario di variabili casuali. Quando se ne considera una sola si ignorano tutte le altre: se il valore atteso di una variabile (scelta senza nessuna condizione restrittiva) dovesse dipendere da tutte le altre si porrebbero problemi di definizione.

23 9.5 Covarianza e coefficiente di correlazione ) I I íî.ï/¾i;x_) I( ) íð%ño{i;x_) Tabella 9.2: Distribuzioni congiunta del numero di teste e numero di croci nel lancio di 5 monente (òªó,ôó) confrontata con quella del numero di teste e di croci relative a due diversi lanci di monete. In valori sono in percentuale. 9.5 õ Covarianza e coefficiente di correlazione Introducendo i concetti di previsione e di incertezza di previsione abbiamo detto che queste rappresentano le informazioni minime nelle quali riassumere lo stato di incertezza quantificato dalla distribuzione di probabilità. Ulteriori informazioni sulla forma sono date dai valori attesi, opportunamente scalati, di potenze più elevate degli scarti (skewness e curtosi, vedi paragrafo 6.13). Purtroppo, nel riassumere una distribuzione di molte variabili in previsione e incertezza di previsione si perde la struttura multidimensionale della distribuzione. Questa perdita di informazione non è dovuta al solo passaggio dalle distribuzioni marginali ai valori attesi, ma è già implicita nel passaggio dalla congiunta alle marginali. (È un po come la perdita di informazioni spaziali che si ha eseguendo due radiografie, su piani ortogonali, di un corpo.) Considerando, ad esempio, la distribuzione di tabella 9.1, si capisce come sia impossibile di risalire a^xzy a partire daey, mentre è univoco il passaggio inverso Variabili correlate e misura della correlazione Facciamo un esempio numerico per capire meglio il problema. Immaginiamo di ïix_)ieñ dover lanciare 5 monete e di interessarci alle variabili casualiökie øi, numeri di teste e di croce. Consideriamo anche un altro lancio di 5 monete e chiamiamoöe i rispettivi esiti. Possiamo costruire le distribuzioni PGXZùVÀ 7 IX_). Sebbene tutte le marginali siano uguali e quindi tutte la variabili abbiano un valore atteso 2.5 e una deviazione standard di 1.1, le due distribuzioni sono completamente diverse (vedi tabella 9.2). Ad esempio (evento impossibile), mentrevño PGXZùVÀ F7zQú7@ù%R.

24 240 Variabili casuali multiple La differenza di rilievo fra le due distribuzioni dell esempio è che mentre nella prima ad ogni valore diöipuò essere associato un solo valore di a :öi e I I, nella seconda la conoscenza diöinon modifica lo stato di incertezza rispetto sono dipendenti (o correlate);öi e 7øÒ ) mentre(i sono indipendenti (o scorrelate). Questo fatto si riflette sulle distribuzioni condizionate, le quali differiscono nei due casi. Ad esempioyiä M7øÒ ) Iø üû K L0, Fû \ F7zQú7 Pz0, e E rm ý E ŒZe $þ Em$ Z³²/Q E r E ŒZ m$u Em$šZ³²ÀQ Cov ÅX_$ (9.16) Per capire come mai essa possa essere adeguata 3 allo scopo si pensi che se in corrispondenza di scarti positivi di (rispetto alla previsione) si attendono (sempre in senso probabilistico) scarti positivi anche per$, ne segue che la previsione del prodotto degli scarti è un numero positivo; lo stesso è vero se, in corrispondenza di scarti negativi di, si attendono scarti negativi anche per$ ; se invece si prevedono scarti di segno opposto la covarianza è negativa; infine, la covarianza è nulla se si attendono scarti mediamente incoerenti. così via Dovendo quantificare il grado di correlazione con un solo numero si utilizza il valore atteso del prodotto degli scarti rispetto alle previsioni: Esso è chiamato covarianza ed è indicato con Cov µrxyµÿ: fraöàie øi Ne segue che ci aspettiamo covarianza negativa dell esempio di tabella 9.2, covarianza nulla fraö\ie. Per quanto riguarda il valore assoluto della covarianza, esso non indica in maniera intuitiva quanto due variabili sono correlate, in quanto la covarianza non è una grandezza omogenea con le due variabili casuali e dipende anche dall unità di misura scelta per le variabili. Si preferisce rendere adimensionale la misura di correlazione, dividendo per le scale naturali degli scarti di ciascuna variabile, ovvero ÅX_$ \ Cov HX_$ le due deviazioni standard. Si definisce allora il coefficiente di correlazione, definito come \ ŒG\m$ Var JVarm$šQ Cov HX_$ (9.17) Come detto a proposito della previsione e della sua incertezza, in principio ci potrebbero essere modi alternativi per riassumere con un numero una caratteristica di una distribuzione. Volendo giustificare questa scelta per la misura di correlazione, possiamo fare le seguenti considerazioni: La covarianza è formalmente una estensione della definizione operativa della varianza a due variabili Cov ÅXZ ŒK e quindi la Var J9Q covarianza di una variabile con sé stessa è uguale alla varianza: 3 Per un altro modo di capire come mai la covarianza definita come (9.16) tenda a comparire nella teoria della probabilità si veda la (10.27) a proposito della somma di variabili casuali.

25 Ne La Vedremo Se 9.5 Covarianza e coefficiente di correlazione 241 Figura 9.2: Esempi di correlazione fra variabili casuali. Questa analogia suggerisce di indicare Cov ÅX_$ la covarianza con un simbolo compatto simile a quello di varianza: chedàd& #e [d 8 d (9.18) con la convenzione (questa nelle applicazioni). notazione sarà molto utile segue che il coefficiente di correlazione di una variabile con sé stessa è uguale a 1 ( HXZ ŒÅ ž0): si dice che una variabile è correlata al 100 % con sé stessa. covarianza, e quindi il coefficiente di correlazione, si annulla se due variabili sono fra loro indipendenti, come abbiamo giustificato intuitivamente sopra e come vedremo formalmente fra breve. come la covarianza entra in modo naturale nel calcolo della varianza di una combinazione lineare di variabili casuali (paragrafo 9.5.2). due variabili sono legate (in modo deterministico) da una relazione lineare, il grado di correlazione misurato da è massimo in modulo (Ò Òä v0)eil suo segno dipende dal fatto che una variabile la^xzy cresca o diminuisca al crescere dell altra, come intuitivamente comprensibile. La figura 9.2 mostra alcuni esempi di variabili doppie discrete in cui è proporzionali all intensità dei punti. Si faccia attenzione come correlazioni complicate possano dare F7.

26 242 Variabili casuali multiple Proprietà formali di covarianza e coefficiente di correlazione Avendo Cov HX_$ x introdotto il concetto E rm di E ŒZm$U covarianza, Em$ Z ² vediamo il modo con cui essa viene calcolata a partire dalla definizione. E ëý M \ D rm µ;$` J E JZ Y µem$šê $üµe J4" Em$šZÓ²^4XZY[ddYVì E JʵEm$ ³² E N$ Ê E ŒpµEm$ (9.19) Il secondo passaggio, fra parentesi, mostra il modo di calcolare la covarianza dalla definizione operativa (avendo preso come esempio il caso di variabili continue). In realtà la (9.19) rappresenta il modo più semplice per calcolare la covarianza, in analogia alla formula che esprime la varianza come media dei quadrati meno il quadrato della media. Infatti, anche la (9.19) può essere letta come media del prodotto meno il prodotto delle medie. Per quanto riguarda E H$, esso non è in genere risolvibile in termine di altre grandezze note e va calcolato dalla definizione operativa, che, per variabili continue, è E `$ \ øyo4xzy[ Y¹Q (9.20) ^XZY M^µ Y[9X Esiste un solo caso notevole in cui è possibile evitare di fare l integrale doppio. Se ovvero$ e$ sono fra loro indipendenti, possiano riscrivere l integrale doppio come prodotto di due integrali: E þ$šv E ŒÊµEm$ 9Q # e µ3 YOY %Y (9.21) E ŒÊµEm$ Ê E JʵEm$š\ 7: se due variabili casuali sono indipendenti, la loro covarianza è nulla. Ne segue, allora, che Cov HX_$š Si faccia attenzione a questa affermazione. Essa si basa sulla definizione di indipendenza stocastica espressa dalla4xzy[ LzY[e non significa che non esista alcun legame fra i possibili valori delle due variabili. La covarianza nulla implica soltanto l assenza di piano ÅX_$ una correlazione di tipo lineare, come si vedrà fra breve quando vedremo i casi che massimizzanoò Ò. Due variabili possono essere fortemente dipendenti pur avendo covarianza nulla. Un caso clamoroso è quello di punti nel distribuiti lungo una circonferenza. 4 Se per semplicità poniamo il centro del cerchio nell origine è facile 4 Per mostrare come le variabili eš del caso del cerchio siano non indipendenti, nonostante la distribuzione congiunta dia covarianza nulla, si pensi alla pdf condizionataºƒr ˆ.Ž, ottenuta affettando il cerchio per un certo valore di D þˆ. Chiaramente la forma di ºƒr ˆ.Ždipenderà dal valore diˆscelto e, in ogni caso, sarà diversa dalla proiezione ºƒr 3Ž.

27 ê"š0 9.5 Covarianza e coefficiente di correlazione E `$ 243 verificare che sono nulli E J, Em$ e e quindi anche la covarianza (vedi figura 9.2). Calcoliamo ora covarianza e $u À &" 4Q coefficiente di correlazione fra due variabili linearmente dipendenti, ovvero legate da una relazione del tipo Utilizzando i simboli compatti ^df E Œe g8 Em$š, abbiamo: Cov ÅX_$x 8 d E r ß ed m$þ Œ g8k³² J ed m / "' K ß À ed! y³² (9.23) E ¹ K d ß ed¹ J ed¹³² (9.24) da cui d d Ò eòq (9.25) Quindi, in caso di dipendenza lineare, il coefficiente di correlazione vale 0a seconda che il coefficiente angolare 0} sia positivo o negativo. Si può dimostrare che, in generale, (9.26) e il grado di correlazione lineare fra due variabili è misurato daò Ò.. g8 À ed"' (9.22) K d! F" ã$ Dimostrazione della (9.26): ÊÀ consideriamo la variabile casuale La varianza di d " 8 [d 8 7 Q è, per definizione, non negativa per qualsiasi valore di : "'? (9.27) ªdK8 Ê 7, 8 Q e dd 8 8 M0pX (9.28) di La dipendenza pda è parabolico. Essendo questo sarà vero anche quandog passume il valore minimo, in corrispondenza di kh ` Sostituendo nella (9.27) si ottiene da cui segue la (9.26).

28 Matrice Esempi 244 Variabili casuali multiple 9.6 õ di covarianza e matrice di correlazione Siamo giunti a sintetizzare l incertezza su una coppia di variabili con tre valori: due varianze e una covarianza, o, f 02 equivalentemente, due deviazioni standard e un coefficiente di correlazione. Nel caso di ( ŒI,.? "02? variabili. h),. (9.29) informazioni indipendenti. Talvolta è preferibile kt utilizzare una rappresentazione compatta di queste grandezze mediante la cosidetta E r k matrice E kz di correlazione, t una matrice quadrata i cui termini sono dati da Infatti, i termini diagonali (quandob uq) danno le varianze, mentre gli altri servono! " E tz³²kq (9.30) ei Cov IXZ Cov 6I;XZ e Var fi;xz XZ µyµyµ µyµyµ µyµyµ h Var IXZ h Var XZ h µyµyµ e h (quandob Ö 'q) danno le covarianze. In forma matriciale, abbiamo: (9.31) La matrice è simmetrica, come è facile verificare, e quindi i termini indipendenti sono esattamente "02Z1@? come richiesto dalla (9.29). Alternativamente, a volte kxz può essere t\ conveniente presentare l incertezza dei dati mediante la matrice di correlazione, kt kt X i cui elementi sono dati da ovvero a 6I;XZ 0 6I;XZ µyµyµ µyµyµ µyµyµ XZ h h XZ hžµyµyµ 0 (9.32) 0 6I;XZ µyµyµ 6I XZ h Come si vede, nel passaggio dalla matrice di covarianza alla matrice di correlazione si perdono le informazioni sulle deviazioni standard (gli elementi della diagonale sono tutti unitari). Quindi, qualora si preferisca questo modo di condensare la distribuzione, le deviazione standard devono essere fornite separatamente. 9.7 õ di variabili doppie discrete Per chiarire alcuni dei concetti appena illustrati e per introduzione altre problematiche che seguiranno, facciamo l esempio di costruzione di variabili doppie discrete a partire da eventi elementari. Immaginiamo di dover effettuare una serie di esperimenti che consistono nel lancio di tre monete e nell estrazione di una carta scelta a caso fra due. Per

29 : $ 9.7 k Esempi di variabili doppie discrete HX{ m$/x{ ¹ XZ J X{ ¹ 245 ATTT (3,2) (0,2) (1,3) (1,2) ATTC (2,1) (1,1) (1,2) (1,1) ATCT (2,0) (1,0) (1,2) (1,0) ATCC (1,0) (2,0) (1,1) (1,0) ACTT (2,1) (1,1) (1,2) (1,1) ACTC (1,0) (2,0) (1,1) (1,0) ACCT (1,0) (2,0) (1,1) (1,0) ACCC (0,0) (3,0) (1,0) (1,0) RTTT (3,2) (0,2) (0,3) (0,2) RTTC (2,1) (1,1) (0,2) (0,1) RTCT (2,0) (1,0) (0,2) (0,0) RTCC (1,0) (2,0) (0,1) (0,0) RCTT (2,1) (1,1) (0,2) (0,1) RCTC (1,0) (2,0) (0,1) (0,0) RCCT (1,0) (2,0) (0,1) (0,0) RCCC (0,0) (3,0) (0,0) (0,0) Ü Tabella 9.3: Variabili casuali costruite sugli eventi elementari costituiti dai possibili esiti di tre lanci di monete e dell estrazione di una carta da gioco:ù : numero di teste; : numero di croci; : numero di teste consecutive; : numero di assi. (Ô ogni moneta si può verificare Testa o Croce, mentre supponiamo che i valori delle due carte siano Asso ) e Re ( ). Per ogni evento possiamo costruire diverse $ variabili casuali, per esempio: : numero di teste; : numero di croci; numero di teste consecutive; : numero di assi; XZ Œe X{ doppie ÅX{ ¹,m$/X{ Inoltre possiamo costruire a partire da queste tutte le possibili combinazioni di variabili multiple. Ci limitiamo alle variabili ¹, ¹. Riportiamo i risultati nella tabella 9.3 Da questa tabella ci possiamo calcolare tutte le distribuzioni di probabilità di interesse applicando le relazioni viste nei paragrafi precedenti. Cominciamo con le variabili HX{ ¹ 4X_æV 4X_æV (0,0) 2/16 (1,0) 6/16 (2,0) 2/16 (2,1) 4/16 (3,2) 2/16

30 æ Variabili casuali multiple j! Da questa possiamo ricavare le distribuzioni marginali di e. Per esempio, per ottenereebisogna, per ogni valore di él 9 4X_æV{Q, integrare su tutti i valori di :? 1G0#"ã u021@b e " 1G0#"ã MP 1@B 0? 1G0#"ã u021@b "CùV1G0#" K FP 1@B 1 2? 1G0#" 3? 1G0#" "" 1G0#" "? 1G0#" À Mû 1@B mæg F? 1@B `021@B 0 1 ùv1g0#" 2? 1G0#" Come si vede dalla tabella, la distribuzione di ÅX{ marginale di una certa variabile calcolata dalla formula è esattamente quella che si otterrebbe esaminando la tabella ove sono riportati gli eventi elementari e ignorando tutte le altre variabili. Dalla distribuzione di probabilità ¹ci possiamo costruire anche le distribuzioni condizionališò æv. Come detto, di queste distribuzioni ne esiste una per ogni valore di. È interessante, in questo semplice caso, confrontare il risultato che si ottiene contando il numero di casi favorevoli e il numero di casi possibili con quello che si otterrebbe applicando le formule delle variabili condizionali viste sopra:? 1G0y7 Òæã 7% $&% sél('*) " 1G0y7 `021@û `021@û $&% 0? 1G0y7 FP 1@û `021@û FP 1@û `021@û, +0/ 1 +0/ 2 Òæ `02 +0/ éli) $1% séli) Òæã F? él) $1% sél) *+I-, +I-, *+I-, él('*) `0 +I-, $1% 2 1 *+0/ u0 *+I-, $1% 3 1 I+0/ Queste sono le altre distribuzioni di variabili doppie ottenibili dalla tabella degli eventi elementari 5 : 5 Si ricorda che la lettera minuscola di 2 è 3.

31 9.7 Esempi di variabili doppie discrete 247 YX_æV YX_æV (0,2) 2/16 (1,0) 2/16 (1,1) 4/16 (2,0) 6/16 (3,0) 2/16 54zXZ 54zXZe (0,0) 1/16 (0,1) 3/16 (0,2) 3/16 (0,3) 1/16 (1,0) 1/16 (1,1) 3/16 (1,2) 3/16 (1,3) 1/16 54zX_æV 54zX_æV (0,0) 5/16 (0,1) 2/16 (0,2) 1/16 (1,0) 5/16 (1,1) 2/16 (1,2) 1/16 La distribuzione marginale di è 4 54% 0 1/2 1 1/2 Come ultimo esempio ci costruiamo la distribuzione condizionale di sotto la condizione 7. Ò4 F7% `021@B $1% s6l('*) I+ç FP 1@B `021@B $1% 6l('*) I+I-, 0 1/8 ~+I-, 1 3/8 ~+I-, 2 3/8 I+I-, 3 1/8 7 Da quest ultima tabella si vede che che la distribuzione di sotto la condizione è uguale a quella marginale di, contrariamente a quanto accadeva quando la variabile condizionante era. Questo corrisponde al fatto che, mentre lo stato di conoscenza del numero di teste consecutive condiziona il grado di fiducia del numero di teste, questo non è influenzato dal sapere se si è verificato un E Œv Asso o un 7}µ0 Re. Calcoliamo ora valori attesi di ciascuna variabile: B ùb B "!0OµPB "'?¹µPB "'P µ0 EÝ ¹x 7}µûB "!0Oµ?B "'?¹µ0 Em$ x 7}µ0 B "!0OµPB "'?¹µPB "'P µ0 E/x 7}µ B "0äµ B 0 0#" 0#" B 0;? B B 0;? B? (9.33)

32 P P 248 Variabili casuali multiple Per quanto riguarda E o la deviazione 7 µ0 standard, svolgiamo in dettaglio il calcolo di \ Œ, lasciando gli altri conti come esercizio: 0;? \ Jx ù 87 7zQSB T B:9 \m$šo ; ù 7zQSB T \Ý ¹o ;? 7zQÿTG0 \/o ; ; Var Œv?3ù B B "F0 µpb "'? µpb "'P µ0 ùp B?3ù B 0 ù 0 7zQSû (9.34) 1. HX{ Per quanto riguarda le covarianze e coefficienti di correlazione "" µ0 abbiamo: ¹: Cov HX{ ÅX{ v 0y7 B 0;? B µùb? 0 ¹v 7zQSBz0 (9.35) 2.m$ÀX{ >= (9.36) ¹: E L ¹o 7}µûB "'?¹µ?B B 0y7 B 3.OX{ : Em$' ¹x 7 µ"b "0 µ?b?b Covm$ÀX{ m$/x{?b 0;? B ùb ` 0 ¹v ä7zqsbz0 = 7¹µ0;P "0 µ? "? µ 0 ù 0 Cov X{ ù X{ ¹o ù0? 0 0 ¹x? F7 0#" 0#" 0#" 0#" (9.39) = E ¹o? (9.37) (9.38) (9.40) Il coefficiente di correlazione fra il numero di teste consecutive e il numero di teste è positivo; fra il numero di teste consecutive e il numero di croci è negativo; fra il numero di teste consecutive e il numero di assi è nullo. Questo è in accordo con quanto ci si aspetta da una grandezza atta a quantificare il grado

1. Distribuzioni campionarie

1. Distribuzioni campionarie Università degli Studi di Basilicata Facoltà di Economia Corso di Laurea in Economia Aziendale - a.a. 2012/2013 lezioni di statistica del 3 e 6 giugno 2013 - di Massimo Cristallo - 1. Distribuzioni campionarie

Dettagli

Matematica generale CTF

Matematica generale CTF Successioni numeriche 19 agosto 2015 Definizione di successione Monotonìa e limitatezza Forme indeterminate Successioni infinitesime Comportamento asintotico Criterio del rapporto per le successioni Definizione

Dettagli

1 Serie di Taylor di una funzione

1 Serie di Taylor di una funzione Analisi Matematica 2 CORSO DI STUDI IN SMID CORSO DI ANALISI MATEMATICA 2 CAPITOLO 7 SERIE E POLINOMI DI TAYLOR Serie di Taylor di una funzione. Definizione di serie di Taylor Sia f(x) una funzione definita

Dettagli

Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B. Evento prodotto: Evento in cui si verifica sia A che B ; p(a&b) = p(a) x p(b/a)

Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B. Evento prodotto: Evento in cui si verifica sia A che B ; p(a&b) = p(a) x p(b/a) Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B Eventi indipendenti: un evento non influenza l altro Eventi disgiunti: il verificarsi di un evento esclude l altro Evento prodotto:

Dettagli

Probabilità II Variabili casuali discrete

Probabilità II Variabili casuali discrete Probabilità II Variabili casuali discrete Definizioni principali. Valore atteso e Varianza. Teorema di Bienaymé - Čebičev. V.C. Notevoli: Bernoulli e Binomiale. Concetto di variabile casuale Cos'è una

Dettagli

Relazioni statistiche: regressione e correlazione

Relazioni statistiche: regressione e correlazione Relazioni statistiche: regressione e correlazione È detto studio della connessione lo studio si occupa della ricerca di relazioni fra due variabili statistiche o fra una mutabile e una variabile statistica

Dettagli

PROBABILITÀ - SCHEDA N. 2 LE VARIABILI ALEATORIE

PROBABILITÀ - SCHEDA N. 2 LE VARIABILI ALEATORIE Matematica e statistica: dai dati ai modelli alle scelte www.dima.unige/pls_statistica Responsabili scientifici M.P. Rogantin e E. Sasso (Dipartimento di Matematica Università di Genova) PROBABILITÀ -

Dettagli

Capitolo 4 Probabilità

Capitolo 4 Probabilità Levine, Krehbiel, Berenson Statistica II ed. 2006 Apogeo Capitolo 4 Probabilità Insegnamento: Statistica Corso di Laurea Triennale in Economia Facoltà di Economia, Università di Ferrara Docenti: Dott.

Dettagli

Calcolo delle probabilità

Calcolo delle probabilità Calcolo delle probabilità Laboratorio di Bioinformatica Corso A aa 2005-2006 Statistica Dai risultati di un esperimento si determinano alcune caratteristiche della popolazione Calcolo delle probabilità

Dettagli

LE SUCCESSIONI 1. COS E UNA SUCCESSIONE

LE SUCCESSIONI 1. COS E UNA SUCCESSIONE LE SUCCESSIONI 1. COS E UNA SUCCESSIONE La sequenza costituisce un esempio di SUCCESSIONE. Ecco un altro esempio di successione: Una successione è dunque una sequenza infinita di numeri reali (ma potrebbe

Dettagli

LEZIONE 3. Ing. Andrea Ghedi AA 2009/2010. Ing. Andrea Ghedi AA 2009/2010

LEZIONE 3. Ing. Andrea Ghedi AA 2009/2010. Ing. Andrea Ghedi AA 2009/2010 LEZIONE 3 "Educare significa aiutare l'animo dell'uomo ad entrare nella totalità della realtà. Non si può però educare se non rivolgendosi alla libertà, la quale definisce il singolo, l'io. Quando uno

Dettagli

1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario:

1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario: Esempi di domande risposta multipla (Modulo II) 1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario: 1) ha un numero di elementi pari a 5; 2) ha un numero di elementi

Dettagli

E naturale chiedersi alcune cose sulla media campionaria x n

E naturale chiedersi alcune cose sulla media campionaria x n Supponiamo che un fabbricante stia introducendo un nuovo tipo di batteria per un automobile elettrica. La durata osservata x i delle i-esima batteria è la realizzazione (valore assunto) di una variabile

Dettagli

LE FUNZIONI A DUE VARIABILI

LE FUNZIONI A DUE VARIABILI Capitolo I LE FUNZIONI A DUE VARIABILI In questo primo capitolo introduciamo alcune definizioni di base delle funzioni reali a due variabili reali. Nel seguito R denoterà l insieme dei numeri reali mentre

Dettagli

Statistica inferenziale

Statistica inferenziale Statistica inferenziale Popolazione e campione Molto spesso siamo interessati a trarre delle conclusioni su persone che hanno determinate caratteristiche (pazienti, atleti, bambini, gestanti, ) Osserveremo

Dettagli

Basi di matematica per il corso di micro

Basi di matematica per il corso di micro Basi di matematica per il corso di micro Microeconomia (anno accademico 2006-2007) Lezione del 21 Marzo 2007 Marianna Belloc 1 Le funzioni 1.1 Definizione Una funzione è una regola che descrive una relazione

Dettagli

Il concetto di valore medio in generale

Il concetto di valore medio in generale Il concetto di valore medio in generale Nella statistica descrittiva si distinguono solitamente due tipi di medie: - le medie analitiche, che soddisfano ad una condizione di invarianza e si calcolano tenendo

Dettagli

La distribuzione Normale. La distribuzione Normale

La distribuzione Normale. La distribuzione Normale La Distribuzione Normale o Gaussiana è la distribuzione più importante ed utilizzata in tutta la statistica La curva delle frequenze della distribuzione Normale ha una forma caratteristica, simile ad una

Dettagli

Indice Prefazione xiii 1 Probabilità

Indice Prefazione xiii 1 Probabilità Prefazione xiii 1 Probabilità 1 1.1 Origini del Calcolo delle Probabilità e della Statistica 1 1.2 Eventi, stato di conoscenza, probabilità 4 1.3 Calcolo Combinatorio 11 1.3.1 Disposizioni di n elementi

Dettagli

Per lo svolgimento del corso risulta particolarmente utile considerare l insieme

Per lo svolgimento del corso risulta particolarmente utile considerare l insieme 1. L insieme R. Per lo svolgimento del corso risulta particolarmente utile considerare l insieme R = R {, + }, detto anche retta reale estesa, che si ottiene aggiungendo all insieme dei numeri reali R

Dettagli

u 1 u k che rappresenta formalmente la somma degli infiniti numeri (14.1), ordinati al crescere del loro indice. I numeri u k

u 1 u k che rappresenta formalmente la somma degli infiniti numeri (14.1), ordinati al crescere del loro indice. I numeri u k Capitolo 4 Serie numeriche 4. Serie convergenti, divergenti, indeterminate Data una successione di numeri reali si chiama serie ad essa relativa il simbolo u +... + u +... u, u 2,..., u,..., (4.) oppure

Dettagli

Un po di statistica. Christian Ferrari. Laboratorio di Matematica

Un po di statistica. Christian Ferrari. Laboratorio di Matematica Un po di statistica Christian Ferrari Laboratorio di Matematica 1 Introduzione La statistica è una parte della matematica applicata che si occupa della raccolta, dell analisi e dell interpretazione di

Dettagli

SPC e distribuzione normale con Access

SPC e distribuzione normale con Access SPC e distribuzione normale con Access In questo articolo esamineremo una applicazione Access per il calcolo e la rappresentazione grafica della distribuzione normale, collegata con tabelle di Clienti,

Dettagli

VARIABILI ALEATORIE MULTIPLE E TEOREMI ASSOCIATI. Dopo aver trattato delle distribuzioni di probabilità di una variabile aleatoria, che

VARIABILI ALEATORIE MULTIPLE E TEOREMI ASSOCIATI. Dopo aver trattato delle distribuzioni di probabilità di una variabile aleatoria, che VARIABILI ALATORI MULTIPL TORMI ASSOCIATI Fonti: Cicchitelli Dall Aglio Mood-Grabill. Moduli 6 9 0 del programma. VARIABILI ALATORI DOPPI Dopo aver trattato delle distribuzioni di probabilità di una variabile

Dettagli

Una sperimentazione. Probabilità. Una previsione. Calcolo delle probabilità. Nonostante ciò, è possibile dire qualcosa.

Una sperimentazione. Probabilità. Una previsione. Calcolo delle probabilità. Nonostante ciò, è possibile dire qualcosa. Una sperimentazione Probabilità Si sta sperimentando l efficacia di un nuovo farmaco per il morbo di Parkinson. Duemila pazienti partecipano alla sperimentazione: metà di essi vengono trattati con il nuovo

Dettagli

Slide Cerbara parte1 5. Le distribuzioni teoriche

Slide Cerbara parte1 5. Le distribuzioni teoriche Slide Cerbara parte1 5 Le distribuzioni teoriche I fenomeni biologici, demografici, sociali ed economici, che sono il principale oggetto della statistica, non sono retti da leggi matematiche. Però dalle

Dettagli

Statistica e biometria. D. Bertacchi. Variabili aleatorie. V.a. discrete e continue. La densità di una v.a. discreta. Esempi.

Statistica e biometria. D. Bertacchi. Variabili aleatorie. V.a. discrete e continue. La densità di una v.a. discreta. Esempi. Iniziamo con definizione (capiremo fra poco la sua utilità): DEFINIZIONE DI VARIABILE ALEATORIA Una variabile aleatoria (in breve v.a.) X è funzione che ha come dominio Ω e come codominio R. In formule:

Dettagli

Riassunto 24 Parole chiave 24 Commenti e curiosità 25 Esercizi 27 Appendice

Riassunto 24 Parole chiave 24 Commenti e curiosità 25 Esercizi 27 Appendice cap 0 Romane - def_layout 1 12/06/12 07.51 Pagina V Prefazione xiii Capitolo 1 Nozioni introduttive 1 1.1 Introduzione 1 1.2 Cenni storici sullo sviluppo della Statistica 2 1.3 La Statistica nelle scienze

Dettagli

Lezione 10: Il problema del consumatore: Preferenze e scelta ottimale

Lezione 10: Il problema del consumatore: Preferenze e scelta ottimale Corso di Scienza Economica (Economia Politica) prof. G. Di Bartolomeo Lezione 10: Il problema del consumatore: Preferenze e scelta ottimale Facoltà di Scienze della Comunicazione Università di Teramo Scelta

Dettagli

Probabilità discreta

Probabilità discreta Probabilità discreta Daniele A. Gewurz 1 Che probabilità c è che succeda...? Una delle applicazioni della combinatoria è nel calcolo di probabilità discrete. Quando abbiamo a che fare con un fenomeno che

Dettagli

Analisi di dati di frequenza

Analisi di dati di frequenza Analisi di dati di frequenza Fase di raccolta dei dati Fase di memorizzazione dei dati in un foglio elettronico 0 1 1 1 Frequenze attese uguali Si assuma che dalle risposte al questionario sullo stato

Dettagli

Dimensione di uno Spazio vettoriale

Dimensione di uno Spazio vettoriale Capitolo 4 Dimensione di uno Spazio vettoriale 4.1 Introduzione Dedichiamo questo capitolo ad un concetto fondamentale in algebra lineare: la dimensione di uno spazio vettoriale. Daremo una definizione

Dettagli

Premesse alla statistica

Premesse alla statistica Premesse alla statistica Versione 22.10.08 Premesse alla statistica 1 Insiemi e successioni I dati di origine sperimentale si presentano spesso non come singoli valori, ma come insiemi di valori. Richiamiamo

Dettagli

Misure della dispersione o della variabilità

Misure della dispersione o della variabilità QUARTA UNITA Misure della dispersione o della variabilità Abbiamo visto che un punteggio di per sé non ha alcun significato e lo acquista solo quando è posto a confronto con altri punteggi o con una statistica.

Dettagli

Capitolo 2 Distribuzioni di frequenza

Capitolo 2 Distribuzioni di frequenza Edizioni Simone - Vol. 43/1 Compendio di statistica Capitolo 2 Distribuzioni di frequenza Sommario 1. Distribuzioni semplici. - 2. Distribuzioni doppie. - 3. Distribuzioni parziali: condizionate e marginali.

Dettagli

Capitolo 13: L offerta dell impresa e il surplus del produttore

Capitolo 13: L offerta dell impresa e il surplus del produttore Capitolo 13: L offerta dell impresa e il surplus del produttore 13.1: Introduzione L analisi dei due capitoli precedenti ha fornito tutti i concetti necessari per affrontare l argomento di questo capitolo:

Dettagli

Appunti sulla Macchina di Turing. Macchina di Turing

Appunti sulla Macchina di Turing. Macchina di Turing Macchina di Turing Una macchina di Turing è costituita dai seguenti elementi (vedi fig. 1): a) una unità di memoria, detta memoria esterna, consistente in un nastro illimitato in entrambi i sensi e suddiviso

Dettagli

2 + (σ2 - ρσ 1 ) 2 > 0 [da -1 ρ 1] b = (σ 2. 2 - ρσ1 σ 2 ) = (σ 1

2 + (σ2 - ρσ 1 ) 2 > 0 [da -1 ρ 1] b = (σ 2. 2 - ρσ1 σ 2 ) = (σ 1 1 PORTAFOGLIO Portafoglio Markowitz (2 titoli) (rischiosi) due titoli rendimento/varianza ( μ 1, σ 1 ), ( μ 2, σ 2 ) Si suppone μ 1 > μ 2, σ 1 > σ 2 portafoglio con pesi w 1, w 2 w 1 = w, w 2 = 1- w 1

Dettagli

Facciamo qualche precisazione

Facciamo qualche precisazione Abbiamo introdotto alcuni indici statistici (di posizione, di variabilità e di forma) ottenibili da Excel con la funzione Riepilogo Statistiche Facciamo qualche precisazione Al fine della partecipazione

Dettagli

Calcolo delle Probabilità

Calcolo delle Probabilità Calcolo delle Probabilità Il calcolo delle probabilità studia i modelli matematici delle cosidette situazioni di incertezza. Molte situazioni concrete sono caratterizzate a priori da incertezza su quello

Dettagli

Test statistici di verifica di ipotesi

Test statistici di verifica di ipotesi Test e verifica di ipotesi Test e verifica di ipotesi Il test delle ipotesi consente di verificare se, e quanto, una determinata ipotesi (di carattere biologico, medico, economico,...) è supportata dall

Dettagli

matematica probabilmente

matematica probabilmente IS science centre immaginario scientifico Laboratorio dell'immaginario Scientifico - Trieste tel. 040224424 - fax 040224439 - e-mail: lis@lis.trieste.it - www.immaginarioscientifico.it indice Altezze e

Dettagli

Calcolo delle Probabilità A.A. 2013/2014 Corso di Studi in Statistica per l Analisi dei dati Università degli Studi di Palermo

Calcolo delle Probabilità A.A. 2013/2014 Corso di Studi in Statistica per l Analisi dei dati Università degli Studi di Palermo Calcolo delle Probabilità A.A. 2013/2014 Corso di Studi in Statistica per l Analisi dei dati Università degli Studi di Palermo docente Giuseppe Sanfilippo http://www.unipa.it/sanfilippo giuseppe.sanfilippo@unipa.it

Dettagli

Capitolo 2. Operazione di limite

Capitolo 2. Operazione di limite Capitolo 2 Operazione di ite In questo capitolo vogliamo occuparci dell operazione di ite, strumento indispensabile per scoprire molte proprietà delle funzioni. D ora in avanti riguarderemo i domini A

Dettagli

Lezione n. 2 (a cura di Chiara Rossi)

Lezione n. 2 (a cura di Chiara Rossi) Lezione n. 2 (a cura di Chiara Rossi) QUANTILE Data una variabile casuale X, si definisce Quantile superiore x p : X P (X x p ) = p Quantile inferiore x p : X P (X x p ) = p p p=0.05 x p x p Graficamente,

Dettagli

LA CORRELAZIONE LINEARE

LA CORRELAZIONE LINEARE LA CORRELAZIONE LINEARE La correlazione indica la tendenza che hanno due variabili (X e Y) a variare insieme, ovvero, a covariare. Ad esempio, si può supporre che vi sia una relazione tra l insoddisfazione

Dettagli

Stima per intervalli Nei metodi di stima puntuale è sempre presente un ^ errore θ θ dovuto al fatto che la stima di θ in genere non coincide con il parametro θ. Sorge quindi l esigenza di determinare una

Dettagli

4 3 4 = 4 x 10 2 + 3 x 10 1 + 4 x 10 0 aaa 10 2 10 1 10 0

4 3 4 = 4 x 10 2 + 3 x 10 1 + 4 x 10 0 aaa 10 2 10 1 10 0 Rappresentazione dei numeri I numeri che siamo abituati ad utilizzare sono espressi utilizzando il sistema di numerazione decimale, che si chiama così perché utilizza 0 cifre (0,,2,3,4,5,6,7,8,9). Si dice

Dettagli

L espressione torna invece sempre vera (quindi la soluzione originale) se cambiamo contemporaneamente il verso: 1 < 0.

L espressione torna invece sempre vera (quindi la soluzione originale) se cambiamo contemporaneamente il verso: 1 < 0. EQUAZIONI E DISEQUAZIONI Le uguaglianze fra espressioni numeriche si chiamano equazioni. Cercare le soluzioni dell equazione vuol dire cercare quelle combinazioni delle lettere che vi compaiono che la

Dettagli

MICROECONOMIA La teoria del consumo: Alcuni Arricchimenti. Enrico Saltari Università di Roma La Sapienza

MICROECONOMIA La teoria del consumo: Alcuni Arricchimenti. Enrico Saltari Università di Roma La Sapienza MICROECONOMIA La teoria del consumo: Alcuni Arricchimenti Enrico Saltari Università di Roma La Sapienza 1 Dotazioni iniziali Il consumatore dispone ora non di un dato reddito monetario ma di un ammontare

Dettagli

La categoria «ES» presenta (di solito) gli stessi comandi

La categoria «ES» presenta (di solito) gli stessi comandi Utilizzo delle calcolatrici FX 991 ES+ Parte II PARMA, 11 Marzo 2014 Prof. Francesco Bologna bolfra@gmail.com ARGOMENTI DELLA LEZIONE 1. Richiami lezione precedente 2.Calcolo delle statistiche di regressione:

Dettagli

Cosa dobbiamo già conoscere?

Cosa dobbiamo già conoscere? Cosa dobbiamo già conoscere? Insiemistica (operazioni, diagrammi...). Insiemi finiti/numerabili/non numerabili. Perché la probabilità? In molti esperimenti l esito non è noto a priori tuttavia si sa dire

Dettagli

PROBABILITA CONDIZIONALE

PROBABILITA CONDIZIONALE Riferendoci al lancio di un dado, indichiamo con A l evento esce un punteggio inferiore a 4 A ={1, 2, 3} B l evento esce un punteggio dispari B = {1, 3, 5} Non avendo motivo per ritenere il dado truccato,

Dettagli

2. Leggi finanziarie di capitalizzazione

2. Leggi finanziarie di capitalizzazione 2. Leggi finanziarie di capitalizzazione Si chiama legge finanziaria di capitalizzazione una funzione atta a definire il montante M(t accumulato al tempo generico t da un capitale C: M(t = F(C, t C t M

Dettagli

INTEGRALI DEFINITI. Tale superficie viene detta trapezoide e la misura della sua area si ottiene utilizzando il calcolo di un integrale definito.

INTEGRALI DEFINITI. Tale superficie viene detta trapezoide e la misura della sua area si ottiene utilizzando il calcolo di un integrale definito. INTEGRALI DEFINITI Sia nel campo scientifico che in quello tecnico si presentano spesso situazioni per affrontare le quali è necessario ricorrere al calcolo dell integrale definito. Vi sono infatti svariati

Dettagli

RELAZIONE TRA VARIABILI QUANTITATIVE. Lezione 7 a. Accade spesso nella ricerca in campo biomedico, così come in altri campi della

RELAZIONE TRA VARIABILI QUANTITATIVE. Lezione 7 a. Accade spesso nella ricerca in campo biomedico, così come in altri campi della RELAZIONE TRA VARIABILI QUANTITATIVE Lezione 7 a Accade spesso nella ricerca in campo biomedico, così come in altri campi della scienza, di voler studiare come il variare di una o più variabili (variabili

Dettagli

Corso di. Dott.ssa Donatella Cocca

Corso di. Dott.ssa Donatella Cocca Corso di Statistica medica e applicata Dott.ssa Donatella Cocca 1 a Lezione Cos'è la statistica? Come in tutta la ricerca scientifica sperimentale, anche nelle scienze mediche e biologiche è indispensabile

Dettagli

EQUAZIONI DIFFERENZIALI. 1. Trovare tutte le soluzioni delle equazioni differenziali: (a) x = x 2 log t (d) x = e t x log x (e) y = y2 5y+6

EQUAZIONI DIFFERENZIALI. 1. Trovare tutte le soluzioni delle equazioni differenziali: (a) x = x 2 log t (d) x = e t x log x (e) y = y2 5y+6 EQUAZIONI DIFFERENZIALI.. Trovare tutte le soluzioni delle equazioni differenziali: (a) x = x log t (d) x = e t x log x (e) y = y 5y+6 (f) y = ty +t t +y (g) y = y (h) xy = y (i) y y y = 0 (j) x = x (k)

Dettagli

La misura degli angoli

La misura degli angoli La misura degli angoli In questa dispensa introduciamo la misura degli angoli, sia in gradi che in radianti, e le formule di conversione. Per quanto riguarda l introduzione del radiante, per facilitarne

Dettagli

Siamo così arrivati all aritmetica modulare, ma anche a individuare alcuni aspetti di come funziona l aritmetica del calcolatore come vedremo.

Siamo così arrivati all aritmetica modulare, ma anche a individuare alcuni aspetti di come funziona l aritmetica del calcolatore come vedremo. DALLE PESATE ALL ARITMETICA FINITA IN BASE 2 Si è trovato, partendo da un problema concreto, che con la base 2, utilizzando alcune potenze della base, operando con solo addizioni, posso ottenere tutti

Dettagli

Programmazione Matematica classe V A. Finalità

Programmazione Matematica classe V A. Finalità Finalità Acquisire una formazione culturale equilibrata in ambito scientifico; comprendere i nodi fondamentali dello sviluppo del pensiero scientifico, anche in una dimensione storica, e i nessi tra i

Dettagli

CAPITOLO 16 SUCCESSIONI E SERIE DI FUNZIONI

CAPITOLO 16 SUCCESSIONI E SERIE DI FUNZIONI CAPITOLO 16 SUCCESSIONI E SERIE DI FUNZIONI Abbiamo studiato successioni e serie numeriche, ora vogliamo studiare successioni e serie di funzioni. Dato un insieme A R, chiamiamo successione di funzioni

Dettagli

La variabile casuale Binomiale

La variabile casuale Binomiale La variabile casuale Binomiale Si costruisce a partire dalla nozione di esperimento casuale Bernoulliano che consiste in un insieme di prove ripetute con le seguenti caratteristiche: i) ad ogni singola

Dettagli

PROBABILITA. Sono esempi di fenomeni la cui realizzazione non è certa a priori e vengono per questo detti eventi aleatori (dal latino alea, dado)

PROBABILITA. Sono esempi di fenomeni la cui realizzazione non è certa a priori e vengono per questo detti eventi aleatori (dal latino alea, dado) L esito della prossima estrazione del lotto L esito del lancio di una moneta o di un dado Il sesso di un nascituro, così come il suo peso alla nascita o la sua altezza.. Il tempo di attesa ad uno sportello

Dettagli

Controlli Automatici T. Trasformata di Laplace e Funzione di trasferimento. Parte 3 Aggiornamento: Settembre 2010. Prof. L.

Controlli Automatici T. Trasformata di Laplace e Funzione di trasferimento. Parte 3 Aggiornamento: Settembre 2010. Prof. L. Parte 3 Aggiornamento: Settembre 2010 Parte 3, 1 Trasformata di Laplace e Funzione di trasferimento Prof. Lorenzo Marconi DEIS-Università di Bologna Tel. 051 2093788 Email: lmarconi@deis.unibo.it URL:

Dettagli

Esercitazioni 2013/14

Esercitazioni 2013/14 Esercitazioni 2013/14 Esercizio 1 Due ditte V e W partecipano ad una gara di appalto per la costruzione di un tratto di autostrada che viene assegnato a seconda del prezzo. L offerta fatta dalla ditta

Dettagli

Teoria in sintesi 10. Attività di sportello 1, 24 - Attività di sportello 2, 24 - Verifica conclusiva, 25. Teoria in sintesi 26

Teoria in sintesi 10. Attività di sportello 1, 24 - Attività di sportello 2, 24 - Verifica conclusiva, 25. Teoria in sintesi 26 Indice L attività di recupero 6 Funzioni Teoria in sintesi 0 Obiettivo Ricerca del dominio e del codominio di funzioni note Obiettivo Ricerca del dominio di funzioni algebriche; scrittura del dominio Obiettivo

Dettagli

IL CONCETTO DI FENOMENO ALEATORIO

IL CONCETTO DI FENOMENO ALEATORIO IL CONCETTO DI FENOMENO ALEATORIO Osservazione di Fenomeni Naturali (fisici, chimici,...) Sociali (economici, finanziari, psicologici,...) sui quali è difficile fare una previsione a causa di meccanismi

Dettagli

risulta (x) = 1 se x < 0.

risulta (x) = 1 se x < 0. Questo file si pone come obiettivo quello di mostrarvi come lo studio di una funzione reale di una variabile reale, nella cui espressione compare un qualche valore assoluto, possa essere svolto senza necessariamente

Dettagli

Indice. 1 Introduzione alle Equazioni Differenziali 1 1.1 Esempio introduttivo... 1 1.2 Nomenclatura e Teoremi di Esistenza ed Unicità...

Indice. 1 Introduzione alle Equazioni Differenziali 1 1.1 Esempio introduttivo... 1 1.2 Nomenclatura e Teoremi di Esistenza ed Unicità... Indice 1 Introduzione alle Equazioni Differenziali 1 1.1 Esempio introduttivo............................. 1 1.2 Nomenclatura e Teoremi di Esistenza ed Unicità.............. 5 i Capitolo 1 Introduzione

Dettagli

LA STATISTICA si interessa del rilevamento, dell elaborazione e dello studio dei dati; studia ciò che accade o come è fatto un gruppo numeroso di

LA STATISTICA si interessa del rilevamento, dell elaborazione e dello studio dei dati; studia ciò che accade o come è fatto un gruppo numeroso di STATISTICA LA STATISTICA si interessa del rilevamento, dell elaborazione e dello studio dei dati; studia ciò che accade o come è fatto un gruppo numeroso di oggetti; cerca, attraverso l uso della matematica

Dettagli

(concetto classico di probabilità)

(concetto classico di probabilità) Probabilità matematica (concetto classico di probabilità) Teoria ed esempi Introduzione Il calcolo delle probabilità è la parte della matematica che si occupa di prevedere, sulla base di regole e leggi

Dettagli

Capitolo 25: Lo scambio nel mercato delle assicurazioni

Capitolo 25: Lo scambio nel mercato delle assicurazioni Capitolo 25: Lo scambio nel mercato delle assicurazioni 25.1: Introduzione In questo capitolo la teoria economica discussa nei capitoli 23 e 24 viene applicata all analisi dello scambio del rischio nel

Dettagli

Fondamenti e didattica di Matematica Finanziaria

Fondamenti e didattica di Matematica Finanziaria Fondamenti e didattica di Matematica Finanziaria Silvana Stefani Piazza dell Ateneo Nuovo 1-20126 MILANO U6-368 silvana.stefani@unimib.it 1 Unità 9 Contenuti della lezione Operazioni finanziarie, criterio

Dettagli

15 febbraio 2010 - Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a. 2009-2010 COGNOME... NOME... N. MATRICOLA...

15 febbraio 2010 - Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a. 2009-2010 COGNOME... NOME... N. MATRICOLA... 15 febbraio 010 - Soluzione esame di geometria - 1 crediti Ingegneria gestionale - a.a. 009-010 COGNOME.......................... NOME.......................... N. MATRICOLA............. La prova dura

Dettagli

Sommario. Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi.

Sommario. Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi. Algoritmi 1 Sommario Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi. 2 Informatica Nome Informatica=informazione+automatica. Definizione Scienza che si occupa dell

Dettagli

LEZIONE n. 5 (a cura di Antonio Di Marco)

LEZIONE n. 5 (a cura di Antonio Di Marco) LEZIONE n. 5 (a cura di Antonio Di Marco) IL P-VALUE (α) Data un ipotesi nulla (H 0 ), questa la si può accettare o rifiutare in base al valore del p- value. In genere il suo valore è un numero molto piccolo,

Dettagli

Lezioni di Matematica 1 - I modulo

Lezioni di Matematica 1 - I modulo Lezioni di Matematica 1 - I modulo Luciano Battaia 16 ottobre 2008 Luciano Battaia - http://www.batmath.it Matematica 1 - I modulo. Lezione del 16/10/2008 1 / 13 L introduzione dei numeri reali si può

Dettagli

Energia potenziale elettrica e potenziale. In queste pagine R indicherà una regione in cui è presente un campo elettrostatico.

Energia potenziale elettrica e potenziale. In queste pagine R indicherà una regione in cui è presente un campo elettrostatico. Energia potenziale elettrica e potenziale 0. Premessa In queste pagine R indicherà una regione in cui è presente un campo elettrostatico. 1. La forza elettrostatica è conservativa Una o più cariche ferme

Dettagli

Analisi bivariata. Dott. Cazzaniga Paolo. Dip. di Scienze Umane e Sociali paolo.cazzaniga@unibg.it

Analisi bivariata. Dott. Cazzaniga Paolo. Dip. di Scienze Umane e Sociali paolo.cazzaniga@unibg.it Dip. di Scienze Umane e Sociali paolo.cazzaniga@unibg.it Introduzione : analisi delle relazioni tra due caratteristiche osservate sulle stesse unità statistiche studio del comportamento di due caratteri

Dettagli

Introduzione alle relazioni multivariate. Introduzione alle relazioni multivariate

Introduzione alle relazioni multivariate. Introduzione alle relazioni multivariate Introduzione alle relazioni multivariate Associazione e causalità Associazione e causalità Nell analisi dei dati notevole importanza è rivestita dalle relazioni causali tra variabili Date due variabili

Dettagli

STATISTICA IX lezione

STATISTICA IX lezione Anno Accademico 013-014 STATISTICA IX lezione 1 Il problema della verifica di un ipotesi statistica In termini generali, si studia la distribuzione T(X) di un opportuna grandezza X legata ai parametri

Dettagli

Viene lanciata una moneta. Se esce testa vinco 100 euro, se esce croce non vinco niente. Quale è il valore della mia vincita?

Viene lanciata una moneta. Se esce testa vinco 100 euro, se esce croce non vinco niente. Quale è il valore della mia vincita? Viene lanciata una moneta. Se esce testa vinco 00 euro, se esce croce non vinco niente. Quale è il valore della mia vincita? Osserviamo che il valore della vincita dipende dal risultato dell esperimento

Dettagli

OSSERVAZIONI TEORICHE Lezione n. 4

OSSERVAZIONI TEORICHE Lezione n. 4 OSSERVAZIONI TEORICHE Lezione n. 4 Finalità: Sistematizzare concetti e definizioni. Verificare l apprendimento. Metodo: Lettura delle OSSERVAZIONI e risoluzione della scheda di verifica delle conoscenze

Dettagli

lezione 18 AA 2015-2016 Paolo Brunori

lezione 18 AA 2015-2016 Paolo Brunori AA 2015-2016 Paolo Brunori Previsioni - spesso come economisti siamo interessati a prevedere quale sarà il valore di una certa variabile nel futuro - quando osserviamo una variabile nel tempo possiamo

Dettagli

Consideriamo due polinomi

Consideriamo due polinomi Capitolo 3 Il luogo delle radici Consideriamo due polinomi N(z) = (z z 1 )(z z 2 )... (z z m ) D(z) = (z p 1 )(z p 2 )... (z p n ) della variabile complessa z con m < n. Nelle problematiche connesse al

Dettagli

LEZIONE 23. Esempio 23.1.3. Si consideri la matrice (si veda l Esempio 22.2.5) A = 1 2 2 3 3 0

LEZIONE 23. Esempio 23.1.3. Si consideri la matrice (si veda l Esempio 22.2.5) A = 1 2 2 3 3 0 LEZIONE 23 231 Diagonalizzazione di matrici Abbiamo visto nella precedente lezione che, in generale, non è immediato che, data una matrice A k n,n con k = R, C, esista sempre una base costituita da suoi

Dettagli

Test d ipotesi. Statistica e biometria. D. Bertacchi. Test d ipotesi

Test d ipotesi. Statistica e biometria. D. Bertacchi. Test d ipotesi In molte situazioni una raccolta di dati (=esiti di esperimenti aleatori) viene fatta per prendere delle decisioni sulla base di quei dati. Ad esempio sperimentazioni su un nuovo farmaco per decidere se

Dettagli

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione in virgola mobile

Corso di Informatica Generale (C. L. Economia e Commercio) Ing. Valerio Lacagnina Rappresentazione in virgola mobile Problemi connessi all utilizzo di un numero di bit limitato Abbiamo visto quali sono i vantaggi dell utilizzo della rappresentazione in complemento alla base: corrispondenza biunivoca fra rappresentazione

Dettagli

INDICE PREFAZIONE VII

INDICE PREFAZIONE VII INDICE PREFAZIONE VII CAPITOLO 1. LA STATISTICA E I CONCETTI FONDAMENTALI 1 1.1. Un po di storia 3 1.2. Fenomeno collettivo, popolazione, unità statistica 4 1.3. Caratteri e modalità 6 1.4. Classificazione

Dettagli

Esercizi di Calcolo delle Probabilità con Elementi di Statistica Matematica

Esercizi di Calcolo delle Probabilità con Elementi di Statistica Matematica Esercizi di Calcolo delle Probabilità con Elementi di Statistica Matematica Lucio Demeio Dipartimento di Scienze Matematiche Università Politecnica delle Marche 1. Esercizio. Siano X ed Y due variabili

Dettagli

1. PRIME PROPRIETÀ 2

1. PRIME PROPRIETÀ 2 RELAZIONI 1. Prime proprietà Il significato comune del concetto di relazione è facilmente intuibile: due elementi sono in relazione se c è un legame tra loro descritto da una certa proprietà; ad esempio,

Dettagli

Parte 3. Rango e teorema di Rouché-Capelli

Parte 3. Rango e teorema di Rouché-Capelli Parte 3. Rango e teorema di Rouché-Capelli A. Savo Appunti del Corso di Geometria 203-4 Indice delle sezioni Rango di una matrice, 2 Teorema degli orlati, 3 3 Calcolo con l algoritmo di Gauss, 6 4 Matrici

Dettagli

Parte 2. Determinante e matrice inversa

Parte 2. Determinante e matrice inversa Parte. Determinante e matrice inversa A. Savo Appunti del Corso di Geometria 013-14 Indice delle sezioni 1 Determinante di una matrice, 1 Teorema di Cramer (caso particolare), 3 3 Determinante di una matrice

Dettagli

Ottimizazione vincolata

Ottimizazione vincolata Ottimizazione vincolata Ricordiamo alcuni risultati provati nella scheda sulla Teoria di Dini per una funzione F : R N+M R M di classe C 1 con (x 0, y 0 ) F 1 (a), a = (a 1,, a M ), punto in cui vale l

Dettagli

Limiti e continuità delle funzioni reali a variabile reale

Limiti e continuità delle funzioni reali a variabile reale Limiti e continuità delle funzioni reali a variabile reale Roberto Boggiani Versione 4.0 9 dicembre 2003 1 Esempi che inducono al concetto di ite Per introdurre il concetto di ite consideriamo i seguenti

Dettagli

PROBABILITA, VALORE ATTESO E VARIANZA DELLE QUANTITÁ ALEATORIE E LORO RELAZIONE CON I DATI OSSERVATI

PROBABILITA, VALORE ATTESO E VARIANZA DELLE QUANTITÁ ALEATORIE E LORO RELAZIONE CON I DATI OSSERVATI statistica, Università Cattaneo-Liuc, AA 006-007, lezione del 08.05.07 IDICE (lezione 08.05.07 PROBABILITA, VALORE ATTESO E VARIAZA DELLE QUATITÁ ALEATORIE E LORO RELAZIOE CO I DATI OSSERVATI 3.1 Valore

Dettagli

GEOMETRIA DELLE MASSE

GEOMETRIA DELLE MASSE 1 DISPENSA N 2 GEOMETRIA DELLE MASSE Si prende in considerazione un sistema piano, ossia giacente nel pian x-y. Un insieme di masse posizionato nel piano X-Y, rappresentato da punti individuati dalle loro

Dettagli

Esercitazione n.2 Inferenza su medie

Esercitazione n.2 Inferenza su medie Esercitazione n.2 Esercizio L ufficio del personale di una grande società intende stimare le spese mediche familiari dei suoi impiegati per valutare la possibilità di attuare un programma di assicurazione

Dettagli

Statistica descrittiva: prime informazioni dai dati sperimentali

Statistica descrittiva: prime informazioni dai dati sperimentali SECONDO APPUNTAMENTO CON LA SPERIMENTAZIONE IN AGRICOLTURA Statistica descrittiva: prime informazioni dai dati sperimentali La statistica descrittiva rappresenta la base di partenza per le applicazioni

Dettagli