Alcuni appunti per il corso di CALCOLO DELLE PROBABILITÀ 3 Giovanna Nappo A.A. 2009/2010

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Alcuni appunti per il corso di CALCOLO DELLE PROBABILITÀ 3 Giovanna Nappo A.A. 2009/2010"

Transcript

1 Università degli Studi di Roma La Sapienza Anno Accademico Facoltà di Scienze Matematiche Fisiche e Naturali Corso di Laurea Specialistica in Matematica per le Applicazioni Alcuni appunti per il corso di CALCOLO DELLE PROBABILITÀ 3 Giovanna Nappo A.A. 2009/200 versione del..2009

2 Indice Introduzione Programma provvisorio del corso ii iii Richiami su spazi di probabilità. Esempi di spazi di probabilità Variabili aleatorie Distribuzioni di variabili aleatorie Valori attesi Variabili aleatorie in spazi misurabili Misura indotta e Cambio di variabile Variabili gaussiane Costruzione di variabili aleatori in (0, ) Teorema di rappresentazione di Skorohod Costruzione di una succesione di variabili aleatorie indipendenti Convergenza per variabili aleatorie Bibliografia 28 3 ESERCIZI PROPOSTI Esercizi di tipo analitico Esercizi sulla convergenza in distribuzione Esercizi con le funzioni caratteristiche Esercizi sulla condizione di Lindeberg Esercizi sulla legge dei grandi numeri Esercizio riassuntivo

3 ii CP3 -nov-2009 Introduzione Lo scopo di questo corso è quello di riesaminare con gli strumenti più sofisticati (come ad esempio la teoria della misura) alcuni dei concetti principali del Calcolo delle Probabilità, già affrontati nei corsi di Calcolo delle Probabilità e 2. Argomento principale saranno i vari tipi di convergenza per variabili aletaorie e le generalizzazioni della Legge dei Grandi Numeri e del Teorema Centrale del Limite. Come è noto, la Legge (debole) dei Grandi Numeri ed il Teorema Centrale del Limite hanno come soggetto principale una successione {X n } n di variabili aleatorie indipendenti, con funzione di distribuzione data. Nei corsi elementari abbiamo dato per scontato che una tale successione di variabili aleatorie esistesse: in questo corso vedremo come questo fatto sia vero. Il problema va diviso in due parti: primo problema: data una funzione di ripartizione F (ossia una funzione a valori in [0, ], non decrescente, continua da destra e normalizzata) esiste sempre uno spazio di probabilità (Ω, F, P) e una variabile aleatoria X, tale che F X (x) = F (x), dove F X (x) := P(X x)? secondo problema: data una successione di funzioni di distribuzione {F n } n esiste uno spazio di probabilità (Ω, F, P) e una successione di variabili aleatorie {X} n, indipendenti e tali che F Xn (x) = F n (x)? Ci sono due risposte possibili a questa domanda, una dovuta a Kolmogorov e una dovuta a Skorohod: noi accenneremo alla risposta di Kolmogorov, mentre vedremo la risposta di Skorohod in cui lo spazio di probabilità è semplicemente ( ) (0, ), B(0, ), λ (0,), dove B(0, ) è la sigma-algebra dei boreliani e λ (0,) è la misura di Lebesgue ristretta all intervallo (0, ). Questi appunti (parzialmente basati su appunti scritti per altri corsi) non sono in nessun modo completi. Le lezioni sono basate principalmente sui testi di Billingsley [] e di Koch [2]. ATTENZIONE: le notazioni potrebbero differire da quelle usate a lezione. GLI APPUNTI NON SONO ANCORA COMPLETATI(ad esempio, nella sezione sui vari tipi di convergenza, mancano le definizioni), E NON SONO STATI ANCORA CORRETTI. Nel caso più semplice la funzione di distribuzione F Xn è addirittura sempre la stessa, ma, come vedremo questa condizione non è necessaria.

4 CP3 -nov-2009 iii PROGRAMMA PROVVISORIO DEL CORSO CALCOLO DELLE PROBABILITÀ 3 I Semestre, A. A. 2009/0 docente: Giovanna Nappo, (ufficio n.08, tel , nappo@mat.uniroma.it) Prerequisiti: Nozioni di base di Probabilità, acquisibili attraverso i corsi di Calcolo delle Probabilità e 2. In particolare si presuppone che lo studente conosca le nozioni di distribuzione congiunta e le distribuzioni classiche. È inoltre consigliato avere familiarità con i concetti di base di teoria della misura (tali nozioni sono acquisibili nel corso di Analisi Reale). Obiettivi: Studio delle relazioni tra teoria della misura (misure finite) e modelli probabilistici. Studio delle possibili descrizioni e costruzioni per variabili aleatorie. Studio di alcuni tipi di convergenza per variabili aleatorie (quasi certa, in probabilità e in distribuzione). Acquisizione delle tecniche fondamentali di convergenza e dei risultati fondamentali del Calcolo delle Probabilità (Legge dei Grandi Numeri e Teorema Centrale del Limite) TESTI CONSIGLIATI: - P. Billingsley, Probability and Measure, Wiley G. Koch, La matematica del probabile, Aracne, 997. ALTRI TESTI CONSIGLIATI: - D. Williams, Probability with martingales, Cambridge University Press, 99; - L. Breiman, Probability, Addison Wesley, 968; - Y.S. Chow, H. Teicher, Probability Theory, Springer Verlag, 988; - B. De Finetti, Teoria delle Probabilità, Einaudi, 970; - W. Feller, An introduction to probability theory and its applications (Vol e 2), Wiley & Sons, 970 Programma: A. MISURE DI PROBABILITÀ: σ-algebre di eventi, σ-additività e continuità delle misure di probabilità. sigma-algebre generate, λ-sistemi e π-sistemi di eventi, lemma π λ di Dynkin, limiti superiore ed inferiore per successioni di eventi. Indipendenza stocastica fra sigma-algebre, lemmi di Borel-Cantelli, sigma-algebra coda di una successione di eventi, Legge 0- di Kolmogoroff. Misure di probabilità sulla retta, funzioni di distribuzione associate. B. VARIABILI ALEATORIE (COME FUNZIONI MISURABILI): σ-algebra generata da una funzione misurabile (e da un vettore aleatorio), misura indotta da una funzione misurabile (e da un vettore aleatorio). Misura di probabilità indotta da una variabile aleatoria reale X (legge di una variabile aleatoria). Funzioni di distribuzione reali e spazi canonici: (a) i reali R e i boreliani di R con la misura indotta da X; (b) lo spazio (0, ) con i boreliani di (0, ) e la misura di Lebesgue ristretta a (0, ) e costruzione di Skorohod su (0, ). Integrazione di funzioni misurabili (cenni). Valori attesi e proprietà fondamentali. Indipendenza stocastica per variabili aleatorie e misure prodotto, costruzione di una successione di variabili aleatorie indipendenti sullo spazio canonico (0, ).???Applicazioni probabilistiche del Teorema di Fubini. Legge 0- di Kolmogoroff per variabili aleatorie. Enunciati dei teoremi di convergenza monotona e dominata. Disuguaglianza di Markov. C. CONVERGENZA PER SUCCESSIONI DI VARIABILI ALEATORIE: Definizioni di convergenza quasi certa, in probabilità ed in legge (o in distribuzione) per successioni di variabili aleatorie. Relative proprietà e relazioni. Convergenza debole per successioni di misure di probabilità, caratterizzazioni (Teoremi di Helly) e relazioni con la convergenza in legge. Teorema di Scheffé (convergenza delle densità di probabilità)[solo enunciato]. Successioni tight (trattenute o strette) di misure di probabilità e Teorema di Prohorov. Uniforme integrabilità e convergenza debole.

5 iv CP3 -nov-2009 D. FUNZIONI CARATTERISTICHE E TEOREMA CENTRALE DEL LIMITE: Definizione di funzione caratteristica di una distribuzione di probabilità sulla retta e relative proprietà. Teorema di Bochner [solo enunciato]. Calcolo della funzione caratteristica in casi notevoli; distribuzioni simmetriche. Relazione tra funzione caratteristica e momenti della distribuzione. Cenno al problema dei momenti: controesempio della legge lognormale. Teorema di inversione e caso in cui la funzione caratteristica appartiene a L (R) (è integrabile sui reali rispetto alla misura di Lebesgue). Teorema di continuità. Teorema Centrale del Limite per successioni di variabili aleatorie indipendenti: Teorema di Lindeberg-Levy, Teorema di Lindeberg con discussione della condizione di Lindeberg (la generalizzazione al caso di insiemi triangolari è facoltativa) Teorema di Lyapunov, Teorema di Berry-Esseen (solo enunciato). Applicazioni del Teorema Centrale del Limite (approssimazione della legge della somma di variabili aleatorie indipendenti identicamente distribuite, relazione con la formula di Stirling) E. LEGGI FORTI DEI GRANDI NUMERI: Legge forte con esistenza e limitatezza del momento quarto (di Cantelli). Disuguaglianza di Kolmogoroff. Criterio sufficiente di Kolmogoroff per la legge forte. Legge forte per variabili aleatorie indipendenti identicamente distribuite (i.i.d.) con momento primo (Teorema di Kinchin). Estensione al caso di variabili aleatorie i.i.d., ma con momento primo della parte positiva non finito. Riferimenti dettagliati per gli argomenti in A e B: [Billinsgley]: : The Unit Interval, 2: Spaces, Classes of Sets, Probability Measures, 3: Uniqueness and the λ π Theorem (si consiglia la lettura di tutto) 4: tutto, 5: se ne consiglia la lettura, 0:, : e 2: i contenuti si considerano noti, e se ne consiglia la lettura, 20: Random variables and Vectors, Subfields, Distributions, Independence, Sequences of Random Variables, Convolution, 2: Expected Values and Distributions, Moments, Inequalities, Independence and Expected Values, 22: Kolmogorov s 0- law. [Koch]: Cap. 4, appendice II, Cap. 5: 5., 5.2 e 5.3 (si consiglia la lettura anche dei rimanenti paragrafi), Cap. 6: Teorema 6.87, Cap. 8: 8. e 8.2 (si consiglia la lettura di 8.3), Cap. 9: 9. e 9.2, Cap.3: 3.2. Riferimenti dettagliati per gli argomenti in C, D ed E: [Billinsgsley]: 20: Convergence in Probability, 22: Kolmogorov s Inequality, The strong Law of Large Numbers, 25: tutto, 26: tutto, 27: Identically Distributed Summands, The Lindeberg and Lyapunov Theorems. [Koch]: Cap., Cap.2: 2., 2.2., Cap.3: 3. (fino a pag. 503), Prop. 3.34, 3.3 (in particolare i Teoremi 3.49, 3.50, 3.5, 3.52, 3.59, 3.60)

6 Capitolo Richiami su spazi di probabilità. Esempi di spazi di probabilità Come dovrebbe essere noto uno spazio di probabilità è una terna (Ω, F, P), dove F è una σ-algebra, ovvero F è una famiglia di sottoinsiemi di Ω, cioè F è un sottoinsieme di P(Ω), tale che Ω F; (.) se A F, allora A c F; (.2) se A n F, n N, allora n N A n F; (.3) P è una misura di probabilità, ovvero P :F [0, ]; A P(A) con le proprietà che P(Ω) = ; (.4) se A n F, n N, con A n A m = per n m, (.5) allora P ( ) A n = P ( ) A n. n N n N La σ-algebra F rappresenta l informazione disponibile, ovvero gli eventi appartenenti a F sono gli unici eventi di cui abbiamo la possibilità di sapere se si sono verificati oppure no. Oltre alla misura di probabilità P, per tutti gli eventi A F con P(A) > 0, si possono definire le probabilità condizionate all evento A, che rappresentano la valutazione della probabilità nel caso in cui si verificasse l evento A: P( A) F : [0, ] (.6) E P(E A) := P(E A) P(A) (.7) Vediamo ora alcuni esempi elementari di spazi di probabilità: È facile verificare che la funzione P( A) definita in (.6) è una probabilità, cioè soddisfa gli assiomi delle probabilità. Per mettere in evidenza tale fatto va detto che Kolmogorov aveva adottato la notazione P A ( ), ovvero P A (E) invece di P(E A), anche per mettere meglio in evidenza questa proprietà.

7 2 CP3 -nov-2009 Esempio.. Qualunque sia Ω, la σ-algebra banale F = {, Ω} è una σ-algebra, e necessariamente P(Ω) = e P( ) = 0. Esempio.2. Qualunque sia Ω, preso un sottoinsieme proprio A di Ω la σ-algebra F = {, A, A c, Ω} è una σ-algebra, e necessariamente P(Ω) =, P( ) = 0, P(A) = p, P(A c ) = p, per un p [0, ]. Esempio.3. Qualunque sia Ω, sia {H m, m =, 2,..., N} una partizione finita di Ω, cioè se gli eventi sono incompatibili: ed esaustivi: H n H m = per n m, n, m {, 2,..., N} N m= H m = Ω, allora la famiglia M = {A = m I H m, al variare di I {, 2,..., N}}, (con la convenzione che m H m = ) è una σ-algebra. Inoltre se p, p 2,..., p N sono numeri non negativi, a somma, ovvero allora P : M [0, ]; A P(A), con p m 0, m =, 2,..., N, N p m =, m= P(A) = m I p m, per A = m I H m, (.8) definisce una probabilità su (Ω, M). Esempio.4. Le proprietà dell esempio precedente valgono anche nel caso di una partizione numerabile {H m, m N} con i dovuti cambiamenti: cioè, se allora la famiglia H n H m = per n m, n, m N, H m = Ω, m N F = {A = m I H m, al variare di I N}, (con la convenzione che H m = ), è una σ-algebra 2. m Inoltre se p, p 2,..., p m,... sono numeri non negativi, somma, ovvero p m 0, m N, p m =, m N 2 La verifica è banale: [ Ω = H m, ovvero I = N m N [ [ se A = H m, allora A c = H m m I m I c [ [ [ se A n = H m, n, allora A n = H m, per I = n=i n. m I n n= m I

8 CP3 -nov allora P : F [0, ]; A P(A), con P(A) = m I p m, per A = m I H m, (.9) definisce una probabilità su (Ω, F). La verifica di quest ultima proprietà è banale 3. Elenchiamo adesso alcune proprietà e notazioni relative alle σ-algebre: l intersezione di σ-algebre è una σ-algebra Sia {G α, α Λ} una famiglia di σ-algebre, allora F := α Λ G α è una σ-algebra 4. 2 l unione di σ-algebre non è (in generale) una σ-algebra Basta mostrare con un controesempio che l unione di due σ-algebre non è una σ-algebra: ad esempio se G i = {, A i, A c i, Ω}, con A A 2, A, A 2, allora G G 2 = {, A, A 2, A c, A c 2, Ω} non è una σ-algebra. 3 la σ-algebra generata da una collezione di eventi Sia K un sottoinsieme di P(Ω), l insieme delle parti di Ω, allora σ(k) := è la σ-algebra 5 generata da K. G:K G In particolare quindi la σ-algebra M, generata dalla partizione {H m ; m N} come nell Esempio.4, coincide con σ({h m ; m N}), in quanto, come già visto M è una σ-algebra, e inoltre ogni σ-algebra che contenga {H m ; m N}, deve necessariamente contenere tutte le unioni del tipo m I H m. 4 la σ-algebra generata da una collezione di σ-algebre Nel caso in cui K = α Λ G α, dove G α sono σ-algebre, allora si pone G α := σ ( ) G α. α Λ α Λ In particolare se M = σ({h m ; m N}) e N = σ ( {K l ; l N} ), allora M N = σ({h m K l ; m N, l N}) = { E = 3 La funzione P : M [0, ] definita in (.9) è una probabilità, infatti 4 La verifica è banale: P(Ω) = X m N p m =, se A n = [ (m,l) J m I n H m M, n N, con A n A n = per n n, allora e quindi P H m K l ; con J N N }. [ [ [ A n = H m con I = I n, e con I n I n = per n n, n N [ m I n N X X X A n = P A = p m = P A n, n N m I n n N l I p l = X n N Ω F, in quanto Ω G α, per ogni α Λ; se A F, cioè se A G α, per ogni α Λ, allora A c G α, per ogni α Λ, e quindi A c F; se A n F, n N cioè se A n G α, per ogni α Λ, n N allora [ n N A n G α, per ogni α Λ, e quindi [ n N A n F; T 5 Il fatto che G:K G sia una σ-algebra, deriva dalla proprietà che l intersezione di σ-algebre è una σ-algebra.

9 4 CP3 -nov la σ-algebra dei Boreliani Nel caso in cui K = A, la famiglia degli aperti di R k, allora B(R k ) := σ(a) è detta σ-algebra dei boreliani, o σ-algebra di Borel, ed ogni elemento di I di B(R k ) è detto boreliano..2 Variabili aleatorie Definizione.. Dato uno spazio di probabilità (Ω, F, P) 6, una variabile aleatoria reale X è una funzione F-misurabile, ovvero una funzione X : Ω R; ω X(ω), tale che la controimmagine di ogni aperto O A sia un elemento di F 7, cioè tale che X (O) := {ω tali che X(ω) O} F, per ogni aperto O A. Si dice anche che X è una variabile aleatoria F-misurabile. Una definizione analoga vale nel caso di variabili aleatorie multidimensionali basta infatti sostituire R con R k. X : Ω R k ; ω X(ω) = ( X (ω),..., X k (ω) ), Vediamo alcuni esempi di variabili aleatorie F-misurabili, al variare della σ-algebra F. Esempio.5. Se F = {, Ω}, allora le uniche variabili aleatorie reali X F-misurabili sono le costanti: Se X : Ω R; ω X(ω) = c, allora X (O) è l evento impossibile(=insieme vuoto ), se c / O, oppure è l insieme certo(=ω), se c O. Viceversa se X : Ω R; ω X(ω) non è costante allora X assume almeno due valori c e c 2 distinti (cioè esistono ω i tale che X(ω i ) = c i, per i =, 2, con c c 2 ). Quindi se c O, ma c 2 / O, allora ω X (O), mentre ω 2 / X (O), ovvero X (O) Ω (dove le inclusioni sono in senso stretto), e quindi X non è F-misurabile. Si noti che l esempio precedente mostra anche che tutte le variabili aleatorie costanti sono misurabili rispetto a qualunque σ-algebra ({, Ω} F, per ogni σ-algebra F). Esempio.6. Sia {H m, m N} una partizione numerabile, e sia M come nell esempio.4. Allora X : Ω R; ω X(ω) è M-misurabile, se e solo se esiste una successione di costanti {c m, m N} 8, tale che X(ω) = m N c m I Hm (ω). (.0) Se X è definita come in (.0) allora X è M-misurabile, infatti per ogni aperto O, X (O) = H m, m:c m O ovvero X (O) = m I H m M, per I = {m : c m O}. Viceversa se X è M-misurabile, cioè, per ogni aperto O, esiste un I N tale che X (O) = m I H m, 6 In realtà basta che ci sia uno spazio probabilizzabile, ovvero basta solo la coppia (Ω, F), mentre non è necessario specificare la misura di probabilità P. 7 Si noti l analogia con la definizione di funzione continua f : R k R d, come una funzione tale che le controimmagini di aperti sono aperti. 8 Si noti che non si assume che i valori di {c m} siano tutti distinti, ad esempio nel caso della successione costante, cioè c m = c per ogni m N, si trova una variabile aleatoria costante.

10 CP3 -nov allora qualunque sia c R, preso O n l intervallo aperto (c /n, c + /n) si ha che X ({c}) = X ( O n) = X (O n ) = H m = T H m M, n n n m I n m n In Esempio.7. Sia X : Ω R; ω X(ω), una funzione discreta, ovvero tale che l immagine X(Ω) = {x R, tali che esiste un ω con X(ω) = x} di X sia un insieme numerabile (finito o infinito), cioè X(Ω) = {x m, m N}, con x n x m per n m. Allora X(ω) = m N x m I Hm (ω), (.) dove H m = X ({x m }) = {ω tali che X(ω) = x m }. Si noti che {H m, m N} forma una partizione numerabile. Inoltre la funzione X è una variabile aleatoria F-misurabile, se e solo se H m = X ({x m }) F, per ogni m N, come è immediato da (.), osservando che, come nel caso precedente, X (O) = H m. m:x m O Infine la variabile aleatoria X si dice semplice o elementare, se l insieme X(Ω) è un insieme finito. Si può dimostrare che se X è una variabile aleatoria F-misurabile, allora la controimmagine X (I) F, per ogni boreliano I B(R), 2 la variabile aleatoria X è F-misurabile, se e solo se ciascuna componente X i è F-misurabile 9, per ogni i =,..., k. In particolare X ({x}) F, per ogni x R, in quanto {x} = n (x /n, x + /n). Connessa con la precedente Definizione. è la seguente definizione: Definizione.2. Sia data una funzione X : Ω R k ; ω X(ω) = ( X (ω),..., X k (ω) ). Si dice σ-algebra generata da X, la σ-algebra σ(x) = G R X G dove R X è la famiglia delle σ-algebre, per le quali X è G-misurabile 0. Si dimostra che 3 La σ-algebra generata da X, si può caratterizzare come: 4 la funzione X è F-misurabile, se e solo se σ(x) F, σ(x) = {A = X (I), per I B(R k )}, 5 le variabili aleatorie σ(x)-misurabili a valori in R d sono tutte e sole le variabili aleatorie Z per le quali esiste una funzione g boreliana tale che Z = g(x). {z } {z } 9 Dimostriamo solo la necessità, che è immediata: basta prendere O = R R O i R R. 0 i volte k i volte La famiglia R X non è vuota, in quanto contiene almeno G = P(Ω), l insieme delle parti di Ω. Una funzione g : R k R d, si dice boreliana se è una funzione tale che le controimmagini di aperti sono boreliani. Ovviamente le funzioni continue sono boreliane. Sono boreliane anche le funzioni continue a tratti, o meglio ancora costanti a tratti. Per chi non avesse familiarità con i concetti di misurabilità può pensare a queste funzioni, o a funzioni che siano limite puntuale di funzioni di uno dei due tipi precedenti.

11 6 CP3 -nov-2009 Esempio.8. Sia X una funzione semplice, come in Esempio.7, allora σ(x) = σ({h m, m N}) = {A = m I H m ; I N}, dove H m = X ({x m }). Inoltre tutte e sole le variabili aleatorie σ(x)-misurabili sono le funzioni Z : Ω R; ω Z(ω) := m c m I Hm, come discende immediatamente dall Esempio.6. Di conseguenza se g : R R tale che g(x m ) = c m, per ogni m N, allora Z(ω) := c m I Hm = Z(ω) = g(x m )I X ({x m})(ω) = ) g(x m )I {xm }( X(ω) = g(x(ω)). m m m Terminiamo questa sezione, ricordando che le operazioni di massimo, minimo, somma, prodotto, di due funzioni misurabili, danno luogo a funzioni misurabili: quindi se X ed Y sono variabili aleatorie F-misurabili, lo sono anche X Y = max(x, Y ), X Y = min(x, Y ), X + Y, XY. In particolare sono variabili aleatorie X + := X 0 e X := ( X) 0..3 Distribuzioni di variabili aleatorie Sia (Ω, F, P) uno spazio di probabilità e sia X : Ω R k ; ω X(ω) una variabile aleatoria a valori in R k. Tramite X è possibile definire una misura di probabilità P X sullo spazio misurabile (R k, B(R k )) nel seguente modo: P X : B(R k ) [0, ] I P X (I) := P ( X I ). È facile verificare che effettivamente P X definisce una probabilità sui boreliani B(R k ). La misura di probabilità così definita è detta misura di probabilità indotta da X, o distribuzione di X. A volte, per indicare la misura di probabilità indotta, si usa il simbolo PX, che nasce dall fatto che P X (I) := P ( X I ) = P ( X (I) ). Nel seguito, a volte useremo anche il simbolo µ X per indicare la distribuzione di probabilità di X. Come è noto, associata alla variabile aleatoria X c è anche la funzione di distribuzione 2 F X (x) := P(ω Ω : X(ω) x) = P X ( (, x] ), x R k. (.2) La funzione di distribuzione gode di alcune proprietà caratterizzanti 3 : Proprietà delle funzioni di distribuzione 0 F X (x) [0, ] La funzione F X è continua dall alto 4, nel senso che, per ogni x R k si ha dove y x significa y i x + i, per ogni i =,, k. lim F X(y,, y i,, y k ) = F (x,, x i,, x k ), y x 2 Si ricordi che, per k, l evento e l insieme nella (.2) sono rispettivamente {ω Ω : X(ω) x} = {ω Ω : X (ω) x,, X k (ω) x k } e (, x] = (, x ] (, x k ]. 3 Si veda la sezione 2. 4 Nel caso k = la proprietà corrisponde alla continuità da destra.

12 CP3 -nov La funzione F X (x) è monotona non decrescente. 3 Siano a = (a,, a k ) e b = (b,, b k ), si definisca (a, b) = {x R k : i =,, k, si ha x i = a i oppure x i = b i }, e si definisca n a (x) il numero di i tali che x i = a i, per x (a, b). Se a i b i, per ogni i =,, k, allora 5 4 Per ogni x R k e per ogni i =,, k si ha che x (a,b) ( ) n a(x) F X (x) 0. lim F X(x,, x i, y i, x i+,, x k ) = 0. y i Inoltre lim F X(x,, x i, x i, x i+,, x k ) =. x + È importante sottolineare che la funzione di distribuzione F X individua la misura di probabilità indotta P X sulla famiglia (di boreliani) (, b] := {x R k : x i b i } con b = (b,, b k ) R k. Questa famiglia ha la proprietà di essere chiusa rispetto all intersezione finita: (, b] (, b ] = (, b b ], dove b b := (b b,, b k b k). Ciò è sufficiente a individuare la misura di probabilità indotta, grazie a un risultato molto utile di teoria della misura: Lemma. (Lemma di Dynkin, Billingsley 984 []). Sia A una famiglia di eventi che genera la σ-algebra G e che è chiusa rispetto alla intersezione finita (cioè: A, B A implica A B A). Se due misure di probabilità ν e µ coincidono su A, allora le due misure coincidono su G = σ(a). Definizione.3 (variabili aleatorie con densità discreta). Si dice che una variabile aleatoria elementare X ha densità discreta ( x x 2 x m p p 2 p m ) dove x, x 2, x m sono elementi di R k e p, p 2, p m sono numeri reali tali che p j 0 per ogni j =, 2,, m, m p j =, j= 5 Nel caso k =, la proprietà 3 corrisponde alla proprietà di monotonia 2: Nel caso k = 2, invece la proprietà 3 diviene: se a b allora F X (a) F X (b). se a b e a 2 b 2 allora F X (b, b 2 ) F X (a, b 2 ) F X (b, a 2 ) + F X (a, a 2 ) 0. Per k 2 la proprietà 3 non si riduce alla proprietà di monotonia 2, come mostra il seguente controesempio: ( 0 se x < 0, oppure se x + y <, oppure se y < 0. F (x, x 2 ) =] se x 0, y 0, e x + y Si vede facilmente che F è una funzione monotona. Tuttavia F non soddisfa la proprietà, infatti F (, ) F (, 0) F (0, ) + F (0, 0) = + 0 =.

13 8 CP3 -nov-2009 se, per ogni boreliano I, vale P X (I) := P(X I) = In particolare quindi il significato di p j è chiaro, essendo P(X = x j ) = p j. m p j. La definizione è analoga nel caso di variabili aleatorie discrete, la cui distribuzione viene caratterizzata attraverso una densità discreta su un insieme numerabile {x k, k } ( x x 2 x m x m+ ) p p 2 p m p m+ Esempio.9 (variabili aleatorie con distribuzione binomiale). Ogni variabile aleatoria X per la quale P X (I) := j= x j I n ( ) n p h ( p) n h h viene detta una variabile aleatoria binomiale di parametri n e p e si scrive in breve X Bin(n, p). Definizione.4 (variabili con densità). Sisupponga di avere una funzione f : R k R con le proprietà: f(x) 0 per ogni x R k, f(x) dx =, R k h=0 h I si dice che X ha distribuzione con densità (di probabilità) f se accade che, per ogni boreliano I B(R k ), P X (I) := f(x) dx. Esempio.0 (distribuzione gaussiana). Come caso particolare si consideri il caso della variabile aleatoria unidimensionale con densità f(x) = e (x µ)2 2σ 2 2 π σ dove µ è un numero reale e σ è un numero (strettamente) positivo. Una variabile aleatoria con questa distribuzione è detta gaussiana o normale di valore atteso (o valore medio) µ e varianza σ 2. Brevemente si indica X N(µ, σ 2 ). Se µ = 0 e σ 2 = si dice che X è una variabile gaussiana (o normale) standard. Vediamo ora dei semplici esempi di calcolo della distribuzione indotta. Esempio. (una variabile aleatoria binomiale). Sia sia Ω = {0, } N = {ω = (ω, ω 2,..., ω N ), con ω i {0, }, per i =, 2,..., N}, I F = P(Ω), l insieme delle parti di Ω, sia la probabilità definita attraverso la relazione P({ω}) := p P N i= ωi ( p) N P N i= ωi, dove p è un numero fissato con la condizione che p (0, ). Sia infine X la variabile aleatoria definita da Si vede facilmente che N X(ω) := ω i. i=

14 CP3 -nov la variabile aleatoria X assume solo i valori {0,,... N}, 2 per h {0,,... N} si ha 6 P X (h) := P(X = h) = 3 per ogni boreliano I P X (I) := P(X I) = ( ) N p h ( p) N h, h N ( N h h=0 h I ) p h ( p) N h Esempio.2 (Variabili esponenziali). Sia Ω = (0, ) F = B(0, ) e P la misura di Lebesgue su (0, ). Sia λ > 0 e X(ω) := log( ω)/λ. Allora F X (x) = P(X x) = mis{ω (0, ) : log( ω) λ x} = mis{ω (0, ) : ω e λ x }, e quindi F X (x) = { 0 per x 0, e λ x per x > 0. Per il Lemma di Dynkin (Lemma.) sappiamo che la funzione di distribuzione individua univocamente la distribuzione di X. È quindi facile convincersi che, tale distribuzione coincide con la distribuzione ν λ (dx) = (0, ) (x) λ e λ x dx, che è nota come la distribuzione esponenziale di parametro λ. Sempre nello stesso spazio si può definire la variabile aleatoria Y (ω) = log(ω) µ, dove µ è una costante strettamente positiva. È facile vedere che Y ha distribuzione esponenziale, di parametro µ. Esempio.3. Sempre nello stesso ambito dell esempio precedente, ci si può chiedere quale sia la distribuzione congiunta di X e Y, ossia la distribuzione del vettore aleatorio (X, Y ). Chiaramente, si ha X(ω), Y (ω) > 0 e inoltre Y (ω) = log ( e µ λ X(ω)) come si ottiene subito da ω = e λ X(ω). ( ) Di conseguenza, se G := {(x, y) : x > 0, y > 0, ey = log e λ x, µ }, è facile convincersi che P X,Y (I) = ν λ ( πx (G I) )( = ν µ ( πy (G I) )) dove π x e π y sono le proiezione sull asse x e sull asse y, rispettivamente. 6 L evento A h := {X = h} è rappresentato dall insieme, di cardinalità N h, i cui elementi ω = (ω, ω 2,..., ω N ) hanno la proprietà che P N i= ω i = h. La probabilità di ciascuno di questi ω vale quindi e la probabilità dell insieme vale P(X = h) = P(A h ) = P(ω) = p P N i= ω i ( p) N P N i= ω i = p h ( p) N h X ω A h P(ω) = X ω A h p h ( p) N h = A h p h ( p) N h = N h p h ( p) N h

15 0 CP3 -nov-2009 Esempio.4 (trasformazione di Box-Müller). Sia Ω = (0, ) (0, ), con la misura di Lebesgue sui boreliani. Siano X(ω, ω 2 ) := 2 log ω cos(2 π ω 2 ); Y (ω, ω 2 ) := 2 log ω sin(2 π ω 2 ); Si può dimostrare che la distribuzione congiunta di (X, Y ) ammette densità si probabilità p X,Y (x, y) = x 2 +y 2 2 π e 2 = e x2 2 2 π e x2 2 2 π Tale densità caratterizza le variabili aleatorie gaussiane com media nulla e matrice di covarianza l identità (si veda l Appendice.6). A volte, invece di definire lo spazio di probabilità e la variabile aleatoria X ed infine trovare la distribuzione di X, si può dare direttamente la distribuzione di X. Questo è il caso delle variabili aleatorie che vengono caratterizzate solo attraverso la densità discreta o con densità (di probabilità). Più in generale, le distribuzioni si possono specificare solo attraverso la funzione di distribuzione. Quando si specifica una variabile aleatoria attraverso la sua distribuzione, e ancor di più se invece si specifica solo una funzione che goda delle proprietà delle funzioni di distribuzione (si veda pag. 6), rimane il dubbio che una tale variabile aleatoria esista, ovvero che esista uno spazio di probabilità (Ω, F, P) e una variabile aleatoria X. A questo problema risponde il teorema di Skorohod (vedere Appendice 2.)..4 Valori attesi In questa sezione ricordiamo come si può definire il valore atteso per variabili aleatorie generali, a partire dalla sua definizione per variabili aleatorie semplici. Per maggiori approfondimenti si rimanda, ad esempio, al libro di Billingsley [] o a quello di Williams [3]. Definizione.5 (Valore atteso per variabili semplici). Sia X una variabile aleatoria in (Ω, F, P), non negativa e semplice, cioè come in Esempio.7, X(ω) = m N x m I Hm (ω), con H m F per ogni m N, allora si definisce E[X] = m N x m P(H m ). Osservazione.. Ogni variabile aleatoria X in (Ω, F, P), non negativa, ammette una successione di variabili aleatorie X n, semplici e non negative, tali che Infatti 7 basta prendere X n (ω) = n2 n m=0 0 X n (ω) X n+ (ω), e tali che lim n X n(ω) = X(ω). m 2 n I H m (n) 7 La monotonia della successione delle variabili aleatorie X n è evidente: se X n(ω) = m/2 n, con m < n2 n, allora i soli casi possibili sono oppure n2 n m (ω) + ni (n) H (ω) = n2 n 2 n [ m 2 n, m+ )(X(ω)) + n [n, )(X(ω)), (.3) 2 n m=0 X n+ (ω) = (2m)/2 n+ = m/2 n = X n (ω), X n+ (ω) = (2m + )/2 n+ = m/2 n + /2 n+ > X n (ω); se X n (ω) = n allora X n+ (ω) può assumere un valore compreso tra n ed n +. Per la convergenza basta osservare che, qualunque sia ω, pur di prendere n sufficientemente grande e in modo che X(ω) < n, si ha che 0 X(ω) X n (ω) /2 n.

16 CP3 -nov-2009 dove si è posto e, per A F, H (n) m ed infine, per a < b numeri reali, = X ([ m 2 n, m+ 2 n )) F per 0 m n2 n, H (n) n2 n = X ( [n, ) ), I A (ω) = se ω A e I A (ω) = 0 se ω / A, [a,b) (x) = se x [a, b) e [a,b) (x) = 0 se x / [a, b). È infine interessante notare che, posto x la parte intera inferiore 8 di x, si può riscrivere nel seguente modo X n (ω) = 2n X(ω) 2 n n. Definizione.6 (Valore atteso per variabili nonnegative). Sia X una variabile aleatoria in (Ω, F, P), non negativa, si definisce Si dimostra che { n } E[X] = sup inf X(ω) P(A i ) al variare tra le partizioni dell evento certo A,, A n. ω A i i= E[X] = lim n E[X n], dove {X n ; n N} è la successione monotona definita come in (.3) dell Osservazione precedente. Il limite esiste ed è monotono, per la proprietà di monotonia del valore atteso, sulle variabili aleatorie semplici. Si noti bene che tale limite può valere anche +, nel qual caso si dice che la variabile X ha valore atteso infinito. Osservazione.2. **Ovviamente se { X n ; n N} è un altra successione di variabili aleatorie semplici che converge monotonamente ad X, anche la successione dei valori attesi E[ X n ] è una successione che converge monotonamente. Si può dimostrare che il limite non dipende dalla successione scelta 9 ed in particolare coincide con il limite considerato nella precedente Definizione.6. Arriviamo ora alla definizione generale del valore atteso: Definizione.7 (Valore atteso per variabili generali). Sia X una variabile aleatoria in (Ω, F, P), Siano X + := X 0 e X := ( X) 0, le variabili aleatorie non negative, definite alla fine della sezione precedente. Si noti che X = X + X e che invece X = X + + X. Si definisce allora, se ha senso 20 E[X] = E[X + ] E[X ]. 8 La parte intera inferiore x di x è quel numero intero k tale che k x < k +. 9 **Per ottenere l unicità del limite basta dimostrare che se {Y n; n N} e {Z n; n N} sono due successioni di variabili aleatorie semplici che convergono monotonamente ad X, allora per ogni k si ha E[Y k ] lim E[Z n], n da cui si deduce immediatamente che lim k E[Y k ] lim n E[Z n ]e quindi l uguaglianza, P scambiando il ruolo delle due successioni. l Si fissi quindi k e si consideri che, per ipotesi Y k è semplice e che quindi si può scrivere Y k = i= y ii Ai, dove A i = {Y k = y i } (ovviamente l ed y i dipendono da k, ma tralasciamo l indice k per comodità di notazione e perché è inessenziale). Sia ora ε > 0 e B (n) i = A i {Z n > y i ε}. Essendo {Z n ; n N} una successione monotona si ottiene che B (n) i B (n+) i. Inoltre Y k (ω) X(ω) S e Z n (ω) X(ω) e quindi se ω A i, ossia se Y k (ω) = y i, allora per un n sufficientemente grande deve valere Z n(ω) > y i ε e quindi n B(n) i = A i. Per la continuità della probabilità deve valere allora che P(B (n) i ) P(A i ). Ovviamente si ha lx E[Z n ] (y i ε)p(b (n) i ) e quindi lim E[Z n] (y i ε)p(a i ). n i= i= Per l arbitrarietà di ε si ha allora lim n E[Z n ] P l i= y ip(a i ) = E[Y k ]. 20 Si considera che la somma E[X + ] E[X ] ha senso se E[X + ] <, E[X ] <, nel qual caso E[X] R e inoltre si ha anche E[ X ] = E[X + ] + E[X ] < ; 2 se E[X + ] <, E[X ] =, nel qual caso E[X] = ; 3 se E[X + ] =, E[X ] <, nel qual caso E[X] = + ; Il caso che rimane escluso è quindi il caso in cui E[X + ] =, E[X ] =, del resto si avrebbe la forma indeterminata. lx

17 2 CP3 -nov-2009 Se invece di usare la probabilità P si usa la probabilità condizionata ad un evento A, ovvero P( A), allora si parla di valore atteso di X condizionato all evento A e si usa la notazione E[X A]. Ciò significa che, nel caso di una variabile aleatoria semplice X(ω) = m N x m I Hm (ω), con H m F per ogni m N, si ha E[X A] = m N x m P(H m A). **Terminiamo questa sezione ricordando che la definizione di valore atteso di una variabile aleatoria X corrisponde alla definizione dell integrale della funzione misurabile X rispetto alla misura P e che per il valore atteso valgono i due famosi risultati di passaggio al limite sotto il segno di integrale: Teorema della convergenza monotona: se X n sono variabili aletaorie limitate dal basso e che convergono monotonamente ad X (P q.c.) allora la successione dei valori attesi E[X n ] converge monotonamente a E[X]. Teorema della convergenza dominata: se X n sono variabili aletaorie che convergono ad X P q.c. e se Y è una variabile aleatoria tale che X n Y, con E[Y ] <, allora la successione dei valori attesi E[X n ] converge a E[X]..4. Variabili aleatorie in spazi misurabili QUESTA SEZIONE SI PUO SALTARE Oltre a definire le variabili aleatorie reali o vettoriali si possono definire in modo naturale anche variabili aleatorie a valori in spazi misurabili. Definizione.8 (variabile aleatoria (o ente alealorio) a valori in (S, S)). Siano (Ω, F) e (S, S) due spazi misurabili. Una variabile aleatoria a valori in S è una funzione misurabile X : (Ω, F) (S, S); ω X(ω). In altre parole una funzione da Ω in S e tale che per ogni B S, la sua controimmagine tramite X appartiene a F, ossia l insieme X (B) F. Se S è uno spazio metrico (o più in generale uno spazio topologico, allora la sigma-algebra S coincide con la sigma-algebra dei boreliani, ossia la sigma-algebra generata dagli aperti. Esempi tipici nascono quando si vogliono trattare i processi aleatori come funzioni aleatorie, ed in particolare a funzioni aleatorie continue. In tale caso si può prendere, ad esempio, lo spazio delle funzioni continue su [0, T ] a valori reali. Prendendo poi come sigma-algebra la sigma-algebra dei boreliani, allora si può affermare che funzioni come il massimo o il minimo, sono variabili aleatorie. Come si vede, nella definizione di variabile aleatoria non abbiamo neanche nominato la misura di probabilità su (Ω, F)..5 Misura indotta e Cambio di variabile QUESTO ARGOMENTO E SVOLTO QUI IN MODO PIU APPROFONDITO CHE A LEZIONE. Negli Esempi.2,.3,.4 abbiamo trovato le distribuzioni di alcune variabili aleatorie a valori reali o vettoriali. In termini astratti quello che abbiamo fatto è caratterizzare la misura indotta. Definizione.9 (Misura indotta). Siano (A, A ) e (A 2, A 2 ) due spazi con le rispettive sigma-algebre, e sia ψ : A A 2, a ψ(a ) una funzione misurabile (cioè per ogni B 2 A 2 si ha che la controimmagine ψ (B 2 ) A ). Supponiamo che su (A, A ) sia definita una misura µ. Allora si definisce misura indotta (da ψ) la misura µ 2 (B 2 ) := µ ( ψ (B 2 ) ), B 2 A 2.

18 CP3 -nov Ovviamente perché la precedente definizione sia ben posta bisogna verificare che effettivamente definisca una misura (questo è un semplice esercizio ed è lasciato al lettore). ( Tornando ) agli Esempi precedentemente citati ed in particolare agli Esempi.2,.3, in entrambi (A, A ) = (0, ), B(0, ) e µ = P, la misura di Lebesgue ristretta a (0, ), mentre A 2 = R nel primo esempio e invece A 2 = R 2, nel secondo esempio. Inoltre nel primo esempio sono state considerate due funzioni ψ (ω) = X(ω) = log( ω) λ e ψ 2 (ω) = Y (ω) = log(ω) λ, mentre nel secondo esempio è stata considerata la funzione ψ := (ψ, ψ 2 ). Nell Esempio.4, invece (A, A ) = ( (0, ) (0, ), B((0, ) (0, ) ) e A 2 = R 2 e µ è la misura di Lebesgue ristretta a (0, ) (0, ). Infine la funzione ψ è definita da ψ(ω, ω 2 ) = ( 2 log ω cos(2 π ω 2 ), 2 log ω sin(2 π ω 2 ) ). Più in generale, nel caso di variabili aleatorie X a valori in (S; S), se nello spazio misurabile (Ω, F) è definita una misura di probabilità P, si definisce legge di X o distribuzione di X, la probabilità P X : S [0, ] definita come la misura indotta da (Ω, F, P) tramite X: P X (B) := P(X B), B S. Quello che più ci interessa qui è la formula del cambio di variabile negli integrali, che, nell ambito del calcolo delle probabilità, corrisponde alla possibilità di calcolare i valori attesi di funzioni di variabili aleatorie X a valori 2 in (S, S) sia come integrali sullo spazio (Ω, F, P) che come integrali sullo spazio (S, S, P X ). In tale caso si ottiene che i valori attesi di f(x), per f funzioni misurabili e limitate, si possono calcolare sia come integrali sulo spazio degli eventi Ω E[f(X)] = f(x(ω)) P(dω), sia come integrale sullo spazio degli stati S Ω E[f(X)] = S f(x) P X (dx). Riportiamo qui la dimostrazione nell ambito astratto della Definizione.9 di misura indotta. Lemma.2 (Cambio di variabile). Sia f M b (A 2 ), ossia una funzione misurabile da ( ) ) A 2, A 2 in (R, B(R) e limitata. Allora f(a 2 )µ 2 (da 2 ) = A 2 f(ψ(a ))µ (da ) A (.4) Dimostrazione. Iniziamo con il mostrare che, per definizione di µ 2, (.4) è valida per f = I B2, per ogni B 2 A 2 : da una parte A 2 I B2 (a 2 )µ 2 (da 2 ) = µ 2 (B 2 ) := µ ( ψ (B 2 ) ), dall altra, tenuto conto che I B2 (ψ(a )) = I ψ (B 2)(a ), in quanto ψ(a ) B 2 se e solo se a ψ (B 2 ), ( I B2 (ψ(a ))µ (da ) = I ψ (B 2 )(a )µ (da ) = µ ψ (B 2 ) ). A A La dimostrazione segue poi con una tecnica che è standard nell ambito della teoria della misura. Sia H l insieme delle funzioni f per cui è valida l uguaglianza (.4). L insieme H verifica le seguenti proprietà: (i) linearità, ovvero se f, g H, allora, per ogni a,b R la funzione a f + b g H 2 Nel caso di variabili aleatorie vettoriali lo spazio (S, S) coincide con R d, B(R d ). Ma la formula vale anche per variabil aleatorie a valori in spazi più generali, come ad esempio gli spazi metrici, prendendo come sigma-algebra la sigma-algebra dei boreliani, ossia la sigma-algebra generata dagli aperti (in altre parole la più piccola sigma algebra contente gli aperti). Come già detto esempi di tale genere si incontrano quando ci si interessa di processi aleatori, pensati come variabili aletorie a valori in uno spazio di funzioni, ad esempio lo spazio delle funzioni continue su un intervallo [0, T ], con la metrica della norma uniforme.

19 4 CP3 -nov-2009 (come segue dalla proprietà di linearità per gli integrali rispetto a µ ) (ii) la funzione, cioè la funzione costante uguale ad, appartiene a H (come segue dall osservazione iniziale e notando che = I A2, ) (iii) monotonia, ovvero se f n H e f n f, f M 2 (A 2 ) allora f H (come segue dalla proprietà della convergenza monotona degli integrali rispetto a µ ) (iv) per ogni B 2 A 2, la funzione I B2 H (come segue immediatamente dalla osservazione iniziale; si noti inoltre che in realtà la (ii) segue da questa proprietà) Le precedenti proprietà assicurano che H è una classe monotona. Basta allora applicare il teorema delle classi monotone, che per comodità del lettore riportiamo di seguito. Teorema.3 (Teorema delle classi monotone). Sia (Ω, F) uno spazio misurabile e sia H un insieme di funzioni reali misurabili e limitate, con le seguenti proprietà: (i) H è uno spazio vettoriale, (ii) H contiene la funzione costante, (iii) f n H, f n f, f limitata implicano f H cioè H è una classe monotona. Se inoltre H soddisfa anche la seguente proprietà (iv) H contiene le funzioni del tipo I A per ogni A A, dove A F è un π-sistema, cioè è chiuso per intersezione finita, allora H contiene tutte le funzioni limitate e σ(a)-misurabili. Il precedente Teorema.2 si applica anche quando vogliamo calcolare la distribuzione di una trasformazione di una variabile ( aleatoria: ad esempio, se Z è una variabile aleatoria con distribuzione P Y ed Z = ϕ(y ), allora P Z (B) = P Y ϕ (B) ), come è immediato verificare. Nel caso di variabili aleatorie multivariate, e per funzioni ϕ sufficientemente regolari, si possono ottenere formule esplicite, utilizzando noti risultati di analisi: ad esempio, se Y ammette densità f Y e ϕ è invertibile 22 e con derivate continue, allora anche Z ammette densità e si ha ( ) f Z (z) = f Y (ϕ (z)) ϕ det (z) = f Y (ϕ (z)) ( ) z ϕ(y) det y y=ϕ (z). Particolarmente semplice è il caso di trasformazioni lineari (o affini) in cui lo Jacobiano è il determinante della matrice. Ad esempio se Z = AY, con A invertibile, allora ϕ (z) = A z e la formula precedente diviene f Z (z) = f Y (A (z)) det(a). Esempio.5. Un esempio di trasformazione che incontreremo spesso nel seguito è il caso in cui Y = (Y, Y 2,, Y m ) e Z = Y, Z 2 = Y + Y 2, Z m = Y + Y Y m, Allora la matrice A è la matrice triangolare A = ossia z = ϕ(y) = A y, con z = y, z 2 = y + y 2, z m = y + y y m. con determinante uguale ad. 22 In realtà basta che esista un aperto O, tale che la densità f Y (y) = 0 per y / A e tale che ϕ sia invertibile da O a ϕ(o,

20 CP3 -nov La trasformazione inversa è y = z, y 2 = z 2 z, y m = z m z m, per cui, se Y ammette densità di probabilità, ossia y = ϕ (z) = A y dove A = f Z (z, z 2,, z m ) = f Y (z, z 2 z,, z m z m ). Il caso m = 2 è particolarmente interessante in quanto permette di ricavare la densità della somma di due variabili aleatorie, semplicemente calcolando la densità marginale di Z 2 = Y + Y 2 : per z R ( ) f Y +Y 2 (x) = f Z2 (x) = f Z,Z 2 (x, x ) dx = f Y,Y 2 (x, x x) dx. R R

21 6 CP3 -nov Variabili gaussiane QUESTO ARGOMENTO DOVREBBE ESSERE GIA STATO SVOLTO IN ALTRO CORSO, ALMENO IN PARTE... Cominciamo con il definire una variabile aleatoria gaussiana standard unidimensionale: Definizione.0. Si dice che una variabile aleatoria reale Z è gaussiana di valore atteso µ e varianza σ 2, se ammette densità { f Z (z) = exp ( ) } 2 x µ. 2π 2 σ In questo caso si usa la notazione Z N(µ, σ 2 ). Se µ = 0 e σ 2 = allora si dice che Z segue una legge normale o gaussiana standard. Caso n dimensionale: iniziamo con il caso di un vettore (colonna) aleatorio Y Y 2 Y = Y k a componenti indipendenti e tutte gaussiane standard, ovvero il caso in cui f Y (y) = = n f Yi (y i ) = i= n i= { ( 2π) exp n 2 Y n { exp } 2π 2 y2 i n i= y 2 i } = { exp } (2π) n/2 2 y y. dove l apice indica l operazione di trasposizione, ovvero y è il vettore riga (y, y 2,, y n ). È immediato verificare che E(Y i ) = 0, V ar(y i ) = e che Cov(Y i, Y j ) = 0, per i j. Sia ora A una matrice non singolare e sia m un vettore (colonna). Definiamo ora Z = AY + m e cerchiamo la sua densità. Sappiamo dai risultati generali che se Y ammette densità e Z = ϕ(y ) con ϕ invertibile e con derivate continue, allora anche Z ammette densità: ( ) f Z (z) = f Y (ϕ (z)) ϕ det (z) = f Y (ϕ (z)) z det ( ϕ(y) y di conseguenza, poiché nel nostro caso ϕ(y) = Ay + m e ϕ (z) = A (z m) f Z (z) = } n exp 2π Essendo si ottiene { ( A (z m) ) A (z m) 2 ) y=ϕ (z) det(a). (A (z m)) A (z m) = (z m) (A ) A (z m) = (z m) (A ) A (z m) = (z m) (AA ) (z m) f Z (z) = La precedente espressione si basa sulle seguenti proprietà: { (2π) n/2 det(a) exp } 2 (z m) (AA ) (z m).

22 CP3 -nov (i) (A ) = (A ) in quanto e inoltre A z = w z = (A ) w A z = w (z A) = w z A = w z = w A z = ( w A ) z = ( A ) w. (ii) (AA ) = (A ) A in quanto (AA ) z = w z = AA w A z = A w (A ) A z = w. È interessante notare che sia il vettore m che la matrice AA = A A hanno una interpretazione probabilistica: e quindi E(Z i ) = E( n a i,k Y k ) + m i = k= Cov(Z i, Z j ) = E[(Z i m i )(Z j m j )] = E[ Cov(Z i, Z j ) = n a i,k a j,k E[Y k Y k ] + k= n a i,k E(Y k ) + m i = m i k= n a i,k Y k k= n h= a j,h Y h ] = n,n a i,k a j,h E[Y k Y h ] = k= h k n k= h= n a i,k a j,h E[Y k Y h ] n a i,k a j,k = (AA ) i,j Si osservi che se Z = (Z,..., Z n ) è un vettore gaussiano allora (Z...Z k ) e (Z k+,..., Z n ) sono indipendenti, se e solo se Cov(Z i, Z h ) = 0 per ogni i =,, k e h = k +,, n. In tale caso allora è ovvio che il vettore (Z...Z k ) è un vettore gaussiano 23 Terminiamo questo paragrafo con il ricordare quanto valgono i momenti di una variabile aleatoria gaussiana. Sia Z una variabile aleatoria N (0, σ 2 ). Per quanto visto prima possiamo considerare Z = σy con Y una variabile aleatoria N (0, ). Da questa osservazione segue subito che E[Z k ] = σ k E[Y k ] k= e E[ Z k ] = σ k E[ Y k ]. 23 Per ottenere lo stesso risultato nel caso generale, ovvero che se Z = (Z,..., Z n ) è un vettore gaussiano allora (Z...Z k ) è un vettore gaussiano, si può procedere nel seguente modo. Innanzitutto basta considerare il caso in cui i valori attesi sono nulli senza ledere in generalità. Inoltre si può pensare che Z = AY. Se la matrice A = (a ij ) è definita in modo che a ij = a ij qualunque siano i =,...k e j =,..., n, e il vettore aleatorio Z è definito da Z = A Y, allora, chiaramente, Z i = (A Y ) i = Z i = (AY ) i, per i =,...k. Se inoltre a hj per h = k +,...n e j =,..., n sono presi in modo che il vettore (Z,, Z k ) = (Z,, Z k ) sia indipendente dal vettore (Z k+,, Z n ), ovvero in modo che 0 = E[Z i Z h ] = Cov(Z i, Z h ) = n X l= a i,l a h,l per i =,...k e h = k +,...n, allora si ottiene il risultato voluto. Nel caso in cui la matrice A sia non singolare ciò è sempre possibile perché i vettori a (i) = (a i, a i2,, a in ) sono linearmente indipendenti e quindi basta trovare n k vettori a (h) = (a i, a h2,, a hn ) ortogonali allo spazio vettoriale k-dimensionale span(a (i), i =,, k).

23 8 CP3 -nov-2009 Vale poi la pena di ricordare che E[Y 2k+ ] = 0, mentre 24 infine E[ Y 2k+ ] = E[Y 2k ] = (2k )!! = (2k )(2k 3) 5 3, π (2k)!! = (2k)(2k 2) 4 2 = π π 2k k!. Prima di dimostrare queste tre uguaglianze si osservi che le ultime due si possono scrivere in modo sintetico come E[ Y n ] = C (( ) n ) (n )!! C (+) = C ( ) = 2 π. La prima relazione è banale, per ragioni di simmetria, e permette di ricavare la seconda osservando che E[e uy ] = e u2 2 = h=0 e d altra parte, essendo appunto ovviamente E[Y 2k+ ] = 0, k=0 h! E[e uy ] = E[ k! uk Y k ] = u 2 h = 2 h=0 h=0 u 2h h! 2 h. (2h)! u2h E[Y 2h ] si deve necessariamente avere che i coefficienti delle due serie devono coincidere: ovvero h! 2 h = (2h)! E[Y 2h ], E[Y 2h ] = (2h)! 2h(2h )(2h 2)(2h 3) 3 2 = h!2h h(h ) h = (2h)!!(2h )!! h!2 h = 2h h! (2h )!! 2 h = (2h )!!. h! Infine la terza si ricava per integrazione per parti e calcolando a mano che E[ Y ] = 2 π. Concludiamo questo paragrafo con un lemma che riguarda il comportamento asintotico della funzione di sopravvivenza di una gaussiana standard e del modulo di una gaussiana standard. Lemma.4. Sia Y una gaussiana standard, allora, posto f Y (y) = 2π e y2 2, si ha, per x > 0, ( x + ) f Y (x) P(Y > x) x ( x + x 24 Si noti che dalle ultime due relazioni sui momenti si ottiene che x f Y (x), x > 0, (.5) ) f Y (x) P( Y > x) x f Y (x), x > 0, (.6) E[ Y m ] = (m )!!C ( ) m, con C + =, C = P( Y > x) e x2 2, x > 0. (.7) r 2 π.

24 CP3 -nov Dimostrazione. La disuguaglianza (.6) discende immediatamente dalla prima disuguaglianza (.5), la quale equivale a ( x + ) e x2 2 P(Y > x) e x2 2, x 2π x 2π e discende dalla seguente relazione Inoltre ( w + ) e w2 2 w La disuguaglianza destra della (.8) discende da e quindi + w w e w = w che prova l altra disuguaglianza nella (.8). + w e z2 2 dz w d dw w e w 2 ( + z 2 ) + w e z2 2 dz w e w 2 z e z2 2 dz = 2 = ( + w ) 2 Infine, per provare la disuguaglianza (.7), basta osservare che, P( Y > x) = 2 + x = 2 e x2 2 2 e x2 2 e y2 2 dy = 2 e x2 2 2π + x + 0 2, w > 0. (.8) w e w 2 2, e w2 2 ( e z2 2 dz + ) + w 2 e z2 2 dz, + e (y+x)(y x) 2 dy = 2 e x2 2 2π 2π e z2 2 dz = e x2 2. x 2π e y2 x 2 2 dy + 0 w 2π e (z+2x)z 2 dz (essendo x > 0,)

25 Capitolo 2 Costruzione di variabili aleatori in (0, ) 2. Teorema di rappresentazione di Skorohod In questa sezione affrontiamo il problema seguente: Data una funzione F, esiste uno spazio di probabilità (Ω, F, P) e una variabile aleatoria X, definita su questo spazio, per la quale F è la funzione di distribuzione, cioè F = F X? Chiaramente F deve soddisfare le proprietà delle funzioni di distribuzione, (ossia le proprietà 0 4 di pagina 6). Si può dimostrare che tali proprietà sono sufficienti a individuare una misura di probabilità µ = µ F sui boreliani di R k, per la quale F (x) = µ(, x]. Di conseguenza si può prendere come spazio di probabilità (R k, B(R k ), µ F ) e come variabile aleatoria l identità, ossia X(x,, x k ) = (x,, x k ). Tuttavia c è un altro spazio in cui costruire tale variabile aleatoria, lo spazio (0, ) con la misura di Lebesgue sui boreliani di (0, ). In questa sezione ci limitiamo al caso unidimensionale, il caso a più dimensioni (e addirittura per successioni di variabili aleatorie viene brevemente considerato nella sottosezione??). Teorema 2. (di rappresentazione di Skorohod). Sia data una funzione F, che verifica le seguenti proprietà: P0 F è a valori in [0, ]; P F è non decrescente; P2 F è continua a destra, cioè, per ogni t R, P3 F è normalizzata, cioè Sia ϕ : (0, ) R definita da lim F (t + ε) = F (t); ε 0 + lim F (t) = 0; lim F (t) =. t t + Allora ϕ è boreliana, inoltre la variabile aleatoria ϕ(u) := inf{y : F (y) u}. X : (0, ) R ω X(ω) = ϕ(ω) definita nello spazio di probabilità (Ω, F, P) ((0, ), B(0, ), λ) con λ la misura di Lebesgue, ha funzione di distribuzione F, ovvero F X (x) = F (x). Dimostrazione. La dimostrazione è basata sul fatto che {u (0, ) : ϕ(u) x} = {u (0, ) : u F (x)} (2.) per ogni x R. Dalla precedente affermazione segue infatti che: 20

PROGRAMMA DI CALCOLO DELLE PROBABILITÀ(1 o modulo) periodo: I Semestre, A. A. 2002/03 docente: Giovanna Nappo, (ufficio n.109, tel.

PROGRAMMA DI CALCOLO DELLE PROBABILITÀ(1 o modulo) periodo: I Semestre, A. A. 2002/03 docente: Giovanna Nappo, (ufficio n.109, tel. PROGRAMMA DI CALCOLO DELLE PROBABILITÀ(1 o modulo) periodo: I Semestre, A. A. 2002/03 docente: Giovanna Nappo, (ufficio n.109, tel. 49913262, e-mail: nappo@mat.uniroma1.it) Prerequisiti: Nozioni di base

Dettagli

Variabili casuali multidimensionali

Variabili casuali multidimensionali Capitolo 1 Variabili casuali multidimensionali Definizione 1.1 Le variabili casuali multidimensionali sono k-ple ordinate di variabili casuali unidimensionali definite sullo stesso spazio di probabilità.

Dettagli

3. Successioni di insiemi.

3. Successioni di insiemi. 3. Successioni di insiemi. Per evitare incongruenze supponiamo, in questo capitolo, che tutti gli insiemi considerati siano sottoinsiemi di un dato insieme S (l insieme ambiente ). Quando occorrerà considerare

Dettagli

(2) se A A, allora A c A; (3) se {A n } A, allora +

(2) se A A, allora A c A; (3) se {A n } A, allora + 1. Spazi di misura In questo paragrafo accenneremo alla nozione di spazio di misura. Definizione 1. Sia X un insieme non vuoto. Una famiglia A di sottoinsiemi di X è una σ-algebra se : (1) A; (2) se A

Dettagli

Calcolo delle Probabilità 2

Calcolo delle Probabilità 2 Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale

Dettagli

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17 II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 6/7 Martedì 4 febbraio 7 Cognome: Nome: Email: Se non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile

Dettagli

11. Misure con segno.

11. Misure con segno. 11. Misure con segno. 11.1. Misure con segno. Sia Ω un insieme non vuoto e sia A una σ-algebra in Ω. Definizione 11.1.1. (Misura con segno). Si chiama misura con segno su A ogni funzione ϕ : A R verificante

Dettagli

8. Completamento di uno spazio di misura.

8. Completamento di uno spazio di misura. 8. Completamento di uno spazio di misura. 8.1. Spazi di misura. Spazi di misura completi. Definizione 8.1.1. (Spazio misurabile). Si chiama spazio misurabile ogni coppia ordinata (Ω, A), dove Ω è un insieme

Dettagli

NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE

NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE ROBERTO GIAMBÒ 1. DEFINIZIONI E PRIME PROPRIETÀ In queste note saranno presentate alcune proprietà principali delle funzioni convesse di una variabile

Dettagli

COPPIE DI VARIABILI ALEATORIE

COPPIE DI VARIABILI ALEATORIE COPPIE DI VAIABILI ALEATOIE E DI NADO 1 Funzioni di ripartizione congiunte e marginali Definizione 11 Siano X, Y va definite su uno stesso spazio di probabilità (Ω, F, P La coppia (X, Y viene detta va

Dettagli

Capitolo IV SPAZI VETTORIALI EUCLIDEI

Capitolo IV SPAZI VETTORIALI EUCLIDEI Capitolo IV SPAZI VETTORIALI EUCLIDEI È ben noto che in VO 3 si possono considerare strutture più ricche di quella di spazio vettoriale; si pensi in particolare all operazioni di prodotto scalare di vettori.

Dettagli

I VETTORI GAUSSIANI E. DI NARDO

I VETTORI GAUSSIANI E. DI NARDO I VETTOI GAUSSIANI E. DI NADO. L importanza della distribuzione gaussiana I vettori di v.a. gaussiane sono senza dubbio uno degli strumenti più utili in statistica. Nell analisi multivariata, per esempio,

Dettagli

Sviluppi e derivate delle funzioni elementari

Sviluppi e derivate delle funzioni elementari Sviluppi e derivate delle funzioni elementari In queste pagine dimostriamo gli sviluppi del prim ordine e le formule di derivazioni delle principali funzioni elementari. Utilizzeremo le uguaglianze lim

Dettagli

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 1 a.a Soluzioni

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 1 a.a Soluzioni Corso di Laurea in Matematica Geometria 2 Foglio di esercizi n. 1 a.a. 2015-16 Soluzioni Gli esercizi sono presi dal libro di Manetti. Per svolgere questi esercizi, studiare con cura i paragrafi 3.1, 3.2,

Dettagli

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea) 10.4 Convergenze 166 10.4.3. Convergenza in Probabilità. Definizione 10.2. Data una successione X 1, X 2,...,,... di vettori aleatori e un vettore aleatorio X aventi tutti la stessa dimensione k diremo

Dettagli

Esercizi per il corso di Analisi 6.

Esercizi per il corso di Analisi 6. Esercizi per il corso di Analisi 6. 1. Si verifichi che uno spazio normato (X, ) è uno spazio vettoriale topologico con la topologia indotta dalla norma. Si verifichi poi che la norma è una funzione continua

Dettagli

COMPLEMENTI DI ANALISI MATEMATICA DI BASE. Prova scritta del 26 gennaio 2005

COMPLEMENTI DI ANALISI MATEMATICA DI BASE. Prova scritta del 26 gennaio 2005 Prova scritta del 26 gennaio 2005 Esercizio 1. Posto B = x R 2 : x 2 2}, sia f n } una successione di funzioni (misurabili e) integrabili in B tali che f n f q.o. in B e, per ogni n N, f n (x) 2 x 3 per

Dettagli

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da NOTE INTEGRATIVE PER IL CORSO DI ANALISI MATEMATICA 2 ANNO ACCADEMICO 2012/13 NOTE SULLA CONTINUITÀ UNIFORME D.BARTOLUCCI, D.GUIDO Sia f(x) = x 3, x [ 1, 1]. Si ha 1. La continuità uniforme x 3 y 3 = x

Dettagli

1 Alcuni risultati sulle variabili Gaussiane multivariate

1 Alcuni risultati sulle variabili Gaussiane multivariate Il modello lineare-gaussiano e il filtro di Kalman Prof. P.Dai Pra 1 Alcuni risultati sulle variabili Gaussiane multivariate In questo paragrafo verranno enunciate e dimostrate alcune proprietà del valor

Dettagli

14. Confronto tra l integrale di Lebesgue e l integrale di Riemann.

14. Confronto tra l integrale di Lebesgue e l integrale di Riemann. 4. Confronto tra l integrale di Lebesgue e l integrale di Riemann. Lo scopo di questo capitolo è quello di mettere a confronto i vari tipi di integrale (di Riemann, generalizzato e improprio) di funzioni

Dettagli

Statistica ARGOMENTI. Calcolo combinatorio

Statistica ARGOMENTI. Calcolo combinatorio Statistica ARGOMENTI Calcolo combinatorio Probabilità Disposizioni semplici Disposizioni con ripetizione Permutazioni semplici Permutazioni con ripetizioni Combinazioni semplici Assiomi di probabilità

Dettagli

Esame di Analisi Funzionale e Trasformate Prima prova in itinere. Maggio 2017 A.A. 2016/2017. Prof. M. Bramanti Tema A

Esame di Analisi Funzionale e Trasformate Prima prova in itinere. Maggio 2017 A.A. 2016/2017. Prof. M. Bramanti Tema A Esame di Analisi Funzionale e Trasformate Prima prova in itinere. Maggio 7 A.A. 6/7. Prof. M. Bramanti Tema A Cognome: Nome N matr. o cod. persona: Dom Dom Dom 3 Es Es Es 3 Tot. Punti Domande di teoria

Dettagli

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare

Dettagli

ANALISI 1 - Teoremi e dimostrazioni vari

ANALISI 1 - Teoremi e dimostrazioni vari ANALISI 1 - Teoremi e dimostrazioni vari Sommario Proprietà dell estremo superiore per R... 2 Definitivamente... 2 Successioni convergenti... 2 Successioni monotone... 2 Teorema di esistenza del limite

Dettagli

0.1 Spazi Euclidei in generale

0.1 Spazi Euclidei in generale 0.1. SPAZI EUCLIDEI IN GENERALE 1 0.1 Spazi Euclidei in generale Sia V uno spazio vettoriale definito su R. Diremo, estendendo una definizione data in precedenza, che V è uno spazio vettoriale euclideo

Dettagli

Corso di Elementi di Analisi Funzionale e Trasformate A.A. 2016/2017 Domande-tipo di teoria sulla prima metà del corso

Corso di Elementi di Analisi Funzionale e Trasformate A.A. 2016/2017 Domande-tipo di teoria sulla prima metà del corso Corso di Elementi di Analisi Funzionale e Trasformate A.A. 2016/2017 Domande-tipo di teoria sulla prima metà del corso Marco Bramanti Politecnico di Milano April 20, 2017 Cap. 1. Elementi di analisi funzionale

Dettagli

X (o equivalentemente rispetto a X n ) è la

X (o equivalentemente rispetto a X n ) è la Esercizi di Calcolo delle Probabilità della 5 a settimana (Corso di Laurea in Matematica, Università degli Studi di Padova). Esercizio 1. Siano (X n ) n i.i.d. di Bernoulli di parametro p e definiamo per

Dettagli

SERIE NUMERICHE FAUSTO FERRARI

SERIE NUMERICHE FAUSTO FERRARI SERIE NUMERICHE FAUSTO FERRARI Materiale propedeutico alle lezioni di Complementi di Analisi Matematica ed Elementi di Calcolo delle probabilità per il corso di Laurea in Ingegneria per la parte di Elementi

Dettagli

Spazi vettoriali euclidei.

Spazi vettoriali euclidei. Spazi vettoriali euclidei Prodotto scalare, lunghezza e ortogonalità in R n Consideriamo lo spazio vettoriale R n = { =,,, n R}, n con la somma fra vettori e il prodotto di un vettore per uno scalare definiti

Dettagli

Dimostrazione. Indichiamo con α e β (finiti o infiniti) gli estremi dell intervallo I. Poniamo

Dimostrazione. Indichiamo con α e β (finiti o infiniti) gli estremi dell intervallo I. Poniamo C.6 Funzioni continue Pag. 114 Dimostrazione del Corollario 4.25 Corollario 4.25 Sia f continua in un intervallo I. Supponiamo che f ammetta, per x tendente a ciascuno degli estremi dell intervallo, iti

Dettagli

1 Funzioni reali di una variabile reale

1 Funzioni reali di una variabile reale 1 Funzioni reali di una variabile reale Qualche definizione e qualche esempio che risulteranno utili più avanti Durante tutto questo corso studieremo funzioni reali di una variabile reale, cioè Si ha f

Dettagli

I teoremi della funzione inversa e della funzione implicita

I teoremi della funzione inversa e della funzione implicita I teoremi della funzione inversa e della funzione implicita Appunti per il corso di Analisi Matematica 4 G. Mauceri Indice 1 Il teorema della funzione inversa 1 Il teorema della funzione implicita 3 1

Dettagli

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 18/03/2013 CORSO DI ANALISI MATEMATICA SOLUZIONI ESERCIZI PROPOSTI 8/03/03 D.BARTOLUCCI, D.GUIDO. La continuità uniforme I ESERCIZIO: Dimostrare che la funzione f(x) = x 3, x A = (, ] non è uniformemente continua

Dettagli

Insiemi di numeri reali

Insiemi di numeri reali Capitolo 1 1.1 Elementi di teoria degli insiemi Se S è una totalità di oggetti x, si dice che S è uno spazio avente gli elementi x. Se si considerano alcuni elementi di S si dice che essi costituiscono

Dettagli

Analisi 2. Roberto Monti. Appunti del Corso - Versione 5 Ottobre 2012

Analisi 2. Roberto Monti. Appunti del Corso - Versione 5 Ottobre 2012 Analisi 2 Roberto Monti Appunti del Corso - Versione 5 Ottobre 212 Indice Capitolo 1. Programma 5 Capitolo 2. Convergenza uniforme 7 1. Convergenza uniforme e continuità 7 2. Criterio di Abel Dirichlet

Dettagli

Massimo limite e minimo limite di una funzione

Massimo limite e minimo limite di una funzione Massimo limite e minimo limite di una funzione Sia f : A R una funzione, e sia p DA). Per ogni r > 0, l insieme ) E f p r) = { fx) x A I r p) \ {p} } è non vuoto; inoltre E f p r ) E f p r ) se 0 < r r.

Dettagli

Teoria di Lebesgue. P n E = n=1

Teoria di Lebesgue. P n E = n=1 Teoria di Lebesgue 1. La misura di Peano-Jordan La misura di Peano Jordan di un insieme é quasi sempre proposta per sottoinsiemi limitati E R 2 : si tratta di quanto suggerito dalla carta quadrettata,

Dettagli

Disuguaglianza di Cramér-Rao

Disuguaglianza di Cramér-Rao Disuguaglianza di Cramér-Rao (Appunti per gli studenti Silvano Holzer Dipartimento di Scienze Economiche, Aziendali, Matematiche e Statistiche Bruno de Finetti Università degli studi di Trieste Un esperimento

Dettagli

1 Successioni di funzioni

1 Successioni di funzioni Analisi Matematica 2 Successioni di funzioni CORSO DI STUDI IN SMID CORSO DI ANALISI MATEMATICA 2 CAPITOLO 6 SERIE DI POTENZE Supponiamo di associare ad ogni n N (rispettivamente ad ogni n p, per qualche

Dettagli

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g

LEZIONE 3. a + b + 2c + e = 1 b + d + g = 0 3b + f + 3g = 2. a b c d e f g LEZIONE 3 3.. Matrici fortemente ridotte per righe. Nella precedente lezione abbiamo introdotto la nozione di soluzione di un sistema di equazioni lineari. In questa lezione ci poniamo il problema di descrivere

Dettagli

Laurea in Informatica e Tecnologie per la Produzione del Software Corso di Analisi Matematica Successioni e loro limiti

Laurea in Informatica e Tecnologie per la Produzione del Software Corso di Analisi Matematica Successioni e loro limiti Laurea in Informatica e Tecnologie per la Produzione del Software Corso di Analisi Matematica Successioni e loro limiti Docente: Anna Valeria Germinario Università di Bari A.V.Germinario (Università di

Dettagli

4 Autovettori e autovalori

4 Autovettori e autovalori 4 Autovettori e autovalori 41 Cambiamenti di base Sia V uno spazio vettoriale tale che dim V n Si è visto in sezione 12 che uno spazio vettoriale ammette basi distinte, ma tutte con la medesima cardinalità

Dettagli

Traccia della soluzione degli esercizi del Capitolo 3

Traccia della soluzione degli esercizi del Capitolo 3 Traccia della soluzione degli esercizi del Capitolo 3 Esercizio 68 Sia X una v.c. uniformenente distribuita nell intervallo ( π, π, cioè f X ( = π ( π, π (. Posto Y = cos(x, trovare la distribuzione di

Dettagli

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 2 a.a Soluzioni

Corso di Laurea in Matematica Geometria 2. Foglio di esercizi n. 2 a.a Soluzioni Corso di Laurea in Matematica Geometria 2 Foglio di esercizi n. 2 a.a. 2015-16 Soluzioni Gli esercizi sono presi dal libro di Manetti. Per svolgere questi esercizi, studiare con cura i paragrafi 3.5, 3.6,

Dettagli

LEZIONE 5. AX = 0 m,1.

LEZIONE 5. AX = 0 m,1. LEZIONE 5 5 isoluzione di sistemi Supponiamo che AX = B sia un sistema di equazioni lineari Ad esso associamo la sua matrice completa (A B Per quanto visto nella precedente lezione, sappiamo di poter trasformare,

Dettagli

SPAZI TOPOLOGICI. La nozione di spazio topologico è più generale di quella di spazio metrizzabile.

SPAZI TOPOLOGICI. La nozione di spazio topologico è più generale di quella di spazio metrizzabile. SPAZI TOPOLOGICI La nozione di spazio topologico è più generale di quella di spazio metrizzabile. Definizione 1 Uno spazio topologico (X, τ) è una coppia costituita da un insieme X e da una famiglia τ

Dettagli

LEZIONE 12. v = α 1 v α n v n =

LEZIONE 12. v = α 1 v α n v n = LEZIONE 12 12.1. Combinazioni lineari. Definizione 12.1.1. Sia V uno spazio vettoriale su k = R, C e v 1,..., v n V vettori fissati. Un vettore v V si dice combinazione lineare di v 1,..., v n se esistono

Dettagli

Geometria e Topologia I (U1-4) 2006-mag-10 61

Geometria e Topologia I (U1-4) 2006-mag-10 61 Geometria e Topologia I (U1-4) 2006-mag-10 61 (15.9) Teorema. Consideriamo il piano affine. Se A A 2 (K) è un punto e r una retta che non passa per A, allora esiste unica la retta per A che non interseca

Dettagli

0 se y c 1 (y)) se c < y < d. 1 se y d

0 se y c 1 (y)) se c < y < d. 1 se y d Capitolo. Parte IX Exercise.. Sia X una variabile aleatoria reale assolutamente continua e sia (a,b) un intervallo aperto (limitato o illimitato) di R, tale che P(X (a,b)) =. Sia ϕ : (a,b) R una funzione

Dettagli

SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n

SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n SPAZI E SOTTOSPAZI 1 SOTTOSPAZI E OPERAZIONI IN SPAZI DIVERSI DA R n Spazi di matrici. Spazi di polinomi. Generatori, dipendenza e indipendenza lineare, basi e dimensione. Intersezione e somma di sottospazi,

Dettagli

k=0 a k k=0 a k, quando si voglia precisare qual è l indice iniziale: si possono infatti considerare anche serie del tipo k=1 a k, k=50 a k,

k=0 a k k=0 a k, quando si voglia precisare qual è l indice iniziale: si possono infatti considerare anche serie del tipo k=1 a k, k=50 a k, 2.2 Serie Le serie numeriche sono semplicemente successioni reali o complesse di tipo particolare, che però, per la loro importanza pratica e teorica, meritano una trattazione a parte. Data una successione

Dettagli

Il teorema di Stone Weierstrass

Il teorema di Stone Weierstrass APPENDICE B Il teorema di Stone Weierstrass Definizione B.1. Siano X un insieme non vuoto e A un sottospazio vettoriale dello spazio delle funzioni a valori reali (risp. complessi) su X. Si dice che A

Dettagli

Programma del corso di Analisi Matematica 1 Corso di Laurea in Matematica Prof. A. Garroni - Canale Dl-Pa

Programma del corso di Analisi Matematica 1 Corso di Laurea in Matematica Prof. A. Garroni - Canale Dl-Pa Programma del corso di Analisi Matematica 1 Corso di Laurea in Matematica Prof. A. Garroni - Canale Dl-Pa 1. Elementi di spazi metrici e di topologia 1.1 Completezza di R. Richiami: Estremo superiore,

Dettagli

SPAZI VETTORIALI CON PRODOTTO SCALARE A =

SPAZI VETTORIALI CON PRODOTTO SCALARE A = SPAZI VETTORIALI CON PRODOTTO SCALARE Esercizi Esercizio. Nello spazio euclideo standard (R 2,, ) sia data la matrice 2 3 A = 3 2 () Determinare una base rispetto alla quale A sia la matrice di un endomorfismo

Dettagli

ANALISI MATEMATICA 3. esercizi assegnati per la prova scritta del 31 gennaio 2011

ANALISI MATEMATICA 3. esercizi assegnati per la prova scritta del 31 gennaio 2011 esercizi assegnati per la prova scritta del 31 gennaio 2011 Esercizio 1. Per x > 0 e n N si ponga f n (x) = ln ( n 5 x ) a) Provare l integrabilità delle funzioni f n in (0, + ). 3 + n 4 x 2. b) Studiare

Dettagli

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16 Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana - 015/16 Esercizio 1 Per quali valori n Z \ {0} l espressione è un numero intero positivo? (n + 5)(n + 6) 6n Soluzione. Il problema

Dettagli

13 LIMITI DI FUNZIONI

13 LIMITI DI FUNZIONI 3 LIMITI DI FUNZIONI Estendiamo la nozione di ite a funzioni reali di variabile reale. Definizione caratterizzazione per successioni) Si ha fx) = L x 0, L R) se e solo se per ogni successione a n x 0 con

Dettagli

LEZIONE 2. ( ) a 1 x 1 + a 2 x a n x n = b, ove a j, b R sono fissati.

LEZIONE 2. ( ) a 1 x 1 + a 2 x a n x n = b, ove a j, b R sono fissati. LEZIONE 2 2 Sistemi di equazioni lineari Definizione 2 Un equazione lineare nelle n incognite x, x 2,, x n a coefficienti reali, è un equazione della forma (2 a x + a 2 x 2 + + a n x n = b, ove a j, b

Dettagli

Limiti di successioni

Limiti di successioni Capitolo 5 Limiti di successioni 5.1 Successioni Quando l insieme di definizione di una funzione coincide con l insieme N costituito dagli infiniti numeri naturali 1, 2, 3,... talvolta si considera anche

Dettagli

Il Teorema di Kakutani

Il Teorema di Kakutani Il Teorema di Kakutani Abbiamo visto, precedentemente, il seguente risultato: 1 Sia X uno spazio di Banach. Se X è separabile, la palla è debolmente compatta. B X = {x X x 1} Il Teorema di Kakutani è un

Dettagli

LEZIONE 8. k e w = wx ı + w y j + w z. k di R 3 definiamo prodotto scalare di v e w il numero

LEZIONE 8. k e w = wx ı + w y j + w z. k di R 3 definiamo prodotto scalare di v e w il numero LEZINE 8 8.1. Prodotto scalare. Dati i vettori geometrici v = v x ı + v y j + v z k e w = wx ı + j + k di R 3 definiamo prodotto scalare di v e w il numero v, w = ( v x v y v z ) w x = v x + v y + v z.

Dettagli

Università degli Studi di Palermo Facoltà di Economia. CdS Sviluppo Economico e Cooperazione Internazionale. Appunti del corso di Matematica

Università degli Studi di Palermo Facoltà di Economia. CdS Sviluppo Economico e Cooperazione Internazionale. Appunti del corso di Matematica Università degli Studi di Palermo Facoltà di Economia CdS Sviluppo Economico e Cooperazione Internazionale Appunti del corso di Matematica 02 - I Numeri Reali Anno Accademico 2013/2014 D. Provenzano, M.

Dettagli

1 Volume di parallelepipedi e determinanti

1 Volume di parallelepipedi e determinanti 1 Volume di parallelepipedi e determinanti Dimostriamo la seguente relazione fondamentale tra volumi e determinanti. Lemma 1 Sia T una matrice reale (n n) e sia K 1 := [0, 1] n. Allora dove mis denota

Dettagli

Miglior approssimazione in spazi euclidei

Miglior approssimazione in spazi euclidei Miglior approssimazione in spazi euclidei 15 gennaio 2009 1 Introduzione astratta Sia E uno spazio vettoriale dotato di un prodotto interno (, ) (talvolta un tale spazio è detto euclideo, cf. [7, p.148]),

Dettagli

LEZIONE 11. s V : V V V (v 1, v 2 ) v 1 + v 2 = s V (v 1, v 2 ), p V : k V V. per cui valgono:

LEZIONE 11. s V : V V V (v 1, v 2 ) v 1 + v 2 = s V (v 1, v 2 ), p V : k V V. per cui valgono: LEZIONE 11 11.1. Spazi vettoriali ed esempi. La nozione di spazio vettoriale generalizza quanto visto nelle lezioni precedenti: l insieme k m,n delle matrici m n a coefficienti in k = R, C, l insieme V

Dettagli

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X),

LEZIONE 12. Y = f(x) = f( x j,1 f(e j ) = x j,1 A j = AX = µ A (X), LEZIONE 1 1.1. Matrice di un applicazione lineare. Verifichiamo ora che ogni applicazione lineare f: R n R m è della forma µ A per un unica A R m,n. Definizione 1.1.1. Per ogni j 1,..., n indichiamo con

Dettagli

Risoluzione di sistemi lineari sparsi e di grandi dimensioni

Risoluzione di sistemi lineari sparsi e di grandi dimensioni Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica

Dettagli

MATRICI E SISTEMI LINEARI

MATRICI E SISTEMI LINEARI 1 Rappresentazione di dati strutturati MATRICI E SISTEMI LINEARI Gli elementi di una matrice, detti coefficienti, possono essere qualsiasi e non devono necessariamente essere omogenei tra loro; di solito

Dettagli

Volumi in spazi euclidei 12 dicembre 2014

Volumi in spazi euclidei 12 dicembre 2014 Volumi in spazi euclidei 12 dicembre 2014 1 Definizioni In uno spazio euclideo reale V di dimensione n siano dati k n vettori linearmente indipendenti e sia Π := Π(v 1 v 2... v k ) il parallelepipedo generato

Dettagli

1-Forme Differenziali

1-Forme Differenziali 1-Forme Differenziali 30 novembre 2011 1 Definizioni di base Siano n N e A R n un insieme aperto. Con (R n ) denotiamo il duale topologico di R n, cioè l insieme (R n ) = {p : R n R : R-lineari e continue}.

Dettagli

Le derivate parziali

Le derivate parziali Sia f(x, y) una funzione definita in un insieme aperto A R 2 e sia P 0 = x 0, y 0 un punto di A. Essendo A un aperto, esiste un intorno I(P 0, δ) A. Preso un punto P(x, y) I(P 0, δ), P P 0, possiamo definire

Dettagli

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x 4. Geometria di R 3. Questo paragrafo è molto simile al paragrafo : tratta infatti delle proprietà geometriche elementari dello spazio R 3. Per assegnare delle coordinate nello spazio, fissiamo innanzitutto

Dettagli

SISTEMI LINEARI: APPROFONDIMENTI ED ESEMPI

SISTEMI LINEARI: APPROFONDIMENTI ED ESEMPI SISTEMI LINEARI: APPROFONDIMENTI ED ESEMPI Appunti presi dalle lezioni del prof. Nedo Checcaglini Liceo Scientifico di Castiglion Fiorentino (Classe 4B) January 17, 005 1 SISTEMI LINEARI Se a ik, b i R,

Dettagli

1 Introduzione alle matrici quadrate 2 2 a coefficienti in R.

1 Introduzione alle matrici quadrate 2 2 a coefficienti in R. 1 Introduzione alle matrici quadrate 2 2 a coefficienti in R Per introdurre il concetto di matrice, a 2 righe e 2 colonne, iniziamo col considerare griglie o tabelle di numeri Gli elementi della griglia,

Dettagli

Corso di Analisi Numerica

Corso di Analisi Numerica Corso di Laurea in Ingegneria Informatica Corso di 3 - PROBLEMI DI INTERPOLAZIONE Lucio Demeio Dipartimento di Scienze Matematiche 1 Interpolazione: Polinomio di Lagrange 2 3 Introduzione Problemi di interpolazione

Dettagli

Appunti su Indipendenza Lineare di Vettori

Appunti su Indipendenza Lineare di Vettori Appunti su Indipendenza Lineare di Vettori Claudia Fassino a.a. Queste dispense, relative a una parte del corso di Matematica Computazionale (Laurea in Informatica), rappresentano solo un aiuto per lo

Dettagli

SUCCESSIONI E SERIE NUMERICHE E DI FUNZIONI

SUCCESSIONI E SERIE NUMERICHE E DI FUNZIONI SERIE NUMERICHE Si consideri una successione di elementi. Si definisce serie associata ad la somma Per ogni indice della successione, si definisce successione delle somme parziali associata a la somma

Dettagli

Densità di probabilità del prodotto di due variabili casuali distribuite uniformemente

Densità di probabilità del prodotto di due variabili casuali distribuite uniformemente Firenze - Dip. di Fisica 2 agosto 2008 Densità di probabilità del prodotto di due variabili casuali distribuite uniformemente In questa dispensa, che presentiamo a semplice titolo di esercizio e applicazione

Dettagli

2.6 Calcolo degli equilibri di Nash

2.6 Calcolo degli equilibri di Nash 92 2 Giochi non Cooperativi Per queste estensioni di giochi non finiti si possono provare risultati analoghi a quelli visti per i giochi finiti. Rimandiamo alla bibliografia per uno studio più approfondito

Dettagli

i) la somma e il prodotto godano delle proprietà associativa, commutativa e distributiva;

i) la somma e il prodotto godano delle proprietà associativa, commutativa e distributiva; 1 Spazi vettoriali 11 Definizioni ed assiomi Definizione 11 Un campo è un insieme K dotato di una operazione somma K K K, (x, y) x + y e di una operazione prodotto K K K, (x, y) xy tali che i) la somma

Dettagli

LeLing12: Ancora sui determinanti.

LeLing12: Ancora sui determinanti. LeLing2: Ancora sui determinanti. Ārgomenti svolti: Sviluppi di Laplace. Prodotto vettoriale e generalizzazioni. Rango e determinante: i minori. Il polinomio caratteristico. Ēsercizi consigliati: Geoling

Dettagli

Distribuzioni di due variabili aleatorie

Distribuzioni di due variabili aleatorie Statistica e analisi dei dati Data: 6 Maggio 206 Distribuzioni di due variabili aleatorie Docente: Prof. Giuseppe Boccignone Scriba: Noemi Tentori Distribuzioni congiunte e marginali Consideriamo due variabili

Dettagli

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria. Capitolo 2 Campi 2.1 Introduzione Studiamo ora i campi. Essi sono una generalizzazione dell insieme R dei numeri reali con le operazioni di addizione e di moltiplicazione. Nel secondo paragrafo ricordiamo

Dettagli

Osservazione 1.1 Si verifica facilmente che esiste un unica relazione d ordine totale su Q che lo renda un campo ordinato.

Osservazione 1.1 Si verifica facilmente che esiste un unica relazione d ordine totale su Q che lo renda un campo ordinato. 1 Numeri reali Definizione 1.1 Un campo ordinato è un campo K munito di una relazione d ordine totale, compatibile con le operazioni di somma e prodotto nel senso seguente: 1. a, b, c K, a b = a + c b

Dettagli

Corso di Laurea in Matematica Geometria 2. Esercizi di preparazione allo scritto a.a Topologia

Corso di Laurea in Matematica Geometria 2. Esercizi di preparazione allo scritto a.a Topologia Corso di Laurea in Matematica Geometria 2 Esercizi di preparazione allo scritto a.a. 2015-16 Esercizio 1. Dimostrare che Topologia 1. d(x, y) = max 1 i n x i y i definisce una distanza su R n. 2. d(x,

Dettagli

Indici di posizione e dispersione per distribuzioni di variabili aleatorie

Indici di posizione e dispersione per distribuzioni di variabili aleatorie Indici di posizione e dispersione per distribuzioni di variabili aleatorie 12 maggio 2017 Consideriamo i principali indici statistici che caratterizzano una distribuzione: indici di posizione, che forniscono

Dettagli

A.A CORSO DI ALGEBRA 1. PROFF. P. PIAZZA, E. SPINELLI. SOLUZIONE ESERCIZI FOGLIO 5.

A.A CORSO DI ALGEBRA 1. PROFF. P. PIAZZA, E. SPINELLI. SOLUZIONE ESERCIZI FOGLIO 5. A.A. 2015-2016. CORSO DI ALGEBRA 1. PROFF. P. PIAZZA, E. SPINELLI. SOLUZIONE ESERCIZI FOGLIO 5. Esercizio 5.1. Determinare le ultime tre cifre di n = 13 1625. (Suggerimento. Sfruttare il Teorema di Eulero-Fermat)

Dettagli

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07 PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 006/07 Esercizio 1 Prova scritta del 16/1/006 In un ufficio postale lavorano due impiegati che svolgono lo stesso compito in maniera indipendente, sbrigando

Dettagli

LEZIONE Equazioni matriciali. Negli Esempi e si sono studiati più sistemi diversi AX 1 = B 1, AX 2 = R m,n, B = (b i,h ) 1 i m

LEZIONE Equazioni matriciali. Negli Esempi e si sono studiati più sistemi diversi AX 1 = B 1, AX 2 = R m,n, B = (b i,h ) 1 i m LEZIONE 4 41 Equazioni matriciali Negli Esempi 336 e 337 si sono studiati più sistemi diversi AX 1 = B 1, AX 2 = B 2,, AX p = B p aventi la stessa matrice incompleta A Tale tipo di problema si presenta

Dettagli

Matematica e Statistica per Scienze Ambientali

Matematica e Statistica per Scienze Ambientali per Scienze Ambientali Insiemi e Combinatoria - Appunti 1 1 Dipartimento di Matematica Sapienza, Università di Roma Roma, 23 - Ottobre 2012 Il concetto di insieme Non tratterò la teoria assiomatica degli

Dettagli

Spazi Vettoriali ed Applicazioni Lineari

Spazi Vettoriali ed Applicazioni Lineari Spazi Vettoriali ed Applicazioni Lineari 1. Sottospazi Definizione. Sia V uno spazio vettoriale sul corpo C. Un sottoinsieme non vuoto W di V è un sottospazio vettoriale di V se è chiuso rispetto alla

Dettagli

Raccolta degli Scritti d Esame di ANALISI MATEMATICA U.D. 2 assegnati nei Corsi di Laurea di Fisica, Fisica Applicata, Matematica

Raccolta degli Scritti d Esame di ANALISI MATEMATICA U.D. 2 assegnati nei Corsi di Laurea di Fisica, Fisica Applicata, Matematica DIPARTIMENTO DI MATEMATICA Università degli Studi di Trento Via Sommarive - Povo (TRENTO) Raccolta degli Scritti d Esame di ANALISI MATEMATICA U.D. 2 assegnati nei Corsi di Laurea di Fisica, Fisica Applicata,

Dettagli

FUNZIONI. }, oppure la

FUNZIONI. }, oppure la FUNZIONI 1. Definizioni e prime proprietà Il concetto di funzione è di uso comune per esprimere la seguente situazione: due grandezze variano l una al variare dell altra secondo una certa legge. Ad esempio,

Dettagli

Appunti del Corso Analisi 1

Appunti del Corso Analisi 1 Appunti del Corso Analisi 1 Anno Accademico 2011-2012 Roberto Monti Versione del 5 Ottobre 2011 1 Contents Chapter 1. Cardinalità 5 1. Insiemi e funzioni. Introduzione informale 5 2. Cardinalità 7 3.

Dettagli

Complementi di Analisi Matematica Ia. Carlo Bardaro

Complementi di Analisi Matematica Ia. Carlo Bardaro Complementi di Analisi Matematica Ia Carlo Bardaro Capitolo 1 Elementi di topologia della retta reale 1.1 Intorni, punti di accumulazione e insiemi chiusi Sia x 0 IR un fissato punto di IR. Chiameremo

Dettagli

Introduzione generale. Cenni storici. 1 Problema di de Mèrè e soluzione. martedì 27 febbraio 2007

Introduzione generale. Cenni storici. 1 Problema di de Mèrè e soluzione. martedì 27 febbraio 2007 Corso di Calcolo delle probabilità - SIGAD -A.A. 2007/2008 Registro provvisorio delle Lezioni tenute da: Giuseppe Sanfilippo Settimana Giorno Lezione Lez N. Argomento Effettuata =SI Introduzione generale.

Dettagli

Distribuzioni di Probabilità

Distribuzioni di Probabilità Distribuzioni di Probabilità Distribuzioni discrete Distribuzione uniforme discreta Distribuzione di Poisson Distribuzioni continue Distribuzione Uniforme Distribuzione Gamma Distribuzione Esponenziale

Dettagli

Spazi di Funzioni. Docente:Alessandra Cutrì. A. Cutrì e Metodi Matematici per l ingegneria Ing. Gestionale

Spazi di Funzioni. Docente:Alessandra Cutrì. A. Cutrì e Metodi Matematici per l ingegneria Ing. Gestionale Spazi di Funzioni Docente:Alessandra Cutrì Spazi vettoriali normati Uno spazio Vettoriale V si dice NORMATO se è definita su V una norma, cioè una funzione che verifica: v 0 e v = 0 v = 0 λv = λ v λ R(o

Dettagli

IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero

IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero IL TEOREMA DEGLI ZERI Una dimostrazione di Ezio Fornero Il teorema degli zeri è fondamentale per determinare se una funzione continua in un intervallo chiuso [ a ; b ] si annulla in almeno un punto interno

Dettagli

Esercizi svolti. delle matrici

Esercizi svolti. delle matrici Esercizi svolti. astratti. Si dica se l insieme delle coppie reali (x, y) soddisfacenti alla relazione x + y è un sottospazio vettoriale di R La risposta è sì, perchè l unica coppia reale che soddisfa

Dettagli