4. Stime & Test. Corso di Simulazione. Anno accademico 2008/09

Documenti analoghi
II Esonero - Testo B

UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica ST410 - Statistica 1 - A.A. 2014/2015 II Esonero - 15 Gennaio 2015

Statistica Applicata all edilizia: Stime e stimatori

I appello di calcolo delle probabilità e statistica

5. Analisi dei dati di input

5. Distribuzioni. Corso di Simulazione. Anno accademico 2009/10

Esercitazioni di Statistica

5. Analisi dei dati di output

Stima puntuale di parametri

ELEMENTI DI STATISTICA INFERENZIALE ELEMENTI DI STATISTICA INFERENZIALE

Stima puntuale di parametri

UNIVERSITÀ DEGLI STUDI DI PERUGIA

3. Distribuzioni. Corso di Simulazione. Anno accademico 2006/07

5. Analisi dei dati di output

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita

Analisi e scelta dei dati di input

UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica ST410 - Statistica 1 - A.A. 2014/2015 Appello B - 5 Febbraio 2015

Statistica 2. Esercitazioni. Dott. Luigi Augugliaro 1. Università di Palermo

STATISTICA APPLICATA Prof.ssa Julia Mortera. INTRODUZIONE al STATISTICA

Calcolo delle Probabilità e Statistica Matematica: definizioni prima parte. Cap.1: Probabilità

Tecniche di sondaggio

Statistica Metodologica Avanzato Test 1: Concetti base di inferenza

PROBABILITÀ E STATISTICA - 23 Giugno 2017 Scrivere le risposte negli appositi spazi. Motivare dettagliatamente le risposte su fogli allegati

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07

Statistica Applicata all edilizia: alcune distribuzioni di probabilità

Probabilità e Statistica

STATISTICA (modulo II - Inferenza Statistica) Soluzione Esercitazione I

Campionamento e stima di parametri

TECNICHE DI SIMULAZIONE

Statistica Metodologica

Statistica Corso Base (Serale) Dott.ssa Cristina Mollica

Statistica Inferenziale Soluzioni 3. Verifica di ipotesi

Argomenti della lezione: Campionamento Stima Distribuzione campionaria Campione Popolazione Sottoinsieme degli elementi (o universo) dell '

Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1

Gli intervalli di confidenza. Intervallo di confidenza per la media (σ 2 nota) nel caso di popolazione Gaussiana

Analisi statistica in simulazione

Analisi statistica classica. Analisi statistica in simulazione. Stima della media. Stima della media

Due variabili aleatorie X ed Y si dicono indipendenti se comunque dati due numeri reali a e b si ha. P {X = a, Y = b} = P {X = a}p {Y = b}

Esercitazione Maggio 2019

STATISTICA A K (60 ore)

x ;x Soluzione Gli intervalli di confidenza possono essere ottenuti a partire dalla seguente identità: da cui si ricava: IC x ;x = +

Esercizi di Probabilità e Statistica

DISTRIBUZIONI DI PROBABILITA (parte 3) 1 / 34

Regressione lineare. Lucio Demeio Dipartimento di Ingegneria Industriale e Scienze Matematiche Università Politecnica delle Marche.

Stima puntuale. Stimare: attribuire un valore plausibile ad una grandezza. (parametro) non misurabile esattamente.

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2011/12

Esercitazione del 29 aprile 2014

Stima puntuale di parametri

Identificazione dei Modelli e Analisi dei Dati 6/5/1993

Tutorato di Complementi di Analisi Matematica e Statistica 30 maggio 2016

Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1

Elaborazione statistica di dati

Statistica Inferenziale

Calcolo delle Probabilità 2

Note sulla probabilità

Introduzione al modello Uniforme

Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1

Università di Pavia Econometria. Richiami di Statistica. Eduardo Rossi

CP210 Introduzione alla Probabilità: Esame 2

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A

Esercitazione del 04/06/2015 Probabilità e Statistica Foglio 14

Parametri e statistiche. Parametri e statistiche. Distribuzioni campionarie. Popolazione Parametri Valori fissi, Statistiche o Stimatori.

distribuzione normale

Problema 1. Cognome, Nome: Facoltà di Economia Statistica Esame 5-19/11/2009: A. Matricola: Corso:

Esercitazioni di Statistica Matematica A Lezione 7. Variabili aleatorie continue

ECONOMETRIA: Laboratorio I

Dispensa di Statistica

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti

INFERENZA STATISTICA I (CANALE B)

CP110 Probabilità: Esame 13 settembre Testo e soluzione

Probabilità e Statistica

Il campionamento e l inferenza. Il campionamento e l inferenza

Scritto del

Esercizi di statistica

STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE

Intervalli di confidenza

Corso di Statistica - Prof. Fabio Zucca IV Appello - 5 febbraio Esercizio 1

Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04

PROVA SCRITTA DI STATISTICA (COD COD ) 7 luglio 2005 APPROSSIMARE TUTTI I CALCOLI ALLA QUARTA CIFRA DECIMALE SOLUZIONI MODALITÀ A

ESERCIZIO 1. Soluzione. X =numero di passeggeri giornaliero

INFERENZA STATISTICA I (CANALE B)

INTRODUZIONE AL DOE come strumento di sviluppo prodotto Francesca Campana Parte 2 Concetti di base

Statistica Matematica A Docente: Dott. F. Zucca. II prova in itinere

CALCOLO DELLE PROBABILITÀ - 9 giugno 1998 Scrivere le risposte negli appositi spazi Motivare dettagliatamente le risposte su fogli allegati

Dipartimento di Sociologia e Ricerca Sociale. Corso di Laurea in Sociologia. Insegnamento di Statistica (a.a ) dott.ssa Gaia Bertarelli

Gli intervalli di Confidenza. Lezione 9- Inervalli di Confidenza 1

Modelli di probabilità

Richiami di probabilità e statistica

Matematica Applicata L-A Definizioni e teoremi

Alcune v.a. discrete notevoli

Stima dei parametri. La v.c. multipla (X 1, X 2,.., X n ) ha probabilità (o densità): Le f( ) sono uguali per tutte le v.c.

Prova di recupero di Probabilità e Statistica - A * 21/04/2006

Il Teorema del limite Centrale (TLC)

ESAME. 9 Gennaio 2017 COMPITO B

Propagazione delle varianze, conosciuta come propagazione degli errori.

Transcript:

Anno accademico 2008/09

Media campionaria X 1, X 2,..., X n v.c. indipendenti con distribuzione F, e: E[X i ] = µ Var[X i ] = σ 2, i = 1,..., n Media campionaria: X n è uno stimatore di µ. È uno stimatore corretto: X n = 1 n n X i, i=1 E[X n ] = µ. Risulta poi Var[X n ] = 1 n σ2

Varianza campionaria Uno stimatore corretto della varianza σ 2 è S 2 n = n i=1 (X i X n ) 2 n 1 Infatti: (n 1)E[S 2 n] = E[ = n i=1 n (X i X n ) 2 ] i=1 E[X 2 i ] ne[x 2 n]

Varianza campionaria (n 1)E[S 2 n ] = P n i=1 E[X 2 i ] ne[x 2 n] Dalla Sostituendo si ha: (n 1)E[S 2 n] = E[X 2 i ] = Var[X i ] + E[X i ] 2, n (Var[X i ] + E[X i ] 2 ) n(var[x n ] + E[X n ] 2 ) i=1 = nσ 2 + nµ 2 n σ2 n nµ2 = (n 1)σ 2.

Intervalli di confidenza Quanto è accurata la stima di µ fornita dalla media campionaria X n? Per il teorema del limite centrale, per n opportunamente grande, è n X n µ σ N(0, 1), La stessa cosa vale se sostituiamo σ, che non conosciamo, con la sua stima S n. Se Z è una v.c. normale standard, per ogni α (0, 1), indichiamo con z α il valore per cui è P(Z > z α ) = α.

P( z α/2 < Z < z α/2 ) = 1 α, P( z α/2 < n X n µ S n < z α/2 ) 1 α, P( z α/2 < n µ X n S n < z α/2 ) 1 α, P(X n z α/2 S n n < µ < X n + z α/2 S n n ) 1 α,

Con probabilità 1 α, il valore µ incognito si trova nell intervallo X n ± z α/2 S n n Ad esempio: P(Z < 1.96) = 0.975 Quindi la probabilità che la media campionaria X n differisca da µ di più di 1.96 Sn n è circa 0.05.

Calcolo ricorsivo della media Si voglia stimare la media della v.c. X in modo che la probabilità che di fare un errore maggiore di d sia pari ad α. Se c è il reale per cui risulta P(Z < c) = 1 α/2, si generano successive realizzazioni di X fino ad averne un numero k tale che risulti c S k k < d. (È comunque opportuno che il valore di k non sia inferiore a 30). Per realizzare in modo efficiente il calcolo è opportuno disporre di formule ricorsive per il calcolo di X k e di Sk 2. X k+1 = 1 k+1 k + 1 j=1 X j = X k X k + kx k + X k+1 k + 1 = X k + X k+1 X k k + 1

Calcolo ricorsivo della varianza (1) S 2 k+1 = = = k+1 j=1 (X j X k+1 ) 2 k k (X j X k + X k X k+1 ) 2 j=1 k j=1 k + (X k+1 X k+1 ) 2 k (X j X k ) 2 + (X k X k+1 ) 2 + 2(X j X k )(X k X k+1 ) k + (X k+1 X k+1 ) 2 k = (1 1 k )S k 2 + (X k X k+1 ) 2 + (X k+1 X k+1 ) 2, k ( k j=1 (X j X k ) = 0)

Calcolo ricorsivo della varianza (2) S 2 k+1 = (1 1 k )S2 k + (X k X k+1 ) 2 + (X k+1 X k+1 ) 2 Essendo X k+1 X k+1 = (k + 1)X k+1 k+1 j=1 X j k + 1 = kx k+1 k j=1 X j k + 1 = kx k+1 k j=1 [(k + 1)X j kx j ] k + 1 = k(x k+1 X k ) k si ha S 2 k+1 = (1 1 k )S 2 k + (1 + k)(x k+1 X k ) 2

Massima verosimiglianza X 1, X 2,..., X n osservazioni indipendenti della variabile casuale X, con funzione di densità f θ (x), dove con θ si è indicato il parametro che caratterizza la distribuzione. Si vuole stimare θ. Funzione di verosimiglianza: L(θ) = f θ (X 1 )f θ (X 2 )... f θ (X n ) Il metodo della massima verosimiglianza consiste nello scegliere come stimatore il valore di θ che massimizza L(θ).

Interpretazione di L(θ) Nel caso di distribuzioni discrete, è la probabilità di avere ottenuto il campione X 1, X 2,..., X n. Nel caso di distribuzioni continue la probabilità che l estrazione casuale di un elemento da una popolazione con la distribuzione data sia un valore compreso in un intorno di raggio ε/2 di X i è approssimativamente εf θ (X i ), con un approssimazione tanto più accurata quanto più piccolo è ε. Pertanto L(θ) è approssimativamente proporzionale alla probabilità dell estrazione di un campione di n elementi, Y 1, Y 2,..., Y n, con Y i [X i ε, X i + ε], i = 1, 2,..., n, e con ε opportunamente piccolo.

Massima verosimiglianza: esempio 1 Si voglia stimare con il metodo della massima verosimiglianza il parametro λ di una esponenziale. Si ha L(λ) = (λe λx 1 )(λe λx 2 )... (λe λxn ) = λ n e λ P n i=1 X i = λ n e λnx n dl dλ = nλn 1 e λnx n λ n nx n e λnx n = 0 λ = 1 X n

Massima verosimiglianza: esempio 2 X uniforme in [θ 1 2, θ + 1 2 ] L(θ; x 1, x 2,..., x n ) = f (x; θ) = I [θ 1 2,θ+ 1 2 ](x) x 1 x 2 x n n f (x i ; θ) = i=1 n i=1 L(θ; x 1, x 2,..., x n ) è una funzione che vale 1 se è x i [θ 1 2, θ + 1 2 ] e 0 altrimenti. Quindi: I [θ 1 2,θ+ 1 2 ](x i) L(θ; x 1, x 2,..., x n ) = I [xn 1 2,x 1+ 1 2 ](θ)

Massima verosimiglianza: esempio 2 1 2 x 1 x n 1 2 x1 + 1 2 x n 1 2 L assume il massimo valore per θ [x n 1 2, x 1 + 1 2 ]

Massima verosimiglianza: esempio 3 Assumiamo che X sia uniforme, ma non conosciamo né gli estremi né l ampiezza dell intervallo. σ 2 = (b a)2 12 b a = 2 3σ f (x; µ, σ) = 1 2 3σ I [µ 3σ,µ+ 3σ] (x)

Massima verosimiglianza: esempio 3 L(µ, σ; x 1, x 2,..., x n ) = = = n 1 2 3σ I [µ 3σ,µ+ 3σ] (x i) i=1 ( ) 1 n 2 I 3σ [µ 3σ,x (x n] 1)I [x1,µ+ 3σ] (x n) ( ) 1 n 2 I µ x1 3σ [,+ ] (σ)i [ xn µ,+ ] (σ) 3 3

σ x n 3 σ = x n µ 3 σ = µ x 1 3 x x µ 1 n x1 3 ( ) n La funzione L(µ, σ) vale 1 2 3σ nell area che si trova sopra le due rette e 0 altrove. Il massimo si ha allora quando σ è minimo, cioè in corrispondenza dell incrocio fra le rette: ˆµ = x n + x 1 2 ˆσ = x n x 1 2 3

Errore quadratico medio X 1, X 2,..., X n : v.c. indipendenti con distribuzione F θ(f ): parametro di F da stimare g(x 1, X 2,..., X n ): stimatore usato Definiamo l Errore Quadratico Medio: EQM(F, g) = E F [(g(x 1, X 2,..., X n ) θ(f )) 2 ]. Come stimare EQM(F, g), considerato che F non è nota?

Stima di EQM(F, g) Sia (x 1, x 2,..., x n ) una realizzazione delle v.c. X 1, X 2,..., X n Definiamo la variabile casuale discreta X e che assume i valori x 1, x 2,..., x n con funzione di distribuzione: F e (x) = {i : x i x} n F e (x) 1 x 1 x 2 x 3 = x 4 x 5

Distribuzione empirica x (1) x (2)... x (n) 0, se x < x (1) j F e (x) = n, se x (j) x < x (j+1) 1, se x (n) x F e è una stima empirica di F ; per la legge dei grandi numeri, è F e (x) n F (x).

θ(f e ) è una approssimazione di θ(f ) e EQM(F e, g) è una approssimazione di EQM(F, g): EQM(F e, g) = E Fe [(g(x 1, X 2,..., X n ) θ(f e )) 2 ] L approssimazione è tanto più buona quanto più è grande n In pratica però il calcolo di EQM(F e ) può risultare notevolmente oneroso essendo (g(y) θ(f e EQM(F e, g) = ))2 n n, y {x 1,x 2,...,x n} n

In pratica vengono generati k vettori y {x 1, x 2,..., x n } n, y 1, y 2,..., y k, e si pone EQM(F e ) k (g(y i ) θ(f e )) 2. k i=1 Infatti le (g(y i ) θ(f e )) 2 possono essere considerate come valori assunti da variabili casuali indipendenti con media EQM(F e ), e quindi la loro media è una stima corretta di EQM(F e )

Test di ipotesi: Chi-Quadro per distribuzioni discrete X v.c. discreta che rassume valori 1, 2,..., k x 1, x 2,..., x n realizzazioni di X Ipotesi H 0 (ipotesi nulla): H 0 : P[X = i] = p i, i = 1,..., k dove p 1, p 2,..., p k sono valori dati con somma 1.

N i = {j : x j = i}, i = 1,..., k Sotto l ipotesi H 0, N i ha distribuzione binomiale con parametri n e p i, per ogni i, e quindi ha media np i. T = k (N i np i ) 2 i=1 np i Più grande è T meno è probabile che l ipotesi H 0 sia corretta. Per n grande, T ha approssimativamente una distribuzione Chi-Quadro con k 1 gradi di libertà P H0 [T t] = P[χ 2 k 1 t]

Distribuzione χ 2 k f X (x) = 1 Γ( k 2 ) ( ) k 1 2 k x 2 1 e 1 2 x I 2 (0, ) (x) Γ(t) = 0 x t 1 e x dx, t > 0 [t intero Γ(t) = (t 1)!] E[X ] = k Var[X ] = 2k

Distribuzione Gamma(α, β) La distribuzione Chi-Quadro è un caso particolare della distribuzione generale Gamma(α, β): f X (x) = β α Γ(α) x α 1 e x β I (0, ) (x) La Chi-Quadro con k gradi di libertà è una Gamma(k/2,2). Per α intero la Gamma(α, β) diventa la distribuzione Gamma già vista con parametri n = α e λ = 1/β.

Se è t il valore assunto da T, P[χ 2 k 1 t] fornisce la probabilità di errore nel caso che si decida di scartare l ipotesi H 0. Valori che vengono considerati ragionevoli per rigettare l ipotesi sono P[χ 2 k 1 t] = 0.05 (oppure più conservativamente 0.01). Una più accurata approssimazione del valore P H0 [T t] può essere ottenuta per mezzo di una simulazione. Si generano a questo scopo le variabili casuali T (1), T (2),..., T (r), ciascuna con la distribuzione di T sotto l ipotesi H 0, e si pone P H0 [T t] {j : T (j) t} = r Al crescere di r migliora la bontà dell approssimazione.

Distribuzioni continue X 1, X 2,..., X n variabili indipendenti, identicamente distribuite H 0 : che abbiano una comune distribuzione continua F data. Possiamo ricondurci al caso discreto suddividendo l insieme dei possibili valori assunti dalle X i in k intervalli distinti (, x 1 ), (x 1, x 2 ),..., (x k 2, x k 1 ), (x k 1, + ). Si considerano le v.c. discrete Xi d con Xi d = i se X i si trova nell intervallo (x i 1, x i ), e l ipotesi H 0 diviene P[Xi d = i] = F (x i ) F (x i 1 ), i = 1,..., k.

Test di Kolmogorov-Smirnov per distribuzioni continue X 1, X 2,..., X n variabili indipendenti, identicamente distribuite H 0 : che abbiano una comune distribuzione continua F data. F e approssimazione della F : F e (x) = {i : X i x} n Se l ipotesi H 0 è corretta allora F e (x) è una buona approssimazione di F (x). Una misura dello scostamento è D = max x F e (x) F (x).

Dati i valori osservati x 1,..., x n di X 1,..., X n, ricaviamo il valore osservato d di D. d = Max x {F e (x) F (x), F (x) F e (x)} P F (D d): probabilità di fare un errore se decidiamo di rigettare H 0.

Max x {F e (x) F (x)} = Max{ j n F (x (j)) : j = 1... n}, Max x {F (x) F e (x)} = Max{F (x (j) ) j 1 n : j = 1... n}, F e (x) 1 F(x) x 1 x 2 x 3 = x 4 x 5 { j d = max n F (x (j)), F (x (j) ) j 1 } n : j = 1,... n.

[ ] {i : X i x} P F [D d ] = P Max x F (x) n d [ ] {i : F (X i ) F (x)} = P Max x F (x) n d [ ] {i : U i F (x)} = P Max x F (x) n d U i, sono v. c. indipendenti uniformi in (0.1). (Se X è una v.c. con distribuzione continua F, allora F (X ) è una v.c. uniforme in (0, 1). Infatti, ponendo Y = F (X ) si ha P[Y y] = P[X F 1 (y)] = y.) [ ] {i : U i y} P[D d ] = P Max 0 y 1 y n d.

Stima di P[D d ]: 1 Si generano u 1, u 2,..., u n, uniformi in (0, 1), 2 {i:u Si calcola Max i y} 0 y 1 n y = { Max j n u (j), u (j) j 1 n }. :j = 1,..., n Si ripete più volte e si prende come valore per P[D d ] la proporzione di volte in cui il valore trovato risulta d. Se P[D d] è sufficientemente basso (es. 0.05) l ipotesi viene rigettata, altrimenti viene accettata.

Il test della somma dei ranghi Y 1, Y 2,..., Y m : valori osservati di una variabile V del sistema studiato. (Le Y i possono essere considerate come v.c. identiche e indipendenti) X 1, X 2,..., X n : i valori forniti per V dalla simulazione in n run. (Anche le X i saranno v.c. identicamente distribuite e indipendenti, con distribuzione F, in generale non nota) Ipotesi H 0 : le Y i abbiano la stessa distribuzione delle X i, cioè X 1, X 2,..., X n, Y 1, Y 2,..., Y m sono v.c. identicamente distribuite e indipendenti.

Ordiniamo le X 1,..., X n, Y 1,..., Y m in ordine crescente di valore e per i = 1,..., n sia R i il rango di X i, cioè la sua posizione nella lista ordinata. Ad esempio se le sequenze sono: X : 20, 15, 38, 40, 35, 31 Y : 25, 30, 29, 34. Si ha R 1 = 2, R 2 = 1, R 3 = 9, R 4 = 10, R 5 = 8 e R 6 = 6. R = è un indicatore di plausibilità dell ipotesi (R = 36 nell esempio precedente) n i=1 R i

Chiaramente un valore troppo piccolo o troppo grande di R falsificherebbe con alta probabilità l ipotesi H 0. Supponendo di ritenere accettabile una probabilità α (ad es. 0.05) di sbagliare nel rigettare l ipotesi, rigetteremo H 0 se risulta 2 min {P H0 [R r], P H0 [R r]} α. Come determinare la distribuzione di R?

Ponendo F n,m (r) = P H0 [R r], vale la seguente equazione ricorsiva con F n,m (r) = n n + m F n 1,m(r n m) + m n + m F n,m 1(r), F 1,0 (r) = F 0,1 (r) = { 0, se r < 1 { 1, se r 1 0, se r < 0 1, se r 0 Si ha allora un sistema di equazioni ricorsive che consente di calcolare F n,m (r) e quindi la distribuzione di R.

In pratica il calcolo di F n,m (r) utilizzando la formula ricorsiva risulta molto oneroso. Si ricorre allora ad una approssimazione di F n,m (r). È possibile dimostrare che R n(n+m+1) 2 nm(n+m+1) 12 è, approssimativamente, per n ed m grandi, una normale standard, N(0, 1). Pertanto è con Z una v.c. N(0, 1) e P[R r] = P[Z r ] r = r n(n+m+1) 2. nm(n+m+1) 12

Modelli di processi di arrivo Arrivi ad uno sportello, pacchetti in arrivo ad un server, chiamate in arrivo ad un call center,... λ: numero medio di arrivi nell unità di tempo, N(t): il numero di arrivi nell intervallo temporale [0, t]. Si parla di processi di Poisson, che possono essere sia stazionari che non stazionari.

Processo di Poisson stazionario 1 arriva un individuo alla volta, cioè non ci sono arrivi di gruppi di individui; 2 il numero di arrivi nell intervallo (t, t + s], N(t + s) N(t), è indipendente da N(u), per ogni u [0, t]; 3 la distribuzione di N(t + s) N(t) è indipendente da t per ogni (t, s) 0. P[N(t + s) N(t) = k] = eλs (λs) k, k = 0, 1, 2,..., t, s 0, k!

Processo di Poisson non stazionario In molti casi reali il numero medio di arrivi nell unità di tempo non è indipendente dal tempo. Sostituiamo allora alla costante λ una funzione del tempo λ(t). 1 arriva un individuo alla volta, cioè non ci sono arrivi di gruppi di individui; 2 il numero di arrivi nell intervallo (t, t + s], N(t + s) N(t), è indipendente da N(u), per ogni u [0, t]. P[N(t+s) N(t) = k] = eb(t,s) b(t, s) k, k = 0, 1, 2,..., t, s 0. k!

Λ(t) = E[N(t)] b(t, s) = Λ(t + s) Λ(t) Se Λ(t) è differenziabile si ha: λ(t) = dλ(t) dt b(t, s) = Λ(t + s) Λ(t) = t+s t λ(y)dy

Stima di λ(t) Si abbiano i dati relativi agli arrivi nell intervallo T di n giorni. Dividiamo l intervallo T in p intervallini di uguale ampiezza, [t 1, t 2 ], [t 2, t 3 ],..., [t p, t p+1 ]. Sia x ij il numero di arrivi nell intervallo i del giorno j. Possiamo allora calcolare la media del numero di arrivi in ciascuno degli intervallini: j x i = x ij, n e di conseguenza costruire una approssimazione della funzione λ(t): λ(t) = x i, t [t i, t i+1 ], i = 1, 2,..., p.

Arrivi a gruppi Definiamo poi, per ogni gruppo i, la variabile casuale discreta, B i, che può assumere valori 1, 2,.... Tale variabile definisce la cardinalità del gruppo. Il numero di arrivi individuali entro il tempo t è allora dato dalla: N(t) X (t) = B i, t 0. i=1