Limited Dependent Variable Models Logit Tobit Probit
Modelli Logit e Probit Latent variable models for binary choice Models for descrete dependent variable
Traducendo Spesso vogliamo studiare (le determinanti de) la probabilità di un attributo (o evento): esempi: prob di essere disoccupato prob di sposarsi prob di essere razionati sul mercato del credito prob di possedere una casa
Problema: Non osserviamo la probabilità Osserviamo l attributo (o evento) Esempi Persona disoccupata/non disoccupata Persona coniugata/non coniugata Impresa razionata/non razionata Famiglia proprietaria/non proprietaria della propria abitazione
Variabili dipendenti discrete In altri termini, osserviamo la realizzazione di variabili discrete (Y), che assumono il valore Y=1 se l evento (attributo) si verifica Y=0 se non si verifica
Interesse P(Y=1 X) Probabilità dell evento Y=1, dato un set di variabili esplicative X
Linear Probability Model Y i =a+bx i +u i Y dummy =1 se la famiglia è proprietaria X=reddito u=errore, E(u)=0 E(Y i X i )= a+bx i = Pr (Y i =1 X i ) valore atteso conditional on X i =conditional probability
LPM: Scatterplot Asse ascisse: valori di X 0....... Asse ordinate: valori di Y 1.....
LPM: retta regressione Asse ascisse: X Asse ordinate: valori reali di Y ed E(Y X) = P(Y=1 X) Retta di regressione passa attraverso i valori reali di Y (0-1) nei punti di maggiore concentrazione degli stessi NOTA BENE: valori di R^2 bassi 1...... 0......
LPM: retta regressione Asse ascisse: X Asse ordinate: E(Y X) = P(Y=1 X) valori di R^2 alti solo in casi del genere 1 0
ESEMPIO fittedy i =- 0.9457+0.1021 X i t (-7.7) (12.5) Intercetta= prob che una famiglia con zero reddito possieda una casa: negativa!! Coeff di X= per un incremento unitario di X, in media, la prob di possedere una casa aumenta di 0.1021, circa il 10%
PROBLEMI PROBLEMI DI INFERENZA Le assunzioni di normalità/omoschedas ticità degli errori sono violate (residui dicotomi ed eteroschedastici) PROBLEMI DI FORMA FUNZIONALE Predicted probabilities illimitate P(D=1 X) >1 P(D=1 X) < 0 Relazione lineare tra probabilità e variabili esplicative
In realtà La relazione tra probabilità e variabili esplicative è nella maggior parte dei casi NON LINEARE Esempio: se il reddito aumenta di 10000 euro quale sarà l impatto sulla prob di possedere una casa? DIPENDE dal livello del reddito Asse ascisse: valori di X Asse ordinate: P(Y=1 X) P 1 0
Ricapitolando: abbiamo bisogno che la prob non ecceda i limiti di 0 e 1, e che la relazione tra probabilità e variabili esplicative sia non lineare. A tal fine dobbiamo ricorrere a delle FUNZIONI DI DISTRIBUZIONE CUMULATE. Le CDFs più usate sono quella LOGISTICA e quella NORMALE
Cumulative logistic distibution P=e L /(1+e L ) Asse ascisse: L=a+bX Asse ordinate: P(Y=1 X) P=1/(1+e -L ) La relazione non lineare tra P e L crea un estimation problem : non possiamo usare OLS 1 0 0.5 0 L
Soluzione: trasformiamo probabilità in logits La cd logit transformation consta di due stadi: 1. Calcolare the odds ratio =P/(1-P) =(1+e L )/(1+e -L )= e L 1. Assumere il log dell odds ratio ln(p/1-p)=l
NON-Linear Probability Model Grazie a questa trasformazione possiamo esprimere una relazione lineare tra la nuova variabile dipendente (espressa in logits L ) e la variabile esplicativa X: L=ln(P/1-P)=a+bX Tale relazione implica una relazione NON lineare tra PROBABILITA ed X P=e a+bx /(1+e a+bx ) P=e L /(1+e L )
LOGIT: Regressione L=a+bX+e Il coefficiente b rappresenta la variazione in E(L) al variare di X (se X è una variabile continua b è la derivata di E(L) rispetto a X). Gli effetti di X su L sono LINEARI e ADDITIVI L interpretazione di b è la stessa che viene data in ogni retta di regressione, MA le unità in cui è misurata la variabile dipendente rendono l interpretazione degli effetti di X meno intuitiva
Interesse Vogliamo conoscere gli effetti di X (reddito) sulla probabilità di possedere una casa (P) Per cui dobbiamo convertire l effetto stimato di X su L (cioè b) (δl/ δx) nell effetto di X su P (δp/ δx)
Ricordiamo che la relazione (NON lineare) tra PROBABILITA ed X è P=e a+bx /(1+e a+bx ) δp/ δx=b*p*(1-p) NB. L effetto di X su P non è costante: dipende dal livello di P (che a sua volta dipende dal livello di X!)
Se P=0.5 δp/ δx=b*p*(1-p) δp/ δx=b*0.25 massimo effetto Se P 1 o P 0 l effetto si riduce
Standard normal distribution P=area sotto la curva, Φ(Z) f(z)
Cumulative standard normal distribution P=Φ(Z) Asse ascisse: Z=a+bX Asse ordinate: P(Y=1 X) Usiamo la distribuzione cumulata per ottenere: 1. prob comprese tra 0 e 1 2. relazione non lineare 0 1 Z Z=Φ -1 (P)
Probit analysis trasformiamo probabilità (limitate tra 0 e 1) in Z-scores (valori critici della distribuzione normale standardizzata), che variano tra infinito e + infinito Z-scores rappresentano la variabile dipendente nel modello Probit
Analogamente a quanto detto per la trasformazione LOGIT Grazie a questa trasformazione possiamo esprimere una relazione lineare tra la nuova variabile dipendente (espressa in Probits Z ) e la variabile esplicativa X: Z= Φ -1 (P) =a+bx Tale relazione implica una relazione NON lineare tra PROBABILITA ed X
Effetto marginale di X su P δp/ δx=b*φ(z) NB. L effetto di X su P non è costante: dipende dal livello di Z (che dipende da X, infatti Z =a+bx ) Nota: Φ è la funzione di densità della normale standardizzata
TOBIT model La variabile dipendente: è zero per una parte rilevante del campione, continua per valori >0 Esempi: Spesa in alcolici Ammontare preso a prestito
Tobit model Assumiamo che la decisione di acquistare dipenda da una variabile nascosta underlying latent variable (utilità) (vedi Wooldridge Introductoy Econometrics ) Y*=a+bX+u dove u X N(0, σ 2 ) Y=max(0,Y*) Ciò implica che Y=Y* quando Y*>=0
Interpretazione coefficienti b rappresenta l effetto parziale di X su E(Y* X), dove Y* è una variabile latente, che spesso non rappresenta il focus dell analisi. Negli esempi di prima il focus è l ammontare speso in alcolici, l ammontare preso a prestito
Effetto marginale di X su Y Due valori attesi sono di particolare interesse: E(Y Y>0,X) E(Y X) Due effetti parziali δ E(Y Y>0,X) / δx=b*[fattore che dipende da X e da tutti i parametri del modello] δ E(Y X) / δx=b*[fattore che dipende da X e da tutti i parametri del modello]
Metodo di stima: maximum likelihood estimation Tale metodo restituisce le stime dei parametri che rendono massima la probabilità di osservare le realizzazioni della dummy così come si presentano nel nostro campione
La procedura Prima di tutto si esprime la probabilità delle realizzazioni osservate (si scrive la likelihood function) Ad esempio nel Logit: Π[ P i yi (1-P i ) 1-yi ] ( prob. function for a sample of Bernoulli trials) yi=valore osservato della dummy Y per il caso i, E poi si massimizza tale funzione rispetto ai parametri della regressione [nel logit ricorda che: P=e a+bx /(1+e a+bx )]