Psicometria con Laboratorio di SPSS 2

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Psicometria con Laboratorio di SPSS 2"

Transcript

1 Psicometria con Laboratorio di SPSS 2 Analisi fattoriale esplorativa (v. 1.2, 4 aprile 2018) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca G. Rossi (Dip. Psicologia) Psico / 76

2 Definizioni Variabile indipendente una caratteristica che non dipende da altre (ad es. il sesso non dipende dall intelligenza, dalla cultura... ) Variabile dipendente una caratteristica che può essere influenzata da altre caratteristiche (ad es. la ricchezza del vocabolario può dipendere dall educazione e dalla famiglia di origine) La relazione esistente fra l indipendente e la dipendente è spesso interpretata come influenza o spiegazione G. Rossi (Dip. Psicologia) Psico / 76

3 Definizioni Variabile osservata o misurata una caratteristica che si può misurare in modo diretto (es.: età, reddito, numero di errori) Variabile latente una caratteristica che non può essere misurata direttamente ma che si ipotizza avere dei legami con altre variabili osservabili (es.: intelligenza, cultura, inconscio) Queste varie classificazioni vengono applicate in base al contesto Una variabile considerata indipendente in un certo contesto, può diventare dipendente in un altro G. Rossi (Dip. Psicologia) Psico / 76

4 Osservate vs. latenti In un analisi fattoriale, studiamo le relazioni fra le variabili misurate, cercando di determinare se l eventuale relazione esistente, si può riassumere tramite un insieme di variabili latenti La misura di relazione che viene utilizzata è la correlazione G. Rossi (Dip. Psicologia) Psico / 76

5 Ripasso della statistica necessaria varianza e covarianza s 2 = s xx = (X X)(X X) N cov = s xy = (X X)(Y Ȳ ) N L analisi fattoriale si calcola, in genere, sulle correlazioni In linea di massima la correlazione utilizzata è quella di Pearson r = (X X)(Y Ȳ ) s x s y La correlazione è una covarianza standardizzata G. Rossi (Dip. Psicologia) Psico / 76

6 Nozioni di algebra matriciale ordine o dimensione: ogni matrice ha 2 dimensioni, sempre indicate come numero di righe e numero di colonne (A 6x3 ). Se una matrice ha lo stesso numero di righe e di colonne (è una matrice quadrata) si può indicare una sola dimensione (R 6 ) trasposta: è una matrice ottenuta scambiando fra loro le righe e le colonne. Si indica con un apice (A ) vettori: Sono matrici con una sola riga (v 1xn ) o una sola colonna (v nx1 ). Per definizione i vettori riga sono considerati trasposti di un vettore colonna G. Rossi (Dip. Psicologia) Psico / 76

7 Nozioni di algebra matriciale conformabilità: due matrici sono conformabili e si possono moltiplicare fra loro quando il numero di colonne della prima è uguale al numero di righe della seconda (A 6x3 è conformabile con B 3x7 ma non con B 7x3). La matrice risultante avrà il numero di righe della prima matrice e il numero di colonne della seconda (A 6x3 B 3x7 = C 6x7 ) A 2x3 B 3x2 = [ ] = [ ] 7 15 = C x2 G. Rossi (Dip. Psicologia) Psico / 76

8 Nozioni di algebra matriciale matrice simmetrica: una matrice quadrata in cui gli elementi in posizione i, j sono uguali a quelli in posizione j, i. La matrice risulta speculare rispetto alla diagonale principale. Tutte le matrici di correlazione e di varianza/covarianza sono simmetriche matrice indentità (I) o unitaria: una matrice quadrata tutta composta da 0 con l eccezione della diagonale principale in cui vi è 1. Svolge la stessa funzione dello scalare 1 nell algebra normale : qualsiasi matrice moltiplicata per I rimane uguale a se stessa (AI = A) I = G. Rossi (Dip. Psicologia) Psico / 76

9 Nozioni di algebra matriciale determinante: è un numero caratteristico che rappresenta la matrice. Si indica ponendo fra il nome della matrice ( R ). Si calcola prendendo in considerazione tutte le possibili combinazioni degli elementi della matrice in cui ogni riga e ogni colonna sia usata una sola volta. matrice inversa: è la matrice che svolge la funzione del reciproco dell algebra scalare: a 1 a = 1 AA 1 = I Si può calcolare solo per matrici quadrate e solo se il determinante è diverso da 0. L inversa si usa nella divisione delle matrici. G. Rossi (Dip. Psicologia) Psico / 76

10 Nozioni di algebra matriciale matrice mal condizionata (o singolare o definita non positiva o positivamente non definita: una matrice quadrata con determinante 0 che quindi non può essere invertita. Matematicamente significa che almeno una riga o una colonna è combinazione lineare di almeno una delle altre. Le possibili cause (non matematiche) sono campioni piccoli o l uso delle opzioni pairwise (per le correlazioni) rango: se una matrice ha determinante nullo, si può eliminare una riga e una colonna e ricalcolare il determinante procedendo con tutte le possibili combinazioni. Se ancora i determinanti di tutte le sottomatrici così ottenute sono nulli, si elimina un altra riga/colonna. Il rango è l ordine della sottomatrice il cui determinante è diverso da 0. Indica il numero di righe/colonne che sono linearmente indipendenti dalle altre. G. Rossi (Dip. Psicologia) Psico / 76

11 Modellazione grafica È possibile rappresentare graficamente le relazioni fra le variabili (osservate/latenti, dipendenti/indipendenti) Variabile osservata o manifesta -> rettangolo Variabile latente -> ellisse Relazione generica -> segmento Influenza, spiegazione -> freccia Relazione reciproca (correlazione, covarianza) -> doppia freccia G. Rossi (Dip. Psicologia) Psico / 76

12 Aspetti storici Si pensa che la psicologia nasca attorno al 1879 con Wundt e generalmente si pensa anche che, alle sue origini, la psicologia fosse principalmente introspezionistica ma il francese Binet crea una prima versione della sua scala di misura dell intelligenza già nei primi anni del 1900 e subito si inizia a discutere: alcuni ritengono che l intelligenza sia una sola abilità e che chi è bravo a fare una cosa, sarà bravo a fare tutto altri pensano che l intelligenza dipenda dalle aree di misura e che l abilità in qualcosa non permetta di predire l abilità in un altro campo il primo a teorizzare quella che oggi chiamiamo analisi fattoriale è Spearman G. Rossi (Dip. Psicologia) Psico / 76

13 Aspetti storici 1904, Charles Spearman: Teoria bifattoriale sosteneva che le misure di abilità mentale relative ad un test potevano essere spiegate come attribuibili ad un abilità generale comune a tutte le abilità e ad un abilità specifica e queste abilità dipendono ciascuna da un fattore, chiamati da Spearman Fattore generale (G) e fattore specifico o unico (U). 1945, Thurstone: Teoria multifattoriale propose di sostituire il fattore generale con dei fattori comuni (F). La differenza è che i fattori comuni sono relativi solo ad alcuni item, quello generale li prendeva in considerazione tutti contemporaneamente. La teoria fattoriale esisteva, ma mancava la capacità tecnica (ovvero la parte matematica) per svilupparla solo con i computer divenne possibile utilizzarla G. Rossi (Dip. Psicologia) Psico / 76

14 La correlazione Tutto si basa sul concetto e la logica della correlazione Quando due variabili correlano (molto) fra loro, noi sappiamo che hanno un andamento concomitante che hanno qualcosa in comune fra loro (pari a r 2 ) che è anche possibile che esista una terza variabile che le influenza entrambe Z X Y questa terza variabile è il fattore o variabile latente tuttavia con due sole variabili non è possibile stimare una latente G. Rossi (Dip. Psicologia) Psico / 76

15 Matrice di correlazione Alla base della teoria di Spearman vi è la tetrade cioè tre variabili molto correlate fra loro X1 X2 X6 X3 X4 X5 X1 1 X2 0,891 1 X6 0,842 0,799 1 X3-0,300-0,177-0,161 1 X4 0,126 0,000-0,150-0,804 1 X5-0,221-0,124-0,206 0,876-0,721 1 Ogni tetrade dovrebbe corrispondere ad una variabile latente che è possibile stimare a partire dalle correlazioni stesse G. Rossi (Dip. Psicologia) Psico / 76

16 Esempio teorico δ 1 X 1 F 1 δ 2 X 2 δ 3 X 3 F 2 δ 4 X 4 Considerando la variabile X 1 e pensandola come una regressione multipla: X 1 = b 11 F 1 + b 21 F 2 + δ 1 G. Rossi (Dip. Psicologia) Psico / 76

17 Analisi fattoriale come regressione X 1 = b 11 F 1 + b 21 F 2 + δ 1 (versione AF) Y 1 = b 11 X 1 + b 21 X 2 + ε 1 (versione regressione) X 1 [Y 1 ] è la variabile che rappresenta l item (la dipendente) F 1 e F 2 [X 1 e X 2 ] rappresentano i fattori (le indipendenti) b 11 e b 21 sono i parametri di regressione δ 1 [ε 1 ] è l errore solo che F 1 e F 2 non li conosciamo (non sono stati misurati) G. Rossi (Dip. Psicologia) Psico / 76

18 Scopo dell analisi fattoriale Sotto il nome generico di analisi fattoriale abbiamo diverse tecniche statistiche: L analisi in componenti principali (ACP) è una tecnica matematica alla base dell analisi fattoriale, dell analisi delle corrispondenze e di altre tecniche L analisi fattoriale esplorativa (AFE) che serve essenzialmente per esplorare la relazione fra variabili multivariate L analisi fattoriale confermativa (AFC) che serve per verificare determinate relazioni fra variabili multivariate G. Rossi (Dip. Psicologia) Psico / 76

19 Scopo dell analisi fattoriale Nel suo complesso, AFE e ACP servono per 1 Trasformare le variabili osservate in una struttura più semplice che contenga però le stesse informazioni dell originale 2 Ridurre un insieme di variabili osservate ad un insieme inferiore di variabili non osservate o latenti (fattori, componenti, dimensioni) l AFC è un estensione recente dell analisi fattoriale, sviluppata da Joreskog (1973). A partire da una possibile soluzione fattoriale si cerca di stimare la miglior soluzione possibile a partire dall AFC, sono stati sviluppati nuovi metodi anche per l AFE AFE e ACP sono matematicamente simili, mentre AFC richiede un approccio diverso G. Rossi (Dip. Psicologia) Psico / 76

20 Esplorare/confermare L analisi fattoriale esplorativa (AFE) serve per cercare le variabili latenti all interno delle osservate: non si hanno ipotesi a priori su quali fattori influiscano sulle osservate. L analisi fattoriale confermativa (AFC) serve quando si hanno idee abbastanza chiare su quali fattori influenzano quali variabili. Quindi per verificare che certe relazioni ipotizzate fra le osservate e le latenti siano effettive. Tuttavia non esiste un analisi esclusivamente esplorativa e una esclusivamente confermativa È normale effettuare diverse analisi esplorative alla ricerca di una soluzione soddisfacente facendosi guidare da una teoria o cercando di avvicinarsi a delle ipotesi di partenza È altrettanto normale trovare che la prima analisi confermativa non funzioni e diventi necessario aggiustare il modello G. Rossi (Dip. Psicologia) Psico / 76

21 Analisi fattoriale esplorativa Serve per associare una o più variabili latenti (che non si conoscono) ad un gruppo di variabili osservate che si presuppone abbiano qualche cosa in comune, ma non si sa esattamente cosa. Questo qualcosa in comune viene chiamato Fattore Tutte le variabili osservate (ma in grado diverso) partecipano ai fattori (che possono anche essere correlati fra loro) δ 1 X 1 δ 2 X 2 F 1 δ 3 X 3 δ 4 X 4 F 2 G. Rossi (Dip. Psicologia) Psico / 76

22 Analisi fattoriale confermativa Serve per verificare se una o più variabili latenti (che non si conoscono) sono associabili ad un gruppo di variabili osservate che si presuppone dipendano dalle latenti (lo si capisce dal fatto che correlano fra loro). Ciò che in esplorativa è chiamato Fattore, in confermativa è chiamato variabile latente Particolarità: non tutte le variabili osservate sono spiegate da tutte le latenti; al contrario, ogni latente spiega solo alcune osservate δ 1 X 1 δ 2 X 2 F 1 δ 3 X 3 δ 4 X 4 F 2 G. Rossi (Dip. Psicologia) Psico / 76

23 Implicazioni fra osservate/latenti-fattori AFE: ogni fattore spiega tutte le osservate AFC: una latente deve spiegare almeno una osservata AFC: latenti diverse possono influire su osservate diverse la differenza misurata fra due casi statistici di una stessa osservata dipende, almeno in modo parziale, dalla loro differenza nel fattore/latente due osservate influenzate dal medesimo fattore/latente devono correlare molto fra loro G. Rossi (Dip. Psicologia) Psico / 76

24 Analisi fattoriale esplorativa Teorema fondamentale R = AA + U 2 R = PΦP + U 2 ovvero: la matrice di correlazioni fra le variabili osservate è riproducibile tramite 1 una matrice di saturazioni fattoriali delle latenti (A) moltiplicata per la propria trasposta (ed eventualmente per la correlazione fra le latenti Φ) 2 una matrice (diagonale) di fattori unici (U) Assunzioni I fattori unici (U) non correlano con i fattori comuni (A o P) I fattori unici (U) non correlano fra di loro I fattori comuni possono essere correlati fra di loro (soluzione obliqua) o non essere correlati (soluzione ortogonale) G. Rossi (Dip. Psicologia) Psico / 76

25 Analisi fattoriale esplorativa La matrice A è formata da pesi (saturazioni fattoriali) dei fattori e rappresentano l influenza dei fattori sulle osservate Storicamente, l AFE parte da una matrice di correlazione (R) quindi con dati completamente standardizzati e le saturazioni corrispondono ai parametri di regressione fra latente e X G. Rossi (Dip. Psicologia) Psico / 76

26 Analisi fattoriale esplorativa: sintesi Z = FA + U R = AA + U 2 (ipotesi ortogonale) R = PΦP + U 2 (ipotesi obliqua) Matrice/vettore dim legenda Z=dati grezzi standardizzati n x m n=casi F=Fattori comuni n x f m=osservate A,P=saturazioni/pesi m x f f=latenti U=fattori unici n x m R=matrice correlazioni m x m Φ=correlazioni fra fattori f x f La matrice di correlazione è riproducibile tramite una matrice di saturazioni fattoriali (dipendenti dai fattori comuni) moltiplicata per la sua trasposta e aggiungendo un termine d errore corrispondente ai fattori unici G. Rossi (Dip. Psicologia) Psico / 76

27 Un singolo punteggio z 1 = a 11 F 1 + a 12 F a 1f F f + u 1 z 1 è il punteggio standardizzato di un caso nella variabile 1 a 11 è il parametro di regressione (saturazione fattoriale) della variabile 1 nel fattore 1 F 1 è il punteggio standardizzato di un caso nel fattore 1 u 1 è il punteggio standardizzato di un caso nel fattore unico (o specifico) della variabile 1 G. Rossi (Dip. Psicologia) Psico / 76

28 Analisi fattoriale esplorativa: problema Problema con: R = AA + U 2 U si ricava come differenza da R (correlazioni, che abbiamo) Quello che bisogna trovare è A Ma esistono infinite matrici A che moltiplicate per se stesse si avvicinano ad R Soluzione: Lavoriamo esclusivamente con Fattori non correlati fra loro Troviamo una qualunque soluzione che soddisfi (al meglio) l equazione R = AA Poi ruotiamo la soluzione fino ad ottenerne una che soddisfi determinati criteri (soluzione semplice) G. Rossi (Dip. Psicologia) Psico / 76

29 Soluzione semplice La prima soluzione si ottiene (generalmente) tramite l uso delle componenti principali: ogni componente estratta spiega quanta più varianza possibile La rotazione cerca una soluzione semplice in cui le saturazioni di una variabile siano il più possibili alte in un fattore e il più possibile nulle su tutti gli altri G. Rossi (Dip. Psicologia) Psico / 76

30 Prima di un AFE Identificare un dominio di ricerca selezionare un certo numero di variabili osservabili che verranno misurate su un buon numero di unità statistiche le osservate che correlano molto fra loro possono sottintende un fattore le variabili che non correlano con nessun altra, si scartano analizzando la matrice di correlazione usando la correlazione item-totale usando la stessa AFE (comunalità) G. Rossi (Dip. Psicologia) Psico / 76

31 Passaggi per un AFE Verificare che l AFE si possa fare (livelli di misura, normalità e linearità, outliers, n. variabili e n. fattori attesi e n. soggetti) Decidere: 1 Quale matrice di coefficienti di associazione da analizzare e quindi verificare la sua adeguatezza 2 Quanti fattori estrarre 3 Quale metodo usare per l estrazione 4 Quale rotazione usare e se i fattori sono correlati o no 5 Se servono i punteggi fattoriale e come calcolarli Interpretazione dei fattori G. Rossi (Dip. Psicologia) Psico / 76

32 Verificare la fattibilità Dati quantitativi veri (intervallo / rapporto) è possibile fare un analisi fattoriale esplorativa con dati ordinali (R, Lisrel) ma anche nominali (R, MPlus) Variabili che si distribuiscano normalmente Esclusione degli outliers Considerare l ampiezza del campione G. Rossi (Dip. Psicologia) Psico / 76

33 Ampiezza del campione Ci sono orientamenti diversi che possono essere riassunti in: Più soggetti ci sono meglio è Più casi che variabili (si capirà con le componenti principali) Da 10 a 20 casi per ogni variabile Come minimo 5 casi per variabile ma non meno di 100 casi in totale (Gorsuch, 1983) ogni fattore deve avere almeno 4 saturazioni superiori a.60, non importa l ampiezza del campione (Guadagnoli e Velicer, 1988) ogni fattore deve avere almeno 10 saturazioni superiori a.40 e il campione almeno di 150 casi (idem) un campione di almeno 300 casi (idem) bastano anche 60 casi se tutte le comunalità sono maggiori di.60 (MacCallum, Widaman, Zhang e Hong, 1999) con comunalità attorno a.50, il campione dev essere tra 100 e 200 casi (idem) G. Rossi (Dip. Psicologia) Psico / 76

34 Quale matrice di coefficienti di associazione usare L analisi fattoriale esplorativa si applica ad una matrice di correlazione (o meglio ad una matrice di associazione fra variabili). Gli indici che si possono usare sono: correlazione di Pearson: è la correlazione più usata in assoluto (il default in quasi tutti i software statistici). Implica variabili misurate a livello intervallo/rapporto correlazione di Spearman: è una correlazione per variabili di tipo ordinale oppure quando si presume che le variabili intervallo non siano normali varianze/covarianze: è la scelta preferita nelle analisi fattoriali confermative ed è utilizzabile quando le variabili hanno varianza simile altri indici di associazione: correlazioni policoriche, poliseriali, punto-biseriale.... G. Rossi (Dip. Psicologia) Psico / 76

35 Verificare l adeguatezza della matrice di correlazione Non tutte le correlazioni sono inferiori a.30 Ispezione visiva della matrice di correlazione per vedere che abbia blocchi di correlazioni alte fra loro e basse con le alte Determinante: se è nullo non si può fare l analisi; KMO (Indice di Kaiser-Meyer-Olkin): dovrebbe essere > 0.60 [tende a sottostimare] Sfericità di Bartlett: le correlazioni (escluso la diagonale) sono 0? Dev essere significativo (è un chi-quadro) [tende a sottostimare] Comunalità Ispezione della matrice delle correlazioni parzializzate (deve contenere valori bassi) e anti-immagine (deve contenere valori alti) G. Rossi (Dip. Psicologia) Psico / 76

36 Ispezione visiva della matrice di correlazione I2 I3 I7 I8 I10 I11 I12 I4 I5 I6 I9 I2 1 I3 0,89 1 I7 0,84 0,80 1 I10 0,75 0,70 0,88 1 I11-0,76-0,79-0,79-0,85 1 I12-0,41-0,50-0,48-0,60 0,47 1 I4 0,26 0,14 0,08 0,04-0,11 0,51 1 I5-0,30-0,18-0,13-0,16 0,28-0,34-0,88 1 I6 0,13 0,00-0,09-0,15 0,11 0,61 0,93-0,80 1 I9-0,22-0,12-0,07-0,21 0,27-0,38-0,82 0,88-0,72 1 I2-0,26-0,15-0,08 0,00 0,20-0,55-0,91 0,89-0,88 0,80 1 I1 0,16-0,12 0,00 0,05 0,02-0,15 0,12-0,05 0,14 0,02-0,10 G. Rossi (Dip. Psicologia) Psico / 76

37 Ispezione visiva della matrice di correlazione Deve esserci almeno un gruppetto di variabili ben correlate fra loro G. Rossi (Dip. Psicologia) Psico / 76

38 KMO KMO (Test di adeguatezza campionaria di Kaiser-Meyer-Olkin) KMO = i j r 2 i j r ij 2 + i ij j p2 ij dove r ij sono le correlazioni e p ij sono le correlazioni parzializzate su tutte le altre se le correlazioni parzializzate sono piccole tende a 1, quindi (secondo Kaiser, 197): se > 0.90 è eccellente fra.80 e.90 buono; fra.70 e.80 accettabile fra.60 e.70 mediocre inferiore a.60, meglio non fare l analisi N.B. la dicitura campionaria non si riferisce al campione G. Rossi (Dip. Psicologia) Psico / 76

39 Sfericità di Bartlett Il test della sfericità di Bartlett verifica l ipotesi H 0 : R = I tramite la formula: χ 2 = [ n 1 16 ] (2p + 5) ln R in cui n è il numero dei soggetti, p il numero delle variabili e R il determinante della matrice di correlazione. Si distribuisce con (p 2 p)/2 gradi di libertà Se è significativo, significa che R ha correlazioni sufficientemente elevate da non essere paragonabili a 0; se è non significativo le correlazioni sono basse e non si distinguono da 0 ma questo test dipende dal numero delle variabile e dalla numerosità del campione, quindi tende ad essere significativo all aumentare del campione e del numero delle variabili anche se ci sono correlazioni basse. G. Rossi (Dip. Psicologia) Psico / 76

40 Adeguatezza dei dati Determinate è diverso da 0 KMO è maggiore di.60 Bartlett è signifcativo G. Rossi (Dip. Psicologia) Psico / 76

41 Matrice anti-immagine La matrice delle correlazioni parzializzate indica il valore di ogni correlazione dopo aver eliminato il contributo di tutte le altre variabili non implicate. una parzializzata alta significa che le due variabili sono molto correlate fra loro, ma non hanno legami con nessun altra. La logica invece è che ci siano più di due variabili per fattore La matrice anti-immagine contiene i complementi a 1 della correlazione parzializzata fra due variabili rispetto a tutte e altre. Valori alti indicano correlazioni parziali basse e viceversa G. Rossi (Dip. Psicologia) Psico / 76

42 Comunalità Comunalità Iniziale Estrazione I1 0,776 0,005 I2 0,941 0,828 I3 0,963 0,770 I4 0,943 0,859 I5 0,953 0,878 I6 0,886 0,722 I7 0,934 0,831 I8 0,962 0,826 I9 0,961 0,928 I10 0,948 0,800 I11 0,919 0,674 I12 0,938 0,949 La comunalità è la % di varianza della variabile spiegata dai fattori comuni Se i fattori comuni non spiegano nulla, meglio eliminare G. Rossi (Dip. Psicologia) Psico / 76

43 Quanti fattori estrarre Teoria (analisi della letteratura) Rango della matrice (solo teorico) Criterio di Kaiser (1959) o di Guttman (1954) ovvero autovalori maggiori di 1 (sovrastima) Almeno il 60-75% di varianza spiegata Scree-test di Cattell (1966) Test statistici di alcuni metodi di estrazione Il buon senso Analisi parallela Gorsuch (1983) ritiene necessario effettuare più analisi e tenere quei fattori che si mantengono nelle varie soluzioni G. Rossi (Dip. Psicologia) Psico / 76

44 % di varianza spiegata G. Rossi (Dip. Psicologia) Psico / 76

45 Scree-test si identifica il punto di flesso Per Harman si esclude (2 fattori) per Cattell si include (3 fattori) G. Rossi (Dip. Psicologia) Psico / 76

46 Analisi parallela Horn (1965) ha proposto una strategia per decidere il numero dei fattori chiamata analisi parallela L idea iniziale è stata apprezzata e alcuni autori la giudicano la miglio trategia possibile Attuali Casuali 1 2,776 1,756 si tiene 2 0,828 1,082 si scarta 3 0,276 0, ,119 0,364 4,00 4,00 Ci sono diverse soluzioni possibili Partendo da una matrice (stesse dimensioni) di dati casuali si calcolano gli autovalori e si tengono gli autovalori attuali se maggiori di quelli casuali G. Rossi (Dip. Psicologia) Psico / 76

47 Come estrarre i fattori Ci sono diversi metodi per estrarre i fattori Basati sulle componenti principali Componenti principali (1 sulla diagonale, ma non è un AFE) Fattori principali o assi principali (stima iniziale della comunalità sulla diagonale) Massima verosimiglianza (permette un test sui fattori) Minimi quadrati (permette un test sui fattori) Altri metodi poco usati (alfa factoring, image factoring... ) Con un numero di casi sufficientemente grande, si equivalgono tutti, in quanto portano alla stessa soluzione G. Rossi (Dip. Psicologia) Psico / 76

48 Metodi di estrazione Componenti principali: assume che i punteggi delle variabili siano misurati senza errore ovvero siano affidabili (R = AA ), quindi stima direttamente il campione e non la popolazione. Se il campione è ampio e rappresentativo della popolazione da cui è stato estratto, tende a dare gli stessi risultati degli assi principali. L estrazione avviene una componente alla volta, cercando di estrarre quella che spiega la maggior varianza possibile. Dopo l estrazione di una componente, viene calcolata la matrice dei residui e su questa viene ripetuta l estrazione. Quindi, questo metodo, tende a privilegiare il primo fattore (come se fosse un fattore generale) che quindi include più item degli altri e tende a spiegare tutta la varianza. G. Rossi (Dip. Psicologia) Psico / 76

49 Metodi di estrazione Assi principali o fattori principali: matematicamente è la stessa procedura delle componenti principali con la differenza che viene usata la comunalità (R = AA + U 2 ) come stima della correlazione di una variabile con se stessa (nella popolazione). La comunalità è anche la stima più bassa dell affidabilità di una variabile. Anche questo metodo tende a privilegiare il primo fattore. È possibile usare altri valori al posto della comunalità (ad. es. valori di affidabilità pubblicati se si usa un test standardizzato; la correlazione più alta di quella variabile... ). In ogni caso, alla fine del processo, il software calcolerà la comunalità dovuta alla soluzione trovata. G. Rossi (Dip. Psicologia) Psico / 76

50 Metodi di estrazione Massima verosimiglianza e minimi quadrati: cercano di trovare dei fattori che riproducano al meglio la matrice di correlazione di partenza. Solo alla fine calcolano la comunalità. Alpha factor: cerca di massimizzare l affidabilità Image factor: cerca di creare fattori che minimizzino l unicità (o fattore specifico) G. Rossi (Dip. Psicologia) Psico / 76

51 Campione vs. popolazione a volte, l analisi fattoriale serve per capire le idee o il comportamento di un campione e non ci serve di generalizzare i risultati altre volte, vogliamo ottenere attori che siano utilizzabili con altri campioni nell ipotesi che valgano per tutta la popolazione componenti principali e assi principali assumono che il campione utilizzato sia una popolazione. I risultati fanno quindi riferimento al campione e non dovrebbero essere estesi alla popolazione se non dopo aver verificato che i fattori ottenuti restano stabili nel tempo e con l uso di altri campioni massima verosimiglianza e image factoring assumono che le variabili misurate siano le miglior rappresentanti delle variabili misurabili sulla popolazione. I risultati si possono quindi estendere alla popolazione. G. Rossi (Dip. Psicologia) Psico / 76

52 Test sui fattori Massima verosimiglianza e minimi quadrati permettono di calcolare una statistica di significatività (un chi-quadro) sull adattamento del modello fattoriale in base al numero dei fattori Se il chi-quadro è non significativo, possiamo dire che la soluzione con q fattori è accettabile Siccome è un χ 2 tende ad essere significativo con molte variabili e tanti soggetti. Si può quindi usare per calcolare un RMSEA. G. Rossi (Dip. Psicologia) Psico / 76

53 Campione vs. popolazione a volte, l analisi fattoriale serve per capire le idee o il comportamento di un campione e non ci serve di generalizzare i risultati altre volte, vogliamo ottenere attori che siano utilizzabili con altri campioni nell ipotesi che valgano per tutta la popolazione componenti principali e assi principali assumono che il campione utilizzato sia una popolazione. I risultati fanno quindi riferimento al campione e non dovrebbero essere estesi alla popolazione se non dopo aver verificato che i fattori ottenuti restano stabili nel tempo e con l uso di altri campioni massima verosimiglianza e image factoring assumono che le variabili misurate siano le miglior rappresentanti delle variabili misurabili sulla popolazione. I risultati si possono quindi estendere alla popolazione. G. Rossi (Dip. Psicologia) Psico / 76

54 Come ruotare Metodi ortogonali (i fattori non correlano) Varimax: lavora cercando di massimizzare le saturazioni alte, inimizzando quelle basse, all interno dei singoli fattori. È consigliato se si vuole ottenere una netta separazione fra i fattori o se non si hanno criteri precisi da seguire Quartimax: lavora cercando di sparpagliare la varianza entro le singole variabili. Questo dovrebbe facilitare la lettura delle variabili e non dovrebbe produrre fattori generale. Spesso però non ci riesce. Equamax: lavora equamente sulle variabili e sui fattori mantenendo costante la varianza spiegata dall intera soluzione. Spesso non riesce ad ottenere la soluzione semplice. Le saturazioni sono correlazioni fra le variabili e i fattori. La rotazione si può fare solo con due o più fattori. Anche se i fattori non correlano fra loro, i punteggi fattoriali possono correlare. G. Rossi (Dip. Psicologia) Psico / 76

55 Come ruotare Metodi obliqui (i fattori correlano fra loro) Oblimin: il grado di associazione fra i fattori è determinato da un parametro δ generalmente posto a 0; valori positivi (fino a.8) aumentano la correlazione, negativi (fino a -.8) diminuiscono la correlazione. Tutti consigliano di non toccarlo. Promax: è sostanzialmente uguale a oblimin, ma pensato per essere più veloce e lavorare con grandi quantità di dati. Entrambi i metodi si basano una prima rotazione Varimax, su cui poi si innesta un procedimento interattivo che cerca di aumentare le saturazioni alte e ridurre quelle basse avvicinando gli assi. Le saturazioni finali non sono correlazioni ma parametri di regressione G. Rossi (Dip. Psicologia) Psico / 76

56 Significato della rotazione Non ruotata 1 2 x1,716,563 x2,612,625 x3 -,819,464 x4,633 -,681 x5 -,739,431 x6,588,719 x7,561,698 x8 -,780,541 x9 -,642 -,624 x10,788 -,571 Ruotata 1 2 x1 -,191,890 x2 -,071,872 x3,926 -,166 x4 -,922 -,119 x5,843 -,141 x6,007,929 x7,014,895 x8,946 -,083 x9,096 -,891 x10 -,970,064 Tentativo di trovare una struttura semplice (Thurstone, 1947): saturazioni elevate in un fattore e il più basse possibili negli altri (focalizziamoci su X4 e X10) G. Rossi (Dip. Psicologia) Psico / 76

57 G. Rossi (Dip. Psicologia) Psico / 76

58 G. Rossi (Dip. Psicologia) Psico / 76

59 Ortogonale o obliquo? La scelta principale è se si desiderano fattori correlati oppure no La soluzione ortogonale è più facile da interpretare perché produce una sola matrice di saturazioni e perché le saturazioni sono anche correlazioni La soluzione obliqua produce due matrici: la matrice dei modelli (pattern matrix): parametri di regressione usati per calcolare i punteggi fattoriali (la matrice che va interpretata) la matrice di struttura (structure matrix): correlazioni (parziali) fra fattori e variabili Normalmente si cercano fattori il più possibili netti (cioè che misurano qualcosa di diverso dagli altri), quindi ortogonali D altra parte, è possibile che i costrutti psicologici non siano correlati? Qualcuno suggerisce: usate obliqua e se i fattori correlano poco, usate ortogonale G. Rossi (Dip. Psicologia) Psico / 76

60 Saturazioni e correlazioni Nella soluzione non ruotata e in quelle ortogonali, le saturazioni sono la correlazione fra le variabili e il fattore In tal caso il loro quadrato corrisponde alla proporzione di varianza spiegata dal fattore per quella variabile La somma dei quadrati corrisponde alla comunalità ovvero alla percentuale di varianza spiegata dai fattori comuni per quella variabile Nella soluzione ruotata, le comunalità si calcolano come somma dei prodotti di ogni valore della pattern matrix per ogni valore corrispondente della structure matrix G. Rossi (Dip. Psicologia) Psico / 76

61 Varianza L osservata X ha varianza 1 (è standardizzata!) Può essere suddivisa in una parte dovuta ai fattori unici (U) e una parte dovuta ai fattori comuni (F): var(x) = var(f) + var(u) Il rapporto fra var(f) e var(x) si chiama comunalità (h 2 ), mentre var(u) si chiama unicità (u 2 ) Essendo la var(x) = 1 allora 1 = h 2 + u 2 L unicità può essere ulteriormente suddivisa in varianza specifica dell item e varianza d errore, ma l AF non riesce a distinguere fra le due Può capitare che h 2 + u 2 > 1 (Heywood case); indica un problema nella matrice iniziale G. Rossi (Dip. Psicologia) Psico / 76

62 Soluzione non ruotata: Lisrel G. Rossi (Dip. Psicologia) Psico / 76

63 Soluzione non ruotata: Spss 0, , = 0, , 829 = 0, 171 G. Rossi (Dip. Psicologia) Psico / 76

64 Soluzione ruotata Varimax: Lisrel G. Rossi (Dip. Psicologia) Psico / 76

65 Soluzione ruotata Varimax: Spss Spss permette di non visualizzare le saturazioni ritenute non significative e di riordinare i valori in modo decrescente per fattore In questo caso: Fattore 1: item x10, x8, x3, x4, x5 Fattore 2: item x6, x7, x9, x1, x2 G. Rossi (Dip. Psicologia) Psico / 76

66 Soluzione ruotata Promax: Lisrel G. Rossi (Dip. Psicologia) Psico / 76

67 Soluzione ruotata Promax: spss Mat. modelli Mat. struttura Fattore Fattore h 2 I2 -,128,883 -,254,902 0,829 I3 -,009,873 -,133,875 0,765 I4,921 -,101,936 -,233 0,885 I5 -,938 -,186 -,911 -,053 0,865 I6,840 -,081,851 -,201 0,731 I7,075,937 -,059,926 0,863 I8,079,903 -,049,892 0,801 I9,947 -,015,949 -,150 0,902 I10,032 -,891,159 -,895 0,802 I12 -,973 -,005 -,973,134 0,946, 128, , 883, 902 =, 829 G. Rossi (Dip. Psicologia) Psico / 76

68 Punteggi fattoriali Punteggio che ogni caso statistico (soggetto) assume in un certo fattore Tutti i programmi possono calcolare i punteggi fattoriali, usando varie forme di regressione multipla (difficili da interpretare) Regressione Bartlett Anderson-Rubin Metodi manuali Metodo delle saturazioni Metodo congenerico (punteggi fattoriali compositi) Metodo dei punteggi fattoriali normalizzati non centrati G. Rossi (Dip. Psicologia) Psico / 76

69 Punteggi fattoriali automatici Regressione: la matrice delle saturazioni (la matrice di configurazione nelle oblique) viene moltiplicata per l inversa delle correlazioni (F = AR 1 ). I punteggi hanno media 0 e varianza pari al quadrato della correlazione multipla fra i punteggi grezzi e quelli stimati (per cui non è facile conoscere a priore i valori minimo e massimo). I diversi punteggi fattoriali tendono a correlare fra loro. Bartlett (1937): variazione della tecnica precedente che cerca di minimizzare l importanza dei fattori unici (ovvero le variabili che non rientrano nel fattore). I punteggi fattoriali possono correlare fra loro. Anderson-Rubin (1956): variazione del metodo di Bartlett con standardizzazione (media 0, varianza 1) e ortogonalità (i punteggi fattoriali dei diversi fattori non correlano fra loro). G. Rossi (Dip. Psicologia) Psico / 76

70 Punteggi fattoriali manuali Saturazioni: le saturazioni delle variabili di un fattore vengono moltiplicate per il punteggio grezzo che il soggetto ha dato in quelle variabili. Non sono facili da interpretare perché non si conosce a priori la metrica. Compositi: si sommano (o si fa la media) i punteggi grezzi delle sole osservate che fanno parte del fattore, usando le variabili monofattoriali più sature (se la saturazione è negativa, si inverte l item, ad es. con COMPUTE x=(max+1)-x.). Se si usa la media e se le variabili hanno la stessa metrica, è semplice interpretare i punteggi ottenuti. Usando la somma vi è maggior variabilità, ma è si conosce comunque la gamma di oscillazione teorica. G. Rossi (Dip. Psicologia) Psico / 76

71 Punteggi fattoriali manuali standardizzati non centrati (standardized, non centered factor scores; Thompson, 1993): 1 Trasformare in punti z le variabili (standardizzati) 2 Sommare ai punti z di ogni variabile, la media (rispetto ai casi) dei punti grezzi delle variabili (non centrati) 3 Costruire i punteggi fattoriali ponderando i punti z non centrati con i valori della Matrice dei coefficienti di punteggio fattoriale (W) PF 1 = W 11 x 1 + W 21 x 2 G. Rossi (Dip. Psicologia) Psico / 76

72 Punteggi fattoriali manuali Matrice dei coefficienti di punteggio fattoriale Fattore 1 2 I2,001,250 I3 -,065,101 I4,254 -,045 I5,084 -,016 des I2 to I10 I12 / save. * uso le medie di I2, I3 e così via. comp ci2=zi comp fcf1=(.001*ci2) + (-.065*cI3) +... comp fcf2=(.250*ci2) + (.101*cI3) +... G. Rossi (Dip. Psicologia) Psico / 76

73 Uso dei punteggi fattoriali I punteggi fattoriali si usano come qualsiasi altra variabile continua In particolare si usano proprio al posto delle singole variabile che li hanno prodotti per studiare studiare l affidabilità della scala (alfa di Cronbach) differenze di medie (t-test, anove) classificare i soggetti (cluster) per spiegare altre variabili (regressione) G. Rossi (Dip. Psicologia) Psico / 76

74 Interpretazione Per l interpretazione dei fattori si usano le saturazioni (o pesi fattoriali) Tanto più una variabile ha una saturazione alta tanto più è influenzata dal fattore, tanto più il suo significato si avvicina al significato del fattore Non esistono regole statistiche per interpretare le saturazioni In una soluzione ortogonale, le saturazioni sono correlazioni e quindi si possono usare gli stessi criteri Overall e Klett (1972) suggeriscono un valore minimo di.35 Tutte le variabili che saturano sul fattore (oltre un certo livello) si utilizzano variabili che non saturano nessun fattore possono essere ignorate anche variabili che saturano su più fattori possono essere ignorate se si vuole ottenere latenti pulite G. Rossi (Dip. Psicologia) Psico / 76

75 Interpretazione L interpretazione è facilitata che ci sono saturazioni negative perché la dimensione rappresentata dal fattore diventa bipolare Le saturazioni negative indicano solo che la variabile partecipa al significato del fattore in senso opposto In diversi casi, l unione delle variabili osservate non mette l analista in grado di denominare il fattore, per cui si pone l esigenza di astrarsi, cercando con la mente il fattore latente sotto la combinazione delle variabili (Fabbris, 1997, p. 196) G. Rossi (Dip. Psicologia) Psico / 76

76 Traduzioni Factor analysis (FA) Principal components analysis (PCA) Exploratory FA Confirmatory FA Eigenvector Eigenvalue (characteristic root) factor / component factor loadings factor scores pattern matrix structure matrix common variance / communality unique variance random variance Analisi fattoriale (AF) Analisi delle componenti principali (ACP) AF esplorativa AF confermativa autovettore autovalore (radice caratteristica) fattore / componente saturazioni punteggi fattoriali matrice dei modelli matrice di struttura varianza comune /comunalità varianza unica varianza d errore G. Rossi (Dip. Psicologia) Psico / 76

Analisi fattoriale. introduzione vers Germano Rossi 1 1 Dipartimento di Psicologia, Università di Milano-Bicocca

Analisi fattoriale. introduzione vers Germano Rossi 1 1 Dipartimento di Psicologia, Università di Milano-Bicocca Analisi fattoriale introduzione vers. 1.0 Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca 2009 Rossi (Dip. Psicologia) Analisi fattoriale 2009 1 / 28

Dettagli

Elementi di Psicometria

Elementi di Psicometria Elementi di Psicometria Analisi fattoriale: Spiegazione intuitiva (April 28, 2010) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca 2009-2010 G. Rossi

Dettagli

Analisi multivariata (DPRS)

Analisi multivariata (DPRS) Analisi multivariata (DPRS) 8b-Esempio di fattoriale esplorativa vers. 1.0 Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca 2010-2011 Rossi (Dip. Psicologia)

Dettagli

Psicometria con Laboratorio di SPSS 2

Psicometria con Laboratorio di SPSS 2 Psicometria con Laboratorio di SPSS 2 Esempio di fattoriale esplorativa (v. 1.1, 12 aprile 2018) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca 2017-18

Dettagli

Psicometria con Laboratorio di SPSS 1

Psicometria con Laboratorio di SPSS 1 Psicometria con Laboratorio di SPSS 1 1-Panoramica delle tecniche: Spiegazione intuitiva vers. 1.1 (vers. 1.1, 14 marzo 2018) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università

Dettagli

Analisi fattoriale. esplorativa vers. 1.0. Germano Rossi 1 germano.rossi@unimib.it. 1 Dipartimento di Psicologia, Università di Milano-Bicocca

Analisi fattoriale. esplorativa vers. 1.0. Germano Rossi 1 germano.rossi@unimib.it. 1 Dipartimento di Psicologia, Università di Milano-Bicocca Analisi fattoriale esplorativa vers. 1.0 Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca 2009 Rossi (Dip. Psicologia) Analisi fattoriale 2009 1 / 47 Prima

Dettagli

Argomenti della lezione:

Argomenti della lezione: Lezione 12 L analisi fattoriale: il processo di rotazione dei fattori, l interpretazione della soluzione Argomenti della lezione: Metodi di rotazione dei fattori Interpretazione della soluzione Assunzioni

Dettagli

Psicometria con Laboratorio di SPSS 2

Psicometria con Laboratorio di SPSS 2 Psicometria con Laboratorio di SPSS 2 Analisi fattoriale confermativa (v. 1.1a, 17 aprile 2018) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca 2017-18

Dettagli

Psicometria. 9-Analisi fattoriale confermativa vers. 1.0

Psicometria. 9-Analisi fattoriale confermativa vers. 1.0 Psicometria 9-Analisi fattoriale confermativa vers. 1.0 Germano Rossi 1 germano.rossi@unimib.it Giovanni Battista Flebus 1 giovannibattista.flebus@unimib.it 1 Dipartimento di Psicologia, Università di

Dettagli

Teoria e tecniche dei test DIMENSIONALITA DI UN TEST DIMENSIONALITA DI UN TEST (2) 03/04/2012. Lezione 7 DIMENSIONALITA e ATTENDIBILITA

Teoria e tecniche dei test DIMENSIONALITA DI UN TEST DIMENSIONALITA DI UN TEST (2) 03/04/2012. Lezione 7 DIMENSIONALITA e ATTENDIBILITA Teoria e tecniche dei test Lezione 7 DIMENSIONALITA e ATTENDIBILITA DIMENSIONALITA DI UN TEST Una domanda cruciale da porsi nella fase di messa a punto di un test riguarda la sua dimensionalità. La tecnica

Dettagli

Metodologie Quantitative. Analisi Fattoriale

Metodologie Quantitative. Analisi Fattoriale Metodologie Quantitative Analisi Fattoriale La soluzione fattoriale ed il modello ACP M Q Marco Perugini Milano-Bicocca 1 Correlazioni e Varianze Ricordate che la correlazione (al quadrato) indica la varianza

Dettagli

Elementi di Psicometria (con laboratorio software 1)

Elementi di Psicometria (con laboratorio software 1) Elementi di Psicometria (con laboratorio software 1) 05-La verifica delle ipotesi con le medie dei campioni (v. 1.0, 15 aprile 2019) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia,

Dettagli

Differenze tra metodi di estrazione

Differenze tra metodi di estrazione Lezione 11 Argomenti della lezione: L analisi fattoriale: il processo di estrazione dei fattori Metodi di estrazione dei fattori Metodi per stabilire il numero di fattori Metodi di Estrazione dei Fattori

Dettagli

Analisi Fattoriale Concetti introduttivi Marcello Gallucci Milano-Bicocca

Analisi Fattoriale Concetti introduttivi Marcello Gallucci Milano-Bicocca Analisi Fattoriale Concetti introduttivi A M D Marcello Gallucci Milano-Bicocca Scopi generali L Analisi Fattoriale (e varianti) si propone di estrarre un numero limitato di fattori (variabili latenti

Dettagli

ESERCIZIO 1. Di seguito vengono presentati i risultati di un analisi fattoriale effettuata con il metodo di estrazione dei fattori principali (PAF).

ESERCIZIO 1. Di seguito vengono presentati i risultati di un analisi fattoriale effettuata con il metodo di estrazione dei fattori principali (PAF). ESERCIZIO. Di seguito vengono presentati i risultati di un analisi fattoriale effettuata con il metodo di estrazione dei fattori principali (PAF). Test KMO e di Bartlett Misura di adeguatezza campionaria

Dettagli

Elementi di Psicometria con Laboratorio di SPSS 1

Elementi di Psicometria con Laboratorio di SPSS 1 Elementi di Psicometria con Laboratorio di SPSS 1 25-Dimensione degli effetti e 26-Metanalisi vers. 1.0 (2 dicembre 2014) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università

Dettagli

Elementi di Psicometria con Laboratorio di SPSS 1

Elementi di Psicometria con Laboratorio di SPSS 1 Elementi di Psicometria con Laboratorio di SPSS 1 13-Il t-test per campioni indipendenti vers. 1.1 (12 novembre 2014) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di

Dettagli

Algebra matriciale. Un algebra è un sistema di segni in cui sono definite delle operazioni Algebra scalare Algebra dei vettori Algebra matriciale

Algebra matriciale. Un algebra è un sistema di segni in cui sono definite delle operazioni Algebra scalare Algebra dei vettori Algebra matriciale Algebra matriciale Algebra Un algebra è un sistema di segni in cui sono definite delle operazioni Algebra scalare Algebra dei vettori Algebra matriciale In algebra matriciale un numero è chiamato scalare

Dettagli

Regressione Lineare Semplice e Correlazione

Regressione Lineare Semplice e Correlazione Regressione Lineare Semplice e Correlazione 1 Introduzione La Regressione è una tecnica di analisi della relazione tra due variabili quantitative Questa tecnica è utilizzata per calcolare il valore (y)

Dettagli

Elementi di Psicometria con Laboratorio di SPSS 1

Elementi di Psicometria con Laboratorio di SPSS 1 Elementi di Psicometria con Laboratorio di SPSS 1 05-Deviazione standard e punteggi z vers. 1.1 (22 ottobre 2014) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca

Dettagli

Corso di Psicometria Progredito

Corso di Psicometria Progredito Corso di Psicometria Progredito 5. La correlazione lineare Gianmarco Altoè Dipartimento di Pedagogia, Psicologia e Filosofia Università di Cagliari, Anno Accademico 2013-2014 Sommario 1 Tipi di relazione

Dettagli

Tecniche statistiche di analisi del cambiamento

Tecniche statistiche di analisi del cambiamento Tecniche statistiche di analisi del cambiamento 04-Trattamento dei dati (v. 1.4, 11 ottobre 2018) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca 2018-19

Dettagli

Analisi delle componenti principali

Analisi delle componenti principali Analisi delle componenti principali Serve a rappresentare un fenomeno k-dimensionale tramite un numero inferiore o uguale a k di variabili incorrelate, ottenute trasformando le variabili osservate Consiste

Dettagli

Psicometria con Laboratorio di SPSS 2

Psicometria con Laboratorio di SPSS 2 Psicometria con Laboratorio di SPSS 2 Coerenza interna Materiale di G.B. Flebus, integrato (v. 1.0, 18 aprile 2018) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca

Dettagli

L'analisi bivariata (analisi della varianza e correlazione) Prof. Stefano Nobile. Corso di Metodologia della ricerca sociale

L'analisi bivariata (analisi della varianza e correlazione) Prof. Stefano Nobile. Corso di Metodologia della ricerca sociale L'analisi bivariata (analisi della varianza e correlazione) Prof. Stefano Nobile Corso di Metodologia della ricerca sociale L analisi della varianza (ANOVA) La tecnica con cui si esplorano le relazioni

Dettagli

Statistica multivariata Donata Rodi 21/11/2016

Statistica multivariata Donata Rodi 21/11/2016 Statistica multivariata Donata Rodi 21/11/2016 PCA Tecnica di riduzione delle dimensioni che descrive la struttura multivariata dei dati per analisi descrittive e inferenziali Descrive la variazione di

Dettagli

Analisi Fattoriale Analisi Esplorativa

Analisi Fattoriale Analisi Esplorativa Analisi Fattoriale Analisi Esplorativa Aldo Solari 1 / 31 Introduzione Nelle scienze sociali, in particolare in psicologia, spesso è problematico misurare le variabili di interesse direttamente. Ad esempio:

Dettagli

Elementi di Psicometria (con laboratorio software 1)

Elementi di Psicometria (con laboratorio software 1) Elementi di Psicometria (con laboratorio software 1) 02-Tendenza centrale e variabilità (v. 1.0, 22 marzo 2019) versione per stampa Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia,

Dettagli

L A B C di R. Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010

L A B C di R. Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010 L A B C di R 0 20 40 60 80 100 2 3 4 5 6 7 8 Stefano Leonardi c Dipartimento di Scienze Ambientali Università di Parma Parma, 9 febbraio 2010 La scelta del test statistico giusto La scelta della analisi

Dettagli

Tecniche statistiche di analisi del cambiamento

Tecniche statistiche di analisi del cambiamento Tecniche statistiche di analisi del cambiamento 07a-Ripasso: Anova ad un fattore (v. 1.9a, 29 dicembre 2018) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca

Dettagli

SDE Marco Riani

SDE Marco Riani SDE 208 Marco Riani mriani@unipr.it http://www.riani.it RIDUZIONE DELLE DIMENSIONI (con riferimento alle variabili Analisi dei fattori Analisi delle componenti principali OBIETTIVI Date p variabili (correlate

Dettagli

CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 6

CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 6 CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 6 Dott.ssa Antonella Costanzo a.costanzo@unicas.it Esercizio 1. Associazione, correlazione e dipendenza tra caratteri In un collettivo di 11 famiglie è stata

Dettagli

Elementi di Psicometria

Elementi di Psicometria Elementi di Psicometria 7-Punti z e punti T vers. 1.0a (21 marzo 2011) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca 2010-2011 G. Rossi (Dip. Psicologia)

Dettagli

Corso in Statistica Medica

Corso in Statistica Medica Corso in Statistica Medica Introduzione alle tecniche statistiche di elaborazione dati Regressione e correlazione Dott. Angelo Menna Università degli Studi di Chieti G. d Annunziod Annunzio Anno Accademico

Dettagli

Elementi di Psicometria con Laboratorio di SPSS 1

Elementi di Psicometria con Laboratorio di SPSS 1 Elementi di Psicometria con Laboratorio di SPSS 1 19-Rapporto fra varianze e 20-Introduzione all Anova vers. 1.0 (5 dicembre 2014) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia,

Dettagli

Teoria e tecniche dei test LA STRUTTURA DI UNA TEORIA 20/03/2012 LIVELLO DI ASTRAZIONE TEORICO LIVELLO DI ASTRAZIONE DERIVATO

Teoria e tecniche dei test LA STRUTTURA DI UNA TEORIA 20/03/2012 LIVELLO DI ASTRAZIONE TEORICO LIVELLO DI ASTRAZIONE DERIVATO Teoria e tecniche dei test Lezione 4 TEORIE E MODELLI DI COSTRUZIONE DEI TEST PSICOLOGICI LA STRUTTURA DI UNA TEORIA Nella costruzione di un test psicologico devono essere presi in considerazione 3 livelli

Dettagli

PROCEDURE/TECNICHE DI ANALISI / MISURE DI ASSOCIAZIONE A) ANALISI DELLA VARIANZA

PROCEDURE/TECNICHE DI ANALISI / MISURE DI ASSOCIAZIONE A) ANALISI DELLA VARIANZA PROCEDURE/TECNICHE DI ANALISI / MISURE DI ASSOCIAZIONE A) ANALISI DELLA VARIANZA PROCEDURA/TECNICA DI ANALISI DEI DATI SPECIFICAMENTE DESTINATA A STUDIARE LA RELAZIONE TRA UNA VARIABILE NOMINALE (ASSUNTA

Dettagli

MISURAZIONE. Sistema empirico (SE): ciò che si vuole misurare; costituito da elementi legati tra loro da relazioni

MISURAZIONE. Sistema empirico (SE): ciò che si vuole misurare; costituito da elementi legati tra loro da relazioni Attendibilità Misurazione I problemi di misurazione degli oggetti di studio sono comuni a tutte le discipline scientifiche. In psicologia il problema è solo più evidente, non più grave. I costrutti che

Dettagli

Esercitazione del

Esercitazione del Esercizi sulla regressione lineare. Esercitazione del 21.05.2013 Esercizio dal tema d esame del 13.06.2011. Si consideri il seguente campione di n = 9 osservazioni relative ai caratteri ed Y: 7 17 8 36

Dettagli

Elementi di Psicometria con Laboratorio di SPSS 1

Elementi di Psicometria con Laboratorio di SPSS 1 Elementi di Psicometria con Laboratorio di SPSS 1 09-Campione e popolazione vers. 1.0 (31 ottobre 2014) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca

Dettagli

6. ANALISI FATTORIALE

6. ANALISI FATTORIALE 6. ANALISI FATTORIALE 6.1 Introduzione L analisi fattoriale (AF) si è sviluppata nell ambito della ricerca sulla misura di capacità attitudinali all inizio del 1900. Spearman effettua molti test su campioni

Dettagli

Elementi di Psicometria con Laboratorio di SPSS 1

Elementi di Psicometria con Laboratorio di SPSS 1 Elementi di Psicometria con Laboratorio di SPSS 1 10-Significatività statistica per la correlazione vers. 1.0 (5 novembre 2014) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università

Dettagli

Rappresentazione dei dati multivariati

Rappresentazione dei dati multivariati Rappresentazione dei dati multivariati Quando si hanno più di due varabili la posizione di ciascuna unità rispetto alle altre può essere rappresentata nel diagramma relativo alle prime due CP l importanza

Dettagli

La media e la mediana sono indicatori di centralità, che indicano un centro dei dati.

La media e la mediana sono indicatori di centralità, che indicano un centro dei dati. La media e la mediana sono indicatori di centralità, che indicano un centro dei dati. Un indicatore che sintetizza in un unico numero tutti i dati, nascondendo quindi la molteplicità dei dati. Per esempio,

Dettagli

Tecniche statistiche di analisi del cambiamento

Tecniche statistiche di analisi del cambiamento Tecniche statistiche di analisi del cambiamento 11-Anova con covariata (v. 1.3, 5 dicembre 2018) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca 2018-19

Dettagli

Old Faithful, Yellowstone Park. Statistica e biometria. D. Bertacchi. Dati congiunti. Tabella. Scatterplot. Covarianza. Correlazione.

Old Faithful, Yellowstone Park. Statistica e biometria. D. Bertacchi. Dati congiunti. Tabella. Scatterplot. Covarianza. Correlazione. Coppie o vettori di dati Spesso i dati osservati sono di tipo vettoriale. Ad esempio studiamo 222 osservazioni relative alle eruzioni del geyser Old Faithful. Old Faithful, Yellowstone Park. Old Faithful

Dettagli

La media e la mediana sono indicatori di centralità, che indicano un centro dei dati.

La media e la mediana sono indicatori di centralità, che indicano un centro dei dati. La media e la mediana sono indicatori di centralità, che indicano un centro dei dati. Un indicatore che sintetizza in un unico numero tutti i dati, nascondendo quindi la molteplicità dei dati. Per esempio,

Dettagli

La regressione lineare. Rappresentazione analitica delle distribuzioni

La regressione lineare. Rappresentazione analitica delle distribuzioni La regressione lineare Rappresentazione analitica delle distribuzioni Richiamiamo il concetto di dipendenza tra le distribuzioni di due caratteri X e Y. Ricordiamo che abbiamo definito dipendenza perfetta

Dettagli

Statistica multivariata

Statistica multivariata Statistica multivariata Quando il numero delle variabili rilevate sullo stesso soggetto aumentano, il problema diventa gestirle tutte e capirne le relazioni. Analisi multivariata Cercare di capire le relazioni

Dettagli

Statistica multivariata

Statistica multivariata Parte 3 : Statistica multivariata Quando il numero delle variabili rilevate sullo stesso soggetto aumentano, il problema diventa gestirle tutte e capirne le relazioni. Analisi multivariata Cercare di capire

Dettagli

2) REGRESSIONE. 1) Creo un diagramma a dispersione per ispezionare i dati. 2) Selezionare in SPSS Analizza -> Regressione Lineare.

2) REGRESSIONE. 1) Creo un diagramma a dispersione per ispezionare i dati. 2) Selezionare in SPSS Analizza -> Regressione Lineare. Si vogliono studiare gli effetti delle spese pubblicitarie sulle vendite di album nella prima settimana dopo il lancio. Si tiene conto di altre due variabili: la presenza sulle radio e l appeal della band.

Dettagli

Statistica descrittiva in due variabili

Statistica descrittiva in due variabili Statistica descrittiva in due variabili 1 / 65 Statistica descrittiva in due variabili 1 / 65 Supponiamo di misurare su un campione statistico due diverse variabili X e Y. Indichiamo come al solito con

Dettagli

Analisi dei Fattori. Francesca Marta Lilja Di Lascio Dip.to di Scienze Statistiche P. Fortunati Università di Bologna

Analisi dei Fattori. Francesca Marta Lilja Di Lascio Dip.to di Scienze Statistiche P. Fortunati Università di Bologna Università di Bologna - Facoltà di Scienze Statistiche Laurea Triennale in Statistica e Ricerca Sociale Corso di Analisi di Serie Storiche e Multidimensionali Analisi dei Fattori Francesca Marta Lilja

Dettagli

Dispense Associazione PRELIMINARY DRAFT

Dispense Associazione PRELIMINARY DRAFT Dispense Associazione PRELIMINARY DRAFT Cristina Mollica & Jan Martin Rossi January 3, 2019 1 Esercizio 3 - Prova scritta 12-01-2018 Esercizio 3. Si consideri la distribuzione doppia di un campione di

Dettagli

Correlazione e regressione

Correlazione e regressione Correlazione e regressione Correlazione 1 Come posso determinare il legame tra due o più variabili? Correlazione COEFFICIENTE DI CORRELAZIONE (r di Pearson) massimo consumo di ossigeno e prestazione nelle

Dettagli

0 altimenti 1 soggetto trova lavoroentro 6 mesi}

0 altimenti 1 soggetto trova lavoroentro 6 mesi} Lezione n. 16 (a cura di Peluso Filomena Francesca) Oltre alle normali variabili risposta che presentano una continuità almeno all'interno di un certo intervallo di valori, esistono variabili risposta

Dettagli

Metodi statistici per le ricerche di mercato

Metodi statistici per le ricerche di mercato Metodi statistici per le ricerche di mercato Prof.ssa Isabella Mingo A.A. 2015-2016 Facoltà di Scienze Politiche, Sociologia, Comunicazione Corso di laurea Magistrale in «Organizzazione e marketing per

Dettagli

Statistica descrittiva in due variabili

Statistica descrittiva in due variabili Statistica descrittiva in due variabili Dott Nicola Pintus AA 2018-2019 Indichiamo con U la popolazione statistica e con u i le unità statistiche Ad ogni unità statistica associamo i caratteri osservati

Dettagli

ANALISI DEI DATI PER IL MARKETING 2014

ANALISI DEI DATI PER IL MARKETING 2014 ANALISI DEI DATI PER IL MARKETING 2014 Marco Riani mriani@unipr.it http://www.riani.it ANALISI DELLE CORRISPONDENZE (cap. VII) Problema della riduzione delle dimensioni L ANALISI DELLE COMPONENTI PRINCIPALI

Dettagli

Analisi delle corrispondenze

Analisi delle corrispondenze Analisi delle corrispondenze Obiettivo: analisi delle relazioni tra le modalità di due (o più) caratteri qualitativi Individuazione della struttura dell associazione interna a una tabella di contingenza

Dettagli

Elementi di Algebra Lineare

Elementi di Algebra Lineare Elementi di Algebra Lineare Corso di Calcolo Numerico, a.a. 2009/2010 Francesca Mazzia Dipartimento di Matematica Università di Bari 13 Marzo 2006 Francesca Mazzia (Univ. Bari) Elementi di Algebra Lineare

Dettagli

Analisi Multivariata Prova intermedia del 20 aprile 2011

Analisi Multivariata Prova intermedia del 20 aprile 2011 Analisi Multivariata Prova intermedia del 20 aprile 20 Esercizio A Sia X N 3 (µ, Σ) con µ = [ 3,, 4] e 2 0 Σ = 2 5 0 0 0 2 Quali delle seguenti variabili casuali è indipendente? Motivare la risposta. A.

Dettagli

Statistica. Capitolo 12. Regressione Lineare Semplice. Cap. 12-1

Statistica. Capitolo 12. Regressione Lineare Semplice. Cap. 12-1 Statistica Capitolo 1 Regressione Lineare Semplice Cap. 1-1 Obiettivi del Capitolo Dopo aver completato il capitolo, sarete in grado di: Spiegare il significato del coefficiente di correlazione lineare

Dettagli

PreCorso di Matematica - PCM Corso M-Z

PreCorso di Matematica - PCM Corso M-Z PreCorso di Matematica - PCM Corso M-Z DOCENTE: M. Auteri Outline Docente: Auteri PreCorso di Matematica 2016 2 Definizione di matrice Una matrice (di numeri reali) è una tabella di m x n numeri disposti

Dettagli

Scheda n. 13: modelli lineari

Scheda n. 13: modelli lineari Scheda n. 13: modelli lineari December 4, 2008 1 Combinazioni affini di variabili aleatorie La teoria che stiamo per esporre vuole descrivere relazioni matematiche tra variabili aleatorie: in tali relazioni

Dettagli

Esercizi di statistica

Esercizi di statistica Esercizi di statistica Test a scelta multipla (la risposta corretta è la prima) [1] Il seguente campione è stato estratto da una popolazione distribuita normalmente: -.4, 5.5,, -.5, 1.1, 7.4, -1.8, -..

Dettagli

P S I C O M T R I A Marcello Gallucci. Analisi Fattoriale. Esempi. Milano-Bicocca. Lezione: 20

P S I C O M T R I A Marcello Gallucci. Analisi Fattoriale. Esempi. Milano-Bicocca. Lezione: 20 Analisi Fattoriale Esempi P S I C O M T R I A Marcello Gallucci Milano-Bicocca Lezione: 20 Esempio Descrizione della ricerca Un ricercatore intende stabilire se una manipolazione sperimentale basata sulla

Dettagli

Prova finale del 6 giugno 2011

Prova finale del 6 giugno 2011 Prova finale del 6 giugno 2011 Esercizio A, da svolgere con carta e penna Si consideri la seguente matrice dei dati relativa a 3 unità statistiche e 3 variabili, X 1 e X 2 quantitative, X 3 dicotomica.

Dettagli

Analisi delle corrispondenze

Analisi delle corrispondenze Capitolo 11 Analisi delle corrispondenze L obiettivo dell analisi delle corrispondenze, i cui primi sviluppi risalgono alla metà degli anni 60 in Francia ad opera di JP Benzécri e la sua equipe, è quello

Dettagli

Università degli Studi di Bergamo Modulo di Geometria e Algebra Lineare (vecchio programma) 2 settembre 2013 Tema A

Università degli Studi di Bergamo Modulo di Geometria e Algebra Lineare (vecchio programma) 2 settembre 2013 Tema A Università degli Studi di Bergamo Modulo di Geometria e Algebra Lineare (vecchio programma) settembre 013 Tema A Tempo a disposizione: ore. Calcolatrici, libri e appunti non sono ammessi. Ogni esercizio

Dettagli

s a Inferenza: singolo parametro Sistema di ipotesi: : β j = β j0 H 1 β j0 statistica test t confronto con valore t o p-value

s a Inferenza: singolo parametro Sistema di ipotesi: : β j = β j0 H 1 β j0 statistica test t confronto con valore t o p-value Inferenza: singolo parametro Sistema di ipotesi: H 0 : β j = β j0 H 1 : β j β j0 statistica test t b j - b s a jj j0 > t a, 2 ( n-k) confronto con valore t o p-value Se β j0 = 0 X j non ha nessuna influenza

Dettagli

lezione 10 AA Paolo Brunori

lezione 10 AA Paolo Brunori AA 2016-2017 Paolo Brunori Redditi svedesi - il dataset contiene i dati di reddito di 838 individui - il dataset contiene le variabili: sex = sesso age = età edu = anni di istruzione y_gross = reddito

Dettagli

Geometria BAER I canale Foglio esercizi 2

Geometria BAER I canale Foglio esercizi 2 Geometria BAER I canale Foglio esercizi Esercizio. ( ) Data la matrice, determinare tutte le matrici X Mat( ) tali che AX = 0 e tutte le matrici Y Mat( ) tali che Y 0. ( ) ( ) ( ) x y x + z y + w Soluzione:

Dettagli

Elementi di Psicometria con Laboratorio di SPSS 1

Elementi di Psicometria con Laboratorio di SPSS 1 Elementi di Psicometria con Laboratorio di SPSS 1 12-Correlazione (vers. 1.2, 17 novembre 2015) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca 2015-16

Dettagli

Statistica multivariata Donata Rodi 17/10/2016

Statistica multivariata Donata Rodi 17/10/2016 Statistica multivariata Donata Rodi 17/10/2016 Quale analisi? Variabile Dipendente Categoriale Continua Variabile Indipendente Categoriale Chi Quadro ANOVA Continua Regressione Logistica Regressione Lineare

Dettagli

ossia può anche essere localizzato univocamente sul piano complesso con la sua forma polare.

ossia può anche essere localizzato univocamente sul piano complesso con la sua forma polare. ALGEBRA COMPLESSA Nel corso dei secoli gli insiemi dei numeri sono andati man mano allargandosi per rispondere all esigenza di dare soluzione a equazioni e problemi sempre nuovi I numeri complessi sono

Dettagli

Elementi di Algebra Matriciale. (richiami)

Elementi di Algebra Matriciale. (richiami) Elementi di Algebra Matriciale Definizione di matrice (richiami) Matrice quadrata, diagonale, identità, triangolare, simmetrica Matrice trasposta Principali operazioni su matrici e vettori: somma, sottrazione,

Dettagli

Modelli e procedure per l educazione degli adulti

Modelli e procedure per l educazione degli adulti CdL SEAFC a.a. 2016-2017 II semestre Pedagogia sperimentale. Modelli e procedure per l educazione degli adulti francesco.agrusti@uniroma3.it T6. Modelli e procedure di valutazione Ultimo appuntamento con

Dettagli

Statistica descrittiva: analisi di regressione

Statistica descrittiva: analisi di regressione Statistica descrittiva: analisi di regressione L analisi di regressione permette di esplorare le relazioni tra due insiemi di valori (p.e. i valori di due attributi di un campione) alla ricerca di associazioni.

Dettagli

Statistica multivariata

Statistica multivariata Parte 3 : Statistica multivariata Quando il numero delle variabili rilevate sullo stesso soggetto aumentano, il problema diventa gestirle tutte e capirne le relazioni. Analisi multivariata Cercare di capire

Dettagli

N.B. Per la risoluzione dei seguenti esercizi, si fa riferimento alle Tabelle riportate alla fine del documento.

N.B. Per la risoluzione dei seguenti esercizi, si fa riferimento alle Tabelle riportate alla fine del documento. N.B. Per la risoluzione dei seguenti esercizi, si fa riferimento alle Tabelle riportate alla fine del documento. Esercizio 1 Un chimico che lavora per una fabbrica di batterie, sta cercando una batteria

Dettagli

Il modello di regressione lineare multipla. Il modello di regressione lineare multipla

Il modello di regressione lineare multipla. Il modello di regressione lineare multipla Introduzione E la generalizzazione del modello di regressione lineare semplice: per spiegare il fenomeno d interesse Y vengono introdotte p, con p > 1, variabili esplicative. Tale generalizzazione diventa

Dettagli

Esercizi su Regressione e Connessione

Esercizi su Regressione e Connessione Esercizi su Regressione e Connessione Stefano Cabras 31 marzo 2009 Sommario Questa serie di esercizi è principalmente incentrata sulla regressione e la connessione, tuttavia in alcuni esercizi le soluzioni

Dettagli

Tecniche statistiche di analisi del cambiamento

Tecniche statistiche di analisi del cambiamento Tecniche statistiche di analisi del cambiamento 07-Anova con covariata (vers. 1.2, 20 marzo 2017) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca 2016-17

Dettagli

7. STATISTICA DESCRITTIVA

7. STATISTICA DESCRITTIVA 7. STATISTICA DESCRITTIVA Quando si effettua un indagine statistica si ha a che fare con un numeroso insieme di oggetti, detto popolazione del quale si intende esaminare una o più caratteristiche (matricole

Dettagli

2. INDICI DI DISCRIMINAZIONE 3. STUDIO DELLA DIMENSIONALITA DI UN TEST

2. INDICI DI DISCRIMINAZIONE 3. STUDIO DELLA DIMENSIONALITA DI UN TEST L ATTENDIBILITA DI UN TEST: 1. FORME PARALLELE 2. TEST-RETEST 3. SPLIT HALF 4. COEFFICIENTI DI COERENZA INTERNA L ANALISI DEGLI ITEM: 1. INDICI DI DIFFICOLTA 2. INDICI DI DISCRIMINAZIONE 3. STUDIO DELLA

Dettagli

Statistica Applicata all edilizia: il modello di regressione

Statistica Applicata all edilizia: il modello di regressione Statistica Applicata all edilizia: il modello di regressione E-mail: orietta.nicolis@unibg.it 27 aprile 2009 Indice Il modello di Regressione Lineare 1 Il modello di Regressione Lineare Analisi di regressione

Dettagli

Sistemi lineari. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara

Sistemi lineari. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara Sistemi lineari Lorenzo Pareschi Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara http://utenti.unife.it/lorenzo.pareschi/ lorenzo.pareschi@unife.it Lorenzo Pareschi (Univ. Ferrara)

Dettagli

la struttura di una teoria

la struttura di una teoria DIAGNOSTICA PSICOLOGICA lezione! Paola Magnano paola.magnano@unikore.it la struttura di una teoria la struttura di una teoria modello di Bagozzi (1994) I livello./.. un esempio Linguaggio: della matematica

Dettagli

il determinante che si ottiene da A, sopprimendo la i - esima riga e la j - esima colonna. Si definisce complemento algebrico dell'elemento a ij

il determinante che si ottiene da A, sopprimendo la i - esima riga e la j - esima colonna. Si definisce complemento algebrico dell'elemento a ij Determinanti Sia data la matrice quadrata a... a n a a n =...... a... a n nn Chiamiamo determinante di il numero det o che ad essa viene associato. det = a a... a... a... a n n n... a nn Un generico elemento

Dettagli

Metodi statistici per l economia (Prof. Capitanio) Slide n. 10. Materiale di supporto per le lezioni. Non sostituisce il libro di testo

Metodi statistici per l economia (Prof. Capitanio) Slide n. 10. Materiale di supporto per le lezioni. Non sostituisce il libro di testo Metodi statistici per l economia (Prof. Capitanio) Slide n. 10 Materiale di supporto per le lezioni. Non sostituisce il libro di testo 1 REGRESSIONE LINEARE Date due variabili quantitative, X e Y, si è

Dettagli

Indicatori compositi. Dott. Cazzaniga Paolo. Dip. di Scienze Umane e Sociali

Indicatori compositi. Dott. Cazzaniga Paolo. Dip. di Scienze Umane e Sociali Dip. di Scienze Umane e Sociali paolo.cazzaniga@unibg.it Indicatori [1/4] Gli indicatori: sintetizzano le caratteristiche di un fenomeno colgono aspetti e problemi del fenomeno che non hanno una immediata

Dettagli

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0.

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0. Regressione [] el modello di regressione lineare si assume una relazione di tipo lineare tra il valore medio della variabile dipendente Y e quello della variabile indipendente X per cui Il modello si scrive

Dettagli

L analisi fattoriale viene effettuata per studiare, riassumere e semplificare le relazioni in un insieme di variabili

L analisi fattoriale viene effettuata per studiare, riassumere e semplificare le relazioni in un insieme di variabili Analisi fattoriale L analisi fattoriale viene effettuata per studiare, riassumere e semplificare le relazioni in un insieme di variabili Ciò permette di individuare uno o più fattori o dimensioni latenti

Dettagli

Tecniche statistiche di analisi del cambiamento

Tecniche statistiche di analisi del cambiamento Tecniche statistiche di analisi del cambiamento 08-Anova con covariata (vers. 1.2, 6 dicembre 2017) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca 2017-18

Dettagli

Metodi statistici per le ricerche di mercato

Metodi statistici per le ricerche di mercato Metodi statistici per le ricerche di mercato Prof.ssa Isabella Mingo A.A. 2017-2018 Facoltà di Scienze Politiche, Sociologia, Comunicazione Corso di laurea Magistrale in «Organizzazione e marketing per

Dettagli

Tecniche statistiche di analisi del cambiamento

Tecniche statistiche di analisi del cambiamento Tecniche statistiche di analisi del cambiamento 07-Anova per misure ripetute (vers. 1.2, 5 dicembre 2017) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca

Dettagli

Richiami di Algebra Lineare

Richiami di Algebra Lineare Richiami di Algebra Lineare Eduardo Rossi Università degli Studi di Pavia Corso di Econometria Marzo 2012 Rossi Algebra Lineare 2012 1 / 59 Vettori Prodotto interno a : (n 1) b : (n 1) a b = a 1 b 1 +

Dettagli

SCHEDA DIDATTICA N 7

SCHEDA DIDATTICA N 7 FACOLTA DI INGEGNERIA CORSO DI LAUREA IN INGEGNERIA CIVILE CORSO DI IDROLOGIA PROF. PASQUALE VERSACE SCHEDA DIDATTICA N 7 LA DISTRIBUZIONE NORMALE A.A. 01-13 La distribuzione NORMALE Uno dei più importanti

Dettagli

Correlazione lineare e regressione

Correlazione lineare e regressione 7c e regressione Se i due caratteri sono entrambi quantitativi, X e Y, possiamo studiare la loro correlazione lineare. Prima di tutto cerchiamo di capire di cosa si tratta. Se elenchiamo le N osservazioni

Dettagli