Modelli probabilistici per la percezione orso di Principi e Modelli della Percezione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it http://boccignone.di.unimi.it/pmp_2015.html Problemi mal posti Un piccolo test: x + 3 = 8 quanto vale x?
Problemi mal posti Un piccolo test: 2x + 2 =10 quanto vale x? Problemi mal posti Un piccolo test: x + y = 9 quanto valgono x e y?
Problemi mal posti Un piccolo test: x + y = 9 quanto valgono x e y? Questo è un esempio di problema mal posto Problemi mal posti Un piccolo test: x + y = 9 quanto valgono x e y? Questo è un esempio di problema mal posto: - non ha soluzione unica
a riflettanza spettrale // inferenza: un problema mal posto E R E x R = N fotoni emessi % fotoni riflessi N fotoni riflessi Spettro di irradiamento x x Spettro di riflettanza = = Spettro di radianza a riflettanza spettrale // inferenza: un problema mal posto E R E x R = 100 x N fotoni emessi % fotoni riflessi N fotoni riflessi E=? R=? =
Problemi mal posti //soluzione probabilistica Posso provare a utilizzare osservazioni precedenti : x + y = 9 Problemi mal posti //soluzione probabilistica Posso provare a utilizzare osservazioni precedenti : x + y = 9 x = 2, y = 7
Problemi mal posti //soluzione probabilistica Posso provare a utilizzare osservazioni precedenti : x + y = 9 x = 2, y = 7 Quanto ci fidiamo del risultato ottenuto? Probabilità e scienze cognitive //tre problemi per i modelli cognitivi Percezione e azione hanno a che fare con eventi incerti: rumore, incertezza ignoranza sulle condizioni al contorno stesso oggetto immagini diverse
Probabilità e scienze cognitive //tre problemi per i modelli cognitivi Percezione e azione hanno a che fare con eventi incerti: rumore, incertezza ignoranza sulle condizioni al contorno oggetti diversi immagini identiche Probabilità e scienze cognitive //tre problemi per i modelli cognitivi Percezione e azione hanno a che fare con eventi incerti: rumore, incertezza ignoranza sulle condizioni al contorno incertezze conoscenza }? modularità Module design Module integration
Probabilità e scienze cognitive //percezione come inferenza inconscia ome già osservava ocke (1632-1704), anche gli agenti più razionali prendono le loro decisioni non nella chiara luce della certezza nel crepuscolo delle probabilità. incertezze T e o r i a d e l l a probabilità conoscenza modularità Module design }? Module integration Quale probabilità //Tre concetti di probabilità: la definizione classica a probabilità di un evento è il rapporto tra il numero dei casi favorevoli e il numero dei casi possibili, purché questi ultimi siano ugualmente possibili. Quindi se i casi possibili sono n e i casi favorevoli sono na, per la teoria classica la probabilità che accada l'evento A sarà:
Tre concetti di probabilità: la definizione frequentista a probabilità di un evento è il limite della frequenza (relativa) dei successi, cioè del verificarsi dell'evento, quando il numero delle prove tende all'infinito. Tre concetti di probabilità: la definizione soggettivista a probabilità di un evento è il prezzo che un individuo razionale ritiene equo pagare per ricevere 1 se l'evento si verifica (e 0 altrimenti). Alessio è disposto a scommettere 1 contro 20 sul fatto che nel pomeriggio arrivi finalmente l'idraulico a riparare il rubinetto che perde da una settimana: attribuisce cioè a tale evento una probabilità 1/21 (meno del 5%). È come se ci trovassimo ad effettuare un sorteggio da un'urna con 1 pallina rossa (evento positivo = arrivo dell'idraulico) e 20 palline nere (eventi negativi = assenza dell'idraulico).
ome si valuta la probabilità? Immaginiamo che ci sia una partita di calcio. o spazio degli eventi comprende (1) la vittoria della squadra di casa, (2) la vittoria della squadra ospite e (3) il pareggio. Secondo la teoria classica esiste 1 probabilità su 3 che abbia luogo il primo evento secondo la teoria frequentista ci si può dotare di un almanacco e controllare tutte le partite precedenti e calcolare la frequenza dell evento vittoria della squadra di casa. Secondo la teoria soggettivista, ci si può documentare sullo stato di forma dei calciatori, sul terreno di gioco e così via fino ad emettere una probabilità soggettiva. Probabilità e scienze cognitive //percezione come inferenza inconscia Probabilità soggettiva: mette in relazione le asserzioni fatte sul mondo con lo stato di conoscenza dell agente incertezze T e o r i a d e l l a probabilità conoscenza modularità Module design }? Module integration
Probabilità e scienze cognitive //percezione come inferenza inconscia...(helmholtz, 1925) I called the connections of ideas which take place in these processes unconscious inferences. These inferences are unconscious insofar as their major premise is not necessarily expressed in the form of a proposition; it is formed from a series of experiences whose individual members have entered consciousness only in the form of sense impressions which have long since disappeared from memory. Some fresh sense impression forms the minor premise, to which the rule impressed upon us by previous observations is applied Probabilità e scienze cognitive //percezione come inferenza inconscia...(helmholtz, 1925) (T. Bayes, 1702-1761) unconscious inferences fresh sense impression forms the minor premise rule impressed upon us by previous observations P( osservazioni P (observation knowledge)p conoscenza) x P( (knowledge) conoscenza) P (knowledge observation) = = P (observation) P( conoscenza osservazioni) P( osservazioni )
Probabilità e scienze cognitive //percezione come inferenza inconscia Probabilità soggettiva: mette in relazione le asserzioni fatte sul mondo con lo stato di conoscenza dell agente = grado di credenza incertezze conoscenza modularità Module design Teoria Bayesiana della probabilità Module integration Problemi mal posti //soluzione probabilistica Supponiamo di voler ricostruire il mondo 3D a partire dall ombreggiatura Questo è il mondo che osserviamo, le ombre proiettate nella caverna di Platone...
Problemi mal posti //soluzione probabilistica Supponiamo di voler ricostruire il mondo 3D a partire dall ombreggiatura Questa è l immagine di un oggetto concavo o convesso? Questo è il mondo che osserviamo, le ombre proiettate nella caverna di Platone... Probabilità //sintassi Proposizioni elementari = IN, la curvatura è di tipo IN Proposizioni complesse =sopra = IN urvatura ={IN, OUT},, I le possiamo considerare variabili aleatorie che assumono un valore (discreto/continuo) rispetto agli eventi che accadono nel mondo. Il risultato numerico di un esperimento I Posizione sorgente di luce ={sopra, sotto} Immagine I ={, }
//assiomi P(A) 0 P (A A) = 0 P ( A) = 1 - P(A) P(A B) = P(A) + P(B) - P(A B) //modellare la percezione del mondo
//modellare la percezione del mondo a scelta delle variabili aleatorie di interesse discrete continue I ={IN, OUT} ={sopra, sotto} Immagine I ={, } //la probabilità del tutto: congiunta P(I )=P(I,, ) P(I,, ) I IN IN sopra sopra OUT sopra I OUT IN sopra sotto ={IN, OUT} IN sotto ={sopra, sotto} Immagine I ={, } OUT OUT sotto sotto
//la probabilità condizionata Probabilità condizionata di A dato B (posto che conosco il valore di B) P(A B) = P(A B) / P(B) = P(A, B) / P(B) i consente di strutturare la conoscenza sul mondo B Regola del prodotto A P(A, B) = P(A B) P(B) = P(B A) P(A) P(A, B, ) = P(A B, ) P(B ) P() poichè P(A B) = P(B A) (chain rule) semplifica una query difficile in query più semplici //la probabilità condizionata Da un punto di vista strettamente Bayesiano esistono solo probabilità condizionate P(A ) -> P(A H ) H è l insieme di ipotesi che ci consentono di esplicitare la conoscenza sul mondo Posizionamento luci possibile Alcune delle ipotesi in H Posizionamento luci inammissibile P( H) 0,9 sopra 0,1 sotto
P( H) 0,9 sopra 0,1 sotto P( H) 0,9 sopra 0,1 sotto
//la probabilità condizionata Da un punto di vista strettamente Bayesiano esistono solo probabilità condizionate P(A ) -> P(A H ) H è l insieme di ipotesi che ci consentono di esplicitare la conoscenza sul mondo Oggetti che esistono nel mondo osservato Alcune delle ipotesi in H Oggetti che non esistono nel mondo osservato P( H) 0,5 IN 0,5 OUT //specificare un modello del mondo: struttura P(I )=P(I,, ) = P(I, ) P( ) P() Indipendenza di da P( ) = P() P(I,, ) = P(I, ) P( ) P() I questo è il mio modello del mondo ={IN, OUT} ={sopra, sotto} Immagine I ={, }
//specificare un modello del mondo Il modello del mondo mi semplifica la probabilità del tutto (2 3-1 stati) P(I,, ) I IN IN OUT OUT IN IN OUT OUT sopra sopra sopra sopra sotto sotto sotto sotto //specificare un modello del mondo P(I,, ) = P(I, ) P( ) P() P( ) P( ) 0,5 IN 0,5 OUT 0,9 sopra 0,1 sotto I P(I, ) I 0 IN sopra 1 IN sopra 1 OUT sopra 0 OUT sopra 1 IN sotto 0 IN sotto 0 OUT sotto 1 OUT sotto
//specificare un modello del mondo P(I,, ) = P(I, ) P( ) P() P( ) P( ) 0,5 IN 0,5 OUT 0,9 sopra 0,1 sotto I Probabilità a priori= la mia conoscenza del mondo //specificare un modello del mondo P(I,, ) = P(I, ) P( ) P() Verosimiglianza= la mia osservazione del mondo I P(I, ) I 0 IN sopra 1 IN sopra 1 OUT sopra 0 OUT sopra 1 IN sotto 0 IN sotto 0 OUT sotto 1 OUT sotto
//fare inferenze: la regola di Bayes Dalla Regola del prodotto: P(A, B) = P(A B) P(B) = P(B A) P(A) poichè P(A B) = P(B A) B B A A Probabilità inversa //fare inferenze: la regola di Bayes probabilità a posteriori verosimiglianza probabilità a priori { P( dati P (observation knowledge)p sensoriali cosa c è nel mondo) x P( cosa (knowledge) c è nel mondo) P (knowledge observation) = = P (observation) P( cosa c è nel mondo dati sensoriali) { P( dati sensoriali ) {
//Indipendenza (marginale) Indipendenza di da P( ) = P() P(, ) = P( ) P() = P() P() ={IN, OUT} ={sopra, sotto} Immagine I ={, } //Indipendenza (marginale) Eventi mutualmente esclusivi P(A, B) =P(A B) =0 P (, ) = 0 Si semplifica la regola della somma: P(A B) = P(A) + P(B) - P(A B) = P(A) + P(B) P ( ) = P ( ) + P ( ) Generalizzata: P(A1 A2... AN ) = i=1;..;n P(Ai )
//Marginalizzazione Dalla probabilità congiunta possiamo ottenere la probabilità (marginale) di una variabile sommando su tutti i possibili valori delle altre variabili P(X) = Y P(X, Y) P(X) = Y P(X, Y) = Y P(X Y) P(Y) //Marginalizzazione a marginalizzazione ci consente inferenze: Se osservo I=, qual è la probabilità di P( = OUT I = ) P( = OUT I = ) = P( I =, = OUT ) P( I = ) ={sopra, sotto} P( I =, = OUT, ) = ={sopra, sotto} P( I = = OUT, ) P( ) P() 0,5{ 0,9{ = P( = 0UT ) [ P( I = = OUT, = sopra ) P( =sopra) + P( I = = OUT, = sotto ) P( = sotto) ] { 0
//Problema per l inferenza Bayesiana a marginalizzazione ci consente inferenze: Se osservo I=, qual è la probabilità di P( = OUT I = ) P( I = ) P( I =, = OUT ) P( = OUT I = ) = P( I = ) = ={IN, OUT} ={sopra, sotto} P( I =,, ) Hic sunt leones! = [ P( I = = OUT, = sopra ) P( =sopra) P( = OUT) + P( I = = OUT, = sotto ) P( = sotto) P( = OUT) + P( I = = IN, = sopra ) P( =sopra) P( = IN) + P( I = = IN, = sotto ) P( = sotto) P( = IN)] Modelli nelle scienze cognitive e nella percezione //da Marr a Bayes Qual è il goal della computazione? ivelli di spiegazione secondo Marr Quale rappresentazione e quale algoritmo? ome realizzarla fisicamente?
Modelli nelle scienze cognitive e nella percezione //da Marr a Bayes Teoria Bayesiana ivelli di spiegazione (Kersten e Yuille) Vincoli e ipotesi Implementazione Modelli nelle scienze cognitive e nella percezione //da Marr a Bayes Modelli teorici Bayesiani: Modello Grafico + PDF I P(I,, ) = P(I, ) P( ) P() ivelli di spiegazione (Boccignone e ordeschi) Inferenza su MG SIMUAZIONE Modello implementativo