Trattamento dell Incertezza
|
|
- Samuele Rocca
- 7 anni fa
- Visualizzazioni
Transcript
1 Università di Bergamo Facoltà di Ingegneria Intelligenza Artificiale Paolo Salvaneschi A9_1 V1.9 Trattamento dell Incertezza Il contenuto del documento è liberamente utilizzabile dagli studenti, per studio personale e per supporto a lezioni universitarie. Ogni altro uso è riservato, e deve essere preventivamente autorizzato dall autore. Sono graditi commenti o suggerimenti per il miglioramento del materiale Nota: è utilizzato in parte il materiale didattico associato al testo di Stuart J. Russell, Peter Norvig A1 Introduzione Paolo Salvaneschi 1
2 INDICE Incertezza Probabilità Assiomi della probabilità Inferenza probabilistica per enumerazione Indipendenza Regola di Bayes Utilizzo della regola di Bayes A1 Introduzione Paolo Salvaneschi 2 A1 Introduzione Paolo Salvaneschi 2
3 Incertezza Azione per un agente logico: condurre un passeggero all aeroporto in tempo per prendere un volo Piano: partenza 90 minuti prima del volo, velocità di guida normale Problemi: Osservabilità parziale (stato della strada, piani degli altri guidatori, ) Eventi inaspettati (si buca una gomma, ) Sensori affetti da rumore (stato del traffico via radio) Immensa complessità del modello di predizione del traffico Cfr: Situation Calculus - the Qualification Problem A1 Introduzione Paolo Salvaneschi 3 A1 Introduzione Paolo Salvaneschi 3
4 Incertezza Piano: partenza 90 minuti prima del volo, velocità di guida normale Il piano mi porterà in tempo se non ci sono incidenti sul percorso, se non buco una gomma, se.. Un agente puramente logico non è in grado di generare un piano che garantisca il successo. Trattare la conoscenza incerta Trattare piani diversi che hanno vantaggi e svantaggi (es. partire prima e aspettare a lungo in aeroporto) A1 Introduzione Paolo Salvaneschi 4 A1 Introduzione Paolo Salvaneschi 4
5 Incertezza Conoscenza incerta e logica p Symptom (p, Toothache) Disease (p, Cavity) La regola è scorretta. I mal di denti non implica necessariamente la carie p Symptom (p, Toothache) Disease (p, Cavity) Disease (p, Abscess) Quanto è grande la lista delle cause? p Disease (p, Cavity) Symptom (p, Toothache) Cambiamo direzione. Passiamo da una regola diagnostica ad una regola causale. Anche questa non è corretta. Es. ci sono carie che non causano mal di denti Verso diagnostico Verso causale A1 Introduzione Paolo Salvaneschi 5 A1 Introduzione Paolo Salvaneschi 5
6 Incertezza Conoscenza incerta e logica Usare FOL per questo problema di diagnosi fallisce: Costo di costruzione di una lista completa di antecedenti e conseguenti Conoscenza teorica incompleta Conoscenza pratica incompleta (non si hanno tutte le possibili misure) Un agente dispone al meglio di un grado di credenza a proposito di una affermazione A1 Introduzione Paolo Salvaneschi 6 A1 Introduzione Paolo Salvaneschi 6
7 Incertezza Modo per riassumere gli effetti di mancanza di conoscenza: Probabilità Con una probabilità dell 80% il paziente ha una carie se ha mal di denti L 80% riassume tutti i fattori richiesti affinchè una carie causi il mal di denti e il caso in cui ci sia mal di denti e carie e i due fenomeni siano sconnessi. Il 20% riassume tutte le altre possibili cause di mal di denti che ignoriamo Conoscenza derivata ad es. da dati statistici A1 Introduzione Paolo Salvaneschi 7 A1 Introduzione Paolo Salvaneschi 7
8 Incertezza L 80% riassume tutti i fattori richiesti affinchè una carie causi il mal di denti e il caso in cui ci sia mal di denti e carie e i due fenomeni siano sconnessi. Il 20% riassume tutte le altre possibili cause di mal di denti che ignoriamo Carie Fattori non noti Mal di denti Altra causa Altra causa. 80% 20% Nota: differenza con FOL; closed world assumption A1 Introduzione Paolo Salvaneschi 8 A1 Introduzione Paolo Salvaneschi 8
9 Incertezza La probabilità rappresenta una grado di credenza che l agente ha rispetto a un fatto Il fatto in sè resta vero o falso. L ontologia non cambia. Probabilità: gradi di credenza Fuzzy logic: gradi di verità dei fatti A1 Introduzione Paolo Salvaneschi 9 A1 Introduzione Paolo Salvaneschi 9
10 Incertezza Il grado di credenza dipende dalle evidenze (percezioni) raccolte dall agente Il grado di credenza su un fatto può cambiare se nuovi fatti (evidenze) sono aggiunti alla base di conoscenza (N.B. il valore di verità del fatto non cambia) Probabilità a priori (non condizionata). Evidenza prima di avere percezioni Probabilità a posteriori (condizionata). Evidenza dopo percezioni Nota: monotonicità? A1 Introduzione Paolo Salvaneschi 10 A1 Introduzione Paolo Salvaneschi 10
11 Incertezza Trattare piani diversi che hanno vantaggi e svantaggi (es. partire prima e aspettare a lungo in areoporto) Possibili credenze: Date certe condizioni P(A 25 gets me there on time ) = 0.04 P(A 90 gets me there on time ) = 0.70 P(A 120 gets me there on time ) = 0.95 P(A 1440 gets me there on time ) = Quale azione scegliere? Dipende dalle preferenze dell agente (es. rischiare di perdere l aereo vs aspettare a lungo) Utility theory utilizzata per rappresentare e ragionare sulle preferenze Decision theory = probability theory + utility theory A1 Introduzione Paolo Salvaneschi 11 A1 Introduzione Paolo Salvaneschi 11
12 Probabilità Linguaggio formale per rappresentare e ragionare con la conoscenza incerta: Applicazione della probabilità alla logica delle proposizioni Distinzione tra probabilità a priori e condizionata (a posteriori) Sintassi: A1 Introduzione Paolo Salvaneschi 12 A1 Introduzione Paolo Salvaneschi 12
13 Probabilità Proposizioni Elemento di base: variabile random Come simbolo proposizionale in PL Es. Cavity (maiuscolo) (*) Semantica come in PL: mondi possibili definiti assegnando valori a variabili random (*) Cavity variabile random (maiuscolo) a variabile random non nota (minuscolo) es P(a) = 1- P( a) cavity abbreviazione di Cavity = true A1 Introduzione Paolo Salvaneschi 13 A1 Introduzione Paolo Salvaneschi 13
14 Probabilità Ogni variabile random ha un dominio Booleano Cavity <true, false> Cavity = true Cavity=false cavity cavity Discreto Weather <sunny,rainy,cloudy,snow> Weather = rainy I valori del dominio devono essere esaustivi e mutamente esclusivi Continuo valori = numeri reali (intervalli) X= 4,16 X 17,6 valori scritti in minuscolo A1 Introduzione Paolo Salvaneschi 14 A1 Introduzione Paolo Salvaneschi 14
15 Le proposizioni elementari sono costruite mediante assegnamenti di valori a variabili random Cavity = false Weather = rainy Le proposizioni complesse sono formate da proposizioni elementari e connettivi logici standard Cavity = true Toothache = false cavity toothache Probabilità A1 Introduzione Paolo Salvaneschi 15 A1 Introduzione Paolo Salvaneschi 15
16 Probabilità Eventi atomici (o campioni) Evento atomico: una specificazione completa dello stato del mondo relativamente al quale l agente ha conoscenza incerta Es. Il mondo consiste solo di due variabili booleane Cavity e Toothache Ci sono 4 distinti eventi atomici: Cavity = false Toothache = false Cavity = false Toothache = true Cavity = true Toothache = false Cavity = true Toothache = true Gli eventi Atomici sono esaustivi e mutamente esclusivi A1 Introduzione Paolo Salvaneschi 16 A1 Introduzione Paolo Salvaneschi 16
17 Probabilità Probabilità a priori P(a) Probabilità a priori di una proposizione a P(Cavity = true) = 0.1 P(cavity) = 0.1 usata prima dell arrivo di ogni (nuova) evidenza (grado di credenza in assenza di ogni altra informazione) P(a) Le probabilità di tutti i possibili valori di una variabile random a P(Weather) = <0.72, 0.1, 0.08, 0.1> Vettore di valori. Sostituisce le equazioni: P(Weather=sunny) = 0.72 P(Weather=rainy) = 0.1 Distribuzione di probabilità a priori della variabile casuale Weather (normalizzata; somma 1) A1 Introduzione Paolo Salvaneschi 17 A1 Introduzione Paolo Salvaneschi 17
18 Probabilità P (a, b) Joint probability distribution per l insieme delle variabili random a e b Denota la probabilità di tutte le combinazioni di valori delle variabili random P(Weather,Cavity) matrice di 4 2 valori Weather = sunny rainy cloudy snow Cavity = true Cavity = false A1 Introduzione Paolo Salvaneschi 18 A1 Introduzione Paolo Salvaneschi 18
19 Probabilità FullJoint probability distribution Joint probability distribution per tutte le variabili che sono usate per descrivere il mondo Specifica la probabilità di ogni evento atomico Completa specificazione dell incertezza sul mondo in questione. Ogni query probabilistica può essere risposta a partire da essa.(vedi più avanti inferenza per enumerazione ) A1 Introduzione Paolo Salvaneschi 19 A1 Introduzione Paolo Salvaneschi 19
20 Probabilità Tutto ciò per variabili discrete Per variabili continue: Funzioni di densità di probabilità A1 Introduzione Paolo Salvaneschi 20 A1 Introduzione Paolo Salvaneschi 20
21 Probabilità Probabilità condizionate (a posteriori) P (a b) La probabilità di a, stante che tutto ciò che conosco è b P(cavity toothache) = 0.8 l unico sintomo noto del paziente è il mal di denti La probabilità a priori può essere definita come un caso particolare di probabilità condizionata (senza evidenze) P(cavity ) A1 Introduzione Paolo Salvaneschi 21 A1 Introduzione Paolo Salvaneschi 21
22 Probabilità La probabilità condizionata può essere definita nei termini di probabilità incondizionate P(a b) = P(a b) P(b) if P(b) > 0 o equivalentemente P(a b) = P(a b) P(b) (product rule) P(a, b) Oppure P(a b) = P(b a) P(a) A1 Introduzione Paolo Salvaneschi 22 A1 Introduzione Paolo Salvaneschi 22
23 Probabilità Probabilità condizionate Notazione P P(X Y) (un vettore di valori) Fornisce i valori di P(X= x i Y=y j ) per ogni i e j P(Weather,Cavity) = P(Weather Cavity) P(Cavity) Notazione compatta che sostituisce 4 x 2 equazioni: P(Weather=sunny,Cavity=true) = P(Weather=sunny Cavity=true) P(Cavity=true) P(Weather= rainy,cavity= true) = P(Weather= rainy Cavity= true) P(Cavity=true) P(Weather=cloudy,Cavity=true) = P(Weather=cloudy Cavity=true) P(Cavity=true) P(Weather=snow,Cavity=true) = P(Weather=snow Cavity=true) P(Cavity=true) P(Weather= sunny,cavity=false) =P(Weather= sunny Cavity= false) P(Cavity= false) A1 Introduzione Paolo Salvaneschi 23 A1 Introduzione Paolo Salvaneschi 23
24 Probabilità Chain rule derivata dall applicazione ripetuta della product rule P(a b) = P(b a) P(a) P(X 1,,X n ) = P(X n X 1,...,X n-1 ) P(X 1,...,X n-1 ) = P(X n X 1,...,X n-1 ) P(X n-1 X 1,...,X n-2 ) P(X 1,...,X n-2 ) = = i P(X i X 1,,X i-1 ) A1 Introduzione Paolo Salvaneschi 24 A1 Introduzione Paolo Salvaneschi 24
25 Probabilità Esempio di utilizzo delle probabilità condizionate evidenza P(Batteria= scarica Auto= non parte ) = 0.6 Conoscenza di tipo statistico Evidenza ulteriore Il grado di credenza cresce P(Batteria=scarica Auto=non parte LasciatiFariAccesi=true)= 0.9 Evidenza da racconto del proprietario P(Batteria= scarica Auto= non parte LasciatiFariAccesi=true Fanale=rotto) = P(Batteria=scarica Auto=non parte LasciatiFariAccesi=true)=0.9 Evidenza da osservazione (irrilevante), si semplifica P(Batteria=scarica Auto= non parte LasciatiFariAccesi=true MisuraBatteriaScarica=true)= 1 Evidenza da misura dello stato di carica della batteria A1 Introduzione Paolo Salvaneschi 25 A1 Introduzione Paolo Salvaneschi 25
26 Assiomi della Probabilità Semantica: (assiomi) Per ogni proposizione a e b: 0 P(a) 1 Tutte le probabilità sono tra 0 e 1 P(true) = 1 P(false) = 0 Le proposizioni necessariamente vere (valide) hanno probabilità 1, quelle necessariamente false (non soddisfacibili) hanno probabilità 0 P(a b) = P(a) + P(b) - P(a b) Probabilità di proposizioni legate da operatori logici Nota: solo per probabilità a priori. Le probabilità a posteriori sono state definite nei termini di probabilità a priori A1 Introduzione Paolo Salvaneschi 26 A1 Introduzione Paolo Salvaneschi 26
27 Assiomi della Probabilità Dagli assiomi si costruisce il resto della teoria della probabilità In particolare si deriva: La probabilità di una proposizione a è la somma delle probabilità di tutti [e(a) ] gli eventi atomici e i in cui la proposizione è vera P(a) = Σ P(e i ) e i e(a) Data la full joint distribution, l equazione fornisce un metodo per calcolare la probabilità di ogni proposizione A1 Introduzione Paolo Salvaneschi 27 A1 Introduzione Paolo Salvaneschi 27
28 Inferenza probabilistica per enumerazione Inferenza probabilistica utilizzando la full joint distribution (inferenza per enumerazione). Data una qualunque proposizione calcolare la probabilità a priori e a posteriori a partire dalle evidenze disponibili. Probabilità di un evento atomico Base di conoscenza Somma delle probabilità = 1 Full joint distribution per il mondo composto dalle variabili Toothache, Cavity, Catch (Mal di denti, Carie, Il ferro del dentista entra nel dente) A1 Introduzione Paolo Salvaneschi 28 A1 Introduzione Paolo Salvaneschi 28
29 Inferenza probabilistica per enumerazione La probabilità di una proposizione si calcola identificando gli eventi atomici in cui la proposizione è vera e sommando le relative probabilità P(toothache) = = 0.2 P(cavity toothache) = = 0.28 A1 Introduzione Paolo Salvaneschi 29 A1 Introduzione Paolo Salvaneschi 29
30 Inferenza probabilistica per enumerazione Si possono anche calcolare le probabilità condizionate (nei termini di probabilità incondizionate) P(a b) = P(a b) P(b) P( cavity toothache) = = P( cavity toothache) P(toothache) = 0.4 A1 Introduzione Paolo Salvaneschi 30 A1 Introduzione Paolo Salvaneschi 30
31 Inferenza probabilistica per enumerazione Normalizzazione P( cavity toothache) = P(cavity toothache) = P( cavity toothache) = P(toothache) P(cavity toothache) P(toothache) = Il denominatore non cambia. P(toothache) Può essere visto come costante di normalizzazione per la distribuzione P(Cavity toothache) (garantisce che la somma sia 1) Variabile Toothache=true A1 Introduzione Paolo Salvaneschi 31 A1 Introduzione Paolo Salvaneschi 31 1 = =
32 Inferenza probabilistica per enumerazione variabile La coppia delle due precedenti equazioni può essere scritta come: P(Cavity toothache) = α P(Cavity,toothache) = α [P(Cavity,toothache,catch) + P(Cavity,toothache, catch)] = α [<0.108,0.016> + <0.012,0.064>] = α <0.12,0.08> = <0.6,0.4> α = 1/( ) =1/ 0,2 Joint probability distribution di Cavity e toothache Si calcola con P(a) = Σ P(e i ) e i e(a) Idea generale: calcolare la distribuzione della query variable fissando le evidence variables e sommando le probabilità delle hidden variables A1 Introduzione Paolo Salvaneschi 32 A1 Introduzione Paolo Salvaneschi 32
33 Inferenza probabilistica per enumerazione Notazione: Y Hidden variables rimanenti variabili non osservate P( cavity toothache) = P( cavity toothache) = P(toothache) = X The query variable E Evidence variables variabili osservate A1 Introduzione Paolo Salvaneschi 33 A1 Introduzione Paolo Salvaneschi 33
34 Inferenza probabilistica per enumerazione Procedura di inferenza per rispondere a query probabilistiche per variabili discrete (query su singola variabile) (per enumerazione delle entries in una full joint distribution) Come calcolare una probabilità condizionata X Query variable, E Evidence variables, e valori osservati per E, Y Hidden variables i cui valori sono y Query: P(X e) Distribuzione di probabilità di X condizionata da e P(X e) = α P(X,e) = α ΣP (X,e, y) y α = 1 P(e) Somma su tutti i possibili valori y delle variabili non osservate A1 Introduzione Paolo Salvaneschi 34 A1 Introduzione Paolo Salvaneschi 34
35 Problemi Inferenza probabilistica per enumerazione Tempo: complessità nel caso peggiore O(d n ) dove d è la più grande arità delle n variabili Memoria: O(d n ) per memorizzare la full joint distribution Trovare i numeri della full joint distribution. Esperienza richiesta per stimare ogni elemento della tabella. Impraticabile su problemi realistici A1 Introduzione Paolo Salvaneschi 35 A1 Introduzione Paolo Salvaneschi 35
36 Indipendenza assoluta Indipendenza Un modo per ridurre l informazione necessaria per specificare la full joint distribution Introduciamo un altra variabile Weather <sunny,rainy,cloudy,snow> La tabella della full joint distribution ha 32 (8x4) elementi da definire Una tabella per ogni valore della variabile Weather A1 Introduzione Paolo Salvaneschi 36 A1 Introduzione Paolo Salvaneschi 36
37 Indipendenza Si suppone che il tempo atmosferico non sia influenzato daiproblemidentali P(Weather= cloudy toothache, catch, cavity) = P(Weather= cloudy ) Indipendenza assoluta In generale a e b sono indipendenti iff P(a b) = P(a) or P(b a) = P(b) or In questo caso si può scrivere: P(Toothache, Catch, Cavity, Weather) = P(Toothache, Catch, Cavity) P(Weather) Ci si è ridotti da una tabella di 32 elementi a due tabelle, una di 8 elementi e l altra di 4 elementi (12 elementi) P(a b) P(a b) = P(b) = P(a) P(a b) =P(a) P(b) A1 Introduzione Paolo Salvaneschi 37 A1 Introduzione Paolo Salvaneschi 37
38 Indipendenza L indipendenza assoluta è basata su conoscenza del dominio E rara Le singole tabelle possono essere comunque grandi A1 Introduzione Paolo Salvaneschi 38 A1 Introduzione Paolo Salvaneschi 38
39 Indipendenza Indipendenza condizionale P(Toothache, Cavity, Catch) ha = 7 elementi indipendenti Se ho cavity, la probabilità di catch non dipende da toothache: P(catch toothache, cavity) = P(catch cavity) Lo stesso vale se non ho cavity: P(catch toothache, cavity) = P(catch cavity) Catch è condizionalmente indipendente da Toothache, data Cavity: P(Catch Toothache,Cavity) = P(Catch Cavity) Equivalentemente P(Toothache Catch, Cavity) = P(Toothache Cavity) P(Toothache, Catch Cavity) = P(Toothache Cavity) P(Catch Cavity) A1 Introduzione Paolo Salvaneschi 39 A1 Introduzione Paolo Salvaneschi 39
40 Indipendenza cavity causa causa toothache catch Non esiste dipendenza tra toothache e catch A1 Introduzione Paolo Salvaneschi 40 A1 Introduzione Paolo Salvaneschi 40
41 Indipendenza Come per l indipendenza assoluta si può scrivere (usando la chain rule) Joint probability distribution P(a b) = P(a b) P(b) (product rule) + relazione di indipendenza condizionale P(Toothache, Catch, Cavity) = P(Toothache Catch, Cavity) P(Catch, Cavity) = P(Toothache Catch, Cavity) P(Catch Cavity) P(Cavity) Usando la relazione di indipendenza: P(Toothache Catch, Cavity) = P(Toothache Cavity) = P(Toothache Cavity) P(Catch Cavity) P(Cavity) La tabella originale è decomposta in tre tabelle più piccole A1 Introduzione Paolo Salvaneschi 41 A1 Introduzione Paolo Salvaneschi 41
42 Indipendenza cavity P(Cavity) P(Toothache Cavity) causa causa P(Catch Cavity) toothache catch Non cè dipendenza tra toothache e catch A1 Introduzione Paolo Salvaneschi 42 A1 Introduzione Paolo Salvaneschi 42
43 Indipendenza P(Toothache Cavity) P(Catch Cavity) P(Cavity) 7 numeri indipendenti (somma probabilità = 1) 2 numeri indipendenti 2 numeri indipendenti 1 numero indipendente Totale: 5 numeri A1 Introduzione Paolo Salvaneschi 43 A1 Introduzione Paolo Salvaneschi 43
44 Indipendenza La tabella originale è decomposta in tre tabelle più piccole Memoria: passa da O(d n ) a O(n) ove d è la più grande arità delle n variabili L indipendenza condizionata è basata su conoscenza del dominio L indipendenza condizionata è più comune A1 Introduzione Paolo Salvaneschi 44 A1 Introduzione Paolo Salvaneschi 44
45 Indipendenza cavity P(Cavity) P(Toothache Cavity) causa causa P(Catch Cavity) toothache catch L indipendenza condizionale permette la separazione di grandi domini probabilistici in sottoinsiemi debolmente connessi La full joint distribution può essere scritta: P(Cause, Effect 1,, Effect n )= P(Cause) P(Effect i i Cause) A1 Introduzione Paolo Salvaneschi 45 A1 Introduzione Paolo Salvaneschi 45
46 Regola di Bayes Product rule P(a b)=p(a b) P(b) P(a b)=p(b a) P(a) dividendo per P(b): P(b a) P(a) P(a b) = P(b) Regola di Bayes Direzione diagnostica P(Cause Effect) = Direzione causale P(Effect Cause) P(Cause) P(Effect) A1 Introduzione Paolo Salvaneschi 46 A1 Introduzione Paolo Salvaneschi 46
47 Regola di Bayes Caso più generale con variabili a più valori: P(Y X) = P(X Y) P(Y) P(X) La regola è la base dei moderni sistemi di inferenza probabilistica A1 Introduzione Paolo Salvaneschi 47 A1 Introduzione Paolo Salvaneschi 47
48 Perchè è utile? Regola di Bayes Calcola una probabilità condizionata a partire da una probabilità condizionata (nella direzione opposta) e due probabilità non condizionate) In molti casi si possono stimare i tre numeri e serve calcolare il quarto direzione causale causa Stiff neck Meningitis direzione diagnostica P(a b) = P(b a) P(a) P(b) P(Effect Cause) P(Cause) P(Cause Effect) = P(Effect) A1 Introduzione Paolo Salvaneschi 48 A1 Introduzione Paolo Salvaneschi 48
49 Regola di Bayes Un paziente su 5000 con il collo rigido ha la meningite La meningite in molti casi (50%) causa il collo rigido, ma la probabilità in direzione diagnostica è bassa poichè la probabilità a priori del collo rigido (1/20) è molto più alta di quella a priori della meningite (1/50000) (tanta gente ha il collo rigido non causato da meningite) P(s m) = 0,5 direzione causale m P(s) = 1/20 P(m) = 1/50000 Meningitis direzione causale causa Stiff neck s P(m s) = direzione diagnostica direzione diagnostica P(s m) P(m) P(s) 0,5 * 1/50000 = = 0,0002 1/20 A1 Introduzione Paolo Salvaneschi 49 A1 Introduzione Paolo Salvaneschi 49
50 Regola di Bayes (tanta gente ha il collo rigido non causato da meningite) P(s m) = 0,5 P(m s) = 0,0002 direzione causale direzione diagnostica Stiff neck s m Meningitis causa causa causa causa A1 Introduzione Paolo Salvaneschi 50 A1 Introduzione Paolo Salvaneschi 50
51 Regola di Bayes Sistema basato su regole diagnostiche (dai sintomi alle cause) Da osservazioni di pazienti di ricava che un paziente su 5000 con il collo rigido ha la meningite Stiff neck s causa m Meningitis direzione diagnostica 1/5000 KB (Shallow knowledge) P(m s) = 0,0002 Se c è una epidemia di meningite P(m) sale ad es a 1/20000 La regola diagnostica non funziona più Devono ancora essere accumulate le osservazioni sui pazienti nella nuova situazione A1 Introduzione Paolo Salvaneschi 51 A1 Introduzione Paolo Salvaneschi 51
52 Regola di Bayes Sistema basato su regole causali (dalle cause ai sintomi) Dati statistici su diffusione meningite e diffusione collo rigido direzione causale causa Stiff neck s m Meningitis P(m s) = KB P(s m) = 0,5 direzione causale P(s) = 1/20 P(m) = 1/50000 Inferenza con il teorema di Bayes P(s m) P(m) P(s) (Model based knowledge) Osservazioni sul numero di pazienti con meningite che hanno il collo rigido 0,5 * 1/50000 = = 0,0002 1/20 A1 Introduzione Paolo Salvaneschi 52 A1 Introduzione Paolo Salvaneschi 52
53 Regola di Bayes Sistema basato su regole causali (dalle cause ai sintomi) direzione causale causa m Meningitis KB (Model based knowledge) P(s m) = 0,5 direzione causale P(s) = 1/20 P(m) = 1/20000 Inferenza con il teorema di Bayes Stiff neck P(s m) P(m) 0,5 * 1/20000 P(m s) = = = 0,0005 s P(s) 1/20 Si osserva il numero accresciuto di casi di meningite Il sistema diagnostico funziona ancora La regola causale è più robusta della regola diagnostica (non è modificata dall epidemia, esprime un modello di funzionamento della meningite) A1 Introduzione Paolo Salvaneschi 53 A1 Introduzione Paolo Salvaneschi 53
54 Regola di Bayes Nota: al posto di assegnare la probabilità a priori dell evidenza P(s), si può calcolare la probabilità a posteriori di ogni valore della query variable (m e m) e normalizzare il risultato P(s m) P(m) P(m s) = P(s) Vedi normalizzazione, slide 31 P(M s) = α <P(s m) P(m), P(s m) P( m)> Regola di Bayes con normalizzazione P(Y X) = α P(X Y) P(Y) α Costante necessaria per rendere la somma degli elementi di P(Y X) =1 A1 Introduzione Paolo Salvaneschi 54 A1 Introduzione Paolo Salvaneschi 54
55 Combinare le evidenze Regola di Bayes causa Stiff neck Meningitis causa toothache cavity causa catch A1 Introduzione Paolo Salvaneschi 55 A1 Introduzione Paolo Salvaneschi 55
56 Regola di Bayes Con la full joint distribution possiamo calcolare ad esempio (problemi di scalabilità- O(d n ) ): P(Cavity toothache catch) Con il teorema di Bayes: P(Cavity toothache catch) = αp(toothache catch Cavity) P(Cavity) dobbiamo conoscere le probabilità condizionali della congiunzione toothache catch per ogni valore di Cavity 2 n se n=numero evidenze - problema di scalabilità A1 Introduzione Paolo Salvaneschi 56 A1 Introduzione Paolo Salvaneschi 56
57 Regola di Bayes Utilizzo della nozione di indipendenza condizionale P(Cause, Effect 1,, Effect n )= P(Cause) i P(Effect i Cause) Direzione diagnostica P(Cavity toothache catch) = α P(toothache catch Cavity) P(Cavity) Usando la relazione di indipendenza (slide 39): P(Toothache, Catch Cavity)=P(Toothache Cavity)P(Catch Cavity) Direzione causale Si risponde ad una query diagnostica usando tre tabelle di probabilità: una a priori due condizionate in verso causale = α P(toothache Cavity) P(catch Cavity) P(Cavity) A1 Introduzione Paolo Salvaneschi 57 A1 Introduzione Paolo Salvaneschi 57
58 Regola di Bayes P(Cavity toothache catch)=α P(toothache Cavity) P(catch Cavity) P(Cavity) P(Cavity toothache catch) Verso diagnostico cavity Verso causale (teorema di Bayes) causa toothache causa catch α P(Cavity) cavity indipendenza condizionale causa causa α P(Cavity) toothache catch cavity P(toothache catch Cavity) causa toothache causa catch P(toothache Cavity) P(catch Cavity) A1 Introduzione Paolo Salvaneschi 58 A1 Introduzione Paolo Salvaneschi 58
59 Regola di Bayes cavity causa toothache causa catch E un esempio di Naive Bayes model (Bayesian classifier) Si assume che una singola causa influenza direttamente più effetti, tutti condizionalmente indipendenti, data la causa. Usato come semplificazione anche quando non è vera l indipendenza condizionale A1 Introduzione Paolo Salvaneschi 59 A1 Introduzione Paolo Salvaneschi 59
60 Sintesi: Sintesi Il trattamento della conoscenza incerta è necessario per la costruzione di molti sistemi reali La teoria della probabilità fornisce lo strumento formale per riassumere le credenze di un agente La probabilità condizionata descrive le variazioni di credenze al variare delle evidenze disponibili A1 Introduzione Paolo Salvaneschi 60 A1 Introduzione Paolo Salvaneschi 60
61 Sintesi Una tavola completa di distribuzione di probabilità (full joint probability distribution) può essere utilizzata per inferire (con risorse esponenziali) la probabilità di una proposizione L indipendenza assoluta e l indipendenza condizionale tra sottoinsiemi di variabili fattorizzano la tavola riducendo la complessità A1 Introduzione Paolo Salvaneschi 61 A1 Introduzione Paolo Salvaneschi 61
62 Sintesi La regola di Bayes permette di calcolare probabilità condizionate non note (es. in direzione diagnostica su una rete causale) a partire da probabilità condizionate (in direzione causale) e probabilità a priori La complessità di calcolo della regola di Bayes può essere ridotta utilizzando le indipendenze condizionali A1 Introduzione Paolo Salvaneschi 62 A1 Introduzione Paolo Salvaneschi 62
Ragionamento Probabilistico
Università di Bergamo Facoltà di Ingegneria Intelligenza Artificiale Paolo Salvaneschi A9_2 V1.8 Ragionamento Probabilistico Il contenuto del documento è liberamente utilizzabile dagli studenti, per studio
Logica proposizionale
Università di Bergamo Facoltà di Ingegneria Intelligenza Artificiale Paolo Salvaneschi A7_2 V1.1 Logica proposizionale Il contenuto del documento è liberamente utilizzabile dagli studenti, per studio personale
Basi di conoscenza nella logica del primo ordine
Università di Bergamo Facoltà di Ingegneria Intelligenza Artificiale Paolo Salvaneschi A7_5 V1.3 Basi di conoscenza nella logica del primo ordine Il contenuto del documento è liberamente utilizzabile dagli
Richiami di probabilità. Decision Theory e Utilità. Richiami di probabilità. assumere certi valori in un insieme x 1, x 2, x n (dominio)
9 lezione Scaletta argomenti: Probabilità Richiami di probabilità Reti Bayesiane Decision Theory e Utilità 1 Richiami di probabilità - La formalizzazione deriva da Boole - Concetto di VARIABILE CASUALE
Università di Bergamo Facoltà di Ingegneria. Intelligenza Artificiale. Paolo Salvaneschi A3_1 V1.3. Agenti
Università di Bergamo Facoltà di Ingegneria Intelligenza Artificiale Paolo Salvaneschi A3_1 V1.3 Agenti Il contenuto del documento è liberamente utilizzabile dagli studenti, per studio personale e per
Sistemi di Interpretazione dati e Diagnosi Overview
Università di Bergamo Facoltà di Ingegneria Intelligenza Artificiale Paolo Salvaneschi A10_1 V1.0 Sistemi di Interpretazione dati e Diagnosi Overview Il contenuto del documento è liberamente utilizzabile
Fondamenti di Informatica 2
Fondamenti di Informatica 2 Linguaggi e Complessità : Lezione 1 Corso Fondamenti di Informatica 2 Marco Schaerf, 2009-2010 Linguaggi e Complessità : Lezione 1 1 Logica proposizionale Linguaggio matematico
Agenti Basati su Logica
Agenti Basati su Logica Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 09/04/2018 Agenti basati sulla logica Generico agente logico Il mondo del Wumpus Logica proposizionale Inferenza
Introduzione alle Reti Bayesiane
Introduzione alle Reti Bayesiane Giovedì, 18 Novembre 2004 Francesco Folino Riferimenti: Chapter 6, Mitchell A Tutorial on Learning with Bayesian Networks, Heckerman Bayesian Network Perchè ci interessano?
Modelli Probabilistici per la Computazione Affettiva: Reti Bayesiane
Modelli Probabilistici per la Computazione Affettiva: Reti Bayesiane Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
Introduzione alla logica
Corso di Intelligenza Artificiale 2011/12 Introduzione alla logica iola Schiaffonati Dipartimento di Elettronica e Informazione Sommario 2 Logica proposizionale (logica di Boole) Logica del primo ordine
Logica: materiale didattico
Logica: materiale didattico M. Cialdea Mayer. Logica (dispense): http://cialdea.dia.uniroma3.it/teaching/logica/materiale/dispense-logica.pdf Logica dei Predicati (Logica per l Informatica) 01: Logica
Computazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it
C1: L C1 C2: L C2 C: C1 C2
Abbiamo visto Gli agenti logici applicano inferenze a una base di conoscenza per derivare nuove informazioni. Concetti base della logica: sintassi: struttura formale delle sentenze semantica: verita` di
Probabilità. Qual è la probabilità di ottenere il numero 5?
Lancio un dado Probabilità Qual è la probabilità di ottenere il numero 5? Ho una prova ossia un esperimento = lancio dado Ho il risultato di tale prova = faccia contrassegnata dal numero 5 Il risultato
Calcolo delle probabilità e ragionamento bayesiano. Unit 5 Corso di Logica e Teoria dell Argomentazione
Calcolo delle probabilità e ragionamento bayesiano Unit 5 Corso di Logica e Teoria dell Argomentazione Sommario Nozioni probabilistiche Probabilità condizionata Ragionamento bayesiano Applicazioni a giochi
LOGICA FUZZY, I LOGICA DI GÖDEL
LOICA FUZZY, I LOICA DI ÖDEL SINTASSI, SEMANTICA POLIVALENTE, COMPLETEZZA VINCENZO MARRA 1. Sintassi Si consideri nuovamente l alfabeto A = {(, ), X,, $,,,,, } impiegato per la logica proposizionale classica,
Computazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
Casa dello Studente. Casa dello Studente
Esercitazione - 14 aprile 2016 ESERCIZIO 1 Di seguito si riporta il giudizio (punteggio da 0 a 5) espresso da un gruppo di studenti rispetto alle diverse residenze studentesche di un Ateneo: a) Si calcolino
Elementi di Teoria della Probabilità
Elementi di Teoria della Probabilità Alcune definizioni iniziali: Fenomeno casuale: fenomeno ripetibile (almeno in teoria) infinite volte che può manifestarsi in diverse modalità, imprevedibili singolarmente,
NOZIONI DI LOGICA. Premessa
NOZIONI DI LOGICA Premessa Il compito principale della logica è quello di studiare il nesso di conseguenza logica tra proposizioni, predisponendo delle tecniche per determinare quando la verità di una
Semantica proposizionale. Unit 2, Lez 3 e 4 Corso di Logica
Semantica proposizionale Unit 2, Lez 3 e 4 Corso di Logica Sommario Semantica dei connettivi Costruzione delle tavole di verità Tautologie, contraddizioni e contingenze Semantica delle forme argomentative
NOZIONI DI LOGICA PROPOSIZIONI.
NOZIONI DI LOGICA PROPOSIZIONI. Una proposizione è un affermazione che è vera o falsa, ma non può essere contemporaneamente vera e falsa. ESEMPI Sono proposizioni : 7 è maggiore di 2 Londra è la capitale
Logica per la Programmazione
Logica del Primo Ordine: Motivazioni, Sintassi e Interpretazioni Logica per la Programmazione Lezione 1 Calcolo Proposizionale: sintassi e semantica Tautologie Esempi di Formalizzazione di Enunciati pag.
Intelligenza Artificiale I
Intelligenza Artificiale I Logica formale Calcolo simbolico Marco Piastra Logica formale - Calcolo simbolico - 1 Conseguenza, decidibilità Una fbf è conseguenza logica di un insieme di fbf sse qualsiasi
Inferenza nella logica proposizionale
Università di Bergamo Facoltà di Ingegneria Intelligenza Artificiale Paolo Salvaneschi A7_3 V1.7 Inferenza nella logica proposizionale Il contenuto del documento è liberamente utilizzabile dagli studenti,
Sistemi Deduttivi. Marco Piastra. Intelligenza Artificiale I. Intelligenza Artificiale I - A.A Sistemi Deduttivi[1]
Intelligenza Artificiale I Sistemi Deduttivi Marco Piastra Intelligenza Artificiale I - A.A. 2010- Sistemi Deduttivi[1] Calcolo simbolico? Una fbf è conseguenza logica di un insieme di fbf sse qualsiasi
Intelligenza Artificiale. Logica proposizionale: calcolo simbolico
Intelligenza Artificiale Logica proposizionale: calcolo simbolico Marco Piastra Logica formale (Parte 2) - 1 Parte 2 Calcolo logico Assiomi Derivazioni Derivazioni e conseguenza logica Completezza Logica
8 Derivati dell entropia
(F1X) Teoria dell Informazione e della Trasmissione 8 Derivati dell entropia Docente: Nicolò Cesa-Bianchi versione 23 marzo 2016 Siano X e Y due variabili casuali con valori in insiemi finiti X e Y. Detta
04 - Logica delle dimostrazioni
Università degli Studi di Palermo Facoltà di Economia CdS Sviluppo Economico e Cooperazione Internazionale Appunti del corso di Matematica 04 - Logica delle dimostrazioni Anno Accademico 013/014 D. Provenzano,
Ulteriori Conoscenze di Informatica e Statistica
Ulteriori Conoscenze di Informatica e Statistica Carlo Meneghini Dip. di fisica via della Vasca Navale 84, st. 83 (I piano) tel.: 06 55 17 72 17 meneghini@fis.uniroma3.it Indici di forma Descrivono le
Programma del corso. Elementi di Programmazione. Introduzione agli algoritmi. Rappresentazione delle Informazioni. Architettura del calcolatore
Programma del corso Introduzione agli algoritmi Rappresentazione delle Informazioni Elementi di Programmazione Architettura del calcolatore Reti di Calcolatori Calcolo proposizionale Algebra Booleana Contempla
Introduzione al calcolo delle probabilità
Introduzione al calcolo delle probabilità L. Boni Approccio empirico OSSERVAZIONE IPOTESI TEORIA DOMINANTE ESPERIMENTO L esperimento Un esperimento (dal latino ex, da, e perire, tentare, passare attraverso
Sviluppo di programmi
Sviluppo di programmi Per la costruzione di un programma conviene: 1. condurre un analisi del problema da risolvere 2. elaborare un algoritmo della soluzione rappresentato in un linguaggio adatto alla
Logica per la Programmazione
Logica per la Programmazione Lezione 12 Linguaggio di Programmazione Imperativo: Sintassi e Semantica Concetto di Tripla di Hoare Soddisfatta pag. 1 Introduzione Dall inizio del corso ad ora abbiamo introdotto,
02 - Logica delle dimostrazioni
Università degli Studi di Palermo Facoltà di Economia Dipartimento di Scienze Economiche, Aziendali e Statistiche Appunti del corso di Matematica 0 - Logica delle dimostrazioni Anno Accademico 015/016
Laboratorio di Fisica per Chimici
Laboratorio di Fisica per Chimici 17 aprile 2015 Dott. Marco Felici Ufficio: Vecchio Edificio di Fisica (Ed. Marconi)-Stanza 349 (3 piano); e-mail: marco.felici@roma1.infn.it. Telefono: 06-49914382; Sito
Logica per la Programmazione Corso di Laurea in INFORMATICA a.a. 2016/17
Logica per la Programmazione Corso di Laurea in INFORMATICA a.a. 2016/17 Andrea Corradini e Francesca Levi Dipartimento di Informatica E-mail: andrea@di.unipi.it, francesca.levi@unipi.it A. Corradini e
1 Richiami di logica matematica
Geometria e Topologia I 7 marzo 2005 1 1 Richiami di logica matematica Definire cos è un enunciato, una proposizione (elemento primitivo della logica delle proposizioni). La definizione è data in termini
Luca Costabile Esercizi di Logica Matematica Dispensa Calcolo Proposizionale 1
Luca Costabile Esercizi di Logica Matematica Dispensa Calcolo Proposizionale 1 Esercizio 1.12 Per dimostrare che per ogni funzione esiste una formula in cui compaiono le variabili tale che la corrispondente
Classi di Variabili. Reti Bayesiane: Inferenza. Inferenza. Inferenza per Enumerazione. Variabili di query (dato un evento osservato)
Classi di Variabili Variabili di query (dato un evento osservato) Reti Bayesiane: Inferenza Variabili di prova/evidenza: E: E1 Em Variabili non di prova (nascoste): Y:Y1 Yk Evento osservato e: insieme
Tecniche di prova per induzione
Aniello Murano Tecniche di prova per induzione 3 Lezione n. Parole chiave: Induzione Corso di Laurea: Informatica Codice: Email Docente: murano@ na.infn.it A.A. 2008-2009 Riassunto delle lezioni precedenti
Logica. 7: Conseguenza ed equivalenza logica in logica classica proposizionale. Claudio Sacerdoti Coen. Universitá di Bologna
Logica 7: Conseguenza ed equivalenza logica in logica classica proposizionale Universitá di Bologna 30/11/2016 Outline Conseguenza logica per la logica proposizionale Wikipedia:
Ulteriori Conoscenze di Informatica e Statistica
ndici di forma Ulteriori Conoscenze di nformatica e Statistica Descrivono le asimmetrie della distribuzione Carlo Meneghini Dip. di fisica via della Vasca Navale 84, st. 83 ( piano) tel.: 06 55 17 72 17
Apprendimento Automatico
Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali
LOGICA DEL PRIMO ORDINE: SEMANTICA. Corso di Logica per la Programmazione A.A. 2010/11 Andrea Corradini, Paolo Mancarella
LOGICA DEL PRIMO ORDINE: SEMANTICA Corso di Logica per la Programmazione A.A. 2010/11 Andrea Corradini, Paolo Mancarella LA SEMANTICA DELLA LOGICA DEL PRIMO ORDINE Sia fissato un linguaggio L del primo
Logica per la Programmazione
Logica per la Programmazione Lezione 12 Sistema di Dimostrazioni per le Triple di Hoare Comando Vuoto, Assegnamento, Sequenza, Condizionale A. Corradini e F.Levi Dip.to Informatica Logica per la Programmazione
Naïve Bayesian Classification
Naïve Bayesian Classification Di Alessandro rezzani Sommario Naïve Bayesian Classification (o classificazione Bayesiana)... 1 L algoritmo... 2 Naive Bayes in R... 5 Esempio 1... 5 Esempio 2... 5 L algoritmo
La Teoria (epistemica) della conferma bayesiana
La Teoria (epistemica) della conferma bayesiana La teoria della probabilità fornisce alcuni strumenti potenti anche in senso epistemico, per valutare argomentazioni e decisioni in cui sono usati dei metodi
Logica Proposizionale
Intelligenza rtificiale I Logica Proposizionale Introduzione Marco Piastra Intelligenza rtificiale I -.. 28-29 29 Introduzione al corso ] lgebre di Boole Definizione Una collezione di oggetti X su cui
Intelligenza Artificiale I
Intelligenza rtificiale I Logica formale Primi elementi Marco Piastra Logica formale - Primi elementi - Sottoinsiemi e operatori Sottoinsiemi U Insieme di riferimento (insieme sostegno) {,, C, } Collezione
C.I. di Metodologia clinica
C.I. di Metodologia clinica Modulo 5. I metodi per la sintesi e la comunicazione delle informazioni sulla salute Quali errori influenzano le stime? L errore casuale I metodi per la produzione delle informazioni
Modelli tradizionali e statistici applicati alla percezione (2/2) Francesco Panerai
Modelli tradizionali e statistici applicati alla percezione (2/2) Francesco Panerai Modulo integrativo del corso di - Sistemi Intelligenti Naturali e Artificiali - 2002/2003 Elementi di statistica bayesiana
Università del Piemonte Orientale. Corso di Laurea Triennale di Infermieristica Pediatrica ed Ostetricia. Corso di Statistica Medica
Università del Piemonte Orientale Corso di Laurea Triennale di Infermieristica Pediatrica ed Ostetricia Corso di Statistica Medica Le distribuzioni teoriche di probabilità La distribuzione Normale (o di
LEZIONI DI STATISTICA MEDICA
LEZIONI DI STATISTICA MEDICA Lezione n.11 - Principi dell inferenza statistica - Campionamento - Distribuzione campionaria di una media e di una proporzione - Intervallo di confidenza di una media e di
Verità, tautologia e implicazione logica
Condizioni di verità delle frasi di LP erità, tautologia e implicazione logica Sandro Zucchi Passiamo ora alla terza parte del compito di descrivere il linguaggio LP: Come vengono calcolate le condizioni
Logica per la Programmazione Corso di Laurea in INFORMATICA a.a. 2015/16
Logica per la Programmazione Corso di Laurea in INFORMATICA a.a. 2015/16 Andrea Corradini e Francesca Levi Dipartimento di Informatica E-mail: andrea@di.unipi.it, francesca.levi@unipi.it A. Corradini e
Logica per la Programmazione
Logica per la Programmazione Lezione 11 Linguaggio di Programmazione Imperativo: Sintassi e Semantica Concetto di Tripla di Hoare Soddisfatta pag. 1 Introduzione Dall inizio del corso ad ora abbiamo introdotto,
Teoria dei Fenomeni Aleatori AA 2012/13
Introduzione alla Statistica Nella statistica, anziché predire la probabilità che si verifichino gli eventi di interesse (cioè passare dal modello alla realtà), si osserva un fenomeno se ne estraggono
Intelligenza Artificiale I
Intelligenza Artificiale I Logica formale Calcolo simbolico Marco Piastra Logica formale - Calcolo simbolico - 1 Calcolo simbolico? Una fbf è conseguenza logica di un insieme di fbf sse qualsiasi modello
1 Richiami di logica matematica
Geometria e Topologia I 2006-mar-05 1 1 Richiami di logica matematica Definire cos è un enunciato, una proposizione (elemento primitivo della logica delle proposizioni). La definizione è data in termini
Logica. Claudio Sacerdoti Coen 07/10/ : Connotazione, denotazione, invarianza per sostituzione. Universitá di Bologna
Logica 3: Connotazione, denotazione, invarianza per sostituzione Universitá di Bologna 07/10/2015 Outline 1 Connotazione, denotazione, invarianza per sostituzione Connotazione vs
Sicurezza di un Cifrario (C. Shannon)
La teoria di Shannon segretezza perfetta sicurezza computazionale Sicurezza di un Cifrario (C. Shannon) SEGRETEZZA PERFETTA Un Cifrario è detto perfetto, o assolutamente sicuro, se, dopo aver intercettatto
La Teoria (epistemica) della conferma bayesiana
La Teoria (epistemica) della conferma bayesiana Introduzione La teoria della probabilità fornisce alcuni strumenti potenti anche in senso epistemico, per valutare argomentazioni e decisioni in cui sono
Il Test di Ipotesi Lezione 5
Last updated May 23, 2016 Il Test di Ipotesi Lezione 5 G. Bacaro Statistica CdL in Scienze e Tecnologie per l'ambiente e la Natura I anno, II semestre Il test di ipotesi Cuore della statistica inferenziale!
Variabili aleatorie continue
Variabili aleatorie continue Per descrivere la distribuzione di una variabile aleatoria continua, non si può più assegnare una probabilità positiva ad ogni valore possibile. Si assume allora di poter specificare
CALCOLO PROPOSIZIONALE. Corso di Logica per la Programmazione Andrea Corradini
CALCOLO PROPOSIZIONALE Corso di Logica per la Programmazione Andrea Corradini andrea@di.unipi.it UN PROBLEMA DI DEDUZIONE LOGICA (da un test d ingresso) Tre amici, Antonio, Bruno e Corrado, sono incerti
Corso di Laurea in Informatica Applicata Esame di Calcolo delle Probabilità e Statistica Prova scritta dell 11 gennaio 2007
Corso di Laurea in Informatica Applicata Esame di Calcolo delle Probabilità e Statistica Prova scritta dell 11 gennaio 007 Primo esercizio Per una certa stampante S 1, la probabilità che un generico foglio
o Si sceglie il modello che meglio si adatta alla realtà osservata, cioè quello per il quale risulta più probabile la realtà osservata.
Introduzione alla Statistica Nella statistica, anziché predire la probabilità che si verifichino gli eventi di interesse (cioè passare dal modello alla realtà), si osserva un fenomeno se ne estraggono
RELAZIONI TRA SINTASSI E SEMANTICA
RELAZIONI TRA SINTASSI E SEMANTICA INTERPRETAZIONI E MODELLI Sia un insieme di enunciati dichiarativi (asserzioni che hanno valore T o F) Una intepretazione assegna un significato ad ogni componente degli
CALCOLO PROPOSIZIONALE: CENNI
CALCOLO PROPOSIZIONALE: CENNI Francesca Levi Dipartimento di Informatica February 26, 2016 F.Levi Dip.to Informatica Informatica per le Scienze Umane a.a. 15/16 pag. 1 La Logica La logica è la disciplina
Distribuzione Gaussiana - Facciamo un riassunto -
Distribuzione Gaussiana - Facciamo un riassunto - Nell ipotesi che i dati si distribuiscano seguendo una curva Gaussiana è possibile dare un carattere predittivo alla deviazione standard La prossima misura
Fondamenti di Informatica 2, Linguaggi e Complessità : Logica I Parte Lucidi di M.Schaerf e A.Marchetti Spaccamela
Fondamenti di Informatica 2 Linguaggi e Complessità :LogicaIParte Lucidi di M.Schaerf e A.Marchetti Spaccamela Fondamenti di Informatica 2: Logica } Indice degli argomenti Introduzione: Motivazioni, Prove,
Fasi di creazione di un programma
Fasi di creazione di un programma 1. Studio Preliminare 2. Analisi del Sistema 6. Manutenzione e Test 3. Progettazione 5. Implementazione 4. Sviluppo Sviluppo di programmi Per la costruzione di un programma
Logica per la Programmazione
Logica per la Programmazione Lezione 7 Semantica della Logica del Primo Ordine Interpretazioni (richiamo) Un esempio informale di semantica Semantica dei termini Semantica delle formule Esempi A. Corradini
Modelli probabilistici variabili casuali
Modelli probabilistici variabili casuali Le variabili casuali costituiscono il legame tra il calcolo della probabilità e gli strumenti di statistica descrittiva visti fino ad ora. Idea: pensiamo al ripetersi
Esercitazioni di Statistica Matematica A Lezione 7. Variabili aleatorie continue
Esercitazioni di Statistica Matematica A Lezione 7 Variabili aleatorie continue.) Determinare la costante k R tale per cui le seguenti funzioni siano funzioni di densità. Determinare poi la media e la
RELAZIONI TRA SINTASSI E SEMANTICA
RELAZIONI TRA SINTASSI E SEMANTICA INTERPRETAZIONI E MODELLI Sia Γ un insieme di enunciati dichiarativi (asserzioni che hanno valore T o F) Una intepretazione assegna un significato ad ogni componente
Variabili casuali. - di Massimo Cristallo -
Università degli Studi di Basilicata Facoltà di Economia Corso di Laurea in Economia Aziendale - a.a. 2012/2013 lezioni di statistica del 16 e 27 maggio 2013 - di Massimo Cristallo - Variabili casuali
Logica per la Programmazione
Logica del Primo Ordine: Motivazioni, Sintassi e Interpretazioni Logica per la Programmazione Lezione 7 Semantica della Logica del Primo Ordine pag. 1 Esempio di Semantica: Alfabeto e Interpretazioni Consideriamo
Classificazione Bayesiana
Classificazione Bayesiana Selezionare, dato un certo pattern x, la classe ci che ha, a posteriori, la massima probabilità rispetto al pattern: P(C=c i x)>p(c=c j x) j i Teorema di Bayes (TDB): P(A B) =
Test d ipotesi Introduzione. Alessandra Nardi
Test d ipotesi Introduzione Alessandra Nardi alenardi@mat.uniroma2.it 1 Consideriamo il caso in cui la nostra variabile risposta sia continua Immaginiamo che obiettivo del nostro studio sia valutare il
Franco Ferraris Marco Parvis Generalità sulle Misure di Grandezze Fisiche. Prof. Franco Ferraris - Politecnico di Torino
Generalità sulle Misure di Grandezze Fisiche Prof. - Politecnico di Torino - La stima delle incertezze nel procedimento di misurazione -modello deterministico -modello probabilistico - La compatibilità
TEORIA DELL INFORMAZIONE ED ENTROPIA FEDERICO MARINI
TEORIA DELL INFORMAZIONE ED ENTROPIA DI FEDERICO MARINI 1 OBIETTIVO DELLA TEORIA DELL INFORMAZIONE Dato un messaggio prodotto da una sorgente, l OBIETTIVO è capire come si deve rappresentare tale messaggio
un elemento scelto a caso dello spazio degli esiti di un fenomeno aleatorio;
TEST DI AUTOVALUTAZIONE - SETTIMANA 3 I diritti d autore sono riservati. Ogni sfruttamento commerciale non autorizzato sarà perseguito. Metodi statistici per la biologia 1 Parte A 1.1 Una variabile casuale
Prerequisiti Matematici
Prerequisiti Matematici Richiami di teoria degli insiemi Relazioni d ordine, d equivalenza Richiami di logica Logica proposizionale, tabelle di verità, calcolo dei predicati Importante: Principio di Induzione
Introduzione all inferenza statistica
Introduzione all inferenza statistica Carla Rampichini Dipartimento di Statistica Giuseppe Parenti - Firenze - Italia carla@ds.unifi.it - www.ds.unifi.it/rampi/ Dottorato in METODOLOGIA DELLE SCIENZE SOCIALI,
Università di Pavia Econometria. Richiami di Statistica. Eduardo Rossi
Università di Pavia Econometria Richiami di Statistica Eduardo Rossi Università di Pavia Campione casuale Siano (Y 1, Y 2,..., Y N ) variabili casuali tali che le y i siano realizzazioni mutuamente indipendenti
CP210 Introduzione alla Probabilità: Esonero 2
Dipartimento di Matematica, Roma Tre Pietro Caputo 218-19, II semestre 4 giugno, 219 CP21 Introduzione alla Probabilità: Esonero 2 Cognome Nome Matricola Firma Nota: 1. L unica cosa che si può usare durante
Trattamento dell'incertezza in sistemi basati sulla conoscenza: problemi, soluzioni e applicazioni
Trattamento dell'incertezza in sistemi basati sulla conoscenza: problemi, soluzioni e applicazioni Andrea Bonarini Politecnico di Milano Dipartimento di Elettronica e Informazione Artificial Intelligence
Introduzione al calcolo delle probabilità - II
Introduzione al calcolo delle probabilità - II Alberto Borghese Università degli Studi di Milano Laboratory of Applied Intelligent Systems (AIS-Lab) Dipartimento di Informatica borghese@di.unimi.it 1/25
Capitolo 1. Elementi di Statistica Descrittiva. 1.5 Esercizi proposti
Capitolo 1 Elementi di Statistica Descrittiva 1.5 Esercizi proposti Esercizio 1.5.1 In questo caso n = 24 e, dopo aver ordinato i dati (usando il metodo stem-and-leaf per esempio), 3 4 4 5 5 5 6 6 7 7
Sistemi Intelligenti Introduzione al calcolo delle probabilità - I
Sistemi Intelligenti Introduzione al calcolo delle probabilità - I Alberto Borghese Università degli Studi di Milano Laboratory of Applied Intelligent Systems (AIS-Lab) Dipartimento di Informatica borghese@di.unimi.it