Riconoscimento e recupero dell informazione per bioinformatica
|
|
- Battistina Lombardi
- 5 anni fa
- Visualizzazioni
Transcript
1 Riconoscimento e recupero dell informazione per bioinformatica Classificazione Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona
2 Sistema di classificazione spigola y i etichette lunghezza orata x 1,y 1 x 2,y 2... x N,y N Insieme di addestramento Addestramento: modellare (separare) le due classi Feature space altezza 2
3 Sistema di classificazione oggetto sconosciuto categoria: spigola feature extraction lunghezza x 1 = [3, 12] dati pre-processati testing Modelli Altezza 3
4 Sistema di classificazione Il fuoco è sul sistema di decisione: un sistema che ci permette di dire, dato un oggetto in ingresso, a quale classe l oggetto appartiene un sistema che classifica l oggetto: un classificatore Dato un oggetto x, un classificatore è una funzione f che ritorna un valore y discreto (una delle possibili categorie/classi) y=f x Differente dalla regressione (y continuo) 4
5 Sistema di classificazione Goal: stimare la funzione f Requisito: si vuole trovare una funzione f che sbagli il meno possibile (ridurre gli errori che può fare un sistema di decisione) nel senso dell errore di generalizzazione Errore: un oggetto appartiene alla classe 1 e viene classificato come appartenente alla classe 2 5
6 Sistema di classificazione Teorie della decisione: come costruire il classificatore Ce ne sono diverse, caratterizzate da: come vengono espresse/caratterizzate le entità in gioco come viene determinata la regola di decisione come possono essere interpretate le soluzioni Esempi: Teoria di Bayes: approccio probabilistico Statistical Learning Theory: approccio geometrico Non c è una chiara separazione tra le teorie 6
7 Teoria della decisione di Bayes
8 La teoria della decisione di Bayes Rev. Thomas Bayes, F.R.S ( ) 8
9 Introduzione Approccio probabilistico di classificazione di pattern Molto utilizzato Molti i risultati teorici dimostrati Ipotesi: Il problema di decisione è posto in termini probabilistici; Tutte le probabilità rilevanti sono conosciute; Goal: Discriminare tra le diverse classi (determinare le regole di decisione) usando tali probabilità 9
10 Introduzione DEFINIZIONE: Sia ω la categoria o la classe ( lo stato di natura ) da descrivere probabilisticamente; ω assume un valore diverso per ogni classe ω=ω1 --> prima classe, ω=ω2 --> seconda classe, ω=ω3 --> terza classe... La regola di classificazione (o regola di decisione) mi permette di rispondere alla seguente domanda: Dato un oggetto x, lo assegno a ω1, a ω2 oppure a ω3? In altre parole: A quale classe deve essere assegnato? 10
11 Introduzione Teoria della decisione di Bayes: il problema di decisione è posto in termini probabilistici Ci sono diverse probabilità che si possono utilizzare per costruire la regola di decisione Ognuna porta ad una regola di decisione diversa In particolare: Probabilità a priori: regola della probabilità a priori Probabilità condizionale: regola Maximum Likelihood Probabilità a posteriori: regola di Bayes Vediamole con un esempio...
12 Esempio ESEMPIO guida: Discriminare tra un calciatore professionista e il resto del mondo sulla base dello stipendio x = stipendio (pattern da classificare) ω1 = calciatore professionista (classe 1) ω2 = resto del mondo (classe 2) 12
13 Probabilità a priori Prima possibilità: utilizzare solo l'eventuale informazione a priori che si ha sul problema: la probabilità che una persona sia un calciatore professionista è molto bassa (1%) Regola di decisione: Data una persona x da classificare: sapendo che il 99% delle persone sono non calciatori, la classifico come non calciatore Viene utilizzata la Probabilità a PRIORI 13
14 Probabilità a priori Probabilità a priori: probabilità P(ω): rappresenta la probabilità dello stato nota a priori (senza aver osservato nulla del sistema) Probabilità derivanti da conoscenze esterne Esempio calciatore: P(ω= ω1) = 0.01, P(ω= ω2) = 0.99 Regola di decisione della Probabilità a PRIORI: decidi ω1 se P(ω1) > P(ω2); altrimenti decidi ω2 Ovviamente è un sistema limitato: Non tiene minimamente conto delle osservazioni (indipendente da x) Esempio calciatore: Ogni pattern x (stipendio) è sempre classificato come resto del mondo 14
15 Probabilità condizionale Seconda possibilità: utilizzare dei modelli per gli stipendi delle persone all'interno delle due classi E' presente un training set con cui si costruisce un modello per gli stipendi dei calciatori Si ripete la stessa operazione sugli stipendi dei non calciatori Regola di decisione: Data una persona da classificare: se il suo stipendio x è spiegato meglio dal modello della classe non calciatore allora lo assegno alla classe non calciatore, altrimenti il contrario Modello per x in una classe PROBABILITA' CONDIZIONALE 15
16 Probabilità condizionale sia x una misurazione del sistema x è una variabile aleatoria dipendente da ωj La probabilità condizionale (o likelihood) è definita come P(x ωj) misura la probabilità di avere la misurazione x sapendo che lo stato di natura (la classe) è ωj 16
17 Regola basata sulla probabilità condizionale La regola si basa sulla seguente osservazione ragionevole: fissata la misurazione x, più è alta p(x ωj) più è probabile che ωj sia la classe giusta Regola di decisione (maximum likelihood): dato x, decidi ω1 se p(x ω1) > p(x ω2), ω2 altrimenti Migliore della regola basata sulla probabilità a priori perché qui si considera l'osservazione 17
18 E' vero che è sicuramente migliore della regola della probabilità a priori MA si basa solo sull'osservazione!! Esempio calciatore: non si tiene in conto del fatto che pochissime persone sono calciatori professionisti SOLUZIONE: Regola di Bayes: utilizza la probabilità a posteriori, che mette assieme probabilità a priori e probabilità condizionale
19 Regola di decisione di Bayes IDEA: Prendere la decisione su una persona tenendo conto sia del fatto che ci sono pochi calciatori (probabilità a priori) sia guardando quanto il suo stipendio x è spiegato dal modello delle classi (probabilità condizionale) Si utilizza la PROBABILITA' A POSTERIORI Probabilità che mette assieme probabilità a priori e probabilità condizionale
20 La probabilità a posteriori si ricava dalle probabilità precedenti attraverso il teorema di bayes: Teorema di Bayes: Probabilità a posteriori Probabilità condizionale Probabilità a piori Evidenza: fattore di scala che garantisce che
21 Regola di decisione di Bayes P ω j x = p x ω j P ω j p x posterior= likelihood prior evidence Regola di decisione di Bayes: dato x, decidi ω1 se p(ω1 x) > p(ω2 x), ω2 altrimenti NOTA IMPORTANTE: Si può dimostrare che la regola di decisione di Bayes minimizza la probabilità di errore 21
22 Regola di decisione di Bayes Regola di decisione equivalente: l evidenza rappresenta un fattore di scala che descrive quanto frequentemente si osserva un pattern x non dipende da ω1 o da ω2, quindi è ininfluente per la regola di decisione regola di decisione equivalente: Regola di decisione di Bayes (versione 2): Decidi ω1 se p(x ω1)p(ω1)> p(x ω2)p(ω2), ω2 altrimenti 22
23 In pratica? Problema principale: le probabilità non sono note, come si fa a costruire il classificatore? Soluzione: apprendimento da esempi Si utilizza un training set per effettuare una stima delle probabilità Date le probabilità si può fare classificazione con la regola di Bayes 23
24 Stima delle probabilità Diversi approcci: Stime parametriche: si conosce la forma della pdf, se ne vogliono stimare i parametri esempio gaussiana, stimo la media Stime non parametriche: non si assume nota la forma, la pdf è stimata direttamente dai dati esempio istogramma Stime semi-parametriche: ibrido tra le due i parametri possono cambiare la forma della funzione esempio Neural Networks
25 Estensione della teoria di decisione di Bayes Regola base Regola di decisione di Bayes: dato x, decidi ω1 se p(ω1 x) > p(ω2 x), ω2 altrimenti Può essere estesa a diversi casi...
26 Estensione della teoria di decisione di Bayes Caso 1: Il pattern è composto da più features Le probabilità sono definite su spazi multidimensionali Esempio: due features, gaussiana con media a 2 dimensioni
27 Estensione della teoria di decisione di Bayes Caso 2: Ci sono più di due classi Per ogni classe si può calcolare la probabilità a posteriori P ω j x = p x ω j P ω j p x La regola di decisione non cambia e dice di assegnare un oggetto alla classe la cui probabilità a posteriori è massima class x =arg max j P ω j x
28 Estensione della teoria di decisione di Bayes Caso 3: Si può anche rigettare la classificazione Un pattern x non viene classificato (non c'è abbastanza confidenza nella risposta) Chow's rule: rigettare una classificazione se max j P ω j x T ovviamente la scelta di T è cruciale
29 Approcci alla classificazione
30 Funzioni discriminanti e superfici di separazione Per rappresentare un classificatore spesso si utilizza un insieme di funzioni discriminanti g i (x), i=1...c Il classificatore assegna l'oggetto x alla classe i se g i (x) > g j (x) per ogni j i Questo insieme di funzioni suddivide lo spazio delle features in Regioni, separate tra di loro da Confini di decisione (decision boundaries) 30
31 Regione R 1 (tutti i punti che verrebbero classificati come appartenenti alla classe 1) Punti x per cui g 1 (x) > g 2 (x) Regione R 2 (tutti i punti che verrebbero classificati come appartenenti alla classe 2) punti x per cui g 2 (x) > g 1 (x) Confine di decisione Punti x per cui g 1 (x) = g 2 (x)
32 Funzioni discriminanti e superfici di separazione Un classificatore che utilizza la regola di decisione di Bayes si presta facilmente a questa rappresentazione: g j (x)= P(ω j x )= p( x ω j ) P(ω j ) p ( x) Assegnare x alla classe la cui g(x) è massima equivale ad assegnare x alla classe la cui posterior è massima (REGOLA DI DECISIONE DI BAYES) 32
33 Funzioni discriminanti e superfici di separazione Nota: le posterior non sono note, occorre stimarle!! Per stimare le posterior si possono o non si possono utilizzare la likelihood e il prior Approcci: Approcci generativi: si calcolano likelihood e prior Approcci discriminativi: si calcola direttamente le posterior Nota: si potrebbe anche evitare di calcolare direttamente le posterior, stimando direttamente il confine di decisione!! 33
34 Funzioni discriminanti e superfici di separazione Esempio: nel caso a due categorie ho due funzioni discriminanti, g1(x),g2(x) per cui assegno x a 1 se g1(x) > g2(x) Posso anche definire una sola funzione discriminante g(x) = g1(x)-g2(x), e classificare quando g(x) > 0 (g1(x)-g2(x)>0, o g1(x)>g2(x)) L obiettivo diventa quindi quello di stimare direttamente g(x), la funzione che mi permette di separare le due classi Posso cioè stimare direttamente il confine di decisione!
35 Approcci alla classificazione RIASSUNTO: Per la classificazione, la regola che minimizza la probabilità di errore è quella di Bayes (assegnare un oggetto alla classe la cui posterior è maggiore) La regola utilizza le posterior (che non sono note) Per stimare le posterior si possono o non si possono utilizzare la likelihood e il prior Approcci: Approcci generativi: si calcolano likelihood e prior Approcci discriminativi: si calcola direttamente le posterior e il corrispondente confine di decisione si può anche stimare direttamente il confine di decisione 35
36 Approcci alla classificazione Generativi: un modello per ogni classe Discriminativi: modellano direttamente il confine y=argmax y P y x y=sign w x b 36
37 Approcci alla classificazione Gli approcci discriminativi mirano a risolvere direttamente il problema di classificazione (quindi spesso sono più efficaci) Gli approcci generativi mirano a modellare tutte le classi del problema (quindi spesso sono più descrittivi) 37
38 Approcci generativi 38
39 Parentesi: la densità normale
40 La densità normale Una delle più importanti densità è la densità normale o Gaussiana multivariata; infatti: è analiticamente trattabile; più importante, fornisce la migliore modellazione di problemi sia teorici che pratici il teorema del Limite Centrale asserisce che sotto varie condizioni, la distribuzione della somma di d variabili aleatorie indipendenti tende ad un limite particolare conosciuto come distribuzione normale. 40
41 La densità normale univariata Completamente specificata da due parametri, media μ e varianza σ 2, si indica con N(μ, σ 2 ) e si presenta nella forma p x = 1 2π σ exp { 1 2 x μ σ 2} μ=e [ x ]= xp x dx σ 2 =E [ x μ 2 ]= x μ 2 p x dx 41
42 Densità normale multivariata La generica densità normale multivariata a d dimensioni si presenta nella forma p x = 1 2π d /2 Σ exp { 1 1/2 2 x μ T Σ 1 x μ } d=1 d=2 42
43 Densità normale multivariata Parametri della densità: vettore di media a d componenti matrice d x d di covarianza, dove = determinante della matrice -1 = matrice inversa Σ= Ε[ x μ x μ t ]= x μ x μ t p x dx σ ij = Ε[ x i μ i x j μ j ] 43
44 Densità normale multivariata Caratteristiche della matrice di covarianza Simmetrica Semidefinita positiva ( 0) ii = varianza di x i ( = i 2 ) ij = covarianza tra x i e x j se x i e x j sono statisticamente indipendenti ij = 0 p(x) è il prodotto della densità univariata per x componente per componente. 44
45 Densità normale multivariata La forma della matrice di covarianza porta a diverse distribuzioni normali 1 > 2 2 > 2 45
46 Approccio generativo Si stimano le probabilità a priori e le probabilità condizionali Si combinano a formare le probabilità a posteriori Si classifica con la regola di Bayes 46
47 Stima delle probabilità Problema: le probabilità sono sconosciute, occorre stimarle dal training set! Stime parametriche: si conosce la forma della pdf, se ne vogliono stimare i parametri esempio gaussiana, stimo la media Stime non parametriche: non si assume nessuna forma per la pdf, ma viene stimata direttamente dai dati esempio istogramma 47
48 Stima parametrica Per costruire un classificatore bayesiano con stima parametrica si procede in questo modo: Si stima dal training set la probabilità a priori per ogni classe Per la probabilità condizionale: Si decide (o si stima) la forma per ogni classe (ad esempio gaussiana) Si stimano i parametri a partire dai dati di training (un insieme di parametri per ogni classe) Si usano le stime risultanti come se fossero i valori veri e si utilizza la teoria di decisione Bayesiana per costruire il classificatore 48
49 Stima dei parametri Probabilità a priori Stima della probabilità a priori: più facile Si ha a disposizione il training set: un insieme di n dati di training in cui ad ogni pattern x j è assegnata un etichetta Allora si può stimare p( i ) come P ω i = n i n dove n i è il numero di campioni con etichetta i 49
50 Stima della probabilità condizionale La stima della prob. condizionale rappresenta il vero problema!! L'obiettivo è stimare i parametri sconosciuti della funzione conosciuta p(x ωj) Per es., stimare il vettore θ j = μ j, Σ j sapendo che p x ω j N μ j, Σ j Esiste anche un caso più difficile: si vuole stimare sia la forma che i parametri della funzione sconosciuta p(x ωj) 50
51 Stima dei parametri Probabilità condizionale Il training set T può essere diviso in sottoinsiemi T 1,T 2,...,T C (uno per ogni classe) Assunzioni che si fanno T j contiene campioni generati dalla probabilità p(x j ) I campioni appartenenti al set T i non danno informazioni relative ai parametri di p(x j ) se i j. 51
52 Stima dei parametri Due approcci Essendo i diversi T j indipendenti, basta trovare la soluzione al seguente problema (da applicare poi a tutti i T j ) Dato un set di dati di training D={x 1, x 2,..., x n } (estratti indipendentemente), si vuole stimare il parametro (che determina in maniera univoca p(x )) a partire da D è un vettore che rappresenta i parametri necessari a descrivere in modo univoco p(x ) p.e., θ= μ, Σ se p x ω N μ, Σ Esistono due approcci (non vediamo I dettagli) Stima Maximum-likelihood (ML) Stima di Bayes 52
53 Stima non parametrica Problema della stima parametrica: si assume che la forma delle densità di probabilità sia nota, ma questa assunzione non può essere fatta in molti problemi di riconoscimento. In particolare, se la scelta della forma parametrica è sbagliata, la stima sarà molto povera Esempio: distribuzione multimodale che viene assunta essere Gaussiana Soluzione: metodi non parametrici: fanno poche assunzioni (nessuna) sulla forma della pdf da stimare 53
54 Stima non parametrica Idea: stimare la pdf andando ad analizzare le singole regioni dello spazio Se bisogna stimare p(x=x0), si va a considerare la regione attorno ad x0 e si effettua la stima a partire da quella regione Si può ripetere per tutti i punti dello spazio (o per tutti i punti di interesse) 54
55 Stima non parametrica 55
56 Teorema generale della stima non parametrica Obiettivo: stimare la probabilità p(x) in una regione R dati N punti campionati da p(x) Si fa in due passi: 1. Calcolare la probabilità che un punto appartenga alla regione R 2. Legare questa probabilità alla dimensione di R 56
57 PASSO 1. Sia x0 un punto generato con la probabilità p(x) Si definisce P come la probabilità che il punto x0 appartenga alla regione. Teorema: Dati N punti generati con la probabilità p(x), sia K il numero di punti che cadono in R. Allora K/N è uno stimatore corretto e consistente di P. il valor medio dello stimatore è proprio P ( in media si fa giusto ) Al crescere di N l'incertezza sulla stima 57 diventa 0
58 PASSO 2. Se i) p(x) è continua e ii) p(x) non varia molto all'interno della regione R, allora possiamo scrivere Dove V è il volume della regione R e x0 è un qualsiasi punto interno alla regione Mettendo assieme: 58
59 Stima non parametrica Due possibilità per determinare p(x) per ogni possibile x 1. (più intuitiva): si fissa la regione R centrata in x (in particolare si fissa il suo volume V), si calcola K dai dati e si stima p(x) più punti ci sono nel volume fissato V, più alta la probabilità Esempio: Parzen Windows 2. (meno intuitiva): si fissa K, si sceglie R in modo tale che contenga K punti attorno ad x, si determina V e si stima p(x) più grande è la regione che devo considerare per trovare K punti, più bassa è la probabilità 59
60 Il classificatore K-Nearest Neighbor Classificatore che utilizza il secondo metodo per stimare non parametricamente p(x 0 ) p x K NV si fissa K, si sceglie R in modo tale che contenga K punti attorno ad x 0, si determina V e si stima p(x 0 ) il classificatore K-Nearest Neighbor stima le probabilità condizionali con questo sistema non parametrico e applica la regola di decisione di Bayes 60
61 Il classificatore K-Nearest Neighbor Il classificatore K-NN funziona nel seguente modo: sia X un insieme di esempi etichettati (il training set, ogni punto ha la sua classe) dato un punto x 0 da classificare, si calcola l insieme U dei K punti dell insieme X più vicini ad x 0 secondo una determinata metrica Si calcola la classe C j più frequente all interno dell insieme U Si assegna x 0 a C j Nota importante: il K-nearest neighbor rappresenta un classificatore che implementa la regola di decisione di Bayes dove le probabilità a posteriori sono stimate in modo generativo (likelihood e prior) e in modo non parametrico! 61
62 K-Nearest Neighbor VANTAGGI tecnica semplice e flessibile tecnica intuitiva (assume che punti della stessa classe abbiano probabilmente caratteristiche simili, cioè una distanza bassa) tecnica che funziona anche per dati non vettoriali (basta avere una misura di distanza appropriata) ragionevolmente accurata (il confine di separazione è comunque non lineare) ci sono pochi parametri da aggiustare sono stati dimostrati molti risultati teorici su questa tecnica (asintoticità del comportamento, bounds) 62
63 Problema di classificazione difficile! Confine di decisione di 1-Nearest Neighbor 63
64 K-Nearest Neighbor SVANTAGGI Tutti i punti del training set devono essere mantenuti in memoria vengono utilizzati solo pochi punti dello spazio per prendere la decisione (solo K punti) dipendentemente dalla metrica utilizzata, occorre preprocessare lo spazio Serve una misura di distanza buona La scelta di K spesso è cruciale (K = 1 Nearest Neighbor rule) scelta tipica k N 64
65 K-Nearest Neighbor: note finali Determinazione di K troppo piccolo si hanno stime troppo rumorose troppo grande si hanno stime troppo grezze Metodo per stimare K: crossvalidation sul training set (o su un altro insieme chiamato Validation Set) si provano diversi valori e si tiene quello che funziona meglio Metodi locali: si decide guardando la regione dove si sta operando (ad esempio guardando il K che funziona meglio localmente) 65
66 K-Nearest Neighbor: note finali Condensing/Editing: metodi per ridurre la dimensionalità del training set (che deve essere mantenuto in memoria) Condensing: rimuovere dal training set tutti quei punti che non hanno effetto sul confine di decisione 66
67 K-Nearest Neighbor: note finali Editing: rimuovere dal training set tutti i punti che non vengono classificati correttamente dall algoritmo PROBLEMA DI QUESTI DUE METODI: così facendo non siamo sicuri di aver eliminano tutti gli errori (i punti eliminati potrebbero essere cruciali per la classificazione di altri punti non presenti nel training set) 67
Generazione di Numeri Casuali- Parte 2
Esercitazione con generatori di numeri casuali Seconda parte Sommario Trasformazioni di Variabili Aleatorie Trasformazione non lineare: numeri casuali di tipo Lognormale Trasformazioni affini Numeri casuali
DettagliQuantificare la variabilità dei processi ecologici
Scopo ecologia Quantificare la variabilità dei processi ecologici Comprensione dei meccanismi fondamentale per identificare gli effetti del disturbo antropico e per prevenire alterazioni su scala globale
DettagliTecniche di analisi multivariata
Tecniche di analisi multivariata Metodi che fanno riferimento ad un modello distributivo assunto per le osservazioni e alla base degli sviluppi inferenziali - tecniche collegate allo studio della dipendenza
DettagliAnalisi della varianza
1. 2. univariata ad un solo fattore tra i soggetti (between subjects) 3. univariata: disegni fattoriali 4. univariata entro i soggetti (within subjects) 5. : disegni fattoriali «misti» L analisi della
DettagliANALISI MULTIVARIATA
ANALISI MULTIVARIATA Marcella Montico Servizio di epidemiologia e biostatistica... ancora sulla relazione tra due variabili: la regressione lineare semplice VD: quantitativa VI: quantitativa Misura la
Dettaglip k q n k = p n (k) = n 12 = 1 = 12 1 12 11 10 9 1 0,1208. q = 1 2 e si ha: p 12 (8) = 12 8 4
CAPITOLO QUARTO DISTRIBUZIONE BINOMIALE (O DI BERNOULLI) Molti degli esempi che abbiamo presentato nei capitoli precedenti possono essere pensati come casi particolari di uno schema generale di prove ripetute,
DettagliEsercitazioni di statistica
Esercitazioni di statistica Misure di associazione: Indipendenza assoluta e in media Stefania Spina Universitá di Napoli Federico II stefania.spina@unina.it 22 ottobre 2014 Stefania Spina Esercitazioni
DettagliLa statistica multivariata
Cenni di Statistica Multivariata Dr Corrado Costa La statistica multivariata La statistica multivariata è quella parte della statistica in cui l'oggetto dell'analisi è per sua natura formato da almeno
DettagliStatistica inferenziale
Statistica inferenziale Popolazione e campione Molto spesso siamo interessati a trarre delle conclusioni su persone che hanno determinate caratteristiche (pazienti, atleti, bambini, gestanti, ) Osserveremo
DettagliIl Metodo Scientifico
Unita Naturali Il Metodo Scientifico La Fisica si occupa di descrivere ed interpretare i fenomeni naturali usando il metodo scientifico. Passi del metodo scientifico: Schematizzazione: modello semplificato
DettagliStatistica Inferenziale
Statistica Inferenziale Prof. Raffaella Folgieri Email: folgieri@mtcube.com aa 2009/2010 Esercizio 1 (stima puntuale) In un processo di controllo di qualità, siamo interessati al numero mensile di guasti
DettagliLa distribuzione Gaussiana
Università del Piemonte Orientale Corso di Laurea in Biotecnologie Corso di Statistica Medica La distribuzione Normale (o di Gauss) Corso di laurea in biotecnologie - Corso di Statistica Medica La distribuzione
Dettagli7 Disegni sperimentali ad un solo fattore. Giulio Vidotto Raffaele Cioffi
7 Disegni sperimentali ad un solo fattore Giulio Vidotto Raffaele Cioffi Indice: 7.1 Veri esperimenti 7.2 Fattori livelli condizioni e trattamenti 7.3 Alcuni disegni sperimentali da evitare 7.4 Elementi
DettagliStima per intervalli Nei metodi di stima puntuale è sempre presente un ^ errore θ θ dovuto al fatto che la stima di θ in genere non coincide con il parametro θ. Sorge quindi l esigenza di determinare una
DettagliComputazione per l interazione naturale: Modelli dinamici
Computazione per l interazione naturale: Modelli dinamici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2015.html
DettagliAnalisi Univariata e Multivariata dei Dati Economici Bruno Ricca (Dipartimento di studi su risorse, impresa, ambiente e metodologie quantitative)
Programma di studio AA 2008-2009 Analisi Univariata e Multivariata dei Dati Economici Bruno Ricca (Dipartimento di studi su risorse, impresa, ambiente e metodologie quantitative) Modulo unico 10 cfu corso
DettagliMetodi statistici in genetica forense terza edizione
GENETISTI FORENSI ITALIANI Metodi statistici in genetica forense terza edizione Carla Bini Federica Alessandrini Thore Egeland Oskar Hansson Bologna, 6-7 Giugno 2016 Bologna, 6-7 Giugno 2016 GENETISTI
DettagliFeature Selection per la Classificazione
1 1 Dipartimento di Informatica e Sistemistica Sapienza Università di Roma Corso di Algoritmi di Classificazione e Reti Neurali 20/11/2009, Roma Outline Feature Selection per problemi di Classificazione
DettagliMISURA DELLA DISTANZA FOCALE DI UNA LENTE CONVERGENTE
MISURA DELLA DISTANZA FOCALE DI UNA LENTE CONVERGENTE La distanza focale f di una lente convergente sottile è data dalla formula: da cui 1 f = 1 p + 1 q f = pq p + q dove p e q sono, rispettivamente, le
DettagliCome si progetta un circuito Perché simulare un circuito Cosa vuol dire simulare un circuito Il Simulatore Pspice Pacchetti che contiene Pspice
1 Come si progetta un circuito Perché simulare un circuito Cosa vuol dire simulare un circuito Il Simulatore Pspice Pacchetti che contiene Pspice Principio di funzionamento Che cosa è una NetList Fasi
DettagliSistemi Intelligenti. Riassunto
Sistemi Intelligenti Learning and Clustering Alberto Borghese and Iuri Frosio Università degli Studi di Milano Laboratorio di Sistemi Intelligenti Applicati (AIS-Lab) Dipartimento t di Scienze dell Informazione
DettagliCorso di Automazione Industriale 1. Capitolo 4
Simona Sacone - DIST Corso di Automazione Corso Industriale di 1 Automazione Industriale 1 Capitolo 4 Analisi delle prestazioni tramite l approccio simulativo Aspetti statistici della simulazione: generazione
DettagliCorso di Laurea in Ingegneria Informatica Analisi Numerica
Corso di Laurea in Ingegneria Informatica Lucio Demeio Dipartimento di Scienze Matematiche 1 2 Analisi degli errori Informazioni generali Libro di testo: J. D. Faires, R. Burden, Numerical Analysis, Brooks/Cole,
DettagliEsercizi riassuntivi di probabilità
Esercizi riassuntivi di probabilità Esercizio 1 Una ditta produttrice di fotocopiatrici sa che la durata di una macchina (in migliaia di copie) si distribuisce come una normale con µ = 1600 e 2 = 3600.
DettagliRichiami di teoria della probabilitá e Modelli Grafici
Modelli di computazione affettiva e comportamentale Data: 23 Aprile 2010 Richiami di teoria della probabilitá e Modelli Grafici Docente: Prof. Giuseppe Boccignone Scriba: Matteo Battistini 1 Richiami di
DettagliUNIVERSITA DEGLI STUDI DI PADOVA DIPARTIMENTO DI INGEGNERIA IDRAULICA, MARITTIMA E GEOTECNICA
UNIVERSITA DEGLI STUDI DI PADOVA DIPARTIMENTO DI INGEGNERIA IDRAULICA, MARITTIMA E GEOTECNICA CORSO DI COSTRUZIONI IDRAULICHE A.A. 00-0 PROF. LUIGI DA DEPPO ING. NADIA URSINO ESERCITAZIONE N : Progetto
DettagliSTATISTICA GIUSEPPE DE NICOLAO. Dipartimento di Informatica e Sistemistica Università di Pavia
STATISTICA GIUSEPPE DE NICOLAO Dipartimento di Informatica e Sistemistica Università di Pavia SOMMARIO V.C. vettoriali Media e varianza campionarie Proprietà degli stimatori Intervalli di confidenza Statistica
DettagliPrincipal. component analysis. Dai volti agli spettri di galassie
Principal component analysis Dai volti agli spettri di galassie SCOPO: PCA for beginners Ridurre il numero di variabili all interno di una collezione di oggetti per descriverli piu facilmente, sulla base
DettagliITCS Erasmo da Rotterdam. Anno Scolastico 2014/2015. CLASSE 4^ M Costruzioni, ambiente e territorio
ITCS Erasmo da Rotterdam Anno Scolastico 014/015 CLASSE 4^ M Costruzioni, ambiente e territorio INDICAZIONI PER IL LAVORO ESTIVO DI MATEMATICA e COMPLEMENTI di MATEMATICA GLI STUDENTI CON IL DEBITO FORMATIVO
DettagliRicerca di outlier. Ricerca di Anomalie/Outlier
Ricerca di outlier Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Ricerca di Anomalie/Outlier Cosa sono gli outlier? L insieme di dati che sono considerevolmente differenti dalla
DettagliInformatica Grafica. Un introduzione
Informatica Grafica Un introduzione Rappresentare la Geometria Operabile da metodi di calcolo automatici Grafica Vettoriale Partiamo dalla rappresentazione di un punto... Spazi Vettoriale SPAZI VETTORIALI
DettagliAnalisi discriminante
Capitolo 6 Analisi discriminante L analisi statistica multivariata comprende un corpo di metodologie statistiche che permettono di analizzare simultaneamente misurazioni riguardanti diverse caratteristiche
DettagliCIRCUITI INTELLIGENTI Parte 5: PCA e ICA
Ing. Simone SCARDAPANE Circuiti e Algoritmi per l Elaborazione dei Segnali Anno Accademico 2012/2013 Indice della Lezione 1. Analisi delle Componenti Principali 2. Auto-Associatori 3. Analisi delle Componenti
DettagliIl campionamento statistico. prof. C.Guida
Il campionamento statistico prof. C.Guida Per determinare le caratteristiche fondamentali di una popolazione statistica non è sempre necessario analizzare tutta la popolazione, ma risulta sufficiente esaminare
DettagliVARIABILI ALEATORIE CONTINUE
VARIABILI ALEATORIE CONTINUE Se X è una variabile aleatoria continua, la probabilità che X assuma un certo valore x fissato è in generale zero, quindi non ha senso definire una distribuzione di probabilità
DettagliMatematica con il foglio di calcolo
Matematica con il foglio di calcolo Sottotitolo: Classe: V primaria Argomento: Numeri e operazioni Autore: Guido Gottardi, Alberto Battaini Introduzione: l uso del foglio di calcolo offre l opportunità
DettagliIndice Aspetti generali sul campionamento da popolazioni finite Campionamento probabilistico Disegno campionario semplice
Indice 1 Aspetti generali sul campionamento da popolazioni finite.. 1 1.1 Rilevazionicensuarieerilevazionicampionarie... 1 1.2 Lineemetodologichediunarilevazionestatistica... 3 1.3 Popolazioni, etichette,
DettagliInferenza statistica
Inferenza statistica Si tratta di un complesso di tecniche, basate sulla teoria della probabilità, che consentono di verificare se sia o no possibile trasferire i risultati ottenuti per un campione ad
Dettaglidifferiticerti.notebook November 25, 2010 nov 6 17.29 nov 6 17.36 nov 6 18.55 Problemi con effetti differiti
Problemi con effetti differiti sono quelli per i quali tra il momento di sostentamento dei costi ed il momento di realizzo dei ricavi intercorre un certo lasso di tempo. Nei casi in cui il vantaggio è
DettagliCarta di credito standard. Carta di credito business. Esercitazione 12 maggio 2016
Esercitazione 12 maggio 2016 ESERCIZIO 1 Si supponga che in un sondaggio di opinione su un campione di clienti, che utilizzano una carta di credito di tipo standard (Std) o di tipo business (Bsn), si siano
DettagliEsercizi del Corso di Statistica. Parte I - Variabili Aleatorie Continue
Esercizi del Corso di Statistica Parte I - Variabili Aleatorie Continue 1. Costruire la variabile uniforme U sull intervallo [a, b], con a IR e b IR. 2. Sia X una variabile aleatoria tale che: 0 x < 1
DettagliTecniche di riconoscimento statistico
On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 1 - Introduzione generale Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr
DettagliMatematica II: Calcolo delle Probabilità e Statistica Matematica
Matematica II: Calcolo delle Probabilità e Statistica Matematica ELT A-Z Docente: dott. F. Zucca Esercitazione # Esercizi Statistica Descrittiva Esercizio I gruppi sanguigni di persone sono B, B, AB, O,
DettagliNormalizzazione. Definizione
Normalizzazione Definizione Le forme normali 2 Una forma normale è una proprietà di una base di dati relazionale che ne garantisce la qualità, cioè l'assenza di determinati difetti Quando una relazione
DettagliStatistica. Esercitazione 16. Alfonso Iodice D Enza iodicede@unicas.it. Università degli studi di Cassino. Statistica. A. Iodice
Esercitazione 16 Alfonso Iodice D Enza iodicede@unicas.it Università degli studi di Cassino () 1 / 24 Studio della relazione tra due variabili Commonly Asked Questions Qual è la relazione tra la spesa
DettagliClub Alpino Italiano. Commissione Lombarda Materiali e Tecniche
Club Alpino Italiano Commissione Lombarda Materiali e Tecniche L ASSICURAZIONE IN PARETE: L IMPORTANZA DELL ALTEZZA DELLA PRIMA PROTEZIONE E DI UNA CORRETTA ASSICURAZIONE PER RIDURRE I RISCHI DI IMPATTO
DettagliCORSO DI STATISTICA (parte 1) - ESERCITAZIONE 5
CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 5 Dott.ssa Antonella Costanzo a.costanzo@unicas.it Esercizio 1. Misura dell associazione tra due caratteri Uno store manager è interessato a studiare la relazione
Dettagli1.5. ISTOGRAMMA 17. Figura 1.3: Istogramma ottenuto mediante campionamento da VA Gaussiana (η x =0, σ 2 X =1).
.5. ISTOGRAMMA 7.5 Istogramma A partire dalle considerazioni svolte nel paragrafo precedente, posto x m = min(x,,x N e x M = max(x,,x N, possiamo ottenere una stima della densità di probabilità p (x suddividendo
DettagliElementi di Calcolo delle Probabilità e Statistica per il corso di Analisi Matematica B
Elementi di Calcolo delle Probabilità e Statistica per il corso di Analisi Matematica B Laurea in Ingegneria Meccatronica A.A. 2010 2011 n-dimensionali Riepilogo. Gli esiti di un esperimento aleatorio
DettagliEsercitazioni 2013/14
Esercitazioni 2013/14 Esercizio 1 Due ditte V e W partecipano ad una gara di appalto per la costruzione di un tratto di autostrada che viene assegnato a seconda del prezzo. L offerta fatta dalla ditta
DettagliCluster Analysis. La Cluster Analysis è il processo attraverso il quale vengono individuati raggruppamenti dei dati. per modellare!
La Cluster Analysis è il processo attraverso il quale vengono individuati raggruppamenti dei dati. Le tecniche di cluster analysis vengono usate per esplorare i dati e non per modellare! La cluster analysis
Dettagli2. Variabilità mediante il confronto di valori caratteristici della
2. Variabilità mediante il confronto di valori caratteristici della distribuzione Un approccio alternativo, e spesso utile, alla misura della variabilità è quello basato sul confronto di valori caratteristici
DettagliAppunti del corso di Informatica 1 (IN110 Fondamenti) 3 Modelli di calcolo
Università Roma Tre Dipartimento di Matematica e Fisica Corso di Laurea in Matematica Appunti del corso di Informatica 1 (IN110 Fondamenti) 3 Modelli di calcolo Marco Liverani (liverani@mat.uniroma3.it)
DettagliCorso di Psicometria Progredito
Corso di Psicometria Progredito 4. Esercizi di Inferenza Statistica Gianmarco Altoè Dipartimento di Psicologia Università di Cagliari, Anno Accademico 2011-2012 Esercizio 4.1 - I due esami Nella seguente
Dettagli1 Valore atteso o media
1 Valore atteso o media Definizione 1.1. Sia X una v.a., si chiama valore atteso (o media o speranza matematica) il numero, che indicheremo con E[X] o con µ X, definito come E[X] = i x i f(x i ) se X è
DettagliMATEMATICA e COMPLEMENTI di MATEMATICA
ALLEGATO N.8_b MATEMATICA e COMPLEMENTI di MATEMATICA DESTINATARI gli studenti delle classi: terze e quarte nuovo ordinamento RISULTATI DI APPRENDIMENTO DELL OBBLIGO D ISTRUZIONE, CHIAVE EUROPEA Padroneggiare
DettagliCorso di Laurea in Ingegneria Informatica Anno Accademico 2014/2015 Calcolo delle Probabilità e Statistica Matematica
Corso di Laurea in Ingegneria Informatica Anno Accademico 2014/2015 Calcolo delle Probabilità e Statistica Matematica Nome N. Matricola Ancona, 14 luglio 2015 1. Tre macchine producono gli stessi pezzi
DettagliOnline Gradient Descent
F94 Metodi statistici per l apprendimento Online Gradient Descent Docente: Nicolò Cesa-Bianchi versione 9 aprile 06 L analisi del Perceptrone ha rivelato come sia possibile ottenere dei maggioranti sul
DettagliSCUOLA PRIMARIA - MORI
ISTITUTO COMPRENSIVO DI MORI Via Giovanni XXIII, n. 64-38065 MORI Cod. Fisc. 94024510227 - Tel. 0464-918669 Fax 0464-911029 www.icmori.it e-mail: segr.ic.mori@scuole.provincia.tn.it REPUBBLICA ITALIANA
DettagliStatistiche campionarie
Statistiche campionarie Sul campione si possono calcolare le statistiche campionarie (come media campionaria, mediana campionaria, varianza campionaria,.) Le statistiche campionarie sono stimatori delle
DettagliIllustrazione 1: Telaio. Piantanida Simone 1 G Scopo dell'esperienza: Misura di grandezze vettoriali
Piantanida Simone 1 G Scopo dell'esperienza: Misura di grandezze vettoriali Materiale utilizzato: Telaio (carrucole,supporto,filo), pesi, goniometro o foglio con goniometro stampato, righello Premessa
DettagliPrimi elementi di statistica
Primi elementi di statistica a cura del gruppo di matematica del Cidi di Roma, 2005-06 La principale finalità di un lavoro statistico condotto nella scuola è, probabilmente, l esplorazione (l avvio di
DettagliDISTRIBUZIONI DI PROBABILITÀ
Metodi statistici e probabilistici per l ingegneria Corso di Laurea in Ingegneria Civile A.A. 2009-10 Facoltà di Ingegneria, Università di Padova Docente: Dott. L. Corain 1 LE PRINCIPALI DISTRIBUZIONI
DettagliCorso di Automazione Industriale 1. Capitolo 4
Simona Sacone - DIST 1 Corso di Automazione Corso Industriale di 1 Automazione Industriale 1 Capitolo 4 Analisi delle prestazioni tramite l approccio simulativo Aspetti statistici della simulazione: analisi
DettagliPSICOMETRIA. Esercitazione n.1. C.d.L. Comunicazione e Psicologia a.a. 2012/13
PSICOMETRIA Esercitazione n.1 C.d.L. Comunicazione e Psicologia a.a. 2012/13 ESERCITAZIONE 1: INDICE 1. Informazioni di carattere generale sulle esercitazioni 2. Il foglio di calcolo (Excel) 3. Avviare
DettagliCURRICOLO DI GEOGRAFIA
CURRICOLO DI GEOGRAFIA GEOGRAFIA CLASSE PRIMA COMPETENZE OBIETTIVI DI APPRENDIMENTO STANDARD DI APPRENDIMENTO ATTESI Orientarsi nello spazio e sapersi collocare rispetto ai vari punti di riferimento 1.
DettagliAPPLICAZIONI LINEARI
APPLICAZIONI LINEARI 1. Esercizi Esercizio 1. Date le seguenti applicazioni lineari (1) f : R 2 R 3 definita da f(x, y) = (x 2y, x + y, x + y); (2) g : R 3 R 2 definita da g(x, y, z) = (x + y, x y); (3)
DettagliPROBABILITÀ - SCHEDA N. 2 LE VARIABILI ALEATORIE
Matematica e statistica: dai dati ai modelli alle scelte www.dima.unige/pls_statistica Responsabili scientifici M.P. Rogantin e E. Sasso (Dipartimento di Matematica Università di Genova) PROBABILITÀ -
DettagliCorso di Calcolo Numerico
Corso di Calcolo Numerico Dottssa MC De Bonis Università degli Studi della Basilicata, Potenza Facoltà di Ingegneria Corso di Laurea in Ingegneria Meccanica Corso di Calcolo Numerico - Dottssa MC De Bonis
DettagliELEMENTI DI CALCOLO DELLE PROBABILITA
Statistica, CLEA p. 1/55 ELEMENTI DI CALCOLO DELLE PROBABILITA Premessa importante: il comportamento della popolazione rispetto una variabile casuale X viene descritto attraverso una funzione parametrica
DettagliA.1 Rappresentazione geometrica dei segnali
Appendice A Rappresentazione dei segnali A.1 Rappresentazione geometrica dei segnali Scomporre una generica forma d onda s(t) in somma di opportune funzioni base è operazione assai comune, particolarmente
DettagliIl programma OCTAVE per l insegnamento dell algebra lineare nella Scuola Secondaria p. 1
Il programma OCTAVE per l insegnamento dell algebra lineare nella Scuola Secondaria R. Vitolo Dipartimento di Matematica Università di Lecce SaLUG! - Salento Linux User Group Il programma OCTAVE per l
DettagliImpiego di classificatori nell analisi di immagini
Impiego di classificatori nell analisi di immagini Davide Devescovi 1 La classificazione Con il termine classificazione si intende una procedura statistica che permette di associare ciascun oggetto (che
DettagliSVM. Veronica Piccialli. Roma 11 gennaio 2010. Università degli Studi di Roma Tor Vergata 1 / 14
SVM Veronica Piccialli Roma 11 gennaio 2010 Università degli Studi di Roma Tor Vergata 1 / 14 SVM Le Support Vector Machines (SVM) sono una classe di macchine di che derivano da concetti riguardanti la
DettagliProbabilità e Statistica Esercitazioni. a.a. 2006/2007
Probabilità e Statistica Esercitazioni a.a. 2006/2007 C.d.L.: Ingegneria per l Ambiente ed il Territorio, Ingegneria Civile, Ingegneria Gestionale, Ingegneria dell Informazione C.d.L.S.: Ingegneria Civile
DettagliPIANO DI LAVORO ANNO SCOLASTICO 2015/2016. I.I.S.S. ''C. E. GADDA Sede di Langhirano MATERIA DI INSEGNAMENTO: ECONOMIA AZIENDALE
PIANO DI LAVORO ANNO SCOLASTICO 2015/2016 I.I.S.S. ''C. E. GADDA Sede di Langhirano MATERIA DI INSEGNAMENTO: ECONOMIA AZIENDALE PROF.SSA FAINI DANIELA CLASSE 1 B indirizzo economico AFM n alunni 23 ATTIVITA'
DettagliLaboratorio di Programmazione Lezione 1. Cristian Del Fabbro
Laboratorio di Programmazione Lezione 1 Cristian Del Fabbro Reperibilità homepage corso: https://users.dimi.uniud.it/~cristian.delfabbro/teaching.php email: cristian.delfabbro@uniud.it telefono: 0432 558676
DettagliESERCIZI DEL CORSO DI INFORMATICA
ESERCIZI DEL CORSO DI INFORMTIC Questa breve raccolta di esercizi vuole mettere in luce alcuni aspetti della prima parte del corso e fornire qualche spunto di riflessione. Il contenuto del materiale seguente
DettagliElementi Finiti: stime d errore e adattività della griglia
Elementi Finiti: stime d errore e adattività della griglia Elena Gaburro Università degli studi di Verona Master s Degree in Mathematics and Applications 05 giugno 2013 Elena Gaburro (Università di Verona)
DettagliDATA MINING PER IL MARKETING
DATA MINING PER IL MARKETING Andrea Cerioli andrea.cerioli@unipr.it Sito web del corso GLI ALBERI DI CLASSIFICAZIONE Algoritmi di classificazione Zani-Cerioli, Cap. XI CHAID: Chi-square Automatic Interaction
DettagliEsercitazione n o 3 per il corso di Ricerca Operativa
Esercitazione n o 3 per il corso di Ricerca Operativa Ultimo aggiornamento October 17, 2011 Fornitura acqua Una città deve essere rifornita, ogni giorno, con 500 000 litri di acqua. Si richiede che l acqua
DettagliInformatica Teorica. Macchine a registri
Informatica Teorica Macchine a registri 1 Macchine a registri RAM (Random Access Machine) astrazione ragionevole di un calcolatore nastro di ingresso nastro di uscita unità centrale in grado di eseguire
DettagliCorso integrato di informatica, statistica e analisi dei dati sperimentali Altri esercizi_esercitazione V
Corso integrato di informatica, statistica e analisi dei dati sperimentali Altri esercizi_esercitazione V Sui PC a disposizione sono istallati diversi sistemi operativi. All accensione scegliere Windows.
DettagliTECNICHE DI CONTROLLO
TECNICHE DI CONTROLLO Richiami di Teoria dei Sistemi Dott. Ing. SIMANI SILVIO con supporto del Dott. Ing. BONFE MARCELLO Sistemi e Modelli Concetto di Sistema Sistema: insieme, artificialmente isolato
DettagliDISTRIBUZIONI DI VARIABILI CASUALI DISCRETE
DISTRIBUZIONI DI VARIABILI CASUALI DISCRETE variabile casuale (rv): regola che associa un numero ad ogni evento di uno spazio E. variabile casuale di Bernoulli: rv che può assumere solo due valori (e.g.,
DettagliLe catene di Markov come metodologia utilizzata dai motori di ricerca per classificare le pagine web su internet.
Università degli Studi di Palermo Facoltà di Economia Dipartimento di Scienze Statistiche e Matematiche S. Vianelli Dottorato di Ricerca in Statistica e Finanza Quantitativa - XXI Ciclo Sergio Salvino
DettagliTemi di Esame a.a. 2012-2013. Statistica - CLEF
Temi di Esame a.a. 2012-2013 Statistica - CLEF I Prova Parziale di Statistica (CLEF) 11 aprile 2013 Esercizio 1 Un computer è collegato a due stampanti, A e B. La stampante A è difettosa ed il 25% dei
DettagliIntroduzione alla Teoria degli Errori
Introduzione alla Teoria degli Errori 1 Gli errori di misura sono inevitabili Una misura non ha significato se non viene accompagnata da una ragionevole stima dell errore ( Una scienza si dice esatta non
DettagliSommario. HTML e CSS I fogli di stile. cosa sono principali proprietà
HTML e CSS Sommario HTML e CSS I fogli di stile cosa sono principali proprietà CSS CSS La specifica HTML elenca le linee guida su come i browser dovrebbero visualizzare i diversi elementi del documento
DettagliVBA è un linguaggio di scripting derivato da Visual Basic, da cui prende il nome. Come ogni linguaggio ha le sue regole.
Excel VBA VBA Visual Basic for Application VBA è un linguaggio di scripting derivato da Visual Basic, da cui prende il nome. Come ogni linguaggio ha le sue regole. 2 Prima di iniziare. Che cos è una variabile?
DettagliSintesi dei pun+ principali tra0a+ nelle schede di lavoro di Geometria
Sintesi dei pun+ principali tra0a+ nelle schede di lavoro di Geometria Le schede fanno rifle0ere su aspe9 cruciali, me0endo in discussione misconcezioni che possono essere presen+ Le schede, inoltre, suggeriscono
DettagliStatistica e biometria. D. Bertacchi. Variabili aleatorie. V.a. discrete e continue. La densità di una v.a. discreta. Esempi.
Iniziamo con definizione (capiremo fra poco la sua utilità): DEFINIZIONE DI VARIABILE ALEATORIA Una variabile aleatoria (in breve v.a.) X è funzione che ha come dominio Ω e come codominio R. In formule:
DettagliAnalisi di dati di frequenza
Analisi di dati di frequenza Fase di raccolta dei dati Fase di memorizzazione dei dati in un foglio elettronico 0 1 1 1 Frequenze attese uguali Si assuma che dalle risposte al questionario sullo stato
DettagliSistemi Web per il turismo - lezione 3 -
Sistemi Web per il turismo - lezione 3 - Software Si definisce software il complesso di comandi che fanno eseguire al computer delle operazioni. Il termine si contrappone ad hardware, che invece designa
DettagliProgetto T2 IUM 2 - Anno accademico 2012/2013
1 Progetto T2 IUM 2 - Anno accademico 2012/2013 Marco Bottin 748881 Abstract Nel presente documento verrá illustrato l interfacciamento e l utilizzo dei classificatori K-NearestNeighbor e naïvebayes di
DettagliIntroduzione al Pattern Recognition Statistico
Introduzione al Pattern Recognition Statistico Roberto Tagliaferri Dipartimento di Informatica Università di Salerno ( Sa ) 84084 Fisciano e-mail robtag@unisa.it Statistical Pattern Recognition Introduzione
DettagliFSM: Macchine a Stati Finiti
FSM: Macchine a Stati Finiti Introduzione Automi di Mealy Automi di Moore Esempi Sommario Introduzione Automi di Mealy Automi di Moore Esempi Sommario Introduzione Metodo per descrivere macchine di tipo
DettagliFrancesca Pierri Dipartimento di Economia Finanza e Statistica Università degli Studi di Perugia
Francesca Pierri Dipartimento di Economia Finanza e Statistica Università degli Studi di Perugia Introduzione La ricerca accademica ha spesso evidenziato l esigenza di costruire indicatori delle performance
DettagliVERIFICA DELLE IPOTESI
VERIFICA DELLE IPOTESI Introduzione Livelli di significatività Verifica di ipotesi sulla media di una popolazione normale Verifica di ipotesi sulla varianza di una popolazione normale Verifica di ipotesi
DettagliTecniche di classificazione della statistica multivariata e dell analisi dei cluster: un tutorial
Tecniche di classificazione della statistica multivariata e dell analisi dei cluster: un tutorial Giulio Agostini 30 marzo 2000 Sommario In questa relazione, dopo aver esposto formalmente la teoria della
Dettagli