Riconoscimento e recupero dell informazione per bioinformatica

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Riconoscimento e recupero dell informazione per bioinformatica"

Transcript

1 Riconoscimento e recupero dell informazione per bioinformatica Classificazione Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona

2 Sistema di classificazione spigola y i etichette lunghezza orata x 1,y 1 x 2,y 2... x N,y N Insieme di addestramento Addestramento: modellare (separare) le due classi Feature space altezza 2

3 Sistema di classificazione oggetto sconosciuto categoria: spigola feature extraction lunghezza x 1 = [3, 12] dati pre-processati testing Modelli Altezza 3

4 Sistema di classificazione Il fuoco è sul sistema di decisione: un sistema che ci permette di dire, dato un oggetto in ingresso, a quale classe l oggetto appartiene un sistema che classifica l oggetto: un classificatore Dato un oggetto x, un classificatore è una funzione f che ritorna un valore y discreto (una delle possibili categorie/classi) y=f x Differente dalla regressione (y continuo) 4

5 Sistema di classificazione Goal: stimare la funzione f Requisito: si vuole trovare una funzione f che sbagli il meno possibile (ridurre gli errori che può fare un sistema di decisione) nel senso dell errore di generalizzazione Errore: un oggetto appartiene alla classe 1 e viene classificato come appartenente alla classe 2 5

6 Sistema di classificazione Teorie della decisione: come costruire il classificatore Ce ne sono diverse, caratterizzate da: come vengono espresse/caratterizzate le entità in gioco come viene determinata la regola di decisione come possono essere interpretate le soluzioni Esempi: Teoria di Bayes: approccio probabilistico Statistical Learning Theory: approccio geometrico Non c è una chiara separazione tra le teorie 6

7 Teoria della decisione di Bayes

8 La teoria della decisione di Bayes Rev. Thomas Bayes, F.R.S ( ) 8

9 Introduzione Approccio probabilistico di classificazione di pattern Molto utilizzato Molti i risultati teorici dimostrati Ipotesi: Il problema di decisione è posto in termini probabilistici; Tutte le probabilità rilevanti sono conosciute; Goal: Discriminare tra le diverse classi (determinare le regole di decisione) usando tali probabilità 9

10 Introduzione DEFINIZIONE: Sia ω la categoria o la classe ( lo stato di natura ) da descrivere probabilisticamente; ω assume un valore diverso per ogni classe ω=ω1 --> prima classe, ω=ω2 --> seconda classe, ω=ω3 --> terza classe... La regola di classificazione (o regola di decisione) mi permette di rispondere alla seguente domanda: Dato un oggetto x, lo assegno a ω1, a ω2 oppure a ω3? In altre parole: A quale classe deve essere assegnato? 10

11 Introduzione Teoria della decisione di Bayes: il problema di decisione è posto in termini probabilistici Ci sono diverse probabilità che si possono utilizzare per costruire la regola di decisione Ognuna porta ad una regola di decisione diversa In particolare: Probabilità a priori: regola della probabilità a priori Probabilità condizionale: regola Maximum Likelihood Probabilità a posteriori: regola di Bayes Vediamole con un esempio...

12 Esempio ESEMPIO guida: Discriminare tra un calciatore professionista e il resto del mondo sulla base dello stipendio x = stipendio (pattern da classificare) ω1 = calciatore professionista (classe 1) ω2 = resto del mondo (classe 2) 12

13 Probabilità a priori Prima possibilità: utilizzare solo l'eventuale informazione a priori che si ha sul problema: la probabilità che una persona sia un calciatore professionista è molto bassa (1%) Regola di decisione: Data una persona x da classificare: sapendo che il 99% delle persone sono non calciatori, la classifico come non calciatore Viene utilizzata la Probabilità a PRIORI 13

14 Probabilità a priori Probabilità a priori: probabilità P(ω): rappresenta la probabilità dello stato nota a priori (senza aver osservato nulla del sistema) Probabilità derivanti da conoscenze esterne Esempio calciatore: P(ω= ω1) = 0.01, P(ω= ω2) = 0.99 Regola di decisione della Probabilità a PRIORI: decidi ω1 se P(ω1) > P(ω2); altrimenti decidi ω2 Ovviamente è un sistema limitato: Non tiene minimamente conto delle osservazioni (indipendente da x) Esempio calciatore: Ogni pattern x (stipendio) è sempre classificato come resto del mondo 14

15 Probabilità condizionale Seconda possibilità: utilizzare dei modelli per gli stipendi delle persone all'interno delle due classi E' presente un training set con cui si costruisce un modello per gli stipendi dei calciatori Si ripete la stessa operazione sugli stipendi dei non calciatori Regola di decisione: Data una persona da classificare: se il suo stipendio x è spiegato meglio dal modello della classe non calciatore allora lo assegno alla classe non calciatore, altrimenti il contrario Modello per x in una classe PROBABILITA' CONDIZIONALE 15

16 Probabilità condizionale sia x una misurazione del sistema x è una variabile aleatoria dipendente da ωj La probabilità condizionale (o likelihood) è definita come P(x ωj) misura la probabilità di avere la misurazione x sapendo che lo stato di natura (la classe) è ωj 16

17 Regola basata sulla probabilità condizionale La regola si basa sulla seguente osservazione ragionevole: fissata la misurazione x, più è alta p(x ωj) più è probabile che ωj sia la classe giusta Regola di decisione (maximum likelihood): dato x, decidi ω1 se p(x ω1) > p(x ω2), ω2 altrimenti Migliore della regola basata sulla probabilità a priori perché qui si considera l'osservazione 17

18 E' vero che è sicuramente migliore della regola della probabilità a priori MA si basa solo sull'osservazione!! Esempio calciatore: non si tiene in conto del fatto che pochissime persone sono calciatori professionisti SOLUZIONE: Regola di Bayes: utilizza la probabilità a posteriori, che mette assieme probabilità a priori e probabilità condizionale

19 Regola di decisione di Bayes IDEA: Prendere la decisione su una persona tenendo conto sia del fatto che ci sono pochi calciatori (probabilità a priori) sia guardando quanto il suo stipendio x è spiegato dal modello delle classi (probabilità condizionale) Si utilizza la PROBABILITA' A POSTERIORI Probabilità che mette assieme probabilità a priori e probabilità condizionale

20 La probabilità a posteriori si ricava dalle probabilità precedenti attraverso il teorema di bayes: Teorema di Bayes: Probabilità a posteriori Probabilità condizionale Probabilità a piori Evidenza: fattore di scala che garantisce che

21 Regola di decisione di Bayes P ω j x = p x ω j P ω j p x posterior= likelihood prior evidence Regola di decisione di Bayes: dato x, decidi ω1 se p(ω1 x) > p(ω2 x), ω2 altrimenti NOTA IMPORTANTE: Si può dimostrare che la regola di decisione di Bayes minimizza la probabilità di errore 21

22 Regola di decisione di Bayes Regola di decisione equivalente: l evidenza rappresenta un fattore di scala che descrive quanto frequentemente si osserva un pattern x non dipende da ω1 o da ω2, quindi è ininfluente per la regola di decisione regola di decisione equivalente: Regola di decisione di Bayes (versione 2): Decidi ω1 se p(x ω1)p(ω1)> p(x ω2)p(ω2), ω2 altrimenti 22

23 In pratica? Problema principale: le probabilità non sono note, come si fa a costruire il classificatore? Soluzione: apprendimento da esempi Si utilizza un training set per effettuare una stima delle probabilità Date le probabilità si può fare classificazione con la regola di Bayes 23

24 Stima delle probabilità Diversi approcci: Stime parametriche: si conosce la forma della pdf, se ne vogliono stimare i parametri esempio gaussiana, stimo la media Stime non parametriche: non si assume nota la forma, la pdf è stimata direttamente dai dati esempio istogramma Stime semi-parametriche: ibrido tra le due i parametri possono cambiare la forma della funzione esempio Neural Networks

25 Estensione della teoria di decisione di Bayes Regola base Regola di decisione di Bayes: dato x, decidi ω1 se p(ω1 x) > p(ω2 x), ω2 altrimenti Può essere estesa a diversi casi...

26 Estensione della teoria di decisione di Bayes Caso 1: Il pattern è composto da più features Le probabilità sono definite su spazi multidimensionali Esempio: due features, gaussiana con media a 2 dimensioni

27 Estensione della teoria di decisione di Bayes Caso 2: Ci sono più di due classi Per ogni classe si può calcolare la probabilità a posteriori P ω j x = p x ω j P ω j p x La regola di decisione non cambia e dice di assegnare un oggetto alla classe la cui probabilità a posteriori è massima class x =arg max j P ω j x

28 Estensione della teoria di decisione di Bayes Caso 3: Si può anche rigettare la classificazione Un pattern x non viene classificato (non c'è abbastanza confidenza nella risposta) Chow's rule: rigettare una classificazione se max j P ω j x T ovviamente la scelta di T è cruciale

29 Approcci alla classificazione

30 Funzioni discriminanti e superfici di separazione Per rappresentare un classificatore spesso si utilizza un insieme di funzioni discriminanti g i (x), i=1...c Il classificatore assegna l'oggetto x alla classe i se g i (x) > g j (x) per ogni j i Questo insieme di funzioni suddivide lo spazio delle features in Regioni, separate tra di loro da Confini di decisione (decision boundaries) 30

31 Regione R 1 (tutti i punti che verrebbero classificati come appartenenti alla classe 1) Punti x per cui g 1 (x) > g 2 (x) Regione R 2 (tutti i punti che verrebbero classificati come appartenenti alla classe 2) punti x per cui g 2 (x) > g 1 (x) Confine di decisione Punti x per cui g 1 (x) = g 2 (x)

32 Funzioni discriminanti e superfici di separazione Un classificatore che utilizza la regola di decisione di Bayes si presta facilmente a questa rappresentazione: g j (x)= P(ω j x )= p( x ω j ) P(ω j ) p ( x) Assegnare x alla classe la cui g(x) è massima equivale ad assegnare x alla classe la cui posterior è massima (REGOLA DI DECISIONE DI BAYES) 32

33 Funzioni discriminanti e superfici di separazione Nota: le posterior non sono note, occorre stimarle!! Per stimare le posterior si possono o non si possono utilizzare la likelihood e il prior Approcci: Approcci generativi: si calcolano likelihood e prior Approcci discriminativi: si calcola direttamente le posterior Nota: si potrebbe anche evitare di calcolare direttamente le posterior, stimando direttamente il confine di decisione!! 33

34 Funzioni discriminanti e superfici di separazione Esempio: nel caso a due categorie ho due funzioni discriminanti, g1(x),g2(x) per cui assegno x a 1 se g1(x) > g2(x) Posso anche definire una sola funzione discriminante g(x) = g1(x)-g2(x), e classificare quando g(x) > 0 (g1(x)-g2(x)>0, o g1(x)>g2(x)) L obiettivo diventa quindi quello di stimare direttamente g(x), la funzione che mi permette di separare le due classi Posso cioè stimare direttamente il confine di decisione!

35 Approcci alla classificazione RIASSUNTO: Per la classificazione, la regola che minimizza la probabilità di errore è quella di Bayes (assegnare un oggetto alla classe la cui posterior è maggiore) La regola utilizza le posterior (che non sono note) Per stimare le posterior si possono o non si possono utilizzare la likelihood e il prior Approcci: Approcci generativi: si calcolano likelihood e prior Approcci discriminativi: si calcola direttamente le posterior e il corrispondente confine di decisione si può anche stimare direttamente il confine di decisione 35

36 Approcci alla classificazione Generativi: un modello per ogni classe Discriminativi: modellano direttamente il confine y=argmax y P y x y=sign w x b 36

37 Approcci alla classificazione Gli approcci discriminativi mirano a risolvere direttamente il problema di classificazione (quindi spesso sono più efficaci) Gli approcci generativi mirano a modellare tutte le classi del problema (quindi spesso sono più descrittivi) 37

38 Approcci generativi 38

39 Parentesi: la densità normale

40 La densità normale Una delle più importanti densità è la densità normale o Gaussiana multivariata; infatti: è analiticamente trattabile; più importante, fornisce la migliore modellazione di problemi sia teorici che pratici il teorema del Limite Centrale asserisce che sotto varie condizioni, la distribuzione della somma di d variabili aleatorie indipendenti tende ad un limite particolare conosciuto come distribuzione normale. 40

41 La densità normale univariata Completamente specificata da due parametri, media μ e varianza σ 2, si indica con N(μ, σ 2 ) e si presenta nella forma p x = 1 2π σ exp { 1 2 x μ σ 2} μ=e [ x ]= xp x dx σ 2 =E [ x μ 2 ]= x μ 2 p x dx 41

42 Densità normale multivariata La generica densità normale multivariata a d dimensioni si presenta nella forma p x = 1 2π d /2 Σ exp { 1 1/2 2 x μ T Σ 1 x μ } d=1 d=2 42

43 Densità normale multivariata Parametri della densità: vettore di media a d componenti matrice d x d di covarianza, dove = determinante della matrice -1 = matrice inversa Σ= Ε[ x μ x μ t ]= x μ x μ t p x dx σ ij = Ε[ x i μ i x j μ j ] 43

44 Densità normale multivariata Caratteristiche della matrice di covarianza Simmetrica Semidefinita positiva ( 0) ii = varianza di x i ( = i 2 ) ij = covarianza tra x i e x j se x i e x j sono statisticamente indipendenti ij = 0 p(x) è il prodotto della densità univariata per x componente per componente. 44

45 Densità normale multivariata La forma della matrice di covarianza porta a diverse distribuzioni normali 1 > 2 2 > 2 45

46 Approccio generativo Si stimano le probabilità a priori e le probabilità condizionali Si combinano a formare le probabilità a posteriori Si classifica con la regola di Bayes 46

47 Stima delle probabilità Problema: le probabilità sono sconosciute, occorre stimarle dal training set! Stime parametriche: si conosce la forma della pdf, se ne vogliono stimare i parametri esempio gaussiana, stimo la media Stime non parametriche: non si assume nessuna forma per la pdf, ma viene stimata direttamente dai dati esempio istogramma 47

48 Stima parametrica Per costruire un classificatore bayesiano con stima parametrica si procede in questo modo: Si stima dal training set la probabilità a priori per ogni classe Per la probabilità condizionale: Si decide (o si stima) la forma per ogni classe (ad esempio gaussiana) Si stimano i parametri a partire dai dati di training (un insieme di parametri per ogni classe) Si usano le stime risultanti come se fossero i valori veri e si utilizza la teoria di decisione Bayesiana per costruire il classificatore 48

49 Stima dei parametri Probabilità a priori Stima della probabilità a priori: più facile Si ha a disposizione il training set: un insieme di n dati di training in cui ad ogni pattern x j è assegnata un etichetta Allora si può stimare p( i ) come P ω i = n i n dove n i è il numero di campioni con etichetta i 49

50 Stima della probabilità condizionale La stima della prob. condizionale rappresenta il vero problema!! L'obiettivo è stimare i parametri sconosciuti della funzione conosciuta p(x ωj) Per es., stimare il vettore θ j = μ j, Σ j sapendo che p x ω j N μ j, Σ j Esiste anche un caso più difficile: si vuole stimare sia la forma che i parametri della funzione sconosciuta p(x ωj) 50

51 Stima dei parametri Probabilità condizionale Il training set T può essere diviso in sottoinsiemi T 1,T 2,...,T C (uno per ogni classe) Assunzioni che si fanno T j contiene campioni generati dalla probabilità p(x j ) I campioni appartenenti al set T i non danno informazioni relative ai parametri di p(x j ) se i j. 51

52 Stima dei parametri Due approcci Essendo i diversi T j indipendenti, basta trovare la soluzione al seguente problema (da applicare poi a tutti i T j ) Dato un set di dati di training D={x 1, x 2,..., x n } (estratti indipendentemente), si vuole stimare il parametro (che determina in maniera univoca p(x )) a partire da D è un vettore che rappresenta i parametri necessari a descrivere in modo univoco p(x ) p.e., θ= μ, Σ se p x ω N μ, Σ Esistono due approcci (non vediamo I dettagli) Stima Maximum-likelihood (ML) Stima di Bayes 52

53 Stima non parametrica Problema della stima parametrica: si assume che la forma delle densità di probabilità sia nota, ma questa assunzione non può essere fatta in molti problemi di riconoscimento. In particolare, se la scelta della forma parametrica è sbagliata, la stima sarà molto povera Esempio: distribuzione multimodale che viene assunta essere Gaussiana Soluzione: metodi non parametrici: fanno poche assunzioni (nessuna) sulla forma della pdf da stimare 53

54 Stima non parametrica Idea: stimare la pdf andando ad analizzare le singole regioni dello spazio Se bisogna stimare p(x=x0), si va a considerare la regione attorno ad x0 e si effettua la stima a partire da quella regione Si può ripetere per tutti i punti dello spazio (o per tutti i punti di interesse) 54

55 Stima non parametrica 55

56 Teorema generale della stima non parametrica Obiettivo: stimare la probabilità p(x) in una regione R dati N punti campionati da p(x) Si fa in due passi: 1. Calcolare la probabilità che un punto appartenga alla regione R 2. Legare questa probabilità alla dimensione di R 56

57 PASSO 1. Sia x0 un punto generato con la probabilità p(x) Si definisce P come la probabilità che il punto x0 appartenga alla regione. Teorema: Dati N punti generati con la probabilità p(x), sia K il numero di punti che cadono in R. Allora K/N è uno stimatore corretto e consistente di P. il valor medio dello stimatore è proprio P ( in media si fa giusto ) Al crescere di N l'incertezza sulla stima 57 diventa 0

58 PASSO 2. Se i) p(x) è continua e ii) p(x) non varia molto all'interno della regione R, allora possiamo scrivere Dove V è il volume della regione R e x0 è un qualsiasi punto interno alla regione Mettendo assieme: 58

59 Stima non parametrica Due possibilità per determinare p(x) per ogni possibile x 1. (più intuitiva): si fissa la regione R centrata in x (in particolare si fissa il suo volume V), si calcola K dai dati e si stima p(x) più punti ci sono nel volume fissato V, più alta la probabilità Esempio: Parzen Windows 2. (meno intuitiva): si fissa K, si sceglie R in modo tale che contenga K punti attorno ad x, si determina V e si stima p(x) più grande è la regione che devo considerare per trovare K punti, più bassa è la probabilità 59

60 Il classificatore K-Nearest Neighbor Classificatore che utilizza il secondo metodo per stimare non parametricamente p(x 0 ) p x K NV si fissa K, si sceglie R in modo tale che contenga K punti attorno ad x 0, si determina V e si stima p(x 0 ) il classificatore K-Nearest Neighbor stima le probabilità condizionali con questo sistema non parametrico e applica la regola di decisione di Bayes 60

61 Il classificatore K-Nearest Neighbor Il classificatore K-NN funziona nel seguente modo: sia X un insieme di esempi etichettati (il training set, ogni punto ha la sua classe) dato un punto x 0 da classificare, si calcola l insieme U dei K punti dell insieme X più vicini ad x 0 secondo una determinata metrica Si calcola la classe C j più frequente all interno dell insieme U Si assegna x 0 a C j Nota importante: il K-nearest neighbor rappresenta un classificatore che implementa la regola di decisione di Bayes dove le probabilità a posteriori sono stimate in modo generativo (likelihood e prior) e in modo non parametrico! 61

62 K-Nearest Neighbor VANTAGGI tecnica semplice e flessibile tecnica intuitiva (assume che punti della stessa classe abbiano probabilmente caratteristiche simili, cioè una distanza bassa) tecnica che funziona anche per dati non vettoriali (basta avere una misura di distanza appropriata) ragionevolmente accurata (il confine di separazione è comunque non lineare) ci sono pochi parametri da aggiustare sono stati dimostrati molti risultati teorici su questa tecnica (asintoticità del comportamento, bounds) 62

63 Problema di classificazione difficile! Confine di decisione di 1-Nearest Neighbor 63

64 K-Nearest Neighbor SVANTAGGI Tutti i punti del training set devono essere mantenuti in memoria vengono utilizzati solo pochi punti dello spazio per prendere la decisione (solo K punti) dipendentemente dalla metrica utilizzata, occorre preprocessare lo spazio Serve una misura di distanza buona La scelta di K spesso è cruciale (K = 1 Nearest Neighbor rule) scelta tipica k N 64

65 K-Nearest Neighbor: note finali Determinazione di K troppo piccolo si hanno stime troppo rumorose troppo grande si hanno stime troppo grezze Metodo per stimare K: crossvalidation sul training set (o su un altro insieme chiamato Validation Set) si provano diversi valori e si tiene quello che funziona meglio Metodi locali: si decide guardando la regione dove si sta operando (ad esempio guardando il K che funziona meglio localmente) 65

66 K-Nearest Neighbor: note finali Condensing/Editing: metodi per ridurre la dimensionalità del training set (che deve essere mantenuto in memoria) Condensing: rimuovere dal training set tutti quei punti che non hanno effetto sul confine di decisione 66

67 K-Nearest Neighbor: note finali Editing: rimuovere dal training set tutti i punti che non vengono classificati correttamente dall algoritmo PROBLEMA DI QUESTI DUE METODI: così facendo non siamo sicuri di aver eliminano tutti gli errori (i punti eliminati potrebbero essere cruciali per la classificazione di altri punti non presenti nel training set) 67

Generazione di Numeri Casuali- Parte 2

Generazione di Numeri Casuali- Parte 2 Esercitazione con generatori di numeri casuali Seconda parte Sommario Trasformazioni di Variabili Aleatorie Trasformazione non lineare: numeri casuali di tipo Lognormale Trasformazioni affini Numeri casuali

Dettagli

Quantificare la variabilità dei processi ecologici

Quantificare la variabilità dei processi ecologici Scopo ecologia Quantificare la variabilità dei processi ecologici Comprensione dei meccanismi fondamentale per identificare gli effetti del disturbo antropico e per prevenire alterazioni su scala globale

Dettagli

Tecniche di analisi multivariata

Tecniche di analisi multivariata Tecniche di analisi multivariata Metodi che fanno riferimento ad un modello distributivo assunto per le osservazioni e alla base degli sviluppi inferenziali - tecniche collegate allo studio della dipendenza

Dettagli

Analisi della varianza

Analisi della varianza 1. 2. univariata ad un solo fattore tra i soggetti (between subjects) 3. univariata: disegni fattoriali 4. univariata entro i soggetti (within subjects) 5. : disegni fattoriali «misti» L analisi della

Dettagli

ANALISI MULTIVARIATA

ANALISI MULTIVARIATA ANALISI MULTIVARIATA Marcella Montico Servizio di epidemiologia e biostatistica... ancora sulla relazione tra due variabili: la regressione lineare semplice VD: quantitativa VI: quantitativa Misura la

Dettagli

p k q n k = p n (k) = n 12 = 1 = 12 1 12 11 10 9 1 0,1208. q = 1 2 e si ha: p 12 (8) = 12 8 4

p k q n k = p n (k) = n 12 = 1 = 12 1 12 11 10 9 1 0,1208. q = 1 2 e si ha: p 12 (8) = 12 8 4 CAPITOLO QUARTO DISTRIBUZIONE BINOMIALE (O DI BERNOULLI) Molti degli esempi che abbiamo presentato nei capitoli precedenti possono essere pensati come casi particolari di uno schema generale di prove ripetute,

Dettagli

Esercitazioni di statistica

Esercitazioni di statistica Esercitazioni di statistica Misure di associazione: Indipendenza assoluta e in media Stefania Spina Universitá di Napoli Federico II stefania.spina@unina.it 22 ottobre 2014 Stefania Spina Esercitazioni

Dettagli

La statistica multivariata

La statistica multivariata Cenni di Statistica Multivariata Dr Corrado Costa La statistica multivariata La statistica multivariata è quella parte della statistica in cui l'oggetto dell'analisi è per sua natura formato da almeno

Dettagli

Statistica inferenziale

Statistica inferenziale Statistica inferenziale Popolazione e campione Molto spesso siamo interessati a trarre delle conclusioni su persone che hanno determinate caratteristiche (pazienti, atleti, bambini, gestanti, ) Osserveremo

Dettagli

Il Metodo Scientifico

Il Metodo Scientifico Unita Naturali Il Metodo Scientifico La Fisica si occupa di descrivere ed interpretare i fenomeni naturali usando il metodo scientifico. Passi del metodo scientifico: Schematizzazione: modello semplificato

Dettagli

Statistica Inferenziale

Statistica Inferenziale Statistica Inferenziale Prof. Raffaella Folgieri Email: folgieri@mtcube.com aa 2009/2010 Esercizio 1 (stima puntuale) In un processo di controllo di qualità, siamo interessati al numero mensile di guasti

Dettagli

La distribuzione Gaussiana

La distribuzione Gaussiana Università del Piemonte Orientale Corso di Laurea in Biotecnologie Corso di Statistica Medica La distribuzione Normale (o di Gauss) Corso di laurea in biotecnologie - Corso di Statistica Medica La distribuzione

Dettagli

7 Disegni sperimentali ad un solo fattore. Giulio Vidotto Raffaele Cioffi

7 Disegni sperimentali ad un solo fattore. Giulio Vidotto Raffaele Cioffi 7 Disegni sperimentali ad un solo fattore Giulio Vidotto Raffaele Cioffi Indice: 7.1 Veri esperimenti 7.2 Fattori livelli condizioni e trattamenti 7.3 Alcuni disegni sperimentali da evitare 7.4 Elementi

Dettagli

Stima per intervalli Nei metodi di stima puntuale è sempre presente un ^ errore θ θ dovuto al fatto che la stima di θ in genere non coincide con il parametro θ. Sorge quindi l esigenza di determinare una

Dettagli

Computazione per l interazione naturale: Modelli dinamici

Computazione per l interazione naturale: Modelli dinamici Computazione per l interazione naturale: Modelli dinamici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2015.html

Dettagli

Analisi Univariata e Multivariata dei Dati Economici Bruno Ricca (Dipartimento di studi su risorse, impresa, ambiente e metodologie quantitative)

Analisi Univariata e Multivariata dei Dati Economici Bruno Ricca (Dipartimento di studi su risorse, impresa, ambiente e metodologie quantitative) Programma di studio AA 2008-2009 Analisi Univariata e Multivariata dei Dati Economici Bruno Ricca (Dipartimento di studi su risorse, impresa, ambiente e metodologie quantitative) Modulo unico 10 cfu corso

Dettagli

Metodi statistici in genetica forense terza edizione

Metodi statistici in genetica forense terza edizione GENETISTI FORENSI ITALIANI Metodi statistici in genetica forense terza edizione Carla Bini Federica Alessandrini Thore Egeland Oskar Hansson Bologna, 6-7 Giugno 2016 Bologna, 6-7 Giugno 2016 GENETISTI

Dettagli

Feature Selection per la Classificazione

Feature Selection per la Classificazione 1 1 Dipartimento di Informatica e Sistemistica Sapienza Università di Roma Corso di Algoritmi di Classificazione e Reti Neurali 20/11/2009, Roma Outline Feature Selection per problemi di Classificazione

Dettagli

MISURA DELLA DISTANZA FOCALE DI UNA LENTE CONVERGENTE

MISURA DELLA DISTANZA FOCALE DI UNA LENTE CONVERGENTE MISURA DELLA DISTANZA FOCALE DI UNA LENTE CONVERGENTE La distanza focale f di una lente convergente sottile è data dalla formula: da cui 1 f = 1 p + 1 q f = pq p + q dove p e q sono, rispettivamente, le

Dettagli

Come si progetta un circuito Perché simulare un circuito Cosa vuol dire simulare un circuito Il Simulatore Pspice Pacchetti che contiene Pspice

Come si progetta un circuito Perché simulare un circuito Cosa vuol dire simulare un circuito Il Simulatore Pspice Pacchetti che contiene Pspice 1 Come si progetta un circuito Perché simulare un circuito Cosa vuol dire simulare un circuito Il Simulatore Pspice Pacchetti che contiene Pspice Principio di funzionamento Che cosa è una NetList Fasi

Dettagli

Sistemi Intelligenti. Riassunto

Sistemi Intelligenti. Riassunto Sistemi Intelligenti Learning and Clustering Alberto Borghese and Iuri Frosio Università degli Studi di Milano Laboratorio di Sistemi Intelligenti Applicati (AIS-Lab) Dipartimento t di Scienze dell Informazione

Dettagli

Corso di Automazione Industriale 1. Capitolo 4

Corso di Automazione Industriale 1. Capitolo 4 Simona Sacone - DIST Corso di Automazione Corso Industriale di 1 Automazione Industriale 1 Capitolo 4 Analisi delle prestazioni tramite l approccio simulativo Aspetti statistici della simulazione: generazione

Dettagli

Corso di Laurea in Ingegneria Informatica Analisi Numerica

Corso di Laurea in Ingegneria Informatica Analisi Numerica Corso di Laurea in Ingegneria Informatica Lucio Demeio Dipartimento di Scienze Matematiche 1 2 Analisi degli errori Informazioni generali Libro di testo: J. D. Faires, R. Burden, Numerical Analysis, Brooks/Cole,

Dettagli

Esercizi riassuntivi di probabilità

Esercizi riassuntivi di probabilità Esercizi riassuntivi di probabilità Esercizio 1 Una ditta produttrice di fotocopiatrici sa che la durata di una macchina (in migliaia di copie) si distribuisce come una normale con µ = 1600 e 2 = 3600.

Dettagli

Richiami di teoria della probabilitá e Modelli Grafici

Richiami di teoria della probabilitá e Modelli Grafici Modelli di computazione affettiva e comportamentale Data: 23 Aprile 2010 Richiami di teoria della probabilitá e Modelli Grafici Docente: Prof. Giuseppe Boccignone Scriba: Matteo Battistini 1 Richiami di

Dettagli

UNIVERSITA DEGLI STUDI DI PADOVA DIPARTIMENTO DI INGEGNERIA IDRAULICA, MARITTIMA E GEOTECNICA

UNIVERSITA DEGLI STUDI DI PADOVA DIPARTIMENTO DI INGEGNERIA IDRAULICA, MARITTIMA E GEOTECNICA UNIVERSITA DEGLI STUDI DI PADOVA DIPARTIMENTO DI INGEGNERIA IDRAULICA, MARITTIMA E GEOTECNICA CORSO DI COSTRUZIONI IDRAULICHE A.A. 00-0 PROF. LUIGI DA DEPPO ING. NADIA URSINO ESERCITAZIONE N : Progetto

Dettagli

STATISTICA GIUSEPPE DE NICOLAO. Dipartimento di Informatica e Sistemistica Università di Pavia

STATISTICA GIUSEPPE DE NICOLAO. Dipartimento di Informatica e Sistemistica Università di Pavia STATISTICA GIUSEPPE DE NICOLAO Dipartimento di Informatica e Sistemistica Università di Pavia SOMMARIO V.C. vettoriali Media e varianza campionarie Proprietà degli stimatori Intervalli di confidenza Statistica

Dettagli

Principal. component analysis. Dai volti agli spettri di galassie

Principal. component analysis. Dai volti agli spettri di galassie Principal component analysis Dai volti agli spettri di galassie SCOPO: PCA for beginners Ridurre il numero di variabili all interno di una collezione di oggetti per descriverli piu facilmente, sulla base

Dettagli

ITCS Erasmo da Rotterdam. Anno Scolastico 2014/2015. CLASSE 4^ M Costruzioni, ambiente e territorio

ITCS Erasmo da Rotterdam. Anno Scolastico 2014/2015. CLASSE 4^ M Costruzioni, ambiente e territorio ITCS Erasmo da Rotterdam Anno Scolastico 014/015 CLASSE 4^ M Costruzioni, ambiente e territorio INDICAZIONI PER IL LAVORO ESTIVO DI MATEMATICA e COMPLEMENTI di MATEMATICA GLI STUDENTI CON IL DEBITO FORMATIVO

Dettagli

Ricerca di outlier. Ricerca di Anomalie/Outlier

Ricerca di outlier. Ricerca di Anomalie/Outlier Ricerca di outlier Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna Ricerca di Anomalie/Outlier Cosa sono gli outlier? L insieme di dati che sono considerevolmente differenti dalla

Dettagli

Informatica Grafica. Un introduzione

Informatica Grafica. Un introduzione Informatica Grafica Un introduzione Rappresentare la Geometria Operabile da metodi di calcolo automatici Grafica Vettoriale Partiamo dalla rappresentazione di un punto... Spazi Vettoriale SPAZI VETTORIALI

Dettagli

Analisi discriminante

Analisi discriminante Capitolo 6 Analisi discriminante L analisi statistica multivariata comprende un corpo di metodologie statistiche che permettono di analizzare simultaneamente misurazioni riguardanti diverse caratteristiche

Dettagli

CIRCUITI INTELLIGENTI Parte 5: PCA e ICA

CIRCUITI INTELLIGENTI Parte 5: PCA e ICA Ing. Simone SCARDAPANE Circuiti e Algoritmi per l Elaborazione dei Segnali Anno Accademico 2012/2013 Indice della Lezione 1. Analisi delle Componenti Principali 2. Auto-Associatori 3. Analisi delle Componenti

Dettagli

Il campionamento statistico. prof. C.Guida

Il campionamento statistico. prof. C.Guida Il campionamento statistico prof. C.Guida Per determinare le caratteristiche fondamentali di una popolazione statistica non è sempre necessario analizzare tutta la popolazione, ma risulta sufficiente esaminare

Dettagli

VARIABILI ALEATORIE CONTINUE

VARIABILI ALEATORIE CONTINUE VARIABILI ALEATORIE CONTINUE Se X è una variabile aleatoria continua, la probabilità che X assuma un certo valore x fissato è in generale zero, quindi non ha senso definire una distribuzione di probabilità

Dettagli

Matematica con il foglio di calcolo

Matematica con il foglio di calcolo Matematica con il foglio di calcolo Sottotitolo: Classe: V primaria Argomento: Numeri e operazioni Autore: Guido Gottardi, Alberto Battaini Introduzione: l uso del foglio di calcolo offre l opportunità

Dettagli

Indice Aspetti generali sul campionamento da popolazioni finite Campionamento probabilistico Disegno campionario semplice

Indice Aspetti generali sul campionamento da popolazioni finite Campionamento probabilistico Disegno campionario semplice Indice 1 Aspetti generali sul campionamento da popolazioni finite.. 1 1.1 Rilevazionicensuarieerilevazionicampionarie... 1 1.2 Lineemetodologichediunarilevazionestatistica... 3 1.3 Popolazioni, etichette,

Dettagli

Inferenza statistica

Inferenza statistica Inferenza statistica Si tratta di un complesso di tecniche, basate sulla teoria della probabilità, che consentono di verificare se sia o no possibile trasferire i risultati ottenuti per un campione ad

Dettagli

differiticerti.notebook November 25, 2010 nov 6 17.29 nov 6 17.36 nov 6 18.55 Problemi con effetti differiti

differiticerti.notebook November 25, 2010 nov 6 17.29 nov 6 17.36 nov 6 18.55 Problemi con effetti differiti Problemi con effetti differiti sono quelli per i quali tra il momento di sostentamento dei costi ed il momento di realizzo dei ricavi intercorre un certo lasso di tempo. Nei casi in cui il vantaggio è

Dettagli

Carta di credito standard. Carta di credito business. Esercitazione 12 maggio 2016

Carta di credito standard. Carta di credito business. Esercitazione 12 maggio 2016 Esercitazione 12 maggio 2016 ESERCIZIO 1 Si supponga che in un sondaggio di opinione su un campione di clienti, che utilizzano una carta di credito di tipo standard (Std) o di tipo business (Bsn), si siano

Dettagli

Esercizi del Corso di Statistica. Parte I - Variabili Aleatorie Continue

Esercizi del Corso di Statistica. Parte I - Variabili Aleatorie Continue Esercizi del Corso di Statistica Parte I - Variabili Aleatorie Continue 1. Costruire la variabile uniforme U sull intervallo [a, b], con a IR e b IR. 2. Sia X una variabile aleatoria tale che: 0 x < 1

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 1 - Introduzione generale Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

Matematica II: Calcolo delle Probabilità e Statistica Matematica

Matematica II: Calcolo delle Probabilità e Statistica Matematica Matematica II: Calcolo delle Probabilità e Statistica Matematica ELT A-Z Docente: dott. F. Zucca Esercitazione # Esercizi Statistica Descrittiva Esercizio I gruppi sanguigni di persone sono B, B, AB, O,

Dettagli

Normalizzazione. Definizione

Normalizzazione. Definizione Normalizzazione Definizione Le forme normali 2 Una forma normale è una proprietà di una base di dati relazionale che ne garantisce la qualità, cioè l'assenza di determinati difetti Quando una relazione

Dettagli

Statistica. Esercitazione 16. Alfonso Iodice D Enza iodicede@unicas.it. Università degli studi di Cassino. Statistica. A. Iodice

Statistica. Esercitazione 16. Alfonso Iodice D Enza iodicede@unicas.it. Università degli studi di Cassino. Statistica. A. Iodice Esercitazione 16 Alfonso Iodice D Enza iodicede@unicas.it Università degli studi di Cassino () 1 / 24 Studio della relazione tra due variabili Commonly Asked Questions Qual è la relazione tra la spesa

Dettagli

Club Alpino Italiano. Commissione Lombarda Materiali e Tecniche

Club Alpino Italiano. Commissione Lombarda Materiali e Tecniche Club Alpino Italiano Commissione Lombarda Materiali e Tecniche L ASSICURAZIONE IN PARETE: L IMPORTANZA DELL ALTEZZA DELLA PRIMA PROTEZIONE E DI UNA CORRETTA ASSICURAZIONE PER RIDURRE I RISCHI DI IMPATTO

Dettagli

CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 5

CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 5 CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 5 Dott.ssa Antonella Costanzo a.costanzo@unicas.it Esercizio 1. Misura dell associazione tra due caratteri Uno store manager è interessato a studiare la relazione

Dettagli

1.5. ISTOGRAMMA 17. Figura 1.3: Istogramma ottenuto mediante campionamento da VA Gaussiana (η x =0, σ 2 X =1).

1.5. ISTOGRAMMA 17. Figura 1.3: Istogramma ottenuto mediante campionamento da VA Gaussiana (η x =0, σ 2 X =1). .5. ISTOGRAMMA 7.5 Istogramma A partire dalle considerazioni svolte nel paragrafo precedente, posto x m = min(x,,x N e x M = max(x,,x N, possiamo ottenere una stima della densità di probabilità p (x suddividendo

Dettagli

Elementi di Calcolo delle Probabilità e Statistica per il corso di Analisi Matematica B

Elementi di Calcolo delle Probabilità e Statistica per il corso di Analisi Matematica B Elementi di Calcolo delle Probabilità e Statistica per il corso di Analisi Matematica B Laurea in Ingegneria Meccatronica A.A. 2010 2011 n-dimensionali Riepilogo. Gli esiti di un esperimento aleatorio

Dettagli

Esercitazioni 2013/14

Esercitazioni 2013/14 Esercitazioni 2013/14 Esercizio 1 Due ditte V e W partecipano ad una gara di appalto per la costruzione di un tratto di autostrada che viene assegnato a seconda del prezzo. L offerta fatta dalla ditta

Dettagli

Cluster Analysis. La Cluster Analysis è il processo attraverso il quale vengono individuati raggruppamenti dei dati. per modellare!

Cluster Analysis. La Cluster Analysis è il processo attraverso il quale vengono individuati raggruppamenti dei dati. per modellare! La Cluster Analysis è il processo attraverso il quale vengono individuati raggruppamenti dei dati. Le tecniche di cluster analysis vengono usate per esplorare i dati e non per modellare! La cluster analysis

Dettagli

2. Variabilità mediante il confronto di valori caratteristici della

2. Variabilità mediante il confronto di valori caratteristici della 2. Variabilità mediante il confronto di valori caratteristici della distribuzione Un approccio alternativo, e spesso utile, alla misura della variabilità è quello basato sul confronto di valori caratteristici

Dettagli

Appunti del corso di Informatica 1 (IN110 Fondamenti) 3 Modelli di calcolo

Appunti del corso di Informatica 1 (IN110 Fondamenti) 3 Modelli di calcolo Università Roma Tre Dipartimento di Matematica e Fisica Corso di Laurea in Matematica Appunti del corso di Informatica 1 (IN110 Fondamenti) 3 Modelli di calcolo Marco Liverani (liverani@mat.uniroma3.it)

Dettagli

Corso di Psicometria Progredito

Corso di Psicometria Progredito Corso di Psicometria Progredito 4. Esercizi di Inferenza Statistica Gianmarco Altoè Dipartimento di Psicologia Università di Cagliari, Anno Accademico 2011-2012 Esercizio 4.1 - I due esami Nella seguente

Dettagli

1 Valore atteso o media

1 Valore atteso o media 1 Valore atteso o media Definizione 1.1. Sia X una v.a., si chiama valore atteso (o media o speranza matematica) il numero, che indicheremo con E[X] o con µ X, definito come E[X] = i x i f(x i ) se X è

Dettagli

MATEMATICA e COMPLEMENTI di MATEMATICA

MATEMATICA e COMPLEMENTI di MATEMATICA ALLEGATO N.8_b MATEMATICA e COMPLEMENTI di MATEMATICA DESTINATARI gli studenti delle classi: terze e quarte nuovo ordinamento RISULTATI DI APPRENDIMENTO DELL OBBLIGO D ISTRUZIONE, CHIAVE EUROPEA Padroneggiare

Dettagli

Corso di Laurea in Ingegneria Informatica Anno Accademico 2014/2015 Calcolo delle Probabilità e Statistica Matematica

Corso di Laurea in Ingegneria Informatica Anno Accademico 2014/2015 Calcolo delle Probabilità e Statistica Matematica Corso di Laurea in Ingegneria Informatica Anno Accademico 2014/2015 Calcolo delle Probabilità e Statistica Matematica Nome N. Matricola Ancona, 14 luglio 2015 1. Tre macchine producono gli stessi pezzi

Dettagli

Online Gradient Descent

Online Gradient Descent F94 Metodi statistici per l apprendimento Online Gradient Descent Docente: Nicolò Cesa-Bianchi versione 9 aprile 06 L analisi del Perceptrone ha rivelato come sia possibile ottenere dei maggioranti sul

Dettagli

SCUOLA PRIMARIA - MORI

SCUOLA PRIMARIA - MORI ISTITUTO COMPRENSIVO DI MORI Via Giovanni XXIII, n. 64-38065 MORI Cod. Fisc. 94024510227 - Tel. 0464-918669 Fax 0464-911029 www.icmori.it e-mail: segr.ic.mori@scuole.provincia.tn.it REPUBBLICA ITALIANA

Dettagli

Statistiche campionarie

Statistiche campionarie Statistiche campionarie Sul campione si possono calcolare le statistiche campionarie (come media campionaria, mediana campionaria, varianza campionaria,.) Le statistiche campionarie sono stimatori delle

Dettagli

Illustrazione 1: Telaio. Piantanida Simone 1 G Scopo dell'esperienza: Misura di grandezze vettoriali

Illustrazione 1: Telaio. Piantanida Simone 1 G Scopo dell'esperienza: Misura di grandezze vettoriali Piantanida Simone 1 G Scopo dell'esperienza: Misura di grandezze vettoriali Materiale utilizzato: Telaio (carrucole,supporto,filo), pesi, goniometro o foglio con goniometro stampato, righello Premessa

Dettagli

Primi elementi di statistica

Primi elementi di statistica Primi elementi di statistica a cura del gruppo di matematica del Cidi di Roma, 2005-06 La principale finalità di un lavoro statistico condotto nella scuola è, probabilmente, l esplorazione (l avvio di

Dettagli

DISTRIBUZIONI DI PROBABILITÀ

DISTRIBUZIONI DI PROBABILITÀ Metodi statistici e probabilistici per l ingegneria Corso di Laurea in Ingegneria Civile A.A. 2009-10 Facoltà di Ingegneria, Università di Padova Docente: Dott. L. Corain 1 LE PRINCIPALI DISTRIBUZIONI

Dettagli

Corso di Automazione Industriale 1. Capitolo 4

Corso di Automazione Industriale 1. Capitolo 4 Simona Sacone - DIST 1 Corso di Automazione Corso Industriale di 1 Automazione Industriale 1 Capitolo 4 Analisi delle prestazioni tramite l approccio simulativo Aspetti statistici della simulazione: analisi

Dettagli

PSICOMETRIA. Esercitazione n.1. C.d.L. Comunicazione e Psicologia a.a. 2012/13

PSICOMETRIA. Esercitazione n.1. C.d.L. Comunicazione e Psicologia a.a. 2012/13 PSICOMETRIA Esercitazione n.1 C.d.L. Comunicazione e Psicologia a.a. 2012/13 ESERCITAZIONE 1: INDICE 1. Informazioni di carattere generale sulle esercitazioni 2. Il foglio di calcolo (Excel) 3. Avviare

Dettagli

CURRICOLO DI GEOGRAFIA

CURRICOLO DI GEOGRAFIA CURRICOLO DI GEOGRAFIA GEOGRAFIA CLASSE PRIMA COMPETENZE OBIETTIVI DI APPRENDIMENTO STANDARD DI APPRENDIMENTO ATTESI Orientarsi nello spazio e sapersi collocare rispetto ai vari punti di riferimento 1.

Dettagli

APPLICAZIONI LINEARI

APPLICAZIONI LINEARI APPLICAZIONI LINEARI 1. Esercizi Esercizio 1. Date le seguenti applicazioni lineari (1) f : R 2 R 3 definita da f(x, y) = (x 2y, x + y, x + y); (2) g : R 3 R 2 definita da g(x, y, z) = (x + y, x y); (3)

Dettagli

PROBABILITÀ - SCHEDA N. 2 LE VARIABILI ALEATORIE

PROBABILITÀ - SCHEDA N. 2 LE VARIABILI ALEATORIE Matematica e statistica: dai dati ai modelli alle scelte www.dima.unige/pls_statistica Responsabili scientifici M.P. Rogantin e E. Sasso (Dipartimento di Matematica Università di Genova) PROBABILITÀ -

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Calcolo Numerico Dottssa MC De Bonis Università degli Studi della Basilicata, Potenza Facoltà di Ingegneria Corso di Laurea in Ingegneria Meccanica Corso di Calcolo Numerico - Dottssa MC De Bonis

Dettagli

ELEMENTI DI CALCOLO DELLE PROBABILITA

ELEMENTI DI CALCOLO DELLE PROBABILITA Statistica, CLEA p. 1/55 ELEMENTI DI CALCOLO DELLE PROBABILITA Premessa importante: il comportamento della popolazione rispetto una variabile casuale X viene descritto attraverso una funzione parametrica

Dettagli

A.1 Rappresentazione geometrica dei segnali

A.1 Rappresentazione geometrica dei segnali Appendice A Rappresentazione dei segnali A.1 Rappresentazione geometrica dei segnali Scomporre una generica forma d onda s(t) in somma di opportune funzioni base è operazione assai comune, particolarmente

Dettagli

Il programma OCTAVE per l insegnamento dell algebra lineare nella Scuola Secondaria p. 1

Il programma OCTAVE per l insegnamento dell algebra lineare nella Scuola Secondaria p. 1 Il programma OCTAVE per l insegnamento dell algebra lineare nella Scuola Secondaria R. Vitolo Dipartimento di Matematica Università di Lecce SaLUG! - Salento Linux User Group Il programma OCTAVE per l

Dettagli

Impiego di classificatori nell analisi di immagini

Impiego di classificatori nell analisi di immagini Impiego di classificatori nell analisi di immagini Davide Devescovi 1 La classificazione Con il termine classificazione si intende una procedura statistica che permette di associare ciascun oggetto (che

Dettagli

SVM. Veronica Piccialli. Roma 11 gennaio 2010. Università degli Studi di Roma Tor Vergata 1 / 14

SVM. Veronica Piccialli. Roma 11 gennaio 2010. Università degli Studi di Roma Tor Vergata 1 / 14 SVM Veronica Piccialli Roma 11 gennaio 2010 Università degli Studi di Roma Tor Vergata 1 / 14 SVM Le Support Vector Machines (SVM) sono una classe di macchine di che derivano da concetti riguardanti la

Dettagli

Probabilità e Statistica Esercitazioni. a.a. 2006/2007

Probabilità e Statistica Esercitazioni. a.a. 2006/2007 Probabilità e Statistica Esercitazioni a.a. 2006/2007 C.d.L.: Ingegneria per l Ambiente ed il Territorio, Ingegneria Civile, Ingegneria Gestionale, Ingegneria dell Informazione C.d.L.S.: Ingegneria Civile

Dettagli

PIANO DI LAVORO ANNO SCOLASTICO 2015/2016. I.I.S.S. ''C. E. GADDA Sede di Langhirano MATERIA DI INSEGNAMENTO: ECONOMIA AZIENDALE

PIANO DI LAVORO ANNO SCOLASTICO 2015/2016. I.I.S.S. ''C. E. GADDA Sede di Langhirano MATERIA DI INSEGNAMENTO: ECONOMIA AZIENDALE PIANO DI LAVORO ANNO SCOLASTICO 2015/2016 I.I.S.S. ''C. E. GADDA Sede di Langhirano MATERIA DI INSEGNAMENTO: ECONOMIA AZIENDALE PROF.SSA FAINI DANIELA CLASSE 1 B indirizzo economico AFM n alunni 23 ATTIVITA'

Dettagli

Laboratorio di Programmazione Lezione 1. Cristian Del Fabbro

Laboratorio di Programmazione Lezione 1. Cristian Del Fabbro Laboratorio di Programmazione Lezione 1 Cristian Del Fabbro Reperibilità homepage corso: https://users.dimi.uniud.it/~cristian.delfabbro/teaching.php email: cristian.delfabbro@uniud.it telefono: 0432 558676

Dettagli

ESERCIZI DEL CORSO DI INFORMATICA

ESERCIZI DEL CORSO DI INFORMATICA ESERCIZI DEL CORSO DI INFORMTIC Questa breve raccolta di esercizi vuole mettere in luce alcuni aspetti della prima parte del corso e fornire qualche spunto di riflessione. Il contenuto del materiale seguente

Dettagli

Elementi Finiti: stime d errore e adattività della griglia

Elementi Finiti: stime d errore e adattività della griglia Elementi Finiti: stime d errore e adattività della griglia Elena Gaburro Università degli studi di Verona Master s Degree in Mathematics and Applications 05 giugno 2013 Elena Gaburro (Università di Verona)

Dettagli

DATA MINING PER IL MARKETING

DATA MINING PER IL MARKETING DATA MINING PER IL MARKETING Andrea Cerioli andrea.cerioli@unipr.it Sito web del corso GLI ALBERI DI CLASSIFICAZIONE Algoritmi di classificazione Zani-Cerioli, Cap. XI CHAID: Chi-square Automatic Interaction

Dettagli

Esercitazione n o 3 per il corso di Ricerca Operativa

Esercitazione n o 3 per il corso di Ricerca Operativa Esercitazione n o 3 per il corso di Ricerca Operativa Ultimo aggiornamento October 17, 2011 Fornitura acqua Una città deve essere rifornita, ogni giorno, con 500 000 litri di acqua. Si richiede che l acqua

Dettagli

Informatica Teorica. Macchine a registri

Informatica Teorica. Macchine a registri Informatica Teorica Macchine a registri 1 Macchine a registri RAM (Random Access Machine) astrazione ragionevole di un calcolatore nastro di ingresso nastro di uscita unità centrale in grado di eseguire

Dettagli

Corso integrato di informatica, statistica e analisi dei dati sperimentali Altri esercizi_esercitazione V

Corso integrato di informatica, statistica e analisi dei dati sperimentali Altri esercizi_esercitazione V Corso integrato di informatica, statistica e analisi dei dati sperimentali Altri esercizi_esercitazione V Sui PC a disposizione sono istallati diversi sistemi operativi. All accensione scegliere Windows.

Dettagli

TECNICHE DI CONTROLLO

TECNICHE DI CONTROLLO TECNICHE DI CONTROLLO Richiami di Teoria dei Sistemi Dott. Ing. SIMANI SILVIO con supporto del Dott. Ing. BONFE MARCELLO Sistemi e Modelli Concetto di Sistema Sistema: insieme, artificialmente isolato

Dettagli

DISTRIBUZIONI DI VARIABILI CASUALI DISCRETE

DISTRIBUZIONI DI VARIABILI CASUALI DISCRETE DISTRIBUZIONI DI VARIABILI CASUALI DISCRETE variabile casuale (rv): regola che associa un numero ad ogni evento di uno spazio E. variabile casuale di Bernoulli: rv che può assumere solo due valori (e.g.,

Dettagli

Le catene di Markov come metodologia utilizzata dai motori di ricerca per classificare le pagine web su internet.

Le catene di Markov come metodologia utilizzata dai motori di ricerca per classificare le pagine web su internet. Università degli Studi di Palermo Facoltà di Economia Dipartimento di Scienze Statistiche e Matematiche S. Vianelli Dottorato di Ricerca in Statistica e Finanza Quantitativa - XXI Ciclo Sergio Salvino

Dettagli

Temi di Esame a.a. 2012-2013. Statistica - CLEF

Temi di Esame a.a. 2012-2013. Statistica - CLEF Temi di Esame a.a. 2012-2013 Statistica - CLEF I Prova Parziale di Statistica (CLEF) 11 aprile 2013 Esercizio 1 Un computer è collegato a due stampanti, A e B. La stampante A è difettosa ed il 25% dei

Dettagli

Introduzione alla Teoria degli Errori

Introduzione alla Teoria degli Errori Introduzione alla Teoria degli Errori 1 Gli errori di misura sono inevitabili Una misura non ha significato se non viene accompagnata da una ragionevole stima dell errore ( Una scienza si dice esatta non

Dettagli

Sommario. HTML e CSS I fogli di stile. cosa sono principali proprietà

Sommario. HTML e CSS I fogli di stile. cosa sono principali proprietà HTML e CSS Sommario HTML e CSS I fogli di stile cosa sono principali proprietà CSS CSS La specifica HTML elenca le linee guida su come i browser dovrebbero visualizzare i diversi elementi del documento

Dettagli

VBA è un linguaggio di scripting derivato da Visual Basic, da cui prende il nome. Come ogni linguaggio ha le sue regole.

VBA è un linguaggio di scripting derivato da Visual Basic, da cui prende il nome. Come ogni linguaggio ha le sue regole. Excel VBA VBA Visual Basic for Application VBA è un linguaggio di scripting derivato da Visual Basic, da cui prende il nome. Come ogni linguaggio ha le sue regole. 2 Prima di iniziare. Che cos è una variabile?

Dettagli

Sintesi dei pun+ principali tra0a+ nelle schede di lavoro di Geometria

Sintesi dei pun+ principali tra0a+ nelle schede di lavoro di Geometria Sintesi dei pun+ principali tra0a+ nelle schede di lavoro di Geometria Le schede fanno rifle0ere su aspe9 cruciali, me0endo in discussione misconcezioni che possono essere presen+ Le schede, inoltre, suggeriscono

Dettagli

Statistica e biometria. D. Bertacchi. Variabili aleatorie. V.a. discrete e continue. La densità di una v.a. discreta. Esempi.

Statistica e biometria. D. Bertacchi. Variabili aleatorie. V.a. discrete e continue. La densità di una v.a. discreta. Esempi. Iniziamo con definizione (capiremo fra poco la sua utilità): DEFINIZIONE DI VARIABILE ALEATORIA Una variabile aleatoria (in breve v.a.) X è funzione che ha come dominio Ω e come codominio R. In formule:

Dettagli

Analisi di dati di frequenza

Analisi di dati di frequenza Analisi di dati di frequenza Fase di raccolta dei dati Fase di memorizzazione dei dati in un foglio elettronico 0 1 1 1 Frequenze attese uguali Si assuma che dalle risposte al questionario sullo stato

Dettagli

Sistemi Web per il turismo - lezione 3 -

Sistemi Web per il turismo - lezione 3 - Sistemi Web per il turismo - lezione 3 - Software Si definisce software il complesso di comandi che fanno eseguire al computer delle operazioni. Il termine si contrappone ad hardware, che invece designa

Dettagli

Progetto T2 IUM 2 - Anno accademico 2012/2013

Progetto T2 IUM 2 - Anno accademico 2012/2013 1 Progetto T2 IUM 2 - Anno accademico 2012/2013 Marco Bottin 748881 Abstract Nel presente documento verrá illustrato l interfacciamento e l utilizzo dei classificatori K-NearestNeighbor e naïvebayes di

Dettagli

Introduzione al Pattern Recognition Statistico

Introduzione al Pattern Recognition Statistico Introduzione al Pattern Recognition Statistico Roberto Tagliaferri Dipartimento di Informatica Università di Salerno ( Sa ) 84084 Fisciano e-mail robtag@unisa.it Statistical Pattern Recognition Introduzione

Dettagli

FSM: Macchine a Stati Finiti

FSM: Macchine a Stati Finiti FSM: Macchine a Stati Finiti Introduzione Automi di Mealy Automi di Moore Esempi Sommario Introduzione Automi di Mealy Automi di Moore Esempi Sommario Introduzione Metodo per descrivere macchine di tipo

Dettagli

Francesca Pierri Dipartimento di Economia Finanza e Statistica Università degli Studi di Perugia

Francesca Pierri Dipartimento di Economia Finanza e Statistica Università degli Studi di Perugia Francesca Pierri Dipartimento di Economia Finanza e Statistica Università degli Studi di Perugia Introduzione La ricerca accademica ha spesso evidenziato l esigenza di costruire indicatori delle performance

Dettagli

VERIFICA DELLE IPOTESI

VERIFICA DELLE IPOTESI VERIFICA DELLE IPOTESI Introduzione Livelli di significatività Verifica di ipotesi sulla media di una popolazione normale Verifica di ipotesi sulla varianza di una popolazione normale Verifica di ipotesi

Dettagli

Tecniche di classificazione della statistica multivariata e dell analisi dei cluster: un tutorial

Tecniche di classificazione della statistica multivariata e dell analisi dei cluster: un tutorial Tecniche di classificazione della statistica multivariata e dell analisi dei cluster: un tutorial Giulio Agostini 30 marzo 2000 Sommario In questa relazione, dopo aver esposto formalmente la teoria della

Dettagli