Classificazione. Apprendimento supervisionato //Classificazione. Corso di Sistemi di Elaborazione dell Informazione

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Classificazione. Apprendimento supervisionato //Classificazione. Corso di Sistemi di Elaborazione dell Informazione"

Transcript

1 Classificazione SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano Apprendimento supervisionato //Classificazione

2 Apprendimento supervisionato //Classificazione Apprendimento supervisionato //Classificazione vs regressione Regressione Classificazione

3 Apprendimento supervisionato //Classificazione vs regressione Regressione Classificazione Terminologia generale I valori y che si vogliono predire hanno come dominio un insieme discreto,in cui ogni valore denota una classe Ci Lo spazio di input è diviso in regioni di decisione Ri Modelli lineari di classificazione: i confini di decisione sono funzioni lineari dell input x (iperpiani a m 1 dimensioni nello spazio m-dimensionale delle features) Insiemi di dati linearmente separabili: le classi possono essere separate in modo esatto per mezzo di superfici lineari.

4 Metodologia generale: modelli discriminativi //non probabilistici Discriminativi non probabilistici: Trovare f : X {1,...,K} (funzione discriminante) che mappa ogni input x in una classe Ci (con i = f(x)) Esempi: k-nearest Neighbor (knn) SVM (Support Vector Machine) Metodologia generale: modelli discriminativi //non probabilistici Discriminativi non probabilistici: Nearest - Neighbor : Uno dei classificatori più semplici

5 Metodologia generale: modelli discriminativi //non probabilistici Discriminativi non probabilistici: Nearest - Neighbor : Uno dei classificatori più semplici Troviamo il valore più vicino e rubiamo la sua label? Metodologia generale: modelli discriminativi //non probabilistici Discriminativi non probabilistici: Nearest - Neighbor : Uno dei classificatori più semplici Troviamo il valore più vicino e rubiamo la sua label % Input: % - data set X : matrice NxD % - label t : vettore Nx1 % - test point Xtest : vettore 1xD % Output: % - X(j,:) : il N-N % - t(j) : label del N-N distanza del vicino [N,D]=size (X); Xdisp = X - repmat(xtest,n,1); Xdist2 = sum(xdisp.^2, 2); [min_dist2, j]= min(xdist2) ;? lab = t(j);

6 Esempio: classificatore NN su binary digits k-nearest Neighbor Generalizziamo NN a knn: Troviamo i k più vicini a e ognuno vota con la propria label Si decide a maggioranza (Majority Vote) (Se non c e una maggioranza si fa scelta random)

7 k-nearest Neighbor function [error,tpred] = knn_multi_class(x, t, Xtest, ttest, k) Ntest = size(xtest,1); N = size(x,1); tpred = zeros(ntest,1); C = max(t); for n=1:ntest Dist = sum(( repmat(xtest(n,:),n,1) - X ).^2,2 ); [sorted_list,sorted_index] = sort(dist); [max_k, index_max_k] = max(histc(t(sorted_index(1:k)),1:c));%conteggia le classi con histc % e prende il max tpred(n) = index_max_k; end error = 100*sum(tpred ~= ttest)/ntest; Esempio: ruolo di K in un classificatore knn

8 Support Vector Machine (SVM) // Cos è un buon Decision Boundary? Class 2 Class 2 Class 1 Class 1 15 Support Vector Machine (SVM) //Cos è un buon Decision Boundary? Due classi linearmente separabili Soluzione discriminativa: caso binario: target +1 / -1 16

9 Support Vector Machine (SVM) //Cos è un buon Decision Boundary? Intuitivamente: Decision boundary: deve essere lontano dai dati di entrambe le classi Class 1 Class 2 Margine 17 Support Vector Machine (SVM) // Large-margin Decision Boundary Decision boundary: deve essere lontano dai dati di entrambe le classi Massimizzare il margine, m Distanza tra l origine e la retta w t x=k è k/ w Distanza punti / iperpiano Class 2 Class 1 m 18

10 Support Vector Machine (SVM) // Large-margin Decision Boundary Decision boundary: deve essere lontano dai dati di entrambe le classi Punti più vicini al margine Distanza punti / iperpiano Margine Class 2 Class 1 m 19 Support Vector Machine (SVM) // Trovare il Decision Boundary Decision boundary: deve essere lontano dai dati di entrambe le classi Massimizzare il margine minimizzare Class 2 Class 1 m 20

11 Support Vector Machine (SVM) // Trovare il Decision Boundary {x 1,..., x n } data set osservato, y i {1,-1} la label di classe per x i Il decision boundary dovrebbe classificare perfettamente Problema di ottimizzazione vincolata: Margin minimization 21 Support Vector Machine (SVM) // Trovare il Decision Boundary Minimizzo la funzione Lagrangiana (problema primale): con w 2 = w T w Calcolo gradiente di rispetto a w e b e pongo a zero 22

12 Il problema duale Sostituiamo in E funzione solo di α i 23 Il problema duale Problema duale: se conosco w, conosco α i ; se conosco α i, conosco w Massimizzo la nuova funzione obbiettivo (problema duale) 24

13 Il problema duale E un problema di programmazione quadratica (quadratic programming, QP) Esiste sempre un massimo globale rispetto a α i w si calcola poi come: 25 Il problema QP Molti metodi di QP Loqo, cplex, etc. ( Per SVM, sequential minimal optimization (SMO) è il più popolare QP: triviale da risolvere con due variabili Iterativamente: si seleziona una coppia (α i,α j ) e si risolve QP; si ripete fino a convergenza Per i nostri fini il QP solver è una black-box che utilizziamo e basta! 26

14 Support Vector Machine (SVM) // Soluzione Predizione rispetto a un dato nuovo z = Calcoliamo Classifichiamo z nella classe 1 se la somma è positiva, altrimenti classe 2 Nota: w non deve essere calcolato esplicitamente 27 Support Vector Machine (SVM) // Algoritmo SVM di base

15 Support Vector Machine (SVM) // Forma matriciale kernel Support Vector Machine (SVM) // Un esempio semplificato clear Step=0.5; N = 50; C=1000; X = [randn(n/2,2);randn(n/2,2)+[ones(n/2,1).*6 zeros(n/2,1)]]; t=[ones(n/2,1);-ones(n/2,1)]; [alpha,w_0,alpha_index]= mioqp(diag(t)*x*x'*diag(t),ones(n,1),t,c,1e-6); %Griglia dei contorni mn = min(x); mx = max(x); [x1,x2]=meshgrid(floor(mn(1)):step:ceil(mx(1)),floor(mn(2)):step:ceil(mx(2))); [n11,n12]=size(x1); [n21,n22]=size(x2); XG=[reshape(x1,n11*n12,1) reshape(x2,n21*n22,1)]; f = (t(alpha_index).*alpha)'*x(alpha_index,:)*xg' + w_0; plot(x(alpha_index,1),x(alpha_index,2),'go'); hold plot(x(1:n/2,1),x(1:n/2,2),'.') plot(x(n/2+1:n,1),x(n/2+1:n,2),'r.') contour(x1,x2,reshape(f,[n11,n12]),[0 0]); hold off

16 Esempio: hard margin SVM Support Vector Machine (SVM) // Caratteristiche della soluzione: sparsità α 5 =0 α 4 =0 α 9 =0 Class 1 α 8 =0. 6 α 6 =1.4 α 3 =0 α 10 =0 α 1 =0.8 Class 2 α 7 =0 α 2 =0 32

17 Support Vector Machine (SVM) // Caratteristiche della soluzione: sparsità Molti α i sono nulli w è combinazione lineare di pochi punti Rappresentazione sparsa: data compression Sparse kernel machines x i corrispondenti ad α i diversi da zero: support vectors (SV) Il decision boundary è determinato unicamente dai SV Siano t j (j=1,..., s) gli indici dei SV: 33 Soft SVM //Non-linearly Separable Problems Consentiamo un errore ξ i nella classificazione; ξ i approssima il numero di sample misclassificati Class 2 Class 1 34

18 Appendice 2: soft SVM // Problemi di ottimizzazione soft vs. hard Soft margin Hard margin 35 Esempio: soft margin SVM

19 Support Vector Machine (SVM) // Estensione a Decision Boundary non lineare Abbiamo considerato un classificatore con decision boundary lineare Come generalizzare al caso non lineare? kernel 37 Support Vector Machine (SVM) // Estensione a Decision Boundary non lineare Abbiamo considerato un classificatore con decision boundary lineare Come generalizzare al caso non lineare? Idea: trasformare x i in uno spazio a dimensionalità maggiore Input space: spazio dei dati x i Feature space: lo spazio degli φ(x i ) dopo la trasformazione Perchè? Operazione lineare nel feature space = operazione non lineare nell input space 38

20 Support Vector Machine (SVM) // Trasformare i dati Input space φ(.) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) Feature space 39 Support Vector Machine (SVM) // Trasformare i dati con un polinomio di ordine 2 40

21 Support Vector Machine (SVM) // Trasformare i dati con una Radial Basis Function (RBF) 41 Support Vector Machine (SVM) // Il Kernel Trick Ricordiamo il problema iniziale I punti compaiono solo come distanza o prodotto scalare (inner product) Se dobbiamo calcolare una distanza nel feature space, non abbiamo bisogno del mapping esplicito Si definisce la funzione di kernel K come: 42

22 Support Vector Machine (SVM) // Esempi di Kernel Functions Polynomial kernel di grado d Radial Basis Function (RBF) kernel di ampiezza σ Collegato ai RBF neural networks Feature space infinito Sigmoide di parametri κ e θ 43 Support Vector Machine (SVM) // Algoritmo SVM (3)

23 Esempio: SVM con kernel Gaussiano Support Vector Machine (SVM) // altri aspetti Classificazione multi-class? Si può cambiare la formulazione di QP Oppure combinare multiple binary classifiers one-versus-all classifiers multiple pairwise classifiers intelligently Come interpretare il valore della SVM discriminant function in termini di probabilità? Effettuare logistic regression sull output di SVM su validation set Usare software SVM (e.g. libsvm) che è multi-class 46

24 Support Vector Machine (SVM) // Istruzioni per l uso Preparare la pattern matrix Selezionare la kernel function Selezionare i parametri della kernel function e il valore di C validation set Training per ottenere gli α i Classificare usando α i e support vectors ricavati dal training 47 Classificazione probabilistica Predire il genere dall altezza: Dati osservati (likelihood) Regione di separazione Prob. a priori Prob. a posteriori (Bayes)

25 Classificazione probabilistica Date le probabilità a posteriori: Regione di separazione Classifichiamo se: Possiamo Trovare f : X {1,...,K} (funzione discriminante) che mappa ogni input x in una classe Ci (con i = f(x)) Classificazione probabilistica Classifichiamo se: Regione di separazione Possiamo Trovare f : X {1,...,K} (funzione discriminante) che mappa ogni input x in una classe Ci (con i = f(x)) Esempio:

26 Metodologia generale: modelli discriminativi Discriminativi non probabilistici: Trovare f : X {1,...,K} (funzione discriminante) che mappa ogni input x in una classe Ci (con i = f(x)) Esempio: SVM (Support Vector Machine) Funzioni di discriminazione //lineari e lineari generalizzate Cos è un classificatore lineare? parte adattiva lineare decisione non lineare

27 Funzioni di discriminazione //lineari e lineari generalizzate Consentono di assegnare ogni input x a una classe Definiscono una partizione dello spazio degli input in regioni Ri tali che se x Ri allora x viene assegnato alla classe Ci Modello lineare: Modello lineare generalizzato (GLM): funzione di attivazione, non lineare funzione di attivazione, non lineare Metodologia generale: modelli discriminativi Discriminativi non probabilistici: Trovare f : X {1,...,K} (funzione discriminante) che mappa ogni input x in una classe Ci (con i = f(x)) appena visti Discriminativi probabilistici: Effettuare direttamente una stima di p( y x) dal training set questo approccio è detto discriminativo, perchè, viene derivata una caratterizzazione dell output in funzione delle features, in modo tale da discriminare, dato un elemento, il più probabile tra i possibili valori dell output Esempio: regressione logistica (LR) y x

28 Metodologia generale: modelli generativi In un approccio generativo, viene derivato, per ogni possibile output, un modello (sotto forma di distribuzione di probabilità) degli elementi associati a quell output Descrizione completa della situazione: distribuzione di probabilità congiunta p(x, y ), derivata a partire dal training set y p(x, y )= p(y x) p(x ) x Inferire la probabilità a posteriori mediante regola di Bayes p( y x) = p(x, y ) / p(x) y x Modelli discriminativi probabilistici Discriminativi probabilistici: Effettuare direttamente una stima di p( y x) dal training set questo approccio è detto discriminativo, perchè, a partire da T, viene derivata una caratterizzazione dell output in funzione delle features, in modo tale da discriminare, dato un elemento, il più probabile tra i possibili valori dell output y x

29 Modelli discriminativi probabilistici //Regressione Logistica ) Modelli discriminativi probabilistici //regressione logistica: funzione logistica Logistica = La funzione inversa è la funzione logit = Derivata Proprietà di simmetria

30 Modelli discriminativi probabilistici //Regressione Logistica: algoritmo Trasformiamo il dato di input usando M funzioni di base Usiamo un modello lineare per descrivere la log-likelihood ratio Funzione Logistica Poichè Modelli discriminativi probabilistici //Regressione Logistica: algoritmo Algoritmo di base: Step 1. Calcolo la funzione logit con una regressione = Step 2. Inverto la logit ottenendo la logistica, cioè la posteriori

31 Modelli discriminativi probabilistici //regressione logistica: esempio a 2 classi function EsempioLogisticRegression() %dati di training x = [ ]'; y = [ ]'; %fitting con generalized linear model dello Statistical %Toolbox w = glmfit(x,[y ones(10,1)],'binomial','link','logit') %predizione lineare %z = w(1) + x * (w(2)) %applicazione della funzione logistica alla componente %lineare z = Logistic(w(1) + x * (w(2))) figure(1) plot(x,y,'o', x,z,'-', 'LineWidth',2) C0 C1 end function Output = Logistic(Input) Output = 1./ (1 + exp(-input)); end Modelli discriminativi probabilistici //regressione logistica Estensione a più classi: uso la decisione con funzione softmax La logistica è un caso particolare di softmax a due classi

32 Modelli discriminativi probabilistici //regressione logistica Bayesiana come se fosse una regressione, ma i target hanno una risposta binaria Modelli discriminativi probabilistici //regressione logistica Bayesiana a posteriori likelihood likelihood marginale a priori

33 Modelli discriminativi probabilistici //regressione logistica Bayesiana Funzione di likelihood (iid): likelihood funzione sigmoidale Modelli discriminativi probabilistici //regressione logistica Bayesiana Funzione di likelihood (iid): likelihood I target tn sono binari e seguono una distribuzione di Bernoulli

34 Modelli discriminativi probabilistici //regressione logistica Bayesiana Funzione di likelihood (iid): likelihood Modelli discriminativi probabilistici //regressione logistica Bayesiana Probabilità a priori: come nella regressione Si introduce una probabilità a priori su w (che regolarizza: favorisce piccoli w) a priori

35 Modelli discriminativi probabilistici //regressione logistica Bayesiana In termini Bayesiani: classificazione = predizione valore atteso rispetto alla posteriori Modelli discriminativi probabilistici //regressione logistica Bayesiana Predizione: in generale complicata, perché la likelihood non è gaussiana valore atteso rispetto alla posteriori likelihood a priori hic sunt leones! likelihood marginale (f. di partizione)

36 Modelli discriminativi probabilistici //regressione logistica Bayesiana Tre possibilità: 1.Trovo una stima puntuale dei parametri dove è max (Maximum A Posteriori, MAP) 2. Approssimo con distribuzioni più semplici (metodo di Laplace o met. variazionali) 3.Uso metodi di sampling (Monte Carlo) Modelli discriminativi probabilistici //regressione logistica Bayesiana Tre possibilità: 1.Trovo una stima puntuale dei parametri dove è max (Maximum A Posteriori, MAP) Non calcolabile in forma chiusa come nel caso del modello lineare: uso Newton Raphson

37 Modelli discriminativi probabilistici //regressione logistica Bayesiana Modelli discriminativi probabilistici //regressione logistica Bayesiana

38 Modelli discriminativi probabilistici //regressione logistica Bayesiana Predizione: in generale complicata, perché la likelihood non è gaussiana valore atteso rispetto alla posteriori likelihood a priori hic sunt leones! likelihood marginale (f. di partizione) Modelli discriminativi probabilistici //regressione logistica Bayesiana Predizione: in generale complicata, perché la likelihood non è gaussiana

39 Esempio Matlab %Newton routine per trovare i valori MAP di w1 & w2 %Fisso un numero di step a 10 e stime iniziali a w1=0, w2=0 N_Steps = 10; w = [0;0]; for m=1:n_steps %memorizza i parametri e plotta l evoluzione delle stime ww(m,:) = w; plot(ww(:,1),ww(:,2),'k.-'); drawnow pause(0.1) end %Newton Step P = 1./(1 + exp(-x*w)); V = diag(p.*(1-p)); H = inv(x'*v*x + eye(d)./alpha); w = H*X'*(V*X*w + t - P); %Calcola le nuove likelihood f=x*w; lpr = log(gauss(zeros(1,d),eye(d).*alpha,w')); llk = f'*t - sum(log(1+exp(f))); ljt = llk + lpr; fprintf('log-likelihood = %f, Joint-Likelihood = %f\n',llk,ljt) Esempio: classificazione logistica in approssimazione MAP

40 Modelli discriminativi probabilistici //regressione logistica Bayesiana: non lineare Esempio: classificazione logistica non lineare

41 Modelli generativi di classificazione In un approccio generativo, viene derivato, per ogni possibile output, un modello (sotto forma di distribuzione di probabilità) degli elementi associati a quell output Descrizione completa della situazione: distribuzione di probabilità congiunta p(x, y), derivata a partire dal training set y p(x, y )= p(y x) p(x ) x Inferire la probabilità a posteriori mediante regola di Bayes p( y x) = p(x, y ) / p(x) y x Modelli generativi di classificazione Prima (non generativo) modello diretto della pdf a posteriori Adesso definiamo una funzione discriminante che tiene conto degli a priori sulle classi modello della distribuzione a priori modello della likelihood

42 Modelli generativi di classificazione Adesso definiamo una funzione discriminante che tiene conto degli a priori sulle classi modello della distribuzione a priori Un opzione semplice: dato il training set, conto il numero di target appartenenti alla classe k Modelli generativi di classificazione // Modello Gaussiano (GDA) Adesso definiamo una funzione discriminante che tiene conto degli a priori sulle classi Funzione di verosimiglianza Gaussiana: modello della likelihood

43 Modelli generativi di classificazione // Modello Gaussiano (GDA) %% Stima dei parametri (ML) class_var = []; for c = 1:length(cl) pos = find(t==cl(c)); % Medie class_mean(c,:) = mean(x(pos,:)); % Matrici di covarianza class_var(:,:,c) = cov(x(pos,:),1); end %% Probabilità predittive [Xv,Yv] = meshgrid(-3:0.1:7,-6:0.1:6); Probs = []; for c = 1:length(cl) temp = [Xv(:)-class_mean(c,1) Yv(:)-class_mean(c,2)]; sigma_k = class_var(:,:,c); const = -log(2*pi) - log(det(sigma_k)); Probs(:,:,c) = reshape(exp(const - 0.5*diag(temp*inv(sigma_k)*temp')),size(Xv));; end Probs = Probs./repmat(sum(Probs,3),[1,1,3]); Modelli generativi di classificazione // Modello Gaussiano (GDA) Che forma ha la funzione discriminante (la curva di separazione? Forma quadratica Forma lineare: se le matrici di covarianza sono uguali LDA: Linear Discriminan Analysis

44 Modelli generativi di classificazione // Modello Gaussiano (GDA) %% Load dei dati load bc_data % Plot dei dati cl = unique(t); col = {'ko','kd','ks'} fcol = {[1 0 0],[0 1 0],[0 0 1]}; figure(1); title('dati originali') hold off for c = 1:length(cl) pos = find(t==cl(c)); plot(x(pos,1),x(pos,2),col{c},... 'markersize',10,'linewidth',2,... 'markerfacecolor',fcol{c}); hold on end xlim([-3 7]) ylim([-6 6]) Modelli generativi di classificazione // Modello Gaussiano (GDA) classe 1 classe 2 classe 3

45 Modelli generativi di classificazione // Naive Bayes (Bayes degli idioti) Adesso definiamo una funzione discriminante che tiene conto degli a priori sulle classi Funzione di verosimiglianza Gaussiana: modello della likelihood Matrice di covarianza diagonale Modelli generativi di classificazione // Naive Bayes (Bayes degli idioti) % Stima con l'ipotesi Naive for c = 1:length(cl) pos = find(t==cl(c)); % Find the means class_mean(c,:) = mean(x(pos,:)); class_var(c,:) = var(x(pos,:),1); end %% Probabilità predittive [Xv,Yv] = meshgrid(-3:0.1:7,-6:0.1:6); Probs = []; for c = 1:length(cl) temp = [Xv(:)-class_mean(c,1) Yv(:)-class_mean(c,2)]; sigma_k = diag(class_var(c,:)); const = -log(2*pi) - log(det(sigma_k)); Probs(:,:,c) = reshape(exp(const - 0.5*diag(temp*inv(sigma_k)*temp')),size(Xv));; end Probs = Probs./repmat(sum(Probs,3),[1,1,3]);

46 Modelli generativi di classificazione // Modello Gaussiano vs Gaussiano Naive classe 1 classe 2 classe 3 Esempio: classificazione generativa senza e con ipotesi naive

47 Modelli generativi di classificazione: GDA //input gaussiano vs LR GDA ha una forte assunzione di Gaussianità dei dati di input se l ipotesi è vera il classificatore è asintoticamente efficiente (il migliore) LR più robusta, meno dipendenza dalle ipotesi sui dati (gaussianità) se input non gaussiano per grandi N, LR è migliore di GDA Classificazione: appendici

48 Appendice 1 //Richiami di ottimizzazione vincolata Minimizzare f(x) sotto il vincolo (s.t.) g(x) = 0 Condizione necessaria affinchè x 0 sia una soluzione: α: moltiplicatore di Lagrange (Lagrange multiplier) Vincoli multipli (multiple constraints) g i (x) = 0, i=1,, m, un moltiplicatore α i per ciascun vincolo 95 Appendice 1 //Richiami di ottimizzazione vincolata Per vincoli del tipo g i (x) 0 il Lagrange multiplier α i deve essere positivo Se x 0 è soluzione per il problema esistono α i 0 per i=1,, m tali che x 0 soddisfa Lagrangiana La funzione essere messo a 0 è la Lagrangiana; il suo gradiente deve 96

49 Appendice 2: soft SVM //Non-linearly Separable Problems Consentiamo un errore ξ i nella classificazione; ξ i approssima il numero di sample misclassificati Class 2 Class 1 97 Appendice 2: soft SVM // Iper-piano a margine soft Minimizziamo i ξ i, ξ i si calcolano come ξ i sono slack variables Se ξ i =0 non c e errore per x i ξ i upper bound al numero di errori Minimizziamo C : tradeoff parameter tra errore e margine 98

50 Appendice 2: soft SVM // Iper-piano a margine soft Duale: w si ottiene come: 99 Appendice 2: soft SVM // Problemi di ottimizzazione soft vs. hard Soft margin Hard margin 100

51 Appendice 2: soft SVM // Algoritmo SVM soft (2)

Computazione per l interazione naturale: classificazione probabilistica

Computazione per l interazione naturale: classificazione probabilistica Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: classificazione probabilistica

Computazione per l interazione naturale: classificazione probabilistica Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Computazione per l interazione naturale: regressione logistica Bayesiana

Computazione per l interazione naturale: regressione logistica Bayesiana Computazione per l interazione naturale: regressione logistica Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: classificazione supervisionata

Computazione per l interazione naturale: classificazione supervisionata Computazione per l interazione naturale: classificazione supervisionata Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Computazione per l interazione naturale: processi gaussiani

Computazione per l interazione naturale: processi gaussiani Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Computazione per l interazione naturale: Regressione lineare

Computazione per l interazione naturale: Regressione lineare Computazione per l interazione naturale: Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it http://homes.dsi.unimi.it/~boccignone/l

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html

Dettagli

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale

Dettagli

Regressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione

Regressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione Regressione SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: Regressione probabilistica

Computazione per l interazione naturale: Regressione probabilistica Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Apprendimento statistico (Statistical Learning)

Apprendimento statistico (Statistical Learning) Apprendimento statistico (Statistical Learning) Il problema dell apprendimento Inquadriamo da un punto di vista statistico il problema dell apprendimento di un classificatore Un training set S={(x,y ),,(x

Dettagli

Apprendimento statistico (Statistical Learning)

Apprendimento statistico (Statistical Learning) Apprendimento statistico (Statistical Learning) Il problema dell apprendimento Inquadriamo da un punto di vista statistico il problema dell apprendimento di un classificatore Un training set S={(x,y ),,(x

Dettagli

Sistemi di Elaborazione dell Informazione 170. Caso Non Separabile

Sistemi di Elaborazione dell Informazione 170. Caso Non Separabile Sistemi di Elaborazione dell Informazione 170 Caso Non Separabile La soluzione vista in precedenza per esempi non-linearmente separabili non garantisce usualmente buone prestazioni perchè un iperpiano

Dettagli

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)

Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)

Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Algoritmi di classificazione supervisionati

Algoritmi di classificazione supervisionati Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale

Dettagli

Gaussian processes (GP)

Gaussian processes (GP) Gaussian processes (GP) Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it Giuseppe.Boccignone@unimi.it http://boccignone.di.unimi.it/compaff017.html

Dettagli

Università degli Studi di Roma Tor Vergata

Università degli Studi di Roma Tor Vergata Funzioni kernel Note dal corso di Machine Learning Corso di Laurea Specialistica in Informatica a.a. 2010-2011 Prof. Giorgio Gambosi Università degli Studi di Roma Tor Vergata 2 Queste note derivano da

Dettagli

Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri

Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali

Dettagli

Riduzione di dimensionalità

Riduzione di dimensionalità Riduzione di dimensionalità SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Computazione per l interazione naturale: clustering e riduzione di dimensionalità

Computazione per l interazione naturale: clustering e riduzione di dimensionalità Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it

Dettagli

Data Mining and Machine Learning Lab. Lezione 8 Master in Data Science for Economics, Business and Finance 2018

Data Mining and Machine Learning Lab. Lezione 8 Master in Data Science for Economics, Business and Finance 2018 Data Mining and Machine Learning Lab. Lezione 8 Master in Data Science for Economics, Business and Finance 2018 18.05.18 Marco Frasca Università degli Studi di Milano SVM - Richiami La Support Vector Machine

Dettagli

Classificazione Mario Guarracino Data Mining a.a. 2010/2011

Classificazione Mario Guarracino Data Mining a.a. 2010/2011 Classificazione Mario Guarracino Data Mining a.a. 2010/2011 Introduzione I modelli di classificazione si collocano tra i metodi di apprendimento supervisionato e si rivolgono alla predizione di un attributo

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Rappresentazione dei dati con i kernel Abbiamo una serie di oggetti S

Dettagli

Regressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Regressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Regressione Lineare Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 23/04/2018 Regressione Lineare Supervised Learning Supervised Learning: recap È il sottocampo del ML più vasto

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (2)

Computazione per l interazione naturale: fondamenti probabilistici (2) Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Teoria delle Decisioni Bayesiana

Teoria delle Decisioni Bayesiana Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 14 gennaio 2009 Sommario Introduzione Teoria delle decisioni Bayesiana - nel continuo Classificazione

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Classificatori discriminativi Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Introduzione

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Classificazione Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sistema di classificazione

Dettagli

Regressione Lineare e Regressione Logistica

Regressione Lineare e Regressione Logistica Regressione Lineare e Regressione Logistica Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com 1 Introduzione

Dettagli

Computazione per l interazione naturale: Modelli dinamici

Computazione per l interazione naturale: Modelli dinamici Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Minimi quadrati e massima verosimiglianza

Minimi quadrati e massima verosimiglianza Minimi quadrati e massima verosimiglianza 1 Introduzione Nella scorsa lezione abbiamo assunto che la forma delle probilità sottostanti al problema fosse nota e abbiamo usato gli esempi per stimare i parametri

Dettagli

Real-Time Visual Tracking Fabio Baldo matr , Luigi Carozza matr Sommario Introduzione Teoria di base Support Vector Machines Newton Raph

Real-Time Visual Tracking Fabio Baldo matr , Luigi Carozza matr Sommario Introduzione Teoria di base Support Vector Machines Newton Raph Applicazione del filtraggio alla Kalman e ottimizzazione mediante Corso di Progettazione dei Sistemi di Controllo - Università degli studi di Padova 29 Febbraio 2012 Il comprende tutti quegli algoritmi

Dettagli

Support Vector Machines introduzione

Support Vector Machines introduzione 7 Support Vector Machines introduzione Vittorio Maniezzo Università di Bologna 1 SVM - introduzione Le SV machinessono state sviluppate negli AT&T Bell Laboratoriesda Vapnike colleghi (Boseret al., 1992,

Dettagli

Classificazione e regressione per mezzo di Support Vector Machine

Classificazione e regressione per mezzo di Support Vector Machine Classificazione e regressione per mezzo di Support Vector Machine Felice Andrea Pellegrino Dipartimento di Elettrotecnica Elettronica e Informatica Università degli Studi di Trieste Il presente documento

Dettagli

Metodi supervisionati di classificazione

Metodi supervisionati di classificazione Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello

Dettagli

Cenni di apprendimento in Reti Bayesiane

Cenni di apprendimento in Reti Bayesiane Sistemi Intelligenti 216 Cenni di apprendimento in Reti Bayesiane Esistono diverse varianti di compiti di apprendimento La struttura della rete può essere nota o sconosciuta Esempi di apprendimento possono

Dettagli

Apprendimento Automatico

Apprendimento Automatico Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici (2)

Computazione per l interazione naturale: fondamenti probabilistici (2) Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it

Dettagli

SUPPORT VECTOR MACHINES. a practical guide

SUPPORT VECTOR MACHINES. a practical guide SUPPORT VECTOR MACHINES a practical guide 1 SUPPORT VECTOR MACHINES Consideriamo un problema di classificazione binaria, a partire da uno spazio di input X R n e uno spazio di output Y = { 1, 1} Training

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Classificatori generativi Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario Approcci

Dettagli

Approccio statistico alla classificazione

Approccio statistico alla classificazione Approccio statistico alla classificazione Approccio parametrico e non parametrico Finestra di Parzen Classificatori K-NN 1-NN Limitazioni dell approccio bayesiano Con l approccio bayesiano, sarebbe possibile

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Teoria e applicazioni industriali Parte 3 Costruzione di un classificatore Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

LEZIONE ICO

LEZIONE ICO LEZIONE ICO 9-10-2009 Argomento. Rassegna dei metodi numerici utilizzabili per la soluzione di problemi di ottimizzazione statica. Metodi del gradiente e di Newton e loro derivati. Metodi di penalita e

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici

Computazione per l interazione naturale: fondamenti probabilistici Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html

Dettagli

Regressione. Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting

Regressione. Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting Non lineare Variabile indipendente non lineare Ottimizzazione numerica (metodi iterativi) 1 Definizioni Nei

Dettagli

Apprendimento Automatico (Feature Selection e Kernel Learning)

Apprendimento Automatico (Feature Selection e Kernel Learning) Apprendimento Automatico (Feature Selection e Kernel Learning) Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Servono tutti gli attributi? Gli

Dettagli

ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno

ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno SIMULAZIONE ESAME di OTTIMIZZAZIONE 27 Gennaio 21 ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno Cognome : Nome : Esercizio 1. Si consideri il seguente problema: min

Dettagli

Classificazione. Classificatore di Bayes Approccio parametrico (distribuzione Multinormale) Approccio non parametrico (Parzen Window)

Classificazione. Classificatore di Bayes Approccio parametrico (distribuzione Multinormale) Approccio non parametrico (Parzen Window) Classificatore di Bayes Approccio parametrico (distribuzione Multinormale) Approccio non parametrico (Parzen Window) Nearest Neighbor k-nn Metriche SVM Lineari: pattern linearmente separabili e non Non

Dettagli

Analisi Discriminante Strumenti quantitativi per la gestione

Analisi Discriminante Strumenti quantitativi per la gestione Analisi Discriminante Strumenti quantitativi per la gestione Emanuele Taufer Un esempio introduttivo Approccio con Bayes Perchè un altro metodo di classificazione? Classificazione con Bayes Analisi discriminante

Dettagli

Indice generale. Introduzione. Ringraziamenti dell autore...xxi. Capitolo 1 Dare ai computer la capacità di apprendere dai dati...

Indice generale. Introduzione. Ringraziamenti dell autore...xxi. Capitolo 1 Dare ai computer la capacità di apprendere dai dati... Premessa Introduzione...xiii...xv Struttura del libro...xvi Dotazione software necessaria...xvii A chi è rivolto questo libro...xviii Convenzioni...xviii Scarica i file degli esempi...xix L autore...xix

Dettagli

Classificazione e regressione per mezzo di Support Vector Machine

Classificazione e regressione per mezzo di Support Vector Machine Classificazione e regressione per mezzo di Support Vector Machine Felice Andrea Pellegrino Dipartimento di Elettrotecnica Elettronica e Informatica Università degli Studi di Trieste fapellegrino@units.it

Dettagli

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 2 Teoria della decisione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

Computazione per l interazione naturale: fondamenti probabilistici

Computazione per l interazione naturale: fondamenti probabilistici Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html

Dettagli

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Università di Siena Corso di STATISTICA Parte seconda: Teoria della stima Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di

Dettagli

METODI DI CLASSIFICAZIONE. Federico Marini

METODI DI CLASSIFICAZIONE. Federico Marini METODI DI CLASSIFICAZIONE Federico Marini Introduzione Nella parte introduttiva dell analisi multivariata abbiamo descritto la possibilità di riconoscere l origine di alcuni campioni come uno dei campi

Dettagli

Support Vector Machines

Support Vector Machines F94) Metodi statistici per l apprendimento Support Vector Machines Docente: Nicolò Cesa-Bianchi versione 28 maggio 208 La Support Vector Machine d ora in poi SVM) è un algoritmo di apprendimento per classificatori

Dettagli

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018 DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018 Nome: Cognome: Matricola:

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 8 Support Vector Machines Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

Introduzione alle Reti Neurali

Introduzione alle Reti Neurali Introduzione alle Reti Neurali Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com Reti Neurali Terminator

Dettagli

1 PROCESSI STOCASTICI... 11

1 PROCESSI STOCASTICI... 11 1 PROCESSI STOCASTICI... 11 Introduzione... 11 Rappresentazione dei dati biomedici... 11 Aleatorietà delle misure temporali... 14 Medie definite sul processo aleatorio... 16 Valore atteso... 16 Esercitazione

Dettagli

0 altimenti 1 soggetto trova lavoroentro 6 mesi}

0 altimenti 1 soggetto trova lavoroentro 6 mesi} Lezione n. 16 (a cura di Peluso Filomena Francesca) Oltre alle normali variabili risposta che presentano una continuità almeno all'interno di un certo intervallo di valori, esistono variabili risposta

Dettagli

Calcolo delle Probabilità 2

Calcolo delle Probabilità 2 Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale

Dettagli

Classificazione introduzione

Classificazione introduzione - Classificazione introduzione Vittorio Maniezzo Università di Bologna 1 Ringraziamenti Questi lucidi derivano anche da adattamenti personali di materiale prodotto (fornitomi o reso scaricabile) da: A.

Dettagli

5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate. min f(x) s.v. c i (x) 0 i I c i (x) = 0 i E (1) x R n

5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate. min f(x) s.v. c i (x) 0 i I c i (x) = 0 i E (1) x R n 5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate Consideriamo il generico problema di PNL min f(x) s.v. c i (x) 0 i I c i (x) = 0 i E (1) x R n dove f e le c i sono di classe

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Comput per l inter naturale: macchine che apprendono Corso di Inter uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it http://boccignone.di.unimi.it/ium2_2014.html

Dettagli

Metodi Numerici con elementi di Programmazione (A.A )

Metodi Numerici con elementi di Programmazione (A.A ) Metodi Numerici con elementi di Programmazione (A.A. 2013-2014) Metodi Numerici Appunti delle lezioni: Approssimazione di dati e funzioni Approssimazione ai minimi quadrati Docente Vittoria Bruni Email:

Dettagli

Classificazione. Classificatore di Bayes Approccio parametrico (distribuzione Multinormale) Approccio non parametrico (Parzen Window)

Classificazione. Classificatore di Bayes Approccio parametrico (distribuzione Multinormale) Approccio non parametrico (Parzen Window) Classificatore di Bayes Approccio parametrico (distribuzione Multinormale) Approccio non parametrico (Parzen Window) Nearest Neighbor k-nn Metriche SVM Lineari: pattern linearmente separabili e non Non

Dettagli

Indice. Prefazione Ringraziamenti

Indice. Prefazione Ringraziamenti Prefazione Ringraziamenti xi xiv Argomento di ripasso Argomento più difficile 1 Matrici e vettori 1 1.1 Matrici 1 1.2 Esercizi 11 1.3 Vettori di R 2 14 1.4 Esercizi 20 1.5 Vettori di R 3 21 1.6 Rette 24

Dettagli

Reti Neurali in Generale

Reti Neurali in Generale istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono

Dettagli

Modelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo

Modelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo Modelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università

Dettagli

25 - Funzioni di più Variabili Introduzione

25 - Funzioni di più Variabili Introduzione Università degli Studi di Palermo Facoltà di Economia CdS Statistica per l Analisi dei Dati Appunti del corso di Matematica 25 - Funzioni di più Variabili Introduzione Anno Accademico 2013/2014 M. Tumminello

Dettagli

Metodi di classificazione

Metodi di classificazione I metodi di classificazione sono metodi utilizzati per trovare modelli statistici capaci di assegnare ciascun oggetto di provenienza incognita ad una delle classi esistenti. L applicazione di questi metodi

Dettagli

Introduzione al Metodo agli Elementi Finiti (FEM) (x, y) Γ Tale formulazione viene detta Formulazione forte del problema.

Introduzione al Metodo agli Elementi Finiti (FEM) (x, y) Γ Tale formulazione viene detta Formulazione forte del problema. Introduzione al Metodo agli Elementi Finiti (FEM) Consideriamo come problema test l equazione di Poisson 2 u x 2 + 2 u = f(x, y) u = f y2 definita su un dominio Ω R 2 avente come frontiera la curva Γ,

Dettagli

1. Si scriva una function Matlab che implementa il seguente metodo di punto fisso

1. Si scriva una function Matlab che implementa il seguente metodo di punto fisso Domanda 1 1. Si scriva una function Matlab che implementa il seguente metodo di punto fisso x n+1 = x n f(x n), n = 0, 1, 2,... K dove x 0 è il punto iniziale, f(x) = x 3 cos(x) e K è una costante assegnata.

Dettagli

Esercizio 1. Esercizio 2

Esercizio 1. Esercizio 2 Sia data la matrice A A(α) = Esercizio α 2 2α 2 2, α R.) determinare per quali valori del parametro reale α é verificata la condizione necessaria e sufficiente di convergenza per il metodo di Jacobi;.2)

Dettagli

BOLLETTINO UNIONE MATEMATICA ITALIANA

BOLLETTINO UNIONE MATEMATICA ITALIANA BOLLETTINO UNIONE MATEMATICA ITALIANA Sezione A La Matematica nella Società e nella Cultura Annabella Astorino Programmazione matematica e classificazione Bollettino dell Unione Matematica Italiana, Serie

Dettagli

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016 Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 205/206 20 Settembre 206 Esercizio. Un dado equilibrato viene lanciato ripetutamente. Indichiamo con X n il risultato dell n-esimo

Dettagli

5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate

5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate 5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate Consideriamo il generico problema di PNL min f (x) s.v. c i (x) 0 i I c i (x) = 0 i E (1) x R n dove f e le c i sono di classe

Dettagli

Criteri alternativi all Entropia

Criteri alternativi all Entropia Sistemi Intelligenti 94 Criteri alternativi all Entropia Altri criteri suggeriti al posto dell Entropia: - Variance Impurity (per due classi) - (Weighted) Gini Impurity (generalizzazione di Variance Impurity

Dettagli

Naïve Bayesian Classification

Naïve Bayesian Classification Naïve Bayesian Classification Di Alessandro rezzani Sommario Naïve Bayesian Classification (o classificazione Bayesiana)... 1 L algoritmo... 2 Naive Bayes in R... 5 Esempio 1... 5 Esempio 2... 5 L algoritmo

Dettagli

I Componenti del processo decisionale 7

I Componenti del processo decisionale 7 Indice Introduzione 1 I Componenti del processo decisionale 7 1 Business intelligence 9 1.1 Decisioni efficaci e tempestive........ 9 1.2 Dati, informazioni e conoscenza....... 12 1.3 Ruolo dei modelli

Dettagli

Modelli tradizionali e statistici applicati alla percezione (2/2) Francesco Panerai

Modelli tradizionali e statistici applicati alla percezione (2/2) Francesco Panerai Modelli tradizionali e statistici applicati alla percezione (2/2) Francesco Panerai Modulo integrativo del corso di - Sistemi Intelligenti Naturali e Artificiali - 2002/2003 Elementi di statistica bayesiana

Dettagli

Introduzione al Column Generation Caso di Studio: il Bin Packing Problem

Introduzione al Column Generation Caso di Studio: il Bin Packing Problem Introduzione al Column Generation Caso di Studio: il Bin Packing Problem November 15, 2014 1 / 26 Introduzione Il column generation è una metodologia che può essere usata per risolvere problemi di ottimizzazione

Dettagli

Test statistici. Per ogni processo che stiamo considerando avremo una ipotesi per la pdf di e.g.

Test statistici. Per ogni processo che stiamo considerando avremo una ipotesi per la pdf di e.g. Test statistici Supponiamo che il risultato delle misure su un certo evento sia un insieme di valori x 1 = numero muoni, x 2 = p t medio dei jet, x 3 = energia mancante,... è distribuito secondo una pdf

Dettagli

Esame di Calcolo Numerico per Informatica A.A. 2010/11 Proff. S. De Marchi e M. R. Russo 31 agosto 2011 Testo e soluzioni

Esame di Calcolo Numerico per Informatica A.A. 2010/11 Proff. S. De Marchi e M. R. Russo 31 agosto 2011 Testo e soluzioni Esame di Calcolo Numerico per Informatica A.A. 21/11 Proff. S. De Marchi e M. R. Russo 31 agosto 211 Testo e soluzioni L esame consiste di 4 domande aperte e 1 esercizi a risposta multipla. Per gli esercizi

Dettagli

Corso di Intelligenza Artificiale A.A. 2016/2017

Corso di Intelligenza Artificiale A.A. 2016/2017 Università degli Studi di Cagliari Corsi di Laurea Magistrale in Ing. Elettronica Corso di Intelligenza rtificiale.. 26/27 Esercizi sui metodi di apprendimento automatico. Si consideri la funzione ooleana

Dettagli

Riconoscimento automatico di oggetti (Pattern Recognition)

Riconoscimento automatico di oggetti (Pattern Recognition) Riconoscimento automatico di oggetti (Pattern Recognition) Scopo: definire un sistema per riconoscere automaticamente un oggetto data la descrizione di un oggetto che può appartenere ad una tra N classi

Dettagli

Limitazioni dei sistemi mono-modali

Limitazioni dei sistemi mono-modali Sistemi i multi-biometrici t i i Dario Maio dario.maio@unibo.it Annalisa Franco annalisa.franco@unibo.it Limitazioni dei sistemi mono-modali Rumore oe nei dati acquisiti dovuto o al sensore o a condizioni

Dettagli

Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione

Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Corso di Bioinformatica Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di machine learning I metodi

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 2 Teoria della decisione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli