Classificazione. Apprendimento supervisionato //Classificazione. Corso di Sistemi di Elaborazione dell Informazione
|
|
- Fabriciano Graziano
- 5 anni fa
- Visualizzazioni
Transcript
1 Classificazione SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano Apprendimento supervisionato //Classificazione
2 Apprendimento supervisionato //Classificazione Apprendimento supervisionato //Classificazione vs regressione Regressione Classificazione
3 Apprendimento supervisionato //Classificazione vs regressione Regressione Classificazione Terminologia generale I valori y che si vogliono predire hanno come dominio un insieme discreto,in cui ogni valore denota una classe Ci Lo spazio di input è diviso in regioni di decisione Ri Modelli lineari di classificazione: i confini di decisione sono funzioni lineari dell input x (iperpiani a m 1 dimensioni nello spazio m-dimensionale delle features) Insiemi di dati linearmente separabili: le classi possono essere separate in modo esatto per mezzo di superfici lineari.
4 Metodologia generale: modelli discriminativi //non probabilistici Discriminativi non probabilistici: Trovare f : X {1,...,K} (funzione discriminante) che mappa ogni input x in una classe Ci (con i = f(x)) Esempi: k-nearest Neighbor (knn) SVM (Support Vector Machine) Metodologia generale: modelli discriminativi //non probabilistici Discriminativi non probabilistici: Nearest - Neighbor : Uno dei classificatori più semplici
5 Metodologia generale: modelli discriminativi //non probabilistici Discriminativi non probabilistici: Nearest - Neighbor : Uno dei classificatori più semplici Troviamo il valore più vicino e rubiamo la sua label? Metodologia generale: modelli discriminativi //non probabilistici Discriminativi non probabilistici: Nearest - Neighbor : Uno dei classificatori più semplici Troviamo il valore più vicino e rubiamo la sua label % Input: % - data set X : matrice NxD % - label t : vettore Nx1 % - test point Xtest : vettore 1xD % Output: % - X(j,:) : il N-N % - t(j) : label del N-N distanza del vicino [N,D]=size (X); Xdisp = X - repmat(xtest,n,1); Xdist2 = sum(xdisp.^2, 2); [min_dist2, j]= min(xdist2) ;? lab = t(j);
6 Esempio: classificatore NN su binary digits k-nearest Neighbor Generalizziamo NN a knn: Troviamo i k più vicini a e ognuno vota con la propria label Si decide a maggioranza (Majority Vote) (Se non c e una maggioranza si fa scelta random)
7 k-nearest Neighbor function [error,tpred] = knn_multi_class(x, t, Xtest, ttest, k) Ntest = size(xtest,1); N = size(x,1); tpred = zeros(ntest,1); C = max(t); for n=1:ntest Dist = sum(( repmat(xtest(n,:),n,1) - X ).^2,2 ); [sorted_list,sorted_index] = sort(dist); [max_k, index_max_k] = max(histc(t(sorted_index(1:k)),1:c));%conteggia le classi con histc % e prende il max tpred(n) = index_max_k; end error = 100*sum(tpred ~= ttest)/ntest; Esempio: ruolo di K in un classificatore knn
8 Support Vector Machine (SVM) // Cos è un buon Decision Boundary? Class 2 Class 2 Class 1 Class 1 15 Support Vector Machine (SVM) //Cos è un buon Decision Boundary? Due classi linearmente separabili Soluzione discriminativa: caso binario: target +1 / -1 16
9 Support Vector Machine (SVM) //Cos è un buon Decision Boundary? Intuitivamente: Decision boundary: deve essere lontano dai dati di entrambe le classi Class 1 Class 2 Margine 17 Support Vector Machine (SVM) // Large-margin Decision Boundary Decision boundary: deve essere lontano dai dati di entrambe le classi Massimizzare il margine, m Distanza tra l origine e la retta w t x=k è k/ w Distanza punti / iperpiano Class 2 Class 1 m 18
10 Support Vector Machine (SVM) // Large-margin Decision Boundary Decision boundary: deve essere lontano dai dati di entrambe le classi Punti più vicini al margine Distanza punti / iperpiano Margine Class 2 Class 1 m 19 Support Vector Machine (SVM) // Trovare il Decision Boundary Decision boundary: deve essere lontano dai dati di entrambe le classi Massimizzare il margine minimizzare Class 2 Class 1 m 20
11 Support Vector Machine (SVM) // Trovare il Decision Boundary {x 1,..., x n } data set osservato, y i {1,-1} la label di classe per x i Il decision boundary dovrebbe classificare perfettamente Problema di ottimizzazione vincolata: Margin minimization 21 Support Vector Machine (SVM) // Trovare il Decision Boundary Minimizzo la funzione Lagrangiana (problema primale): con w 2 = w T w Calcolo gradiente di rispetto a w e b e pongo a zero 22
12 Il problema duale Sostituiamo in E funzione solo di α i 23 Il problema duale Problema duale: se conosco w, conosco α i ; se conosco α i, conosco w Massimizzo la nuova funzione obbiettivo (problema duale) 24
13 Il problema duale E un problema di programmazione quadratica (quadratic programming, QP) Esiste sempre un massimo globale rispetto a α i w si calcola poi come: 25 Il problema QP Molti metodi di QP Loqo, cplex, etc. ( Per SVM, sequential minimal optimization (SMO) è il più popolare QP: triviale da risolvere con due variabili Iterativamente: si seleziona una coppia (α i,α j ) e si risolve QP; si ripete fino a convergenza Per i nostri fini il QP solver è una black-box che utilizziamo e basta! 26
14 Support Vector Machine (SVM) // Soluzione Predizione rispetto a un dato nuovo z = Calcoliamo Classifichiamo z nella classe 1 se la somma è positiva, altrimenti classe 2 Nota: w non deve essere calcolato esplicitamente 27 Support Vector Machine (SVM) // Algoritmo SVM di base
15 Support Vector Machine (SVM) // Forma matriciale kernel Support Vector Machine (SVM) // Un esempio semplificato clear Step=0.5; N = 50; C=1000; X = [randn(n/2,2);randn(n/2,2)+[ones(n/2,1).*6 zeros(n/2,1)]]; t=[ones(n/2,1);-ones(n/2,1)]; [alpha,w_0,alpha_index]= mioqp(diag(t)*x*x'*diag(t),ones(n,1),t,c,1e-6); %Griglia dei contorni mn = min(x); mx = max(x); [x1,x2]=meshgrid(floor(mn(1)):step:ceil(mx(1)),floor(mn(2)):step:ceil(mx(2))); [n11,n12]=size(x1); [n21,n22]=size(x2); XG=[reshape(x1,n11*n12,1) reshape(x2,n21*n22,1)]; f = (t(alpha_index).*alpha)'*x(alpha_index,:)*xg' + w_0; plot(x(alpha_index,1),x(alpha_index,2),'go'); hold plot(x(1:n/2,1),x(1:n/2,2),'.') plot(x(n/2+1:n,1),x(n/2+1:n,2),'r.') contour(x1,x2,reshape(f,[n11,n12]),[0 0]); hold off
16 Esempio: hard margin SVM Support Vector Machine (SVM) // Caratteristiche della soluzione: sparsità α 5 =0 α 4 =0 α 9 =0 Class 1 α 8 =0. 6 α 6 =1.4 α 3 =0 α 10 =0 α 1 =0.8 Class 2 α 7 =0 α 2 =0 32
17 Support Vector Machine (SVM) // Caratteristiche della soluzione: sparsità Molti α i sono nulli w è combinazione lineare di pochi punti Rappresentazione sparsa: data compression Sparse kernel machines x i corrispondenti ad α i diversi da zero: support vectors (SV) Il decision boundary è determinato unicamente dai SV Siano t j (j=1,..., s) gli indici dei SV: 33 Soft SVM //Non-linearly Separable Problems Consentiamo un errore ξ i nella classificazione; ξ i approssima il numero di sample misclassificati Class 2 Class 1 34
18 Appendice 2: soft SVM // Problemi di ottimizzazione soft vs. hard Soft margin Hard margin 35 Esempio: soft margin SVM
19 Support Vector Machine (SVM) // Estensione a Decision Boundary non lineare Abbiamo considerato un classificatore con decision boundary lineare Come generalizzare al caso non lineare? kernel 37 Support Vector Machine (SVM) // Estensione a Decision Boundary non lineare Abbiamo considerato un classificatore con decision boundary lineare Come generalizzare al caso non lineare? Idea: trasformare x i in uno spazio a dimensionalità maggiore Input space: spazio dei dati x i Feature space: lo spazio degli φ(x i ) dopo la trasformazione Perchè? Operazione lineare nel feature space = operazione non lineare nell input space 38
20 Support Vector Machine (SVM) // Trasformare i dati Input space φ(.) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) φ( ) Feature space 39 Support Vector Machine (SVM) // Trasformare i dati con un polinomio di ordine 2 40
21 Support Vector Machine (SVM) // Trasformare i dati con una Radial Basis Function (RBF) 41 Support Vector Machine (SVM) // Il Kernel Trick Ricordiamo il problema iniziale I punti compaiono solo come distanza o prodotto scalare (inner product) Se dobbiamo calcolare una distanza nel feature space, non abbiamo bisogno del mapping esplicito Si definisce la funzione di kernel K come: 42
22 Support Vector Machine (SVM) // Esempi di Kernel Functions Polynomial kernel di grado d Radial Basis Function (RBF) kernel di ampiezza σ Collegato ai RBF neural networks Feature space infinito Sigmoide di parametri κ e θ 43 Support Vector Machine (SVM) // Algoritmo SVM (3)
23 Esempio: SVM con kernel Gaussiano Support Vector Machine (SVM) // altri aspetti Classificazione multi-class? Si può cambiare la formulazione di QP Oppure combinare multiple binary classifiers one-versus-all classifiers multiple pairwise classifiers intelligently Come interpretare il valore della SVM discriminant function in termini di probabilità? Effettuare logistic regression sull output di SVM su validation set Usare software SVM (e.g. libsvm) che è multi-class 46
24 Support Vector Machine (SVM) // Istruzioni per l uso Preparare la pattern matrix Selezionare la kernel function Selezionare i parametri della kernel function e il valore di C validation set Training per ottenere gli α i Classificare usando α i e support vectors ricavati dal training 47 Classificazione probabilistica Predire il genere dall altezza: Dati osservati (likelihood) Regione di separazione Prob. a priori Prob. a posteriori (Bayes)
25 Classificazione probabilistica Date le probabilità a posteriori: Regione di separazione Classifichiamo se: Possiamo Trovare f : X {1,...,K} (funzione discriminante) che mappa ogni input x in una classe Ci (con i = f(x)) Classificazione probabilistica Classifichiamo se: Regione di separazione Possiamo Trovare f : X {1,...,K} (funzione discriminante) che mappa ogni input x in una classe Ci (con i = f(x)) Esempio:
26 Metodologia generale: modelli discriminativi Discriminativi non probabilistici: Trovare f : X {1,...,K} (funzione discriminante) che mappa ogni input x in una classe Ci (con i = f(x)) Esempio: SVM (Support Vector Machine) Funzioni di discriminazione //lineari e lineari generalizzate Cos è un classificatore lineare? parte adattiva lineare decisione non lineare
27 Funzioni di discriminazione //lineari e lineari generalizzate Consentono di assegnare ogni input x a una classe Definiscono una partizione dello spazio degli input in regioni Ri tali che se x Ri allora x viene assegnato alla classe Ci Modello lineare: Modello lineare generalizzato (GLM): funzione di attivazione, non lineare funzione di attivazione, non lineare Metodologia generale: modelli discriminativi Discriminativi non probabilistici: Trovare f : X {1,...,K} (funzione discriminante) che mappa ogni input x in una classe Ci (con i = f(x)) appena visti Discriminativi probabilistici: Effettuare direttamente una stima di p( y x) dal training set questo approccio è detto discriminativo, perchè, viene derivata una caratterizzazione dell output in funzione delle features, in modo tale da discriminare, dato un elemento, il più probabile tra i possibili valori dell output Esempio: regressione logistica (LR) y x
28 Metodologia generale: modelli generativi In un approccio generativo, viene derivato, per ogni possibile output, un modello (sotto forma di distribuzione di probabilità) degli elementi associati a quell output Descrizione completa della situazione: distribuzione di probabilità congiunta p(x, y ), derivata a partire dal training set y p(x, y )= p(y x) p(x ) x Inferire la probabilità a posteriori mediante regola di Bayes p( y x) = p(x, y ) / p(x) y x Modelli discriminativi probabilistici Discriminativi probabilistici: Effettuare direttamente una stima di p( y x) dal training set questo approccio è detto discriminativo, perchè, a partire da T, viene derivata una caratterizzazione dell output in funzione delle features, in modo tale da discriminare, dato un elemento, il più probabile tra i possibili valori dell output y x
29 Modelli discriminativi probabilistici //Regressione Logistica ) Modelli discriminativi probabilistici //regressione logistica: funzione logistica Logistica = La funzione inversa è la funzione logit = Derivata Proprietà di simmetria
30 Modelli discriminativi probabilistici //Regressione Logistica: algoritmo Trasformiamo il dato di input usando M funzioni di base Usiamo un modello lineare per descrivere la log-likelihood ratio Funzione Logistica Poichè Modelli discriminativi probabilistici //Regressione Logistica: algoritmo Algoritmo di base: Step 1. Calcolo la funzione logit con una regressione = Step 2. Inverto la logit ottenendo la logistica, cioè la posteriori
31 Modelli discriminativi probabilistici //regressione logistica: esempio a 2 classi function EsempioLogisticRegression() %dati di training x = [ ]'; y = [ ]'; %fitting con generalized linear model dello Statistical %Toolbox w = glmfit(x,[y ones(10,1)],'binomial','link','logit') %predizione lineare %z = w(1) + x * (w(2)) %applicazione della funzione logistica alla componente %lineare z = Logistic(w(1) + x * (w(2))) figure(1) plot(x,y,'o', x,z,'-', 'LineWidth',2) C0 C1 end function Output = Logistic(Input) Output = 1./ (1 + exp(-input)); end Modelli discriminativi probabilistici //regressione logistica Estensione a più classi: uso la decisione con funzione softmax La logistica è un caso particolare di softmax a due classi
32 Modelli discriminativi probabilistici //regressione logistica Bayesiana come se fosse una regressione, ma i target hanno una risposta binaria Modelli discriminativi probabilistici //regressione logistica Bayesiana a posteriori likelihood likelihood marginale a priori
33 Modelli discriminativi probabilistici //regressione logistica Bayesiana Funzione di likelihood (iid): likelihood funzione sigmoidale Modelli discriminativi probabilistici //regressione logistica Bayesiana Funzione di likelihood (iid): likelihood I target tn sono binari e seguono una distribuzione di Bernoulli
34 Modelli discriminativi probabilistici //regressione logistica Bayesiana Funzione di likelihood (iid): likelihood Modelli discriminativi probabilistici //regressione logistica Bayesiana Probabilità a priori: come nella regressione Si introduce una probabilità a priori su w (che regolarizza: favorisce piccoli w) a priori
35 Modelli discriminativi probabilistici //regressione logistica Bayesiana In termini Bayesiani: classificazione = predizione valore atteso rispetto alla posteriori Modelli discriminativi probabilistici //regressione logistica Bayesiana Predizione: in generale complicata, perché la likelihood non è gaussiana valore atteso rispetto alla posteriori likelihood a priori hic sunt leones! likelihood marginale (f. di partizione)
36 Modelli discriminativi probabilistici //regressione logistica Bayesiana Tre possibilità: 1.Trovo una stima puntuale dei parametri dove è max (Maximum A Posteriori, MAP) 2. Approssimo con distribuzioni più semplici (metodo di Laplace o met. variazionali) 3.Uso metodi di sampling (Monte Carlo) Modelli discriminativi probabilistici //regressione logistica Bayesiana Tre possibilità: 1.Trovo una stima puntuale dei parametri dove è max (Maximum A Posteriori, MAP) Non calcolabile in forma chiusa come nel caso del modello lineare: uso Newton Raphson
37 Modelli discriminativi probabilistici //regressione logistica Bayesiana Modelli discriminativi probabilistici //regressione logistica Bayesiana
38 Modelli discriminativi probabilistici //regressione logistica Bayesiana Predizione: in generale complicata, perché la likelihood non è gaussiana valore atteso rispetto alla posteriori likelihood a priori hic sunt leones! likelihood marginale (f. di partizione) Modelli discriminativi probabilistici //regressione logistica Bayesiana Predizione: in generale complicata, perché la likelihood non è gaussiana
39 Esempio Matlab %Newton routine per trovare i valori MAP di w1 & w2 %Fisso un numero di step a 10 e stime iniziali a w1=0, w2=0 N_Steps = 10; w = [0;0]; for m=1:n_steps %memorizza i parametri e plotta l evoluzione delle stime ww(m,:) = w; plot(ww(:,1),ww(:,2),'k.-'); drawnow pause(0.1) end %Newton Step P = 1./(1 + exp(-x*w)); V = diag(p.*(1-p)); H = inv(x'*v*x + eye(d)./alpha); w = H*X'*(V*X*w + t - P); %Calcola le nuove likelihood f=x*w; lpr = log(gauss(zeros(1,d),eye(d).*alpha,w')); llk = f'*t - sum(log(1+exp(f))); ljt = llk + lpr; fprintf('log-likelihood = %f, Joint-Likelihood = %f\n',llk,ljt) Esempio: classificazione logistica in approssimazione MAP
40 Modelli discriminativi probabilistici //regressione logistica Bayesiana: non lineare Esempio: classificazione logistica non lineare
41 Modelli generativi di classificazione In un approccio generativo, viene derivato, per ogni possibile output, un modello (sotto forma di distribuzione di probabilità) degli elementi associati a quell output Descrizione completa della situazione: distribuzione di probabilità congiunta p(x, y), derivata a partire dal training set y p(x, y )= p(y x) p(x ) x Inferire la probabilità a posteriori mediante regola di Bayes p( y x) = p(x, y ) / p(x) y x Modelli generativi di classificazione Prima (non generativo) modello diretto della pdf a posteriori Adesso definiamo una funzione discriminante che tiene conto degli a priori sulle classi modello della distribuzione a priori modello della likelihood
42 Modelli generativi di classificazione Adesso definiamo una funzione discriminante che tiene conto degli a priori sulle classi modello della distribuzione a priori Un opzione semplice: dato il training set, conto il numero di target appartenenti alla classe k Modelli generativi di classificazione // Modello Gaussiano (GDA) Adesso definiamo una funzione discriminante che tiene conto degli a priori sulle classi Funzione di verosimiglianza Gaussiana: modello della likelihood
43 Modelli generativi di classificazione // Modello Gaussiano (GDA) %% Stima dei parametri (ML) class_var = []; for c = 1:length(cl) pos = find(t==cl(c)); % Medie class_mean(c,:) = mean(x(pos,:)); % Matrici di covarianza class_var(:,:,c) = cov(x(pos,:),1); end %% Probabilità predittive [Xv,Yv] = meshgrid(-3:0.1:7,-6:0.1:6); Probs = []; for c = 1:length(cl) temp = [Xv(:)-class_mean(c,1) Yv(:)-class_mean(c,2)]; sigma_k = class_var(:,:,c); const = -log(2*pi) - log(det(sigma_k)); Probs(:,:,c) = reshape(exp(const - 0.5*diag(temp*inv(sigma_k)*temp')),size(Xv));; end Probs = Probs./repmat(sum(Probs,3),[1,1,3]); Modelli generativi di classificazione // Modello Gaussiano (GDA) Che forma ha la funzione discriminante (la curva di separazione? Forma quadratica Forma lineare: se le matrici di covarianza sono uguali LDA: Linear Discriminan Analysis
44 Modelli generativi di classificazione // Modello Gaussiano (GDA) %% Load dei dati load bc_data % Plot dei dati cl = unique(t); col = {'ko','kd','ks'} fcol = {[1 0 0],[0 1 0],[0 0 1]}; figure(1); title('dati originali') hold off for c = 1:length(cl) pos = find(t==cl(c)); plot(x(pos,1),x(pos,2),col{c},... 'markersize',10,'linewidth',2,... 'markerfacecolor',fcol{c}); hold on end xlim([-3 7]) ylim([-6 6]) Modelli generativi di classificazione // Modello Gaussiano (GDA) classe 1 classe 2 classe 3
45 Modelli generativi di classificazione // Naive Bayes (Bayes degli idioti) Adesso definiamo una funzione discriminante che tiene conto degli a priori sulle classi Funzione di verosimiglianza Gaussiana: modello della likelihood Matrice di covarianza diagonale Modelli generativi di classificazione // Naive Bayes (Bayes degli idioti) % Stima con l'ipotesi Naive for c = 1:length(cl) pos = find(t==cl(c)); % Find the means class_mean(c,:) = mean(x(pos,:)); class_var(c,:) = var(x(pos,:),1); end %% Probabilità predittive [Xv,Yv] = meshgrid(-3:0.1:7,-6:0.1:6); Probs = []; for c = 1:length(cl) temp = [Xv(:)-class_mean(c,1) Yv(:)-class_mean(c,2)]; sigma_k = diag(class_var(c,:)); const = -log(2*pi) - log(det(sigma_k)); Probs(:,:,c) = reshape(exp(const - 0.5*diag(temp*inv(sigma_k)*temp')),size(Xv));; end Probs = Probs./repmat(sum(Probs,3),[1,1,3]);
46 Modelli generativi di classificazione // Modello Gaussiano vs Gaussiano Naive classe 1 classe 2 classe 3 Esempio: classificazione generativa senza e con ipotesi naive
47 Modelli generativi di classificazione: GDA //input gaussiano vs LR GDA ha una forte assunzione di Gaussianità dei dati di input se l ipotesi è vera il classificatore è asintoticamente efficiente (il migliore) LR più robusta, meno dipendenza dalle ipotesi sui dati (gaussianità) se input non gaussiano per grandi N, LR è migliore di GDA Classificazione: appendici
48 Appendice 1 //Richiami di ottimizzazione vincolata Minimizzare f(x) sotto il vincolo (s.t.) g(x) = 0 Condizione necessaria affinchè x 0 sia una soluzione: α: moltiplicatore di Lagrange (Lagrange multiplier) Vincoli multipli (multiple constraints) g i (x) = 0, i=1,, m, un moltiplicatore α i per ciascun vincolo 95 Appendice 1 //Richiami di ottimizzazione vincolata Per vincoli del tipo g i (x) 0 il Lagrange multiplier α i deve essere positivo Se x 0 è soluzione per il problema esistono α i 0 per i=1,, m tali che x 0 soddisfa Lagrangiana La funzione essere messo a 0 è la Lagrangiana; il suo gradiente deve 96
49 Appendice 2: soft SVM //Non-linearly Separable Problems Consentiamo un errore ξ i nella classificazione; ξ i approssima il numero di sample misclassificati Class 2 Class 1 97 Appendice 2: soft SVM // Iper-piano a margine soft Minimizziamo i ξ i, ξ i si calcolano come ξ i sono slack variables Se ξ i =0 non c e errore per x i ξ i upper bound al numero di errori Minimizziamo C : tradeoff parameter tra errore e margine 98
50 Appendice 2: soft SVM // Iper-piano a margine soft Duale: w si ottiene come: 99 Appendice 2: soft SVM // Problemi di ottimizzazione soft vs. hard Soft margin Hard margin 100
51 Appendice 2: soft SVM // Algoritmo SVM soft (2)
Computazione per l interazione naturale: classificazione probabilistica
Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: classificazione probabilistica
Computazione per l interazione naturale: classificazione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliComputazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)
Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliComputazione per l interazione naturale: regressione logistica Bayesiana
Computazione per l interazione naturale: regressione logistica Bayesiana Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: classificazione supervisionata
Computazione per l interazione naturale: classificazione supervisionata Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: processi gaussiani
Computazione per l interazione naturale: processi gaussiani Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliComputazione per l interazione naturale: Regressione lineare
Computazione per l interazione naturale: Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it http://homes.dsi.unimi.it/~boccignone/l
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2018.html
DettagliKernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale
DettagliRegressione. Apprendimento supervisionato //Regressione. Corso di Sistemi di Elaborazione dell Informazione
Regressione SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: Regressione probabilistica
Computazione per l interazione naturale: Regressione probabilistica Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliApprendimento statistico (Statistical Learning)
Apprendimento statistico (Statistical Learning) Il problema dell apprendimento Inquadriamo da un punto di vista statistico il problema dell apprendimento di un classificatore Un training set S={(x,y ),,(x
DettagliApprendimento statistico (Statistical Learning)
Apprendimento statistico (Statistical Learning) Il problema dell apprendimento Inquadriamo da un punto di vista statistico il problema dell apprendimento di un classificatore Un training set S={(x,y ),,(x
DettagliSistemi di Elaborazione dell Informazione 170. Caso Non Separabile
Sistemi di Elaborazione dell Informazione 170 Caso Non Separabile La soluzione vista in precedenza per esempi non-linearmente separabili non garantisce usualmente buone prestazioni perchè un iperpiano
DettagliComputazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning)
Computazione per l interazione naturale: Richiami di ottimizzazione (3) (e primi esempi di Machine Learning) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliComputazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità)
Computazione per l interazione naturale: modelli a variabili latenti (clustering e riduzione di dimensionalità) Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università
DettagliComputazione per l interazione naturale: macchine che apprendono
Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliAlgoritmi di classificazione supervisionati
Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale
DettagliGaussian processes (GP)
Gaussian processes (GP) Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it Giuseppe.Boccignone@unimi.it http://boccignone.di.unimi.it/compaff017.html
DettagliUniversità degli Studi di Roma Tor Vergata
Funzioni kernel Note dal corso di Machine Learning Corso di Laurea Specialistica in Informatica a.a. 2010-2011 Prof. Giorgio Gambosi Università degli Studi di Roma Tor Vergata 2 Queste note derivano da
DettagliModelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri
Modelli Probabilistici per la Computazione Affettiva: Learning/Inferenza parametri Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Teoria della decisione di Bayes Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario
DettagliApprendimento Automatico
Apprendimento Automatico Metodi Bayesiani Fabio Aiolli 11 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 11 Dicembre 2017 1 / 19 Metodi Bayesiani I metodi Bayesiani forniscono tecniche computazionali
DettagliRiduzione di dimensionalità
Riduzione di dimensionalità SCUOLA DI SPECIALIZZAZIONE IN FISICA MEDICA Corso di Sistemi di Elaborazione dell Informazione Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliComputazione per l interazione naturale: clustering e riduzione di dimensionalità
Computazione per l interazione naturale: clustering e riduzione di dimensionalità Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it
DettagliData Mining and Machine Learning Lab. Lezione 8 Master in Data Science for Economics, Business and Finance 2018
Data Mining and Machine Learning Lab. Lezione 8 Master in Data Science for Economics, Business and Finance 2018 18.05.18 Marco Frasca Università degli Studi di Milano SVM - Richiami La Support Vector Machine
DettagliClassificazione Mario Guarracino Data Mining a.a. 2010/2011
Classificazione Mario Guarracino Data Mining a.a. 2010/2011 Introduzione I modelli di classificazione si collocano tra i metodi di apprendimento supervisionato e si rivolgono alla predizione di un attributo
DettagliApprendimento Automatico
Apprendimento Automatico Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Rappresentazione dei dati con i kernel Abbiamo una serie di oggetti S
DettagliRegressione Lineare. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Regressione Lineare Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 23/04/2018 Regressione Lineare Supervised Learning Supervised Learning: recap È il sottocampo del ML più vasto
DettagliComputazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliTeoria delle Decisioni Bayesiana
Laurea Magistrale in Informatica Nicola Fanizzi Dipartimento di Informatica Università degli Studi di Bari 14 gennaio 2009 Sommario Introduzione Teoria delle decisioni Bayesiana - nel continuo Classificazione
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Classificatori discriminativi Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Introduzione
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Classificazione Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sistema di classificazione
DettagliRegressione Lineare e Regressione Logistica
Regressione Lineare e Regressione Logistica Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com 1 Introduzione
DettagliComputazione per l interazione naturale: Modelli dinamici
Computazione per l interazione naturale: Modelli dinamici Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it
DettagliMinimi quadrati e massima verosimiglianza
Minimi quadrati e massima verosimiglianza 1 Introduzione Nella scorsa lezione abbiamo assunto che la forma delle probilità sottostanti al problema fosse nota e abbiamo usato gli esempi per stimare i parametri
DettagliReal-Time Visual Tracking Fabio Baldo matr , Luigi Carozza matr Sommario Introduzione Teoria di base Support Vector Machines Newton Raph
Applicazione del filtraggio alla Kalman e ottimizzazione mediante Corso di Progettazione dei Sistemi di Controllo - Università degli studi di Padova 29 Febbraio 2012 Il comprende tutti quegli algoritmi
DettagliSupport Vector Machines introduzione
7 Support Vector Machines introduzione Vittorio Maniezzo Università di Bologna 1 SVM - introduzione Le SV machinessono state sviluppate negli AT&T Bell Laboratoriesda Vapnike colleghi (Boseret al., 1992,
DettagliClassificazione e regressione per mezzo di Support Vector Machine
Classificazione e regressione per mezzo di Support Vector Machine Felice Andrea Pellegrino Dipartimento di Elettrotecnica Elettronica e Informatica Università degli Studi di Trieste Il presente documento
DettagliMetodi supervisionati di classificazione
Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello
DettagliCenni di apprendimento in Reti Bayesiane
Sistemi Intelligenti 216 Cenni di apprendimento in Reti Bayesiane Esistono diverse varianti di compiti di apprendimento La struttura della rete può essere nota o sconosciuta Esempi di apprendimento possono
DettagliApprendimento Automatico
Apprendimento Automatico Metodi Bayesiani - Naive Bayes Fabio Aiolli 13 Dicembre 2017 Fabio Aiolli Apprendimento Automatico 13 Dicembre 2017 1 / 18 Classificatore Naive Bayes Una delle tecniche più semplici
DettagliComputazione per l interazione naturale: fondamenti probabilistici (2)
Computazione per l interazione naturale: fondamenti probabilistici (2) Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@di.unimi.it
DettagliSUPPORT VECTOR MACHINES. a practical guide
SUPPORT VECTOR MACHINES a practical guide 1 SUPPORT VECTOR MACHINES Consideriamo un problema di classificazione binaria, a partire da uno spazio di input X R n e uno spazio di output Y = { 1, 1} Training
DettagliRiconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Classificatori generativi Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario Approcci
DettagliApproccio statistico alla classificazione
Approccio statistico alla classificazione Approccio parametrico e non parametrico Finestra di Parzen Classificatori K-NN 1-NN Limitazioni dell approccio bayesiano Con l approccio bayesiano, sarebbe possibile
DettagliTecniche di riconoscimento statistico
On AIR s.r.l. Tecniche di riconoscimento statistico Teoria e applicazioni industriali Parte 3 Costruzione di un classificatore Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr
DettagliLEZIONE ICO
LEZIONE ICO 9-10-2009 Argomento. Rassegna dei metodi numerici utilizzabili per la soluzione di problemi di ottimizzazione statica. Metodi del gradiente e di Newton e loro derivati. Metodi di penalita e
DettagliComputazione per l interazione naturale: fondamenti probabilistici
Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2017.html
DettagliRegressione. Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting
Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting Non lineare Variabile indipendente non lineare Ottimizzazione numerica (metodi iterativi) 1 Definizioni Nei
DettagliApprendimento Automatico (Feature Selection e Kernel Learning)
Apprendimento Automatico (Feature Selection e Kernel Learning) Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Servono tutti gli attributi? Gli
DettagliESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno
SIMULAZIONE ESAME di OTTIMIZZAZIONE 27 Gennaio 21 ESAME di OTTIMIZZAZIONE Corso di Laurea Magistrale in Ingegneria Gestionale 1 o anno Cognome : Nome : Esercizio 1. Si consideri il seguente problema: min
DettagliClassificazione. Classificatore di Bayes Approccio parametrico (distribuzione Multinormale) Approccio non parametrico (Parzen Window)
Classificatore di Bayes Approccio parametrico (distribuzione Multinormale) Approccio non parametrico (Parzen Window) Nearest Neighbor k-nn Metriche SVM Lineari: pattern linearmente separabili e non Non
DettagliAnalisi Discriminante Strumenti quantitativi per la gestione
Analisi Discriminante Strumenti quantitativi per la gestione Emanuele Taufer Un esempio introduttivo Approccio con Bayes Perchè un altro metodo di classificazione? Classificazione con Bayes Analisi discriminante
DettagliIndice generale. Introduzione. Ringraziamenti dell autore...xxi. Capitolo 1 Dare ai computer la capacità di apprendere dai dati...
Premessa Introduzione...xiii...xv Struttura del libro...xvi Dotazione software necessaria...xvii A chi è rivolto questo libro...xviii Convenzioni...xviii Scarica i file degli esempi...xix L autore...xix
DettagliClassificazione e regressione per mezzo di Support Vector Machine
Classificazione e regressione per mezzo di Support Vector Machine Felice Andrea Pellegrino Dipartimento di Elettrotecnica Elettronica e Informatica Università degli Studi di Trieste fapellegrino@units.it
DettagliUniversità di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A
Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime
DettagliTecniche di riconoscimento statistico
On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 2 Teoria della decisione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr
DettagliComputazione per l interazione naturale: fondamenti probabilistici
Computazione per l interazione naturale: fondamenti probabilistici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2016.html
DettagliUniversità di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti
Università di Siena Corso di STATISTICA Parte seconda: Teoria della stima Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di
DettagliMETODI DI CLASSIFICAZIONE. Federico Marini
METODI DI CLASSIFICAZIONE Federico Marini Introduzione Nella parte introduttiva dell analisi multivariata abbiamo descritto la possibilità di riconoscere l origine di alcuni campioni come uno dei campi
DettagliSupport Vector Machines
F94) Metodi statistici per l apprendimento Support Vector Machines Docente: Nicolò Cesa-Bianchi versione 28 maggio 208 La Support Vector Machine d ora in poi SVM) è un algoritmo di apprendimento per classificatori
DettagliUniversità degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018
DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) Secondo Parziale - 11 Giugno 2018 Nome: Cognome: Matricola:
DettagliTecniche di riconoscimento statistico
Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 8 Support Vector Machines Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr
DettagliIntroduzione alle Reti Neurali
Introduzione alle Reti Neurali Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com Reti Neurali Terminator
Dettagli1 PROCESSI STOCASTICI... 11
1 PROCESSI STOCASTICI... 11 Introduzione... 11 Rappresentazione dei dati biomedici... 11 Aleatorietà delle misure temporali... 14 Medie definite sul processo aleatorio... 16 Valore atteso... 16 Esercitazione
Dettagli0 altimenti 1 soggetto trova lavoroentro 6 mesi}
Lezione n. 16 (a cura di Peluso Filomena Francesca) Oltre alle normali variabili risposta che presentano una continuità almeno all'interno di un certo intervallo di valori, esistono variabili risposta
DettagliCalcolo delle Probabilità 2
Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale
DettagliClassificazione introduzione
- Classificazione introduzione Vittorio Maniezzo Università di Bologna 1 Ringraziamenti Questi lucidi derivano anche da adattamenti personali di materiale prodotto (fornitomi o reso scaricabile) da: A.
Dettagli5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate. min f(x) s.v. c i (x) 0 i I c i (x) = 0 i E (1) x R n
5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate Consideriamo il generico problema di PNL min f(x) s.v. c i (x) 0 i I c i (x) = 0 i E (1) x R n dove f e le c i sono di classe
DettagliComputazione per l interazione naturale: macchine che apprendono
Comput per l inter naturale: macchine che apprendono Corso di Inter uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it http://boccignone.di.unimi.it/ium2_2014.html
DettagliMetodi Numerici con elementi di Programmazione (A.A )
Metodi Numerici con elementi di Programmazione (A.A. 2013-2014) Metodi Numerici Appunti delle lezioni: Approssimazione di dati e funzioni Approssimazione ai minimi quadrati Docente Vittoria Bruni Email:
DettagliClassificazione. Classificatore di Bayes Approccio parametrico (distribuzione Multinormale) Approccio non parametrico (Parzen Window)
Classificatore di Bayes Approccio parametrico (distribuzione Multinormale) Approccio non parametrico (Parzen Window) Nearest Neighbor k-nn Metriche SVM Lineari: pattern linearmente separabili e non Non
DettagliIndice. Prefazione Ringraziamenti
Prefazione Ringraziamenti xi xiv Argomento di ripasso Argomento più difficile 1 Matrici e vettori 1 1.1 Matrici 1 1.2 Esercizi 11 1.3 Vettori di R 2 14 1.4 Esercizi 20 1.5 Vettori di R 3 21 1.6 Rette 24
DettagliReti Neurali in Generale
istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono
DettagliModelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo
Modelli Probabilistici per la Computazione Affettiva: Inferenza approssimata con Monte Carlo Corso di Modelli di Computazione Affettiva Prof. Giuseppe Boccignone Dipartimento di Informatica Università
Dettagli25 - Funzioni di più Variabili Introduzione
Università degli Studi di Palermo Facoltà di Economia CdS Statistica per l Analisi dei Dati Appunti del corso di Matematica 25 - Funzioni di più Variabili Introduzione Anno Accademico 2013/2014 M. Tumminello
DettagliMetodi di classificazione
I metodi di classificazione sono metodi utilizzati per trovare modelli statistici capaci di assegnare ciascun oggetto di provenienza incognita ad una delle classi esistenti. L applicazione di questi metodi
DettagliIntroduzione al Metodo agli Elementi Finiti (FEM) (x, y) Γ Tale formulazione viene detta Formulazione forte del problema.
Introduzione al Metodo agli Elementi Finiti (FEM) Consideriamo come problema test l equazione di Poisson 2 u x 2 + 2 u = f(x, y) u = f y2 definita su un dominio Ω R 2 avente come frontiera la curva Γ,
Dettagli1. Si scriva una function Matlab che implementa il seguente metodo di punto fisso
Domanda 1 1. Si scriva una function Matlab che implementa il seguente metodo di punto fisso x n+1 = x n f(x n), n = 0, 1, 2,... K dove x 0 è il punto iniziale, f(x) = x 3 cos(x) e K è una costante assegnata.
DettagliEsercizio 1. Esercizio 2
Sia data la matrice A A(α) = Esercizio α 2 2α 2 2, α R.) determinare per quali valori del parametro reale α é verificata la condizione necessaria e sufficiente di convergenza per il metodo di Jacobi;.2)
DettagliBOLLETTINO UNIONE MATEMATICA ITALIANA
BOLLETTINO UNIONE MATEMATICA ITALIANA Sezione A La Matematica nella Società e nella Cultura Annabella Astorino Programmazione matematica e classificazione Bollettino dell Unione Matematica Italiana, Serie
DettagliProva scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016
Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 205/206 20 Settembre 206 Esercizio. Un dado equilibrato viene lanciato ripetutamente. Indichiamo con X n il risultato dell n-esimo
Dettagli5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate
5.6 Metodo di penalità e metodo basato sulle funzioni lagrangiane aumentate Consideriamo il generico problema di PNL min f (x) s.v. c i (x) 0 i I c i (x) = 0 i E (1) x R n dove f e le c i sono di classe
DettagliCriteri alternativi all Entropia
Sistemi Intelligenti 94 Criteri alternativi all Entropia Altri criteri suggeriti al posto dell Entropia: - Variance Impurity (per due classi) - (Weighted) Gini Impurity (generalizzazione di Variance Impurity
DettagliNaïve Bayesian Classification
Naïve Bayesian Classification Di Alessandro rezzani Sommario Naïve Bayesian Classification (o classificazione Bayesiana)... 1 L algoritmo... 2 Naive Bayes in R... 5 Esempio 1... 5 Esempio 2... 5 L algoritmo
DettagliI Componenti del processo decisionale 7
Indice Introduzione 1 I Componenti del processo decisionale 7 1 Business intelligence 9 1.1 Decisioni efficaci e tempestive........ 9 1.2 Dati, informazioni e conoscenza....... 12 1.3 Ruolo dei modelli
DettagliModelli tradizionali e statistici applicati alla percezione (2/2) Francesco Panerai
Modelli tradizionali e statistici applicati alla percezione (2/2) Francesco Panerai Modulo integrativo del corso di - Sistemi Intelligenti Naturali e Artificiali - 2002/2003 Elementi di statistica bayesiana
DettagliIntroduzione al Column Generation Caso di Studio: il Bin Packing Problem
Introduzione al Column Generation Caso di Studio: il Bin Packing Problem November 15, 2014 1 / 26 Introduzione Il column generation è una metodologia che può essere usata per risolvere problemi di ottimizzazione
DettagliTest statistici. Per ogni processo che stiamo considerando avremo una ipotesi per la pdf di e.g.
Test statistici Supponiamo che il risultato delle misure su un certo evento sia un insieme di valori x 1 = numero muoni, x 2 = p t medio dei jet, x 3 = energia mancante,... è distribuito secondo una pdf
DettagliEsame di Calcolo Numerico per Informatica A.A. 2010/11 Proff. S. De Marchi e M. R. Russo 31 agosto 2011 Testo e soluzioni
Esame di Calcolo Numerico per Informatica A.A. 21/11 Proff. S. De Marchi e M. R. Russo 31 agosto 211 Testo e soluzioni L esame consiste di 4 domande aperte e 1 esercizi a risposta multipla. Per gli esercizi
DettagliCorso di Intelligenza Artificiale A.A. 2016/2017
Università degli Studi di Cagliari Corsi di Laurea Magistrale in Ing. Elettronica Corso di Intelligenza rtificiale.. 26/27 Esercizi sui metodi di apprendimento automatico. Si consideri la funzione ooleana
DettagliRiconoscimento automatico di oggetti (Pattern Recognition)
Riconoscimento automatico di oggetti (Pattern Recognition) Scopo: definire un sistema per riconoscere automaticamente un oggetto data la descrizione di un oggetto che può appartenere ad una tra N classi
DettagliLimitazioni dei sistemi mono-modali
Sistemi i multi-biometrici t i i Dario Maio dario.maio@unibo.it Annalisa Franco annalisa.franco@unibo.it Limitazioni dei sistemi mono-modali Rumore oe nei dati acquisiti dovuto o al sensore o a condizioni
DettagliMachine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione
Corso di Bioinformatica Machine Learning: apprendimento, generalizzazione e stima dell errore di generalizzazione Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di machine learning I metodi
DettagliTecniche di riconoscimento statistico
On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 2 Teoria della decisione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr
Dettagli