Reti Neurali in Generale

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Reti Neurali in Generale"

Transcript

1 Apprendimento Automatico 123 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono da: Biologia (Neurofisiologia) Informatica (Intelligenza Artificiale) Matematica (Ottimizzazione, Proprietà di approssimazione) Statistica (Regressione, Classificazione) Ingegneria (Pattern Classification, Teoria del Controllo) Economia (Studio di serie temporali) Fisica (Sistemi Dinamici) Psicologia (Apprendimento e Scienze Cognitive)

2 Apprendimento Automatico 124 Reti Neurali in Generale Bisogna distinguere due motivazioni diverse nello studiare Reti Neurali Artificiali: 1. riprodurre (e quindi comprendere) il cervello umano modellare tutto o almeno parti del cervello umano in modo affidabile riprodurre fedelmente fenomeni neurofisiologici verificare sperimentalmente se il modello proposto riproduce i dati biologici 2. estrarre i principi fondamentali di calcolo utilizzati dal cervello non importa riprodurre il cervello umano, ma solo evincere quali sono i principi fondamentali di calcolo che esso utilizza semplificazioni ed astrazioni del carvello umano sono permesse, anzi, sono lo strumento principale di lavoro produrre un sistema artificiale che sia eventualmente diverso dal cervello umano ma che riproduca alcune delle sue funzioni, magari in modo pi ù veloce ed efficiente (metafora del volo: aereo contro uccello)

3 Apprendimento Automatico 125 Reti Neurali in Generale A noi interessa la seconda motivazione. I modelli di Reti Neurali Artificiali proposti in questo ambito sono molteplici e con scopi diversi. As esempio, esistono modelli per l apprendimento supervisionato (Classificazione, Regressione, Serie Temporali,...); l apprendimento non supervisionato (Clustering, Data Mining, Self-Organization maps,...); realizzare Memorie Associative;... Tali modelli, in generale, differiscono per topologia della rete funzione calcolata dal singolo neurone algoritmo di apprendimento modalità di apprendimento (utilizzo dei dati di apprendimento)

4 Apprendimento Automatico 126 Reti Neurali in Generale Quando è opportuno utilizzare una Rete Neurale Artificiale? l input è ad alta dimensionalità (discreto e/o a valori reali) l output è a valori discreti (classificazione) o a valori reali (regressione) l output è costituito da un vettore di valori i dati possono contenere rumore la forma della funzione target è totalmente sconosciuta la soluzione finale non deve essere compresa da un esperto umano ( black-box problem ) Esempi di campi applicativi riconoscimento del parlato classificazione di immagini predizione di serie temporali in finanza controllo di processi industriali

5 Apprendimento Automatico 127 Reti Neurali Artificiali Le Reti Neurali Artificiali si ispirano al cervello umano: Il cervello umano è costituito da circa 10 loro; neuroni fortemente interconnessi fra Ogni neurone possiede un numero di connessioni che va da circa ; a circa Il tempo di risposta di un neurone è circa secondi; Considerando che per riconoscere il contenuto di una scena un umano impiega circa 0.1 secondi, ne consegue che il cervello umano sfrutta pesantemente il calcolo parallelo: infatti, in questo caso, non può effettuare più di 100 calcoli seriali [0.1/0.001=100].

6 Apprendimento Automatico 128 Neurone Biologico

7 Apprendimento Automatico 129 Neurone Biologico

8 Apprendimento Automatico 130 Neurone Biologico

9 Apprendimento Automatico 131 Neurone Biologico

10 Apprendimento Automatico 132 Neurone Artificiale Alternativa 1: hard-threshold iperpiano!! x 1 w 1 x 0 = 1 x 2 x n... w 2 w n w 0 Σ n net = Σ w i x i=0 i 1 o = σ(net) = sign(net) 1 + ē net Alternativa 2: neurone sigmoidale funzione derivabile x 1 w 1 x 0 = 1 x 2 x n... w 2 w n w 0 Σ n net = Σ w i x i=0 i o = σ(net) = ē net

11 Apprendimento Automatico 133 Rete Neurale Biologica (schema)

12 Apprendimento Automatico 134 Reti Neurali Artificiali Una Rete Neurale Artificiale è un sistema costituito da unità interconnesse che calcolano funzioni (numeriche) non-lineari: le unità di input rappresentano le variabili di ingresso; le unità di output rappresentano le variabili di uscita; le unità di nascoste (se ve ne sono) rappresentano variabili interne che codificano (dopo l apprendimento) le correlazioni tra le variabili di input relativamente al valore di output che si vuole generare. sulle connessioni fra unità sono definiti pesi adattabili (dall algoritmo di apprendimento).

13 Apprendimento Automatico 135 Reti Neurali Feed-forward (un solo livello nascosto) target t t 1 t 2 t k t c output z z 1 z 2... z k... z c output w kj y 1 y 2 y j y nh nascoste w ji x 1 x 2 x i x d input x x 1 x 2 x i x d input x 1 w 1 x 2 x n w 2... w n x 0 = 1 w 0 Σ n net = Σ w i x i=0 i 1 o = σ(net) = 1 + ē net

14 Apprendimento Automatico 136 Reti Neurali Feed-forward e Superfici di Decisione

15 Apprendimento Automatico 137 Singolo Neurone con Hard-Threshold Singolo Neurone con Hard-Threshold: iperpiani! che possiamo riscrivere come se effettuiamo le segenti trasformazioni Faremo riferimento a tale neurone (e all algoritmo di apprendimento associato) come Perceptron Problemi: Quale è il potere computazionale di un Perceptron? Come definire un algoritmo di apprendimento?

16 Apprendimento Automatico 138 Funzioni Booleane Consideriamo input binari e funzioni booleane. Ogni funzione booleana può essere rappresentata tramite gli operatori or,and, not (in effetti, questo non è necessario se usiamo il nand o il nor) Può un Perceptron implementare l operatore or?

17 Apprendimento Automatico 139 Funzioni Booleane Consideriamo input binari e funzioni booleane. Ogni funzione booleana può essere rappresentata tramite gli operatori or,and, not (in effetti, questo non è necessario se usiamo il nand o il nor) Può un Perceptron implementare l operatore or? Si! Es.,, Può un Perceptron implementare l operatore and?

18 Apprendimento Automatico 140 Funzioni Booleane Consideriamo input binari e funzioni booleane. Ogni funzione booleana può essere rappresentata tramite gli operatori or,and, not (in effetti, questo non è necessario se usiamo il nand o il nor) Può un Perceptron implementare l operatore or? Si! Es.,, Può un Perceptron implementare l operatore and? Si! Es.,,

19 Apprendimento Automatico 141 Funzioni Booleane Consideriamo input binari e funzioni booleane. Ogni funzione booleana può essere rappresentata tramite gli operatori or,and, not (in effetti, questo non è necessario se usiamo il nand o il nor) Può un Perceptron implementare l operatore or? Si! Es.,, Può un Perceptron implementare l operatore and? Si! Es.,, L operatore not si realizza banalmente con un Perceptron con una singola connessione (fare per esercizio). Esiste una funzione booleana semplice che non può essere realizzata da un Perceptron? (l abbiamo già vista quando abbiamo calcolato la VC-dimension di!!)

20 Apprendimento Automatico 142 Funzione non-linearmente separabili XOR: funzione non linearmente separabile! input XOR f() = +1 f() = 1 f() = 1 f() = +1 una funzione è linearmente separabile se esiste un iperpiano che separa gli ingressi positivi (+1) da quelli negativi (-1)

21 Apprendimento Automatico 143 Apprendimento di funzioni linearmente separabili Assumiamo di avere esempi di funzioni linearmente separabili. Algoritmo di Apprendimento per il Perceptron ingresso: insieme di apprendimento, dove 1. inizializza il vettore dei pesi al vettore nullo (tutte le componenti a 0); 2. ripeti (a) seleziona (a caso) uno degli esempi di apprendimento (b) se allora

22 Apprendimento Automatico 144 Apprendimento per Perceptron Interpretazione geometrica Falso Negativo o >90 x x x w w o <90 w (t out) > 0 t = +1 out = 1 w = w + x out = +1 Falso Positivo x o <90 x x w w o >90 (t out) < 0 t = 1 out = +1 x w = w x w out = 1

23 Apprendimento Automatico 145 Apprendimento per Perceptron Non necessariamente un singolo passo di apprendimento 2(b) riuscirà a modificare il segno dell output: potrebbero servire molti passi. Per rendere pi ù stabile l apprendimento si aggiunge un coefficiente di apprendimento con e preferibilmente Questo evita che il vettore dei pesi subisca variazioni troppo violente ogni volta che il passo 2(b) viene eseguito, e quindi cerca di evitare che esempi precedentemente ben classificati diventino classificati erroneamente a causa della forte variazione del vettore dei pesi. Se l insieme di apprendimento è LINEARMENTE SEPARABILE, si dimostra che l algoritmo di apprendimento per il Perceptron termina con una soluzione in un numero finito di passi, altrimenti CICLA in un insieme di vettori peso non necessariamente ottimali (cioè che commettono il minimo numero possibile di errori)

24 Apprendimento Automatico 146 Apprendimento per Perceptron: esempio es. target es. target : 1 (4,5) 1 2 (6,1) 1 soglia 1 (1,4,5) 1 2 (1,6,1) 1 3 (4,1) -1 3 (1,4,1) -1 4 (1,2) -1 4 (1,1,2) -1 vettore dei pesi: supponiamo di partire con pesi random : e pesi input target out errore nuovi pesi (0,1,-1) (1,4,5) 1 (1,6,1) 1 (1,4,1) -1 (1,1,2) -1

25 Apprendimento Automatico 147 Apprendimento per Perceptron: esempio pesi input target out errore nuovi pesi (0,1,-1) (1,4,5) (1,5,4) (1,5,4) (1,6,1) nessun cambiamento (1,5,4) (1,4,1) (0,1,3) (0,1,3) (1,1,2) (-1,0,1)

26 Apprendimento Automatico 148 Apprendimento per Perceptron: esempio pesi input target out errore nuovi pesi (-1,0,1) (1,4,5) nessun cambiamento (-1,0,1) (1,6,1) 1? (-1) 2 (0,6,2) (0,6,2) (1,4,1) (-1,2,1) (-1,2,1) (1,1,2) (-2,1,-1)

27 Apprendimento Automatico 149 Apprendimento per Perceptron: esempio pesi input target out errore nuovi pesi (-2,1,-1) (1,4,5) (-1,5,4) (-1,5,4) (1,6,1) nessun cambiamento (-1,5,4) (1,4,1) (-2,1,3) (-2,1,3) (1,1,2) (-3,0,1)

28 Apprendimento Automatico 150 Apprendimento per Perceptron: esempio pesi input target out errore nuovi pesi (-3,0,1) (1,4,5) nessun cambiamento (-3,0,1) (1,6,1) (-2,6,2) (-2,6,2) (1,4,1) (-3,2,1) (-3,2,1) (1,1,2) (-4,1,-1)

29 Apprendimento Automatico 151 Apprendimento per Perceptron: esempio pesi input target out errore nuovi pesi (-4,1,-1) (1,4,5) (-3,5,4) (-3,5,4) (1,6,1) nessun cambiamento (-3,5,4) (1,4,1) (-4,1,3) (-4,1,3) (1,1,2) (-5,0,1)

30 Apprendimento Automatico 152 Apprendimento per Perceptron: esempio pesi input target out errore nuovi pesi (-5,0,1) (1,4,5) 1? (-1) 2 (-4,4,6) (-4,4,6) (1,6,1) nessun cambiamento (-4,4,6) (1,4,1) (-5,0,5) (-5,0,5) (1,1,2) (-6,-1,3)

31 Apprendimento Automatico 153 Apprendimento per Perceptron: esempio pesi input target out errore nuovi pesi (-6,-1,3) (1,4,5) nessun cambiamento (-6,-1,3) (1,6,1) (-5,5,4) (-5,5,4) (1,4,1) (-6,1,3) (-6,1,3) (1,1,2) (-7,0,1)

32 Apprendimento Automatico 154 Apprendimento per Perceptron: esempio pesi input target out errore nuovi pesi (-7,0,1) (1,4,5) (-6,4,6) (-6,4,6) (1,6,1) nessun cambiamento (-6,4,6) (1,4,1) (-7,0,5) (-7,0,5) (1,1,2) (-8,-1,3)

33 Apprendimento Automatico 155 Apprendimento per Perceptron: esempio pesi input target out errore nuovi pesi (-8,-1,3) (1,4,5) nessun cambiamento (-8,-1,3) (1,6,1) (-7,5,2) (-7,5,2) (1,4,1) (-8,1,3) (-8,1,3) (1,1,2) nessun cambiamento

34 Apprendimento Automatico 156 Apprendimento per Perceptron: esempio pesi input target out errore nuovi pesi (-8,1,3) (1,4,5) nessun cambiamento (-8,1,3) (1,6,1) nessun cambiamento (-8,1,3) (1,4,1) nessun cambiamento (-8,1,3) (1,1,2) nessun cambiamento

35 Apprendimento Automatico 157 Apprendimento di Reti di Perceptron Abbiamo visto che un singolo Perceptron non riesce ad apprendere tutte le funzioni booleane (es. XOR) Però una rete di Perceptron può implementare una qualunque funzione booleana (tramite AND, OR, NOT). Problema: come effettuare l apprendimento di una rete di Perceptron? Non si sa come assegnare credito o colpe alle unità nascoste: PROBLEMA DELL ASSEGNAMENTO DEL CREDITO Una possibile soluzione è quella di rendere il singolo neurone derivabile e sfruttare la tecnica di Discesa del Gradiente per apprendere i pesi giusti. Vediamo, quindi, come la Discesa del Gradiente si applica ad un Perceptron semplificato.

36 dove si ha Quindi bisogna MINIMIZZARE Apprendimento Automatico 158 Discesa di Gradiente Consideriamo un Perceptron SENZA la hard-threshold: e definiamo una misura dell errore commesso da un particolare vettore dei pesi: Funzione Errore: è la cardinalità dell insieme di apprendimento. La funzione errore di sopra misura lo scarto quadratico medio (diviso 2) del valore target da quello predetto dal neurone ( ). Ovviamente, se rispetto a

37 Apprendimento Automatico Discesa di Gradiente E[w] Idea base: partire da un w0 w1 random e modificarlo nella direzione contraria al gradiente (che indica la direzione di crescita di ),, gradiente

38 Apprendimento Automatico 160 Calcolo del gradiente

39 Apprendimento Automatico 161 Calcolo del gradiente

40 Apprendimento Automatico 162 Calcolo del gradiente

41 Apprendimento Automatico 163 Calcolo del gradiente

42 Apprendimento Automatico 164 Calcolo del gradiente

43 al neurone e calcola l output Apprendimento Automatico 165 Discesa di Gradiente Gradient-Descent( ) ogni esempio di apprendimento è una coppia, dove è il vettore di valori in input, e è il valore desiderato in output (target). è il coefficiente di apprendimento (che ingloba ). Assegna a valori piccoli random Finché la condizione di terminazione non è verificata, fai Per ogni in, fai Presenta Per ogni, fai Per ogni, fai

44 Apprendimento Automatico 166 Discesa di Gradiente con Sigmoide Consideriamo un Perceptron con funzione sigmoidale: dove si ricorda che Si noti che per vale la seguente relazione e ricordiamo che (derivata di funzioni composte)

45 Apprendimento Automatico 167 Calcolo del gradiente con sigmoide

46 Apprendimento Automatico 168 Calcolo del gradiente con sigmoide

47 Apprendimento Automatico 169 Calcolo del gradiente con sigmoide

48 Apprendimento Automatico 170 Calcolo del gradiente con sigmoide

49 Apprendimento Automatico 171 Reti Neurali Feed-forward: notazione target t t 1 t 2 t k t c output z z 1 z 2... z k... z c output w kj y 1 y 2 y j y nh nascoste w ji input x x 1 x 2 x i x d x 1 x 2 x i x d input

50 Apprendimento Automatico 172 Reti Neurali Feed-forward: notazione unità di ingresso, dimensione dei dati in ingresso ( se si include la soglia nel vettore dei pesi ) unità nascoste (con output dimensione dei dati desiderati, unità di output, dimensione dei dati in output ) peso dalla unità di ingressoalla unità nascosta peso dalla unità nascosta alla unità di output La funzione errore, considerando che si hanno unità di output, diventa

51 Apprendimento Automatico 173 Calcolo del gradiente per i pesi di una unità di output Fissiamo gli indici e : ^ k ^ j

52 Apprendimento Automatico 174 Calcolo del gradiente per i pesi di una unità di output Fissiamo gli indici e : ^ k ^ j

53 Apprendimento Automatico 175 Calcolo del gradiente per i pesi di una unità di output Fissiamo gli indici e : ^ k ^ j

54 Apprendimento Automatico 176 Calcolo del gradiente per i pesi di una unità di output Fissiamo gli indici e : ^ k ^ j

55 Apprendimento Automatico 177 Calcolo del gradiente per i pesi di una unità di output Fissiamo gli indici e : ^ k ^ j

56 Apprendimento Automatico 178 Calcolo del gradiente per i pesi di una unità nascosta Fissiamo gli indici e: ^ j ^ i

57 Apprendimento Automatico 179 Calcolo del gradiente per i pesi di una unità nascosta Fissiamo gli indici e: ^ j ^ i

58 Apprendimento Automatico 180 Calcolo del gradiente per i pesi di una unità nascosta Fissiamo gli indici e: ^ j ^ i

59 Apprendimento Automatico 181 Calcolo del gradiente per i pesi di una unità nascosta Fissiamo gli indici e: ^ j ^ i

60 Apprendimento Automatico 182 Calcolo del gradiente per i pesi di una unità nascosta Fissiamo gli indici e: ^ j ^ i

61 Apprendimento Automatico 183 Calcolo del gradiente per i pesi di una unità nascosta Fissiamo gli indici e: ^ j ^ i

62 Apprendimento Automatico 184 Calcolo del gradiente per i pesi di una unità nascosta Fissiamo gli indici e: ^ i ^ j

63 Apprendimento Automatico 185 Calcolo del gradiente per i pesi di una unità nascosta Fissiamo gli indici e: ^ j ^ i

64 Apprendimento Automatico 186 Reti Neurali Feed-forward: Fase Forward

65 Apprendimento Automatico 187 Reti Neurali Feed-forward: Fase Backward

66 Back-Propagation-1hl-stocastico( in Apprendimento Automatico 188 Algoritmo Back-Propagation (uno strato nascosto, stocastico), topologia rete) Inizializza tutti i pesi a valori random piccoli Finché la condizione di terminazione non è verificata, fai Per ogni, fai 1. presenta alla rete e calcola il corrispondente output 2. Per ogni unità di output 3. Per ogni unità nascosta 4. aggiorna tutti i pesi della rete dove se se

67 Apprendimento Automatico 189 Esempio di Funzione Errore z 1 J(w) 1 w 2 y w w 1 x 0,y 0 x w w x 1 x* R 1 R 2

68 Apprendimento Automatico 190 Discesa di Gradiente Batch e Stocastica Batch: Fai finché condizione di terminazione non soddisfatta Stocastica (Incrementale): Fai finché condizione di terminazione non soddisfatta 1. calcola Per ogni esempio di apprendimento 2. in 1. calcola 2. dove La discesa di gradiente Stocastica (gradiente istantaneo) può approssimare quella Batch (gradiente esatto) con precisione arbitraria se è sufficientemente piccolo

69 Apprendimento Automatico 191 Alcuni Problemi... Scelta della topologia della rete determina lo Spazio delle Ipotesi; Scelta del passo di discesa (valore di ): E E E E w* w w* w w* w w* w apprendimento lento..., ma calcolo di output veloce MINIMI LOCALI!! Bias Induttivo: sia nella rappresentazione che nella ricerca

70 Apprendimento Automatico 192 Esempio di Apprendimento per Rete Feed-forward Compressione di Dati Input Output Inputs Outputs

71 Apprendimento Automatico 193 Esempio di Apprendimento per Rete Feed-forward Compressione di Dati Input Valori Output Nascosti Inputs Outputs

72 Apprendimento Automatico 194 Curve di Apprendimento 0.9 Errore per ogni unita' di output

73 Apprendimento Automatico 195 Curve di Apprendimento 1 Codifica dell'input a livello delle unita' nascoste

74 Apprendimento Automatico 196 Curve di Apprendimento 4 Pesi dall input ad una unita nascosta

75 Apprendimento Automatico 197 Potere Computazionale Reti Neurali Il seguente teorema stabilisce l universalità di reti feed-forward come approssimatori di funzioni continue. Teorema Sia indichi con definite sia che intero una funzione continua monotona crescente, limitata e noncostante. Si l ipercubo n-dimensionale. Data una qualunque funzione e insiemi di costanti reali possa essere approssimata da,, e e lo spazio delle funzioni continue su esso, dove e, allora esiste un e tale (1) in modo tale che (2) per tutti i punti.

76 Apprendimento Automatico 198 Potere Computazionale Reti Neurali Notare che qualunque funzione sigmoidale soddisfa le condizioni imposte nel teorema su. Inoltre, l equazione (1) rappresenta l output di una rete multistrato descritta come segue 1. la rete ha nodi di input ed un singolo strato di unità nascoste con sono denotati da. unità; gli input 2. l i-esima unità ha associati i pesi e soglia. 3. l output della rete è una combinazione lineare degli output delle unità nascoste, dove i coefficienti della combinazione sono dati da. Quindi, data una tolleranza qualsiasi funzione in, una rete con un unico strato nascosto può approssimare una. Si noti che il teorema afferma solo l esistenza di una rete e non fornisce alcuna formula per il calcolo del numero di unità nascoste necessarie per approssimare la funzione target con la tolleranza desiderata.

77 Apprendimento Automatico 199 Simmetrie out w w w h 1 h 2 h 3 h 1 =h 2 = h 3 w w w w w w w w w x 1 x 2 x 3

78 Apprendimento Automatico 200 Simmetrie out δ =(t out) σ ( net out out ) w = δ out h w w w h h h h 1 = h 2 = h 3 =h w w w w w w w w w x 1 x 2 x 3

79 Apprendimento Automatico 201 Simmetrie out δ =(t out) σ ( net out out ) w = δ out h w w w h h h h 1 = h 2 = h 3 =h δ 1 δ 2 δ 3 δ 1 = δ 2 = δ 3 = δ h w w w w w w w w w δ h= δ out w σ ( net h ) w 1 = δ h x 1 x 1 x 2 x 3

80 Apprendimento Automatico 202 Simmetrie out δ =(t out) σ ( net out out ) w = δ out h w w w h h h h 1 = h 2 = h 3 =h δ 1 δ 2 δ 3 δ 1 = δ 2 = δ 3 = δ h w w w w w w w w w δ h= δ out w σ ( net h ) w 1 = δ h x 1 w 2 = δ h x 2 x 1 x 2 x 3

81 Apprendimento Automatico 203 Simmetrie out δ =(t out) σ ( net out out ) w = δ out h w w w h h h h 1 = h 2 = h 3 =h δ 1 δ 2 δ 3 δ 1 = δ 2 = δ 3 = δ h w w w w w w w w w δ h= δ out w σ ( net h ) w 1 = δ h x 1 w 2 = δ h x 2 w 3 = δ h x 3 x 1 x 2 x 3

82 Apprendimento Automatico 204 Apprendimento Perceptron: prova di convergenza Sia dato un insieme di esempi, dove (classificazione binaria) Se t.c. (lineare separabilità) allora cioè apprendimento è soluzione anche del problema di apprendimento definito dall insieme di e viceversa Quindi ci possiamo concentrare su problemi dove tutti gli esempi sono positivi

83 Apprendimento Automatico 205 Apprendimento Perceptron: prova di convergenza Supponiamo che - inizialmente (inizializzazione) - e Dopo aver commesso errori (tutti falsi negativi) si avrà infatti all errore j-esimo il vettore dei pesi è aggiornato sommandogli l input classificato erroneamente:

84 Apprendimento Automatico 206 Apprendimento Perceptron: prova di convergenza Mostriamo adesso che il modulo di non può crescere indefinitivamente (succede se non si converge ad una soluzione in un numero finito di iterazioni) Iniziamo definendo un lower bound sul modulo di : (ricordiamo che ) e per la disuguaglianza di Cauchy-Swartz ( ) abbiamo

85 Apprendimento Automatico 207 Apprendimento Perceptron: prova di convergenza Definiamo adesso un upper bound sul modulo di : e poiché ( -esimo errore) Applicando ricorsivamente questa disuguaglianza su tutti gli errori abbiamo

86 Apprendimento Automatico 208 Apprendimento Perceptron: prova di convergenza Mettendo insieme il lower bound con l upper bound otteniamo: Pertanto il numero massimo di errori che si possono commettere mantenendo i due vincoli soddisfatti è ottenuto quando vale l uguaglianza dei bound: da cui si ottiene Quindi, in caso di lineare separabilità, l algoritmo di apprendimento del Perceptron commette un numero finito di errori, al più

87 Apprendimento Automatico 209 Structural Risk Minimization Problema: all aumentare della VC-dimension diminuisce l errore empirico (termine A), ma aumenta la VC confidence (termine B)! L approccio Structural Risk Minimization tenta di trovare un compromesso tra i due termini: Bound on true risk Si considerano tali che Bound on VC confidence - - Error - si seleziona l ipotesi che ha il bound sull errore Empirical error ideale pi ù basso VC dim Esempio: Reti neurali con un numero crescente di neuroni nascosti H 1 H 2 H 3 H n

Reti Neurali in Generale

Reti Neurali in Generale istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono

Dettagli

Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.

Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo. Reti Neurali Corso di AA, anno 2016/17, Padova Fabio Aiolli 2 Novembre 2016 Fabio Aiolli Reti Neurali 2 Novembre 2016 1 / 14 Reti Neurali Artificiali: Generalità Due motivazioni diverse hanno spinto storicamente

Dettagli

Reti Neurali in Generale

Reti Neurali in Generale Sistemi Intelligenti 95 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono da: Biologia (Neurofisiologia)

Dettagli

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità Intelligenza Artificiale Soft Computing: Reti Neurali Generalità Neurone Artificiale Costituito da due stadi in cascata: sommatore lineare (produce il cosiddetto net input) net = S j w j i j w j è il peso

Dettagli

Introduzione alle Reti Neurali

Introduzione alle Reti Neurali Introduzione alle Reti Neurali Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com Reti Neurali Terminator

Dettagli

Training Set Test Set Find-S Dati Training Set Def: Errore Ideale Training Set Validation Set Test Set Dati

Training Set Test Set Find-S Dati Training Set Def: Errore Ideale Training Set Validation Set Test Set Dati " #!! Suddivisione tipica ( 3 5 6 & ' ( ) * 3 5 6 = > ; < @ D Sistemi di Elaborazione dell Informazione Sistemi di Elaborazione dell Informazione Principali Paradigmi di Apprendimento Richiamo Consideriamo

Dettagli

Corso di Intelligenza Artificiale A.A. 2016/2017

Corso di Intelligenza Artificiale A.A. 2016/2017 Università degli Studi di Cagliari Corsi di Laurea Magistrale in Ing. Elettronica Corso di Intelligenza rtificiale.. 26/27 Esercizi sui metodi di apprendimento automatico. Si consideri la funzione ooleana

Dettagli

VC-dimension: Esempio

VC-dimension: Esempio VC-dimension: Esempio Quale è la VC-dimension di. y b = 0 f() = 1 f() = 1 iperpiano 20? VC-dimension: Esempio Quale è la VC-dimension di? banale. Vediamo cosa succede con 2 punti: 21 VC-dimension: Esempio

Dettagli

Capitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano

Capitolo 3: Ottimizzazione non vincolata parte III. E. Amaldi DEI, Politecnico di Milano Capitolo 3: Ottimizzazione non vincolata parte III E. Amaldi DEI, Politecnico di Milano 3.4 Metodi di ricerca unidimensionale In genere si cerca una soluzione approssimata α k di min g(α) = f(x k +αd k

Dettagli

Problema. Equazioni non lineari. Metodo grafico. Teorema. Cercare la soluzione di

Problema. Equazioni non lineari. Metodo grafico. Teorema. Cercare la soluzione di Problema Cercare la soluzione di Equazioni non lineari dove Se è soluzione dell equazione, cioè allora si dice RADICE o ZERO della funzione Metodo grafico Graficamente si tratta di individuare l intersezione

Dettagli

Metodi di Iterazione Funzionale

Metodi di Iterazione Funzionale Appunti di Matematica Computazionale Lezione Metodi di Iterazione Funzionale Il problema di calcolare il valore per cui F() = si può sempre trasformare in quello di trovare il punto fisso di una funzione

Dettagli

Appunti su Indipendenza Lineare di Vettori

Appunti su Indipendenza Lineare di Vettori Appunti su Indipendenza Lineare di Vettori Claudia Fassino a.a. Queste dispense, relative a una parte del corso di Matematica Computazionale (Laurea in Informatica), rappresentano solo un aiuto per lo

Dettagli

3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI

3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI 3.3 FORMULAZIONE DEL MODELLO E CONDIZIONI DI ESISTENZA DI UN PUNTO DI OTTIMO VINCOLATO Il problema di ottimizzazione vincolata introdotto nel paragrafo precedente può essere formulato nel modo seguente:

Dettagli

Programmazione Lineare Intera: Piani di Taglio

Programmazione Lineare Intera: Piani di Taglio Programmazione Lineare Intera: Piani di Taglio Andrea Scozzari a.a. 2014-2015 April 22, 2015 Andrea Scozzari (a.a. 2014-2015) Programmazione Lineare Intera: Piani di Taglio April 22, 2015 1 / 23 Programmazione

Dettagli

Riconoscimento automatico di oggetti (Pattern Recognition)

Riconoscimento automatico di oggetti (Pattern Recognition) Riconoscimento automatico di oggetti (Pattern Recognition) Scopo: definire un sistema per riconoscere automaticamente un oggetto data la descrizione di un oggetto che può appartenere ad una tra N classi

Dettagli

Il Metodo di Newton, o delle Tangenti Federico Lastaria, Analisi e Geometria 1. Politecnico di Milano Corso di Analisi e Geometria 1

Il Metodo di Newton, o delle Tangenti Federico Lastaria, Analisi e Geometria 1. Politecnico di Milano Corso di Analisi e Geometria 1 Politecnico di Milano Corso di Analisi e Geometria 1 Federico Lastaria federico.lastaria@polimi.it Il Metodo di Newton, o delle Tangenti 6 Novembre 2016 Indice 1 Metodo di Newton, o delle tangenti 2 1.1

Dettagli

Corso di Matematica per la Chimica. Dott.ssa Maria Carmela De Bonis a.a

Corso di Matematica per la Chimica. Dott.ssa Maria Carmela De Bonis a.a Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Risoluzione di Equazioni non lineari Sia F C 0 ([a, b]), cioé F è una funzione continua in un intervallo [a, b] R, tale che F(a)F(b) < 0 1.5 1 F(b) 0.5 0 a

Dettagli

ANALISI 1 - Teoremi e dimostrazioni vari

ANALISI 1 - Teoremi e dimostrazioni vari ANALISI 1 - Teoremi e dimostrazioni vari Sommario Proprietà dell estremo superiore per R... 2 Definitivamente... 2 Successioni convergenti... 2 Successioni monotone... 2 Teorema di esistenza del limite

Dettagli

Machine Learning:Reti Neurali. Sommario. Storia Il Sistema Nervoso Il Neurone Formale di Mc Culloch and Pitts Esempi

Machine Learning:Reti Neurali. Sommario. Storia Il Sistema Nervoso Il Neurone Formale di Mc Culloch and Pitts Esempi Machine Learning:Reti Neurali Sommario Storia Il Sistema Nervoso Il Neurone Formale di Mc Culloch and Pitts Esempi Storia - 1 3000 a.c. Ippocrate: primi tentativi di studio del cervello umano. Vengono

Dettagli

SERIE NUMERICHE FAUSTO FERRARI

SERIE NUMERICHE FAUSTO FERRARI SERIE NUMERICHE FAUSTO FERRARI Materiale propedeutico alle lezioni di Complementi di Analisi Matematica ed Elementi di Calcolo delle probabilità per il corso di Laurea in Ingegneria per la parte di Elementi

Dettagli

Il metodo dei Piani di Taglio (Cutting Planes Method)

Il metodo dei Piani di Taglio (Cutting Planes Method) Il metodo dei Piani di Taglio (Cutting Planes Method) E un metodo di soluzione dei problemi (IP) di tipo generale. L idea di base: Se la soluzione di (RL) non è intera allora la soluzione ottima intera

Dettagli

(a) Si proponga una formulazione di programmazione nonlineare a variabili misto-intere per problema.

(a) Si proponga una formulazione di programmazione nonlineare a variabili misto-intere per problema. 6. Clustering In molti campi applicativi si presenta il problema del data mining, che consiste nel suddividere un insieme di dati in gruppi e di assegnare un centro a ciascun gruppo. Ad esempio, in ambito

Dettagli

Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte)

Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte) Lezione introduttiva su reti neurali e SVM Veronica Piccialli Corso di Ottimizzazione a.a. 2009-10 (seconda parte) Ottimizzazione Statistica Fisica Biologia Reti Neurali Matematica Psicologia Informatica

Dettagli

La notazione usata è quella usuale nel caso scalare, ed è estesa al caso generale. Consideriamo una forma quadratica:

La notazione usata è quella usuale nel caso scalare, ed è estesa al caso generale. Consideriamo una forma quadratica: . SU ALCUNI OPERAORI DI DERIVAZIONE Alcune operazioni tipiche dell analisi matematica hanno un diretto riscontro in termini matriciali. Consideriamo ad esempio una forma lineare: f() l l + l +..l n n ;

Dettagli

Otacon22 HgComo. Reti neurali artificiali

Otacon22 HgComo. Reti neurali artificiali Otacon22 HgComo Reti neurali artificiali Chi sono? Daniele Iamartino ( aka Otacon22 ) Membro del team HgComo Studente/sperimentatore Futura matricola del PoliMi, ex liceale con tesina sulle reti neurali!

Dettagli

Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III)

Derivazione numerica. Introduzione al calcolo numerico. Derivazione numerica (II) Derivazione numerica (III) Derivazione numerica Introduzione al calcolo numerico Il calcolo della derivata di una funzione in un punto implica un processo al limite che può solo essere approssimato da un calcolatore. Supponiamo

Dettagli

INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE

INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE CON RETI NEURALI di G. Masala INTRODUZIONE Sistema di classificazione o riconoscimento Un sistema di classificazione [1][2] o di riconoscimento, considerato in

Dettagli

Algoritmi e Strutture Dati. Capitolo 4 Ordinamento: Selection e Insertion Sort

Algoritmi e Strutture Dati. Capitolo 4 Ordinamento: Selection e Insertion Sort Algoritmi e Strutture Dati Capitolo 4 Ordinamento: Selection e Insertion Sort Ordinamento Dato un insieme S di n elementi presi da un dominio totalmente ordinato, ordinare S in ordine non crescente o non

Dettagli

Corso di Matematica per la Chimica

Corso di Matematica per la Chimica Dott.ssa Maria Carmela De Bonis a.a. 2013-14 Risoluzione di Equazioni Algebriche Le equazioni algebriche sono equazioni del tipo P(x) = 0 dove P è un polinomio di grado n cioé P(x) = a 1 x n + a 2 x n

Dettagli

Introduzione alle Reti Neurali

Introduzione alle Reti Neurali Introduzione alle Reti Neurali Marco Botta Dipartimento di Informatica, Università di Torino Corso Svizzera 185-1149 Torino Giornata sul Data Mining 2 Febbraio 22 Reti Neurali 1 Reti Neurali Sono approssimatori

Dettagli

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria. Capitolo 2 Campi 2.1 Introduzione Studiamo ora i campi. Essi sono una generalizzazione dell insieme R dei numeri reali con le operazioni di addizione e di moltiplicazione. Nel secondo paragrafo ricordiamo

Dettagli

Ricerca Operativa. G. Liuzzi. Lunedí 20 Aprile 2015

Ricerca Operativa. G. Liuzzi. Lunedí 20 Aprile 2015 1 Lunedí 20 Aprile 2015 1 Istituto di Analisi dei Sistemi ed Informatica IASI - CNR Rilassamento di un problema Rilassare un problema di Programmazione Matematica vuol dire trascurare alcuni (tutti i)

Dettagli

Modelli e Metodi per la Simulazione (MMS)

Modelli e Metodi per la Simulazione (MMS) Modelli e Metodi per la Simulazione (MMS) adacher@dia.uniroma3.it Programma La simulazione ad eventi discreti, è una metodologia fondamentale per la valutazione delle prestazioni di sistemi complessi (di

Dettagli

Corso di Laurea Specialistica in Ingegneria Meccanica e Ingegneria Energetica Progetto numerico al calcolatore

Corso di Laurea Specialistica in Ingegneria Meccanica e Ingegneria Energetica Progetto numerico al calcolatore Corso di Laurea Specialistica in Ingegneria Meccanica e Ingegneria Energetica Progetto numerico al calcolatore Soluzione di un sistema non lineare con la Regula Falsi generalizzata per la determinazione

Dettagli

Corso di Analisi Numerica

Corso di Analisi Numerica Corso di Laurea in Ingegneria Informatica Corso di 4 - DERIVAZIONE NUMERICA Lucio Demeio Dipartimento di Scienze Matematiche 1 Calcolo numerico delle derivate 2 3 Introduzione Idea di base L idea di base

Dettagli

5.4.5 Struttura dell algoritmo ed esempi

5.4.5 Struttura dell algoritmo ed esempi CAPITOLO 5. IL METODO DEL SIMPLESSO 6 5.4.5 Struttura dell algoritmo ed esempi Come abbiamo già ampiamente osservato, la fase II del metodo del simplesso, a partire da una soluzione di base ammissibile,

Dettagli

Corso di Analisi Numerica

Corso di Analisi Numerica Corso di Laurea in Ingegneria Informatica Corso di 2 - EQUAZIONI NON LINEARI Lucio Demeio Dipartimento di Scienze Matematiche 1 Elementi introduttivi 2 3 4 Introduzione Problema: trovare le soluzioni di

Dettagli

Corso di Analisi Numerica

Corso di Analisi Numerica Corso di Laurea in Ingegneria Informatica Corso di 5 - INTEGRAZIONE NUMERICA Lucio Demeio Dipartimento di Scienze Matematiche 1 Integrazione numerica: formule di Newton-Cotes semplici 2 3 Introduzione

Dettagli

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice

Def. La lunghezza media L(C) di un codice C per una v.c. Obiettivo: Codice ottimo rispetto alla lunghezza media. Lunghezza media di un codice Lunghezza media di un codice Def. La lunghezza media L(C) di un codice C per una v.c. X con d.d.p. P(x) è data da L(C) = x X p (x) l (x) = E[l(X)] Obiettivo: Codice ottimo rispetto alla lunghezza media

Dettagli

UNIVERSITÀ DEGLI STUDI DI PAVIA FACOLTÀ DI INGEGNERIA. Algoritmi

UNIVERSITÀ DEGLI STUDI DI PAVIA FACOLTÀ DI INGEGNERIA. Algoritmi UNIVERSITÀ DEGLI STUDI DI PAVIA FACOLTÀ DI INGEGNERIA Algoritmi Algoritmi classici Alcuni problemi si presentano con elevata frequenza e sono stati ampiamente studiati Ricerca di un elemento in un vettore

Dettagli

Criteri di Scelta Finanziaria

Criteri di Scelta Finanziaria 3 Criteri di Scelta Finanziaria 3.1 Introduzione Spesso occorre confrontare operazioni definite su scadenzari diversi. Nel seguito presentiamo due criteri, quello del valore attuale netto (VAN) e quello

Dettagli

PROGRAMMAZIONE LINEARE E DUALITA'

PROGRAMMAZIONE LINEARE E DUALITA' PROGRAMMAZIONE LINEARE E DUALITA' 1) Dati i punti di R 2 (1, 2), (1, 4), (2, 3), (3, 5), (4, 1), (4, 2), (5, 5), (6, 2), (6, 5). Determinare graficamente: A - L'involucro convesso di tali punti. B - Quali

Dettagli

MATEMATICA. a.a. 2014/15

MATEMATICA. a.a. 2014/15 MATEMATICA a.a. 2014/15 3. DERIVATE E STUDIO DI FUNZIONE (II parte): Massimi, minimi e derivata prima. Flessi e derivata seconda. Schema per lo studio qualitativo completo di una funzione y=f(x) Crescenza

Dettagli

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27

Lunghezza media. Teorema Codice D-ario prefisso per v.c. X soddisfa. L H D (X). Uguaglianza vale sse D l i. = p i. . p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza vale sse D l i = p i.. p.1/27 Lunghezza media Teorema Codice D-ario prefisso per v.c. X soddisfa L H D (X). Uguaglianza

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Calcolo Numerico Dott.ssa M.C. De Bonis Università degli Studi della Basilicata, Potenza Facoltà di Ingegneria Corso di Laurea in Ingegneria Meccanica Risoluzione di Equazioni Algebriche Le equazioni

Dettagli

SERIE NUMERICHE FAUSTO FERRARI

SERIE NUMERICHE FAUSTO FERRARI SERIE NUMERICHE FAUSTO FERRARI Materiale propedeutico alle lezioni di Analisi Matematica per i corsi di Laurea in Ingegneria Energetica e Meccanica N-Z dell Università di Bologna. Anno Accademico 2003/2004.

Dettagli

Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Bacchelli - a.a. 2010/2011.

Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Bacchelli - a.a. 2010/2011. Appunti sul corso di Complementi di Matematica mod. Analisi prof. B.Baccelli - a.a. 2010/2011. 06 - Derivate, differenziabilità, piano tangente, derivate di ordine superiore. Riferimenti: R.Adams, Calcolo

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Laurea in Ingegneria Gestionale Sede di Fermo Corso di 3 - CALCOLO NUMERICO DELLE DERIVATE Introduzione Idea di base Introduzione Idea di base L idea di base per generare un approssimazione alla

Dettagli

Esercizi di ottimizzazione vincolata

Esercizi di ottimizzazione vincolata Esercizi di ottimizzazione vincolata A. Agnetis, P. Detti Esercizi svolti 1 Dato il seguente problema di ottimizzazione vincolata max x 1 + x 2 x 1 4x 2 3 x 1 + x 2 2 0 x 1 0 studiare l esistenza di punti

Dettagli

Problemi, istanze, soluzioni

Problemi, istanze, soluzioni lgoritmi e Strutture di Dati II 2 Problemi, istanze, soluzioni Un problema specifica una relazione matematica tra dati di ingresso e dati di uscita. Una istanza di un problema è formata dai dati di un

Dettagli

Richiami di Algebra di Commutazione

Richiami di Algebra di Commutazione LABORATORIO DI ARCHITETTURA DEI CALCOLATORI lezione n Prof. Rosario Cerbone rosario.cerbone@libero.it http://digilander.libero.it/rosario.cerbone a.a. 6-7 Richiami di Algebra di Commutazione In questa

Dettagli

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n NOTE DI ALGEBRA LINEARE 2- MM 9 NOVEMBRE 2 Combinazioni lineari e generatori Sia K un campo e V uno spazio vettoriale su K Siano v,, v n vettori in V Definizione Un vettore v V si dice combinazione lineare

Dettagli

Laboratorio di Programmazione Laurea in Ingegneria Civile e Ambientale

Laboratorio di Programmazione Laurea in Ingegneria Civile e Ambientale Dipartimento di Ingegneria dell Informazione Università degli Studi di Parma Laboratorio di Programmazione Laurea in Ingegneria Civile e Ambientale Algebra di Boole Stefano Cagnoni Algebra di Boole L algebra

Dettagli

BLAND-ALTMAN PLOT. + X 2i 2 la differenza ( d ) tra le due misure per ognuno degli n campioni; d i. X i. = X 1i. X 2i

BLAND-ALTMAN PLOT. + X 2i 2 la differenza ( d ) tra le due misure per ognuno degli n campioni; d i. X i. = X 1i. X 2i BLAND-ALTMAN PLOT Il metodo di J. M. Bland e D. G. Altman è finalizzato alla verifica se due tecniche di misura sono comparabili. Resta da comprendere cosa si intenda con il termine metodi comparabili

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Laurea in Ingegneria Gestionale Sede di Fermo Corso di 3 - PROBLEMI DI INTERPOLAZIONE Introduzione Problemi di interpolazione Supponiamo di avere un insieme di dati che rappresentano misurazioni

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Laurea in Ingegneria Gestionale Sede di Fermo Corso di 2 - EQUAZIONI NON LINEARI Introduzione Problema: trovare le soluzioni di un equazione del tipo f() = 0 Esempio sin a = 0 e = 3 1.0 2.0 0.5

Dettagli

Corso di Analisi Numerica

Corso di Analisi Numerica Corso di Laurea in Ingegneria Informatica Corso di 3 - PROBLEMI DI INTERPOLAZIONE Lucio Demeio Dipartimento di Scienze Matematiche 1 Interpolazione: Polinomio di Lagrange 2 3 Introduzione Problemi di interpolazione

Dettagli

3.6 Metodi basati sui piani di taglio

3.6 Metodi basati sui piani di taglio 3.6 Metodi basati sui piani di taglio Problema generale di Programmazione Lineare Intera (PLI) con A matrice m n e b vettore n 1 razionali min{ c t x : x X = {x Z n + : Ax b} } Sappiamo che esiste una

Dettagli

Online Gradient Descent

Online Gradient Descent F94 Metodi statistici per l apprendimento Online Gradient Descent Docente: Nicolò Cesa-Bianchi versione 9 aprile 06 L analisi del Perceptrone ha rivelato come sia possibile ottenere dei maggioranti sul

Dettagli

Matlab. Istruzioni condizionali, cicli for e cicli while.

Matlab. Istruzioni condizionali, cicli for e cicli while. Matlab. Istruzioni condizionali, cicli for e cicli while. Alvise Sommariva Università degli Studi di Padova Dipartimento di Matematica 17 marzo 2016 Alvise Sommariva Introduzione 1/ 18 Introduzione Il

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 4 Reti neurali per la classificazione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com

Dettagli

UNIVERSITÀ DEGLI STUDI ROMA TRE Collegio Didattico in Ingegneria Informatica corso di Ricerca operativa 2. Esercizi sul problema dell assegnamento

UNIVERSITÀ DEGLI STUDI ROMA TRE Collegio Didattico in Ingegneria Informatica corso di Ricerca operativa 2. Esercizi sul problema dell assegnamento UNIVERSITÀ DEGLI STUDI ROMA TRE Collegio Didattico in Ingegneria Informatica corso di Ricerca operativa Esercizi sul problema dell assegnamento Richiami di Teoria Ricordiamo che, dato un grafo G=(N,A),

Dettagli

Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I)

Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I) Metodi e Modelli per l Ottimizzazione Combinatoria Ripasso sulla Programmazione Lineare e il metodo del Simplesso (parte I) Luigi De Giovanni Giacomo Zambelli 1 Problemi di programmazione lineare Un problema

Dettagli

Reti logiche: analisi, sintesi e minimizzazione Esercitazione. Venerdì 9 ottobre 2015

Reti logiche: analisi, sintesi e minimizzazione Esercitazione. Venerdì 9 ottobre 2015 Reti logiche: analisi, sintesi e minimizzazione Esercitazione Venerdì 9 ottobre 05 Punto della situazione Stiamo studiando le reti logiche costruite a partire dalle porte logiche AND, OR, NOT per progettare

Dettagli

Capitolo 8: Teoria della complessitá

Capitolo 8: Teoria della complessitá Capitolo 8: Teoria della complessitá 1 La Teoria della calcolabilitá considera aspetti qualitativi della soluzione di problemi. Distingue il calcolabile dal non calcolabile. La Teoria della complessitá

Dettagli

Metodi computazionali per i Minimi Quadrati

Metodi computazionali per i Minimi Quadrati Metodi computazionali per i Minimi Quadrati Come introdotto in precedenza si considera la matrice. A causa di mal condizionamenti ed errori di inversione, si possono avere casi in cui il e quindi S sarebbe

Dettagli

Corso di Calcolo Numerico

Corso di Calcolo Numerico Corso di Laurea in Ingegneria Gestionale Sede di Fermo Corso di 9 - EQUAZIONI DIFFERENZIALI ORDINARIE valori iniziali Valori iniziali Ci occuperemo della soluzione numerica di equazioni del prim ordine

Dettagli

Somma di numeri binari

Somma di numeri binari Fondamenti di Informatica: Codifica Binaria dell Informazione 1 Somma di numeri binari 0 + 0 = 0 0 + 1 = 1 1 + 0 = 1 1 + 1 = 10 Esempio: 10011011 + 00101011 = 11000110 in base e una base Fondamenti di

Dettagli

Macchine di Turing. Francesco Paoli. Istituzioni di logica, Francesco Paoli (Istituzioni di logica, ) Macchine di Turing 1 / 29

Macchine di Turing. Francesco Paoli. Istituzioni di logica, Francesco Paoli (Istituzioni di logica, ) Macchine di Turing 1 / 29 Macchine di Turing Francesco Paoli Istituzioni di logica, 2016-17 Francesco Paoli (Istituzioni di logica, 2016-17) Macchine di Turing 1 / 29 Alan M. Turing (1912-1954) Francesco Paoli (Istituzioni di logica,

Dettagli

Ingegneria della Conoscenza e Sistemi Esperti Lezione 9: Evolutionary Computation

Ingegneria della Conoscenza e Sistemi Esperti Lezione 9: Evolutionary Computation Ingegneria della Conoscenza e Sistemi Esperti Lezione 9: Evolutionary Computation Dipartimento di Elettronica e Informazione Politecnico di Milano Evolutionary Computation Raggruppa modelli di calcolo

Dettagli

Daniela Lera A.A. 2008-2009

Daniela Lera A.A. 2008-2009 Daniela Lera Università degli Studi di Cagliari Dipartimento di Matematica e Informatica A.A. 2008-2009 Equazioni non lineari Metodo di Newton Il metodo di Newton sfrutta le informazioni sulla funzione

Dettagli

Geometria della programmazione lineare

Geometria della programmazione lineare Geometria della programmazione lineare poliedri punti estremi, vertici, soluzioni di base esistenza di punti estremi rif. Fi 3.1; BT 2.1, 2.2, 2.5 Iperpiani, semispazi Definizione Sia a un vettore non

Dettagli

Teoria della Programmazione Lineare Intera

Teoria della Programmazione Lineare Intera Teoria della Programmazione Lineare Intera Laura Galli Dipartimento di Informatica Largo B. Pontecorvo, 567 Pisa laura.galli@unipi.it http://www.di.unipi.it/~galli 7 Ottobre 0 Ricerca Operativa Laurea

Dettagli

Statistica ARGOMENTI. Calcolo combinatorio

Statistica ARGOMENTI. Calcolo combinatorio Statistica ARGOMENTI Calcolo combinatorio Probabilità Disposizioni semplici Disposizioni con ripetizione Permutazioni semplici Permutazioni con ripetizioni Combinazioni semplici Assiomi di probabilità

Dettagli

La media e la mediana sono indicatori di centralità, che indicano un centro dei dati.

La media e la mediana sono indicatori di centralità, che indicano un centro dei dati. La media e la mediana sono indicatori di centralità, che indicano un centro dei dati. Un indicatore che sintetizza in un unico numero tutti i dati, nascondendo quindi la molteplicità dei dati. Per esempio,

Dettagli

Note sulle funzioni convesse/concave

Note sulle funzioni convesse/concave Note sulle funzioni convesse/concave 4th December 2008 1 Definizioni e proprietà delle funzioni convesse/concave. Definizione 1.1 Un insieme A IR n è detto convesso se per ogni x 1 e x 2 punti di A, il

Dettagli

RISOLUZIONE IN LOGICA PROPOSIZIONALE. Giovanna D Agostino Dipartimento di Matemaica e Informatica, Università di Udine

RISOLUZIONE IN LOGICA PROPOSIZIONALE. Giovanna D Agostino Dipartimento di Matemaica e Informatica, Università di Udine RISOLUZIONE IN LOGICA PROPOSIZIONALE Giovanna D Agostino Dipartimento di Matemaica e Informatica, Università di Udine 1. Risoluzione Definitione 1.1. Un letterale l è una variabile proposizionale (letterale

Dettagli

Parte V: Rilassamento Lagrangiano

Parte V: Rilassamento Lagrangiano Parte V: Rilassamento Lagrangiano Tecnica Lagrangiana Consideriamo il seguente problema di Programmazione Lineare Intera: P 1 min c T x L I Ax > b Cx > d x > 0, intera in cui A = matrice m x n C = matrice

Dettagli

Funzioni algebriche: pendenza e Teorema di Ruffini

Funzioni algebriche: pendenza e Teorema di Ruffini Funzioni algebriche: pendenza e Teorema di Ruffini Michele Impedovo Il concetto di retta tangente dell'analisi (la tangenza è locale) è del tutto differente dall'idea intuitiva che gli studenti acquisiscono

Dettagli

Orario del corso. Contenuti del corso. Modalità d esame. Analisi Numerica 1 a.a. 2014/2015

Orario del corso. Contenuti del corso. Modalità d esame. Analisi Numerica 1 a.a. 2014/2015 Analisi Numerica 1 a.a. 2014/2015 Dott.ssa Silvia Bonettini Orario del corso Mercoledì 10:30-13:30 Aula2/Laboratorio Giovedì 10:30-13:30 Aula2/Laboratorio Ricevimento: mercoledì 9:30-10:30 E-mail docente:

Dettagli

ALGORITMI DI OTTIMIZZAZIONE M Esercizi Parte I

ALGORITMI DI OTTIMIZZAZIONE M Esercizi Parte I ALGORITMI DI OTTIMIZZAZIONE M Esercizi Parte I Esercizio 1 Dati n oggetti ed un contenitore, ad ogni oggetto j (j = 1,, n) sono associati un peso p j ed un costo c j (con p j e c j interi positivi). Si

Dettagli

Informatica Generale 1 - Esercitazioni Flowgraph, algebra di Boole e calcolo binario

Informatica Generale 1 - Esercitazioni Flowgraph, algebra di Boole e calcolo binario Informatica Generale 1 - Esercitazioni Flowgraph, algebra di Boole e calcolo binario Daniele Pighin pighin@fbk.eu FBK Via Sommarive, 18 I-38050 Trento, Italy February 27, 2008 Outline 1 Algebra di Boole

Dettagli

Sviluppi e derivate delle funzioni elementari

Sviluppi e derivate delle funzioni elementari Sviluppi e derivate delle funzioni elementari In queste pagine dimostriamo gli sviluppi del prim ordine e le formule di derivazioni delle principali funzioni elementari. Utilizzeremo le uguaglianze lim

Dettagli

Algebra di Boole X Y Z V. Algebra di Boole

Algebra di Boole X Y Z V. Algebra di Boole L algebra dei calcolatori L algebra booleana è un particolare tipo di algebra in cui le variabili e le funzioni possono solo avere valori 0 e 1. Deriva il suo nome dal matematico inglese George Boole che

Dettagli

Routing IP. IP routing

Routing IP. IP routing Routing IP IP routing IP routing (inoltro IP): meccanismo per la scelta del percorso in Internet attraverso il quale inviare i datagram IP routing effettuato dai router (scelgono il percorso) Routing diretto

Dettagli

Sistemi Neurali Artificiali applicati alla Robotica e alla BioRobotica

Sistemi Neurali Artificiali applicati alla Robotica e alla BioRobotica Sistemi Neurali Artificiali applicati alla Robotica e alla BioRobotica PhD. Ing. Michele Folgheraiter Corso di ROBOTICA2 Prof.ssa Giuseppina Gini Anno. Acc. 2005/2006 Controllo Mediante Rete-Neurale -

Dettagli

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x

misura. Adesso, ad un arbitrario punto P dello spazio associamo una terna di numeri reali x 4. Geometria di R 3. Questo paragrafo è molto simile al paragrafo : tratta infatti delle proprietà geometriche elementari dello spazio R 3. Per assegnare delle coordinate nello spazio, fissiamo innanzitutto

Dettagli

Il valore di flusso che si ottiene è

Il valore di flusso che si ottiene è 1) Si consideri un insieme di piste da sci e di impianti di risalita. Lo si modelli con un grafo orientato che abbia archi di due tipi: tipo D (discesa e orientato nel senso della discesa) e tipo R (risalita

Dettagli

Proprietà commutativa e associativa per le serie

Proprietà commutativa e associativa per le serie Analisi Matematica 1 Trentaseiesima Trentasettesimalezione Proprietà commutativa e associativa per le serie Prodotto Serie di alla potenze Cauchy prof. Claudio Saccon Dipartimento di Matematica Applicata,

Dettagli

La regressione lineare. Rappresentazione analitica delle distribuzioni

La regressione lineare. Rappresentazione analitica delle distribuzioni La regressione lineare Rappresentazione analitica delle distribuzioni Richiamiamo il concetto di dipendenza tra le distribuzioni di due caratteri X e Y. Ricordiamo che abbiamo definito dipendenza perfetta

Dettagli

Claudio Estatico Equazioni non-lineari

Claudio Estatico Equazioni non-lineari Claudio Estatico (claudio.estatico@uninsubria.it) Equazioni non-lineari 1 Equazioni non-lineari 1) Equazioni non-lineari e metodi iterativi. 2) Metodo di bisezione, metodo regula-falsi. 3) Metodo di Newton.

Dettagli

Risoluzione di sistemi lineari sparsi e di grandi dimensioni

Risoluzione di sistemi lineari sparsi e di grandi dimensioni Risoluzione di sistemi lineari sparsi e di grandi dimensioni Un sistema lineare Ax = b con A R n n, b R n, è sparso quando il numero di elementi della matrice A diversi da zero è αn, con n α. Una caratteristica

Dettagli

Possibile applicazione

Possibile applicazione p. 1/4 Assegnamento Siano dati due insiemi A e B entrambi di cardinalità n. Ad ogni coppia (a i,b j ) A B è associato un valore d ij 0 che misura la "incompatibilità" tra a i e b j, anche interpretabile

Dettagli

Complementi ed Esercizi di Informatica Teorica II

Complementi ed Esercizi di Informatica Teorica II Complementi ed Esercizi di Informatica Teorica II Vincenzo Bonifaci 21 maggio 2008 4 Problemi di ottimizzazione: il Bin Packing Il problema bin packing è il seguente: dato un insieme di n oggetti di dimensioni

Dettagli

CALCOLO NUMERICO. Prof. Di Capua Giuseppe. Appunti di Informatica - Prof. Di Capua 1

CALCOLO NUMERICO. Prof. Di Capua Giuseppe. Appunti di Informatica - Prof. Di Capua 1 CALCOLO NUMERICO Prof. Di Capua Giuseppe Appunti di Informatica - Prof. Di Capua 1 INTRODUZIONE Quando algoritmi algebrici non determinano la soluzione di un problema o il loro «costo» è molto alto, allora

Dettagli

Apprendimento automatico e Reti Neurali. Francesco Sambo tel

Apprendimento automatico e Reti Neurali. Francesco Sambo  tel Apprendimento automatico e Reti Neurali Francesco Sambo www.dei.unipd.it/~sambofra francesco.sambo@dei.unipd.it tel. 049 827 7834 Apprendimento automatico Capacità di un agente di sintetizzare nuova conoscenza

Dettagli

Complementi di Matematica e Calcolo Numerico A.A Laboratorio 11 - Metodi numerici per equazioni differenziali ordinarie

Complementi di Matematica e Calcolo Numerico A.A Laboratorio 11 - Metodi numerici per equazioni differenziali ordinarie Complementi di Matematica e Calcolo Numerico A.A. 2010-2011 Laboratorio 11 - Metodi numerici per equazioni differenziali ordinarie Cosideriamo il seguente Problema di Cauchy: Trovare una funzione y : I

Dettagli

Il modello di regressione lineare multipla. Il modello di regressione lineare multipla

Il modello di regressione lineare multipla. Il modello di regressione lineare multipla Introduzione E la generalizzazione del modello di regressione lineare semplice: per spiegare il fenomeno d interesse Y vengono introdotte p, con p > 1, variabili esplicative. Tale generalizzazione diventa

Dettagli

Introduzione ai grafi

Introduzione ai grafi TFA A048 Anno Accademico 2012-13 Outline Cenni storici sui grafi Nozioni introduttive: cammini, connessione, alberi, cicli Cammini di costo minimo Origini storiche La nascita della teoria dei grafi risale

Dettagli

GAAL: Capitolo dei prodotti scalari

GAAL: Capitolo dei prodotti scalari GAAL: Capitolo dei prodotti scalari Teorema di Rappresentazione rappresentabile Aggiunto Autoaggiunto Unitariamente diagonalizzabile Teorema spettrale reale Accoppiamento Canonico Forme bilineari Prodotti

Dettagli