Introduzione alle Reti Neurali
|
|
|
- Geraldo Napoli
- 8 anni fa
- Просмотров:
Транскрипт
1 Introduzione alle Reti Neurali Stefano Gualandi Università di Pavia, Dipartimento di Matematica twitter:
2 Reti Neurali
3 Terminator 2 John Connor: Can you learn stuff you haven t been programmed with so you could be... you know, more human? And not such a dork all the time? The Terminator: My CPU is a neural-net processor; a learning computer. But Skynet presets the switch to read-only when we re sent out alone. Sarah Connor: Doesn t want you doing too much thinking, huh? The Terminator: No.
4 Introduzione Le Reti Neurali, intese come tecnologia software, sono nate indipendentemente da due diversi gruppi di ricerca, di cui uno era motivato dallo studio dei processi di apprendimento nei sistemi biologici, mentre il secondo studiava direttamente degli algoritmi efficienti per l apprendimento automatico.
5 Alcuni dati di riferimento 1 Si pensa che il cervello umano abbia circa neuroni
6 Alcuni dati di riferimento 1 Si pensa che il cervello umano abbia circa neuroni 2 Ogni neurone è collegato in media con altri 10 4 neuroni, e l attività di un neurone è eccitata o disinibita da queste connessioni
7 Alcuni dati di riferimento 1 Si pensa che il cervello umano abbia circa neuroni 2 Ogni neurone è collegato in media con altri 10 4 neuroni, e l attività di un neurone è eccitata o disinibita da queste connessioni 3 Il tempo minimo di attivazione è di 10 3 secondi, lento rispetto ai secondi di un calcolatore
8 Alcuni dati di riferimento 1 Si pensa che il cervello umano abbia circa neuroni 2 Ogni neurone è collegato in media con altri 10 4 neuroni, e l attività di un neurone è eccitata o disinibita da queste connessioni 3 Il tempo minimo di attivazione è di 10 3 secondi, lento rispetto ai secondi di un calcolatore 4 Il tempo per riconoscere un volto familiare è di 10 1 secondi: rapidissimo in confronto al tempi di attivazione di un neurone
9 Alcuni dati di riferimento 1 Si pensa che il cervello umano abbia circa neuroni 2 Ogni neurone è collegato in media con altri 10 4 neuroni, e l attività di un neurone è eccitata o disinibita da queste connessioni 3 Il tempo minimo di attivazione è di 10 3 secondi, lento rispetto ai secondi di un calcolatore 4 Il tempo per riconoscere un volto familiare è di 10 1 secondi: rapidissimo in confronto al tempi di attivazione di un neurone 5 Deve esserci un forte "parallelismo" nell elaborazione delle informazioni nel cervello umano
10 Perceptrons La rete neurale più semplice è il perceptron L apprendimento consiste nel trovare i pesi w R p+1
11 Funzioni rappresentabili con un Perceptron Con un perceptron si possono rappresentare tutte le funzioni che sono linearmente separabili. Esempi: Funzione logica AND: due input, w 0 = 0.8, w 1 = w 2 = 0.5 Funzione logica OR: CHE PESI USARE?? Funzione logica NAND: CHE PESI USARE?? Funzione logica XOR: CHE PESI USARE??
12 Regola di apprendimento per il Perceptron Il modo più semplice per cercare un vettore dei pesi w è di iniziare con un vettore casuale e poi in maniera iterativa applicare la regola a ciascuno esempio del training set e di modificare i pesi ogni volta che si ha un errore di classificazione. Si potrebbe iterare questo procedimento o un numero prestabilito di volte, oppure sino a quando tutti gli esempi del training set sono classificati in modo corretto. La regola di aggiornamento è: w i := w i + µ (y test y pred ) x i (1) in cui µ viene chiamato il learning rate. = w i + µ (y f (x, w)) x i (2)
13 Apprendimento con il metodo del gradiente Se prendiamo come funzione di Loss: L(y, f (x, w)) = 1 2 (y f (x, w))2 (3) allora possiamo riscrivere la regola di apprendimento per il perceptron come: w i := w i + µ L(w) w i (4) = w i + µ t T(y t f (x t, w))x it (5)
14 Algoritmo con il metodo del gradiente Input: Training set T e learning rate µ 1 Inizializza il vettore w con dei piccoli valori casuali 2 Sino a quando non viene verificato un criterio di arresto: 1 Inizializza w i = 0 2 Per ogni elemento nel training set t T 1 Calcola y t = f (x t, w) 2 Per ogni elemento del vettore dei pesi: 3 Per ogni elemento di w: w i := w i + µ(y t f (x t, w))x i (6) w i := w i + w i (7)
15 Multi Layer Networks
16 Multi Layer Networks Nelle reti neurali a due livelli, per un problema di classificazione a K classi, con M neuroni nel livello nascosto, abbiamo che u m = σ(α 0m + α T mx), m = 1,..., M (8) z k = β 0k + β T k u, k = 1,..., K (9) f k (x) = g k (z), k = 1,..., K (10) in cui u = (u 1,..., u M ), z = (z 1,..., z K ), e σ(v) è una funzione di attivazione, di solito posta pari a σ(v) = e v
17 Funzione di output La funzione di ouput g k (z) permette una trasformazione finale del vettore degli output z. Per i problemi di regressione si usa di solito la funzione identità g k (z) = z k. Per i problemi di classificazione si usa la stessa funzione softmax usata per la regressione logistica g k (z) = ez k Kl=1 e z l
18 Fitting di Reti a due strati: Parametri Denotiamo l insieme dei pesi di una rete neurale con θ, che consiste di α 0m, α m ; m = 1, 2,..., M : sono M(p + 1) pesi (11) β 0k, β k ; k = 1, 2,..., K : sono K(M + 1) pesi (12)
19 Fitting di Reti a due strati: Parametri Denotiamo l insieme dei pesi di una rete neurale con θ, che consiste di α 0m, α m ; m = 1, 2,..., M : sono M(p + 1) pesi (11) β 0k, β k ; k = 1, 2,..., K : sono K(M + 1) pesi (12) Per i problemi di regressione si usa come Loss function K N L(θ) = (y ik f k (x i )) 2. k=1 i=1
20 Fitting di Reti a due strati: Parametri Denotiamo l insieme dei pesi di una rete neurale con θ, che consiste di α 0m, α m ; m = 1, 2,..., M : sono M(p + 1) pesi (11) β 0k, β k ; k = 1, 2,..., K : sono K(M + 1) pesi (12) Per i problemi di regressione si usa come Loss function K N L(θ) = (y ik f k (x i )) 2. k=1 i=1 Per i problemi di classificazione, oltre alla precedente, si usa la Loss function K N L(θ) = y ik log f k (x i ) k=1 i=1 e il classificatore restituisce G(x) = arg max f k (x i ).
21 Fitting di Reti a due strati: Back-propagation L approccio più generale per minimizzare la Loss function è attraverso metodi del gradiente, che in questo contesto vengono chiamate di Back-propagation, che nel caso di errore quadratico medio viene calcolato come segue. L(θ) = N K N L i = (y ik f k (x i )) 2 (13) i=1 k=1 i=1 con derivate L i = 2 (y ik f k (x i )) g (βk T u i )u mi, (14) β km L i K = 2(y ik f k (x i )) g (βk T u i )β km σ (α α mx T i )x il. (15) ml k=1
22 Fitting di Reti a due strati: Back-propagation Date le derivate prima precedenti, le regole di aggiornamento per un metodo di gradiente sono in cui γ r è il learning rate. β r+1 km = β (r) km γ r α r+1 ml = α (r) ml γ r N i=1 N i=1 L i β (r) km L i α (r) ml (16) (17)
23 Fitting di Reti a due strati: Back-propagation Se ora scriviamo le derivate parziali come L i β km = δ ki u mi, (18) L i α ml = s mi x il. (19) le quantità δ ki e s mi sono gli errori del modello corrente allo strato nascosto e a quello di output. Possiamo scrivere s mi = σ (α T mx i ) K β km δ ki, k=1 che viene chiamata l equazione di back-propagation.
24 Fitting di Reti a due strati: Back-propagation Il calcolo dei pesi θ viene eseguito con un algoritmo che ha due fasi. 1 Nella prima fase (forward pass) si calcolano i valori predetti di ˆf (x i ) con l equazioni che definiscono la rete. 2 Nella seconda fase (backward pass) si calcolano gli errori δ ki che vengono poi propagati all indietro per trovare gli errori s mi. 3 Alla fine gli errori δ ki e s mi sono usati per calcolare i gradienti per le regole di aggiornamento. I vantaggi di questo metodo sono la semplicità e il fatto di essere "locale": ogni neurone passa e riceve informazioni solo dai neuroni con cui condivide una connessione, e quindi si presta a metodi di calcolo parallelo.
25 Fitting di Reti a due strati: Learning rate Il learning rate γ r di solito viene preso costante (determinato in maniera empirica). In teoria per garantire convergenza, si dovrebbe avere γ r 0, (20) γ r =, (21) r r γ 2 r <. (22) Queste richieste vengon soddisfatte per esempio da γ r = 1 r
26 Riconoscimento automatico di codici postali
27 Riconoscimento automatico di codici postali
28 Riconoscimento automatico di codici postali
29 Riconoscimento automatico di codici postali
30 Riconoscimento automatico di codici postali
31 Riconoscimento automatico di codici postali
32 Riconoscimento automatico di codici postali
Reti Neurali (Parte I)
Reti Neurali (Parte I) Corso di AA, anno 2017/18, Padova Fabio Aiolli 30 Ottobre 2017 Fabio Aiolli Reti Neurali (Parte I) 30 Ottobre 2017 1 / 15 Reti Neurali Artificiali: Generalità Due motivazioni diverse
Reti Neurali in Generale
istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono
Regressione Lineare e Regressione Logistica
Regressione Lineare e Regressione Logistica Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: [email protected] @famo2spaghi http://stegua.github.com 1 Introduzione
Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.
Reti Neurali Corso di AA, anno 2016/17, Padova Fabio Aiolli 2 Novembre 2016 Fabio Aiolli Reti Neurali 2 Novembre 2016 1 / 14 Reti Neurali Artificiali: Generalità Due motivazioni diverse hanno spinto storicamente
Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità
Intelligenza Artificiale Soft Computing: Reti Neurali Generalità Neurone Artificiale Costituito da due stadi in cascata: sommatore lineare (produce il cosiddetto net input) net = S j w j i j w j è il peso
Corso di Intelligenza Artificiale A.A. 2016/2017
Università degli Studi di Cagliari Corsi di Laurea Magistrale in Ing. Elettronica Corso di Intelligenza rtificiale.. 26/27 Esercizi sui metodi di apprendimento automatico. Si consideri la funzione ooleana
Algoritmi di classificazione supervisionati
Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale
Machine Learning:Reti Neurali. Sommario
Machine Learning:Reti Neurali Sommario Apprendimento nel percettrone a sigmoide Reti feed-forward multistrato Apprendimento nel percettrone multistrato: back-propagation Conclusioni Apprendimento nel percettrone
Equazioni e sistemi non lineari
Equazioni e sistemi non lineari Lucia Gastaldi DICATAM - Sezione di Matematica, http://lucia-gastaldi.unibs.it Indice 1 Ricerca degli zeri di una funzione Problema e definizioni Metodo di Newton-Raphson
EVOLUZIONE DEL MODELLO NEURALE
EVOLUZIONE DEL MODELLO NEURALE 1 RETI A DECISIONE BINARIA (McCulloch e Pitts, 1943) Per la prima volta viene proposto un modello di elaborazione dell informazione la cui singola unità è il neurone 2 IL
Equazioni e sistemi non lineari
Equazioni e sistemi non lineari Lucia Gastaldi DICATAM - Sezione di Matematica, http://lucia-gastaldi.unibs.it Indice 1 Ricerca degli zeri di una funzione Problema e definizioni Metodo di Newton-Raphson
INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE
INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE CON RETI NEURALI di G. Masala INTRODUZIONE Sistema di classificazione o riconoscimento Un sistema di classificazione [1][2] o di riconoscimento, considerato in
Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte)
Lezione introduttiva su reti neurali e SVM Veronica Piccialli Corso di Ottimizzazione a.a. 2009-10 (seconda parte) Ottimizzazione Statistica Fisica Biologia Reti Neurali Matematica Psicologia Informatica
Reti Neurali. Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti
Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti Multilayer Perceptron (P) Forward propagation Training: Error Backpropagation On-line Backpropagation Stochastic Gradient Descent (SGD)
Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò
Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale
Equazioni differenziali con valori al bordo
Equazioni differenziali con valori al bordo Lucia Gastaldi DICATAM - Sez. di Matematica, http://lucia-gastaldi.unibs.it Indice 1 Equazioni di diffusione reazione 2 Equazioni di diffusione reazione Si consideri
Tecniche di riconoscimento statistico
On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 4 Reti neurali per la classificazione Ennio Ottaviani On AIR srl [email protected]
Corso di Calcolo Numerico
Corso di Laurea in Ingegneria Gestionale Sede di Fermo Corso di 2 - EQUAZIONI NON LINEARI Introduzione Problema: trovare le soluzioni di un equazione del tipo f() = 0 Esempio sin a = 0 e = 3 1.0 2.0 0.5
Esempi di applicazioni di reti neurali
Esempi di applicazioni di reti neurali Ogni problema di rete neurale segue la stessa procedura di base: (1) caricare il set di dati, (2) inizializzare la rete, (3) addestrare la rete (training), e (4)
Apprendimento Automatico (Feature Selection e Kernel Learning)
Apprendimento Automatico (Feature Selection e Kernel Learning) Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Servono tutti gli attributi? Gli
Indice generale. Introduzione. Ringraziamenti dell autore...xxi. Capitolo 1 Dare ai computer la capacità di apprendere dai dati...
Premessa Introduzione...xiii...xv Struttura del libro...xvi Dotazione software necessaria...xvii A chi è rivolto questo libro...xviii Convenzioni...xviii Scarica i file degli esempi...xix L autore...xix
Reti Neurali
Reti Neurali In una piccola ditta di assemblaggio di circuiti integrati è appena arrivata una partita di chip logici con due piedini di input e uno di output, di cui purtroppo s è persa la bolla di accompagnamento:
Integrazione numerica
Integrazione numerica Lucia Gastaldi DICATAM - Sez. di Matematica, http://lucia-gastaldi.unibs.it Indice 1 Formule di quadratura semplici e composite Formule di quadratura Grado di precisione Formule di
Introduzione alle Reti Neurali
Introduzione alle Reti Neurali Maurizio Palesi Introduzione alle Reti Neurali 1 Applicazioni dell I.A. n Giochi di strategia è Scacchi, dama, otello n Comprensione del parlato è Analisi sintattica e semantica
Machine Learning:Reti Neurali. Sommario. Storia Il Sistema Nervoso Il Neurone Formale di Mc Culloch and Pitts Esempi
Machine Learning:Reti Neurali Sommario Storia Il Sistema Nervoso Il Neurone Formale di Mc Culloch and Pitts Esempi Storia - 1 3000 a.c. Ippocrate: primi tentativi di studio del cervello umano. Vengono
Apprendimento statistico (Statistical Learning)
Apprendimento statistico (Statistical Learning) Il problema dell apprendimento Inquadriamo da un punto di vista statistico il problema dell apprendimento di un classificatore Un training set S={(x,y ),,(x
Le aree dell informatica
Fondamenti di Informatica per la Sicurezza a.a. 2006/07 Le aree dell informatica Stefano Ferrari UNIVERSITÀ DEGLI STUDI DI MILANO DIPARTIMENTO DI TECNOLOGIE DELL INFORMAZIONE Stefano Ferrari Università
Esercizi geometria analitica nello spazio. Corso di Laurea in Informatica. Docente: Andrea Loi. Correzione
Esercizi geometria analitica nello spazio Corso di Laurea in Informatica Docente: Andrea Loi Correzione 1. Denotiamo con P 1, P 13, P 3, P 1, P, P 3, P i simmetrici di un punto P rispetto ai piani coordinati
Capitolo 2 Spazi vettoriali Esercizi svolti Tutorato di geometria e algebra lineare. Marco Robutti
Capitolo 2 Spazi vettoriali Esercizi svolti Tutorato di geometria e algebra lineare Marco Robutti 5 Ottobre 27 Introduzione Gli esercizi di questo capitolo riguardano i seguenti argomenti: Dato un insieme,
Valutazione e Selezione del Modello
Valutazione e Selezione del Modello Fondamenti Matematici della Teoria dell Apprendimento Statistico Laura Lo Gerfo Dipartimento di Informatica e Scienze dell Informazione 18 maggio 2007 Laura Lo Gerfo
Introduzione all'architettura dei Calcolatori. Maurizio Palesi
Introduzione all'architettura dei Calcolatori Maurizio Palesi 1 Agenda Architettura generale di un Sistema di Elaborazione La memoria principale Il sottosistema di comunicazione La CPU Miglioramento delle
Otacon22 HgComo. Reti neurali artificiali
Otacon22 HgComo Reti neurali artificiali Chi sono? Daniele Iamartino ( aka Otacon22 ) Membro del team HgComo Studente/sperimentatore Futura matricola del PoliMi, ex liceale con tesina sulle reti neurali!
Apprendimento statistico (Statistical Learning)
Apprendimento statistico (Statistical Learning) Il problema dell apprendimento Inquadriamo da un punto di vista statistico il problema dell apprendimento di un classificatore Un training set S={(x,y ),,(x
Reti Neurali. Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti
Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti Multilayer Perceptron (P) Forward propagation Training: Error Backpropagation On-line Backpropagation Stochastic Gradient Descent (SGD)
Annamaria Mazzia. Corso di Metodi Numerici per l Ingegneria dispense e altro materiale su
Soluzione di un sistema non lineare con la Regula Falsi generalizzata per la determinazione degli angoli conico di taglio ed elicoidale di taglio di una cremagliera Annamaria Mazzia Dipartimento di Metodi
Capitolo 5 Applicazioni lineari Esercizi svolti Tutorato di geometria e algebra lineare. Marco Robutti
Capitolo 5 Applicazioni lineari Esercizi svolti Tutorato di geometria e algebra lineare Marco Robutti 5 Ottobre 27 Introduzione Gli esercizi di questo capitolo riguardano i seguenti argomenti: Data un
