EVOLUZIONE DEL MODELLO NEURALE
|
|
|
- Emanuele Natale
- 7 anni fa
- Просмотров:
Транскрипт
1 EVOLUZIONE DEL MODELLO NEURALE 1 RETI A DECISIONE BINARIA (McCulloch e Pitts, 1943) Per la prima volta viene proposto un modello di elaborazione dell informazione la cui singola unità è il neurone 2 IL PERCEPTRON (Rosenblatt, 1962 Minsky e Papert, 1967) Si affronta il problema della determinazione dei coefficienti per reti costituite da unità di elaborazione del tipo di McCulloch e Pitts 3 LA BACK-PROPAGATION (Werbos, 1974 Rumelhart, Hilton e Williams, 1986) Viene introdotta una procedura per la determinazione dei coefficienti degli strati interni
2 1 Il neurone Valore di soglia X 1 X 2 W 2 W 1 Σ θ + Y F ( Y ) W n Funzione di attivazione X n ={ 1 Y > 0 Funzione Gradino: F ( Y ) 0 Y 0 Una rete formata da tali unità è, con la scelta degli opportuni coefficienti, in linea di principio capace di rappresentare qualsiasi funzione logica
3 2 Il perceptron Rosenblatt dimostra analiticamente e sperimentalmente come sia possibile addestrare la rete tramite un algoritmo iterativo e convergente (teorema della convergenza del perceptron) in grado di riconoscere un prefissato insieme di patterns (F. Rosenblatt, Principles of Neurodynamics, Spartan, 1962) Principio della regola di addestramento: presentare degli esempi alla rete e modificare i pesi delle connessioni per ottenere un miglioramento del risultato, così da avvicinarsi alle uscite desiderate
4 Minsky e Papert dimostrano che il teorema è valido solo per quel tipo di situazioni risolvibili con il perceptron a singolo strato Esisteva tuttavia una vasta classe di problemi anche elementari che il perceptron non era in grado di risolvere. Esempio classico: OR esclusivo. Bisognava aggiungere altri strati ma a questo punto veniva a mancare l algoritmo opportuno per la determinazione dei coefficienti degli strati interni : problema dell assegnazione delle responsabilità (M.L. Minsky, S.A. Papert, Perceptrons, MIT Press, 1969).
5 XOR NETWORK OUTPUT THRESHOLD = HIDDEN INPUT
6 Le regressioni lineari possono essere viste come forme degeneri di reti perceptron senza strati interni. Esempio a11 x1 y1 a21 a12 x2 a22 y2 a31 a32 x3 Se le funzioni di attivazione sono funzioni identità arriviamo a: y1 = a11 x1 + a21 x2 + a31 x3 y2 = a12 x1 + a22 x2 + a32 x3
7 3 La back-propagation P. Werbos. Beyond regression: new tools for prediction and analysis in the behavourial sciences, Ph.D. Thesis. Harvard University, D.E. Rumelhart, G.E. Hinton, R.J. Williams, Learning internal representations by error propagation, MIT press, Risolve la difficoltà dell addestramento dei neuroni interni. Si considera una rete con funzioni di attivazione differenziabili, cosicché le funzioni di attivazione dell uscita diventano funzioni differenziabili sia delle variabili di ingresso che dei pesi e dei valori di soglia Le derivate possono essere utilizzate per trovare i valori dei coefficienti che minimizzano la funzione errore E = 1 2 p Noutput k = 1 ( ) y k t k Nel 1989 Hornik et al. dimostrano che il perceptron multistrato è in grado di approssimare qualsiasi funzione continua a valori reali: le reti perceptron multistrato costituiscono una classe di approssimatori universali K. Hornik, M. Stinchcombe, A. White, Multilayer feedforward networks are universal approximators, Neural Networks,
8 Classificazione di reti neurali Possiamo distinguere 3 elementi fondamentali: 1. Topologia della rete: Feedforward, ricorsiva, completamente connessa 2. Caratteristiche del neurone: Funzione di attivazione sigmoidale, a gradino, gaussiana 3. Regola di apprendimento: Con supervisione Senza supervisione Percettrone multi-strato (multi-layer perceptron)
9 Regolarizzazione Si incoraggia la rete a fornire curve più semplici e con fluttuazioni di ampiezza più contenute Si aggiunge una funziona penalità Ω alla funzione di errore E giungendo a definire una nuova funzione E E =E + μω Dove il parametro μ controlla con che intensità il termine di penalità influenza la forma della soluzione Una delle forme più semplici e usate di regolarizzatori è quella a decadimento del peso: Ω = 1 2 i w 2 i L abbassamento dei valori dei coeffcienti smorza la tendenza a generazioni di funzioni con andamenti particolarmente irregolari. Anche l aggiunta di rumore nei dati può agire come regolatore
10 Stabilizzazione strutturale Tecniche per tentativi si addestra un insieme di reti con un numero differente di unità nascoste e si seleziona quella che dà il risultato migliore Tecniche di pruning Si allena una rete inizialmente sovradimensionata. Terminato l addestramento, la rete viene analizzata attraverso l importanza di ciascuno dei suoi pesi, e il meno importante viene eliminato. La rete ottenuta viene poi nuovamente riaddestrata Nota. Estendendo le tecniche di pruning fino ad arrivare a interessare lo strato di ingresso può essere un utile metodo per individuare i canali con maggiore contenuto applicativo Tecniche di growing Si parte con una rete sottodimensionata e man mano durante l addestramento vengono aggiunte nuove unità o strati congelando i coefficienti determinati nelle fasi precedenti.
11 La riduzione delle dimensionalità Motivazioni Migliora le proprietà di generalizzazione della rete Accelera il processo di addestramento Tecniche Analisi a componenti principali Reti autoassociative (analisi a componenti principali non lineari)
12 LE RETI NEURALI VIZI.. Problema dei minimi locali I pattern di addestramento devono rappresentare esaurientemente la statistica E VIRTÙ Approssimatori universali Portabilità Robustezza Facilità di implementazione
13 ;Function : neural ; INPUT : Features OUTPUT : Gives out the neural response on the probability for the object to be an oil spill ; common NEURAL, scaling_coef,nn_threshold,nn_conn act=fltarr(28) act(0)=features.area act(1)=features.perimeter. act(10)=features.gradient[3] for i=0,10 do act(i)=scaling_coef(0,i)*act(i) + scaling_coef(1,i) for i=11,18 do begin act(i)=0 for j=0,10 do act(i)= act(i) + nn_conn(j,i)*act(j) act(i)=act(i) + nn_threshold(i) act(i)=1/(1+ exp(-act(i))) endfor for i=19,26 do begin act(i)=0 for j=11,18 do act(i)= act(i) + nn_conn(j,i)*act(j) act(i)=act(i) + nn_threshold(i) act(i)=1/(1+ exp(-act(i))) endfor act(27)=0 for j=19,26 do act(27)= act(27) + nn_conn(j,27)*act(j) act(27)=act(27) + nn_threshold(27) act(27)=1/(1+ exp(-act(27)))
14 ftp.informatik.uni-stuttgart.de cd /pub/snns
15 Riferimenti bibliografici PARALLEL DISTRIBUTED PROCESSING Exploration in the Microstructure of Cognition Volume 1: Foundations Volume 2: Psychological and Biological Models David E. Rumelhart, James L. McClelland, and the PDP Research Group The MIT Press, NEURAL NETWORKS FOR PATTERN RECOGNITION Christopher M. Bishop Oxford University Press, NEURAL NETWORKS: A COMPREHENSIVE FOUNDATION Simon Haykin, S. Prentice Hall, 1998.
RETI NEURALI APPLICATE AL TELERILEVAMENTO. FABIO DEL FRATE
RETI NEURALI APPLICATE AL TELERILEVAMENTO FABIO DEL FRATE ([email protected]) Roma 22 6 2010: 2010 Seminario i del dlcorso di Telerilevamento e Diagnostica i Elettromagnetica L inversione dei dati
Reti Neurali in Generale
istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono
Reti Neurali (Parte I)
Reti Neurali (Parte I) Corso di AA, anno 2017/18, Padova Fabio Aiolli 30 Ottobre 2017 Fabio Aiolli Reti Neurali (Parte I) 30 Ottobre 2017 1 / 15 Reti Neurali Artificiali: Generalità Due motivazioni diverse
Introduzione alle Reti Neurali
Introduzione alle Reti Neurali Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: [email protected] @famo2spaghi http://stegua.github.com Reti Neurali Terminator
Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità
Intelligenza Artificiale Soft Computing: Reti Neurali Generalità Neurone Artificiale Costituito da due stadi in cascata: sommatore lineare (produce il cosiddetto net input) net = S j w j i j w j è il peso
Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.
Reti Neurali Corso di AA, anno 2016/17, Padova Fabio Aiolli 2 Novembre 2016 Fabio Aiolli Reti Neurali 2 Novembre 2016 1 / 14 Reti Neurali Artificiali: Generalità Due motivazioni diverse hanno spinto storicamente
Apprendimento automatico e Reti Neurali. Francesco Sambo tel
Apprendimento automatico e Reti Neurali Francesco Sambo www.dei.unipd.it/~sambofra [email protected] tel. 049 827 7834 Apprendimento automatico Capacità di un agente di sintetizzare nuova conoscenza
Reti Neurali. Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti
Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti Multilayer Perceptron (P) Forward propagation Training: Error Backpropagation On-line Backpropagation Stochastic Gradient Descent (SGD)
Introduzione alle Reti Neurali
Introduzione alle Reti Neurali Maurizio Palesi Introduzione alle Reti Neurali 1 Applicazioni dell I.A. n Giochi di strategia è Scacchi, dama, otello n Comprensione del parlato è Analisi sintattica e semantica
Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte)
Lezione introduttiva su reti neurali e SVM Veronica Piccialli Corso di Ottimizzazione a.a. 2009-10 (seconda parte) Ottimizzazione Statistica Fisica Biologia Reti Neurali Matematica Psicologia Informatica
Algoritmi di classificazione supervisionati
Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale
INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE
INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE CON RETI NEURALI di G. Masala INTRODUZIONE Sistema di classificazione o riconoscimento Un sistema di classificazione [1][2] o di riconoscimento, considerato in
Machine Learning:Reti Neurali. Sommario. Storia Il Sistema Nervoso Il Neurone Formale di Mc Culloch and Pitts Esempi
Machine Learning:Reti Neurali Sommario Storia Il Sistema Nervoso Il Neurone Formale di Mc Culloch and Pitts Esempi Storia - 1 3000 a.c. Ippocrate: primi tentativi di studio del cervello umano. Vengono
Metodi di ottimizzazione per le reti neurali
Metodi di ottimizzazione per le reti neurali L. Grippo DIS, Università di Roma La Sapienza M. Sciandrone IASI, Consiglio Nazionale delle Ricerche, Roma Generalità sulle reti neurali Addestramento di reti
Machine Learning:Reti Neurali. Sommario
Machine Learning:Reti Neurali Sommario Apprendimento nel percettrone a sigmoide Reti feed-forward multistrato Apprendimento nel percettrone multistrato: back-propagation Conclusioni Apprendimento nel percettrone
Corso di Intelligenza Artificiale A.A. 2016/2017
Università degli Studi di Cagliari Corsi di Laurea Magistrale in Ing. Elettronica Corso di Intelligenza rtificiale.. 26/27 Esercizi sui metodi di apprendimento automatico. Si consideri la funzione ooleana
Storia delle reti neurali artificiali
Storia delle reti neurali artificiali Laura Labonia Cos è una Artificial Neural Network? E una macchina progettata per simulare il funzionamento del cervello umano, implementata fisicamente utilizzando
Introduzione agli Algoritmi Genetici ed alle Reti Neurali
Introduzione agli Algoritmi Genetici ed alle Reti Neurali Maurizio Palesi Introduzione agli Algoritmi Genetici ed alle Reti Neurali 1 Sommario Algoritmi Genetici Introduzione e applicazioni Terminologia
Otacon22 HgComo. Reti neurali artificiali
Otacon22 HgComo Reti neurali artificiali Chi sono? Daniele Iamartino ( aka Otacon22 ) Membro del team HgComo Studente/sperimentatore Futura matricola del PoliMi, ex liceale con tesina sulle reti neurali!
Reti neurali di Kohonen: un esempio di applicazione al TSP
Reti neurali di Kohonen: un esempio di applicazione al TSP Stefano Vaccari 2148 061247 Relazione per il corso di Intelligenza Artificiale Febbraio 2003 1 Reti neurali Le reti neurali artificiali sono un
Modelli di Reti neurali
Università di Firenze Facoltà di Psicologia Dario Aversa Rosapia Lauro Grotto Modelli di Reti neurali ARACNE Copyright MMVIII ARACNE editrice S.r.l. www.aracneeditrice.it [email protected] via Raffaele
Reti Neurali Artificiali. Davide Manca Dinamica e Controllo dei Processi Chimici Politecnico di Milano
L5 Reti Neurali Artificiali L5 Introduzione ANN: Artificial Neural Network Una rete neurale artificiale è una macchina progettata per simulare il funzionamento del cervello umano, implementata fisicamente
1. Il cognitivismo classico 2. L approccio innatistamodulare. 3. L approccio connessionista 4. Il neurocostruttivismo
Lezione 3 Connessionismo MODULO 3 Le teorie dell elaborazione delle informazioni 1. Il cognitivismo classico 2. L approccio innatistamodulare 3. L approccio connessionista 4. Il neurocostruttivismo Argomenti
RETI NEURALI (II PARTE)
RETI NEURALI (II PARTE) HOPFIELD Neural Net è utilizzata come MEMORIA ASSOCIATIVA e come CLASSIFICATORE input e output sono BINARI {+, -} i pesi sono fissati con un apprendimento non iterativo (fixed point
Reti Neurali. Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti
Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti Multilayer Perceptron (P) Forward propagation Training: Error Backpropagation On-line Backpropagation Stochastic Gradient Descent (SGD)
Reti Neurali. F. Sciarrone Dicembre2005. Seminari di Sistemi Informatici
Reti Neurali F. Sciarrone Dicembre2005 Seminari di Sistemi Informatici Schema presentazione Obiettivi generali Reti neurali NeuroSolutions (software per la costruzione di reti neurali) Applicazioni Università
Modelli di reti neurali: multilayer perceptron e radial basis function
Università degli Studi di Padova Dipartimento di Ingegneria dell Informazione Corso di Laurea in Ingegneria dell Informazione Modelli di reti neurali: multilayer perceptron e radial basis function Laureando:
Introduzione alle Reti Neurali
Introduzione alle Reti Neurali Gianluca Baldassarre Introduzione e cenni storici Le reti neurali sono un modello quantitativo prodotto dall intelligenza artificiale, ispirato alla struttura ed al funzionamento
Riconoscimento e recupero dell informazione per bioinformatica
Riconoscimento e recupero dell informazione per bioinformatica Reti Neurali Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario Introduzione: approcci
Spazio e trasformazioni sensorimotorie
Università degli studi di Padova Dipartimento di Psicologia Generale Spazio e trasformazioni sensorimotorie Michele De Filippo De Grazia Simone Cutini Outline Trasformazioni sensorimotorie Basi anatomo-fisiologiche
Apprendimento Automatico
Apprendimento Automatico Fabio Aiolli www.math.unipd.it/~aiolli Sito web del corso www.math.unipd.it/~aiolli/corsi/1516/aa/aa.html Rappresentazione dei dati con i kernel Abbiamo una serie di oggetti S
Tecniche di riconoscimento statistico
On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 4 Reti neurali per la classificazione Ennio Ottaviani On AIR srl [email protected]
Pro e contro delle RNA
Pro e contro delle RNA Pro: - flessibilità: le RNA sono approssimatori universali; - aggiornabilità sequenziale: la stima dei pesi della rete può essere aggiornata man mano che arriva nuova informazione;
DEEP LEARNING. Scuola Politecnica e delle Scienze di Base Corso di Laurea in Ingegneria Informatica. Elaborato finale in INTELLIGENZA ARTIFICIALE
Scuola Politecnica e delle Scienze di Base Corso di Laurea in Ingegneria Informatica Elaborato finale in INTELLIGENZA ARTIFICIALE DEEP LEARNING Anno Accademico 2014-2015 Candidato: NICOLA CAPUANO matr.
Serie storiche Mario Guarracino Laboratorio di Sistemi Informativi Aziendali a.a. 2006/2007
Serie storiche Introduzione Per alcuni dataset, l attributo target è soggetto ad un evoluzione temporale e risulta associato ad istanti di tempo successivi. I modelli di analisi delle serie storiche si
WEKA. Ing. Antonio Brunetti Prof. Vitoantonio Bevilacqua
WEKA BIOINFORMATICS AND BIG DATA ANALYTICS Ing. Antonio Brunetti Prof. Vitoantonio Bevilacqua Indice Cosa è weka Tecnologie Hands On Weka Weka Explorer KnowledgeFlow /Simple CLI Caricare il dataset Il
