NEURAL NETWORKS. Il cervello: tra analogia e semantica. TEST: esercizio analogo-cognitivo

Documenti analoghi
Reti Neurali (Parte I)

Reti Neurali in Generale

Reti neurali. una breve introduzione

ADDESTRAMENTO DI UNA RETE NEURALE ED EVENTUALI CONSIDERAZIONI PRESTAZIONALI. (a cura di Buttolo Marco).

Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.

Tecniche avanzate per la progettazione e la gestione dei sistemi produttivi

Reti Neurali (Parte I)

Dispense per i corsi di Informatica generale Corso di laurea in Matematica e. Introduzione agli Algoritmi Corso di laurea in Informatica

Metodi supervisionati di classificazione

Memoria associativa e dinamica del riconoscimento: introduzione al modello di Hopfield

Geo-scienze e Rischi Naturali

Reti Neurali (Parte III)

Criteri alternativi all Entropia

LA PREDIZIONE DELLE PORTATE DELLE SORGENTI DI. Salvatore Rampone Carmine Tiso

MATRICE TUNING competenze versus unità didattiche, Corso di Laurea in Informatica (classe L-31), Università degli Studi di Cagliari

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019

Argomenti. Seminario del Corso di Elaborazione del Linguaggio Naturale. Cosa manca? Cosa si è già detto

Multi classificatori. Prof. Matteo Golfarelli Alma Mater Studiorum - Università di Bologna

Macchine combinatorie: progettazione. Macchine combinatorie

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità

Machine Learning:Reti Neurali. Sommario

Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale

In memoria di mio padre. A mia madre, a tutti gli amici. A tutti voi grazie.

MODELLI MATEMATICI PER I SISTEMI DI INFORMAZIONE ALL UTENZA: introduzione ai modelli dell ingegneria dei trasporti

Data mining: classificazione

Le sinapsi elettriche

Caratteristiche di un calcolatore elettronico

Corso di Laurea in Informatica Basi di Dati a.a

Corso di Informatica

SISTEMA NERVOSO! Prof.ssa A. Biolchini Prof.ssa S. Di Giulio Prof. M. Montani

DSA l'origine e la necessità di compensare

Algoritmi e Strutture di Dati

LE BASI DI DATI. Prima parte Premesse introduttive I MODELLI DEI DATI

REGISTRI D'ESAME CODICE ESAME CORSO DI LAUREA NOME DEL CORSO LAUREA CFU

Classificazione DATA MINING: CLASSIFICAZIONE - 1. Classificazione

Testing, correttezza e invarianti

Basi di Dati Relazionali

Corso di Laurea in Informatica Basi di Dati a.a

Introduzione alle Reti Neurali

Fondamenti di Informatica

Reti Neurali. Giuseppe Manco. References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop. Reti Neurali

Il Concetto Intuitivo di Calcolatore. Esercizio. I Problemi e la loro Soluzione. (esempio)

Corso di Intelligenza Artificiale A.A. 2016/2017

Università degli Studi del Piemonte Orientale Amedeo Avogadro Corso di Laurea in INFORMATICA D.M. 22/10/2004, n. 270 Coorte 2018/2019

Introduzione ai filtri digitali

Il Concetto Intuitivo di Calcolatore. Esercizio. I Problemi e la loro Soluzione. (esempio)

Progettazione curricolo verticale

Lez. 5 La Programmazione. Prof. Salvatore CUOMO

Università degli Studi del Piemonte Orientale Amedeo Avogadro Corso di Laurea in INFORMATICA D.M. 22/10/2004, n. 270 Coorte 2018/2019

Università degli Studi del Piemonte Orientale Amedeo Avogadro Corso di Laurea in INFORMATICA D.M. 22/10/2004, n. 270 Coorte 2019/2020

La più nota proprietà del neurone è quella di ricevere e trasmettere segnali costituiti principalmente da eventi elettro-chimici.

POTENZIALE DI MEMBRANA A RIPOSO. Le informazioni all'interno del sistema nervoso vengono scambiate mediante SEGNALI ELETTRICI

Fasi di creazione di un programma

La fase di Implementazione

Algoritmi di classificazione supervisionati

Risoluzione dei problemi

Dipartimento di Comunicazione e Ricerca Sociale Corso di Internet Studies. Anno accademico 2015/16 Francesca Comunello

Introduzione alla programmazione

Progettazione di un sensore nanostrutturato per la misura della concentrazione ambientale di ammoniaca

Riconoscimento immagini con Keras e Tensorflow Gabriele Baldi

Istituto d Istruzione Secondaria Superiore M.BARTOLO. A cura del Prof S. Giannitto

Modellazione di Workflow mediante le Reti di Petri. Prof. Giancarlo Fortino

Computazione per l interazione naturale: Modelli dinamici

lunedì martedì mercoledì giovedì venerdì

Programmi e Oggetti Software

L INTELLIGENZA ARTIFICIALE E LA SICUREZZA APPLICATIVA. Sessione di studio AIEA Torino, Gianluca Zanini Kleis s.r.l.

SISTEMA NERVOSO. Prof.ssa S. Di Giulio

Spazio e trasformazioni sensorimotorie

Il linguaggio di programmazione Python

Problemi, algoritmi, calcolatore

Ruolo e funzione dell insegnante di sostegno per promuovere l inclusione attraverso la progettazione in ICF.

IL NUOVO MODELLO PER LA PREVISIONE POLLINICA. Stefano Marchesi Direzione Tecnica Centro Tematico Regionale Ambiente Salute

Metodi supervisionati di classificazione

Esercitazione. Spectrum Sensing & Energy Detector. Dott. Antonio Tedeschi Corso di. Software Defined Radio

CORSO DI PROGRAMMAZIONE

Informatica 3. Informatica 3. Lezione 1- Modulo 1. LEZIONE 1: Introduzione. Concetti di linguaggi di programmazione. Introduzione

RETI NEURALI. Esempio: Stima del rendimento volumetrico η

UDA. Argomento: IL SISTEMA NERVOSO. Classe: II ITIS. con indicazioni per i BES

Modellazione di sistemi ingegneristici (parte 2 di 2)

Jay Phelan, Maria Cristina Pignocchino. Scopriamo la biologia

Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte)

Concetti di base dell ICT

Fenomeni Bioelettrici parte II - programma dettagliato e materiale di studio AA 2018/2019

TARGETS DEI FARMACI ATTUALMENTE IN USO

Parole note, nuovi significati: linguaggio, determinismo e infinito

PROGRAMMAZIONE INFORMATICA SECONDO BIENNIO. Liceo Scientifico opzione Scienze Applicate

Riconoscimento automatico di oggetti (Pattern Recognition)

TECNOLOGIE INFORMATICHE E MULTIMEDIALI

Identificazione di modello

PROGRAMMAZIONE DIDATTICA DI TECNOLOGIE E TECNICHE DI RAPPRESENTAZIONE GRAFICHE

La fase di Progettazione

Corso di Laurea Specialistica in Ingegneria Informatica

[Giuseppe Alessandri, Appunti]

Esercizi svolti a lezione

CHE COS È L INFORMATICA. Prof. Enrico Terrone A. S. 2014/15

LA COMUNICAZIONE COMUNICARE

Transcript:

Corso di Laurea Triennale in Informatica (B.Sc.) Seminario per il corso di! Ingegneria del Software (prof. E. Tramontana) Ecce homo «Un occhio che scruta nella semioscurità: questo è il cervello.» [G. Soriano] NEURAL NETWORKS Dr. Christian Napoli, M.Sc.!! Dipartimento di Matematica e Informatica! Università degli Studi di Catania!!! napoli@dmi.unict.it - www.dmi.unict.it/~napoli/ 1 2 Christian 1 Napoli! Rilasciato con licenza Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.! Concetti di base Il cervello: tra analogia e semantica Concetti di base TEST: esercizio analogo-cognitivo «Per quanto un analogia sia spesso falsa, è la cosa meno falsa che abbiamo.» [R.S. Butler] In fisica, l'analogia è il procedimento che cerca di indagare le leggi connesse ai fenomeni meno conosciuti partendo dalle leggi che governano fenomeni noti.? Nella semantica, l'analogia è quel procedimento compositivo per cui si sostituiscono ai consueti rapporti logicosemantici altri rapporti basati su somiglianze tanto sul piano del significato che su quello del significante. 3 4

Concetti di base TEST: esercizio analogo-cognitivo Concetti di base TEST: esercizio analogo-cognitivo 5 6 73 Concetti di base Astrazione «La cultura è stadio capace d'astrazione: è stadio ricco di linguaggio astratto. Per tale ragione essa è dimensione appetibile per il sistema Homo.» [P. Ferrari] In informatica è l'applicazione metodologica nella strutturazione della descrizione dei sistemi informatici complessi, per facilitarne la progettazione e manutenzione o la stessa comprensione. Nella programmazione orientata agli oggetti (OOP), l astrazione implica la facilità di definire oggetti che rappresentino entità che possono svolgere lavori, riportare e cambiare il loro stato, e comunicare con gli altri oggetti. In filosofia è un metodo logico per ottenere concetti universali ricavandoli dalla conoscenza sensibile di oggetti particolari mettendo da parte ogni loro caratteristica spazio-temporale. 83 Connettoma All interno della scatola cranica Nessun sentiero riesce a penetrare questa foresta. Ovunque, le lunghe ed esili ramificazioni dei suoi alberi ne soffocano lo spazio con la loro crescita esuberante, e nessun raggio di sole trova una percorso abbastanza tortuoso da riuscire a intrufolarsi negli spazi angusti tra i rami ingarbugliati. Ogni albero di questa foresta è cresciuto da 100 miliardi di semi piantati insieme. E in un solo giorno, ognuno di essi morirà.! [Connectome, S. Seung (2012)] Il cervello, e con esso, il pensiero, la personalità, la capacità di astrazione, sono frutto dell operosa cooperazione fra piccole cellule che si scambiano segnali attraverso un intricata rete di comunicazione

9 (CC) Wikimedia Commons / CC-SA-3.0 Connettoma Neuroni biologici Grazie alle sue peculiari proprietà fisiologiche e chimiche è in grado di ricevere, integrare e trasmettere impulsi nervosi, nonché di produrre sostanze denominate neurosecreti. I neuroni sono delle celle biosintetiche elettricamente attive, il cervello umano ne contiene un ordine di 10 11.! 10 Connettoma Attivazione neurologica: il caso biologico Il potenziale d'azione nelle cellule del sistema nervoso permette la trasmissione di informazioni fra cellule: questo è causato da, ed a sua volta, causa la, liberazione di sostanze (chiamate neurotrasmettitori) contenute in vescicole che agendo sulle cellule vicine determinano delle conseguenze, come per esempio la modifica del potenziale medesimo. (CC) Wikimedia Commons / CC-SA-3.0 L'assone si comporta come un conduttore elettrico tra neuroni grazie alla presenza di alcuni ioni come sodio, cloro, calcio e potassio, viene creato un flusso ionico che genera una corrente elettrica. A livello delle sinapsi la depolarizzazione determinata dalla corrente determina l'apertura di canali per il calcio. Connettoma 11 I! N! P! U! T Elettro-fisiologia del neurone ATTIVAZIONE O! U! T! P! U! T Neuroni artificiali 12 ~ =

Funzioni di attivazione Reti Neurali come black boxes Purtroppo non è possibile fornire una descrizione al contempo generale e finita delle funzioni di attivazione, esiste infatti una vastissima quantità di possibili funzioni di attivazione (non tutte performanti e non tutte adatte all implementazione pratica), in definitiva, infatti, qualsiasi funzione assolutamente integrabile in un intervallo può essere utilizzata come funzione di attivazione. Anche se l appartenenza ad L1 è una condizione necessaria, essa non è certo sufficiente perché la funzione scelta sia adatta, essa deve essere infatti in grado di discriminare nettamente dei valori di soglia oltre i quali attivare il neurone.! 1,2 0,8 0,4-1 -0,75-0,5-0,25 0 0,25 0,5 0,75 1-0,4-0,8-1,2 13 14 15 Reti Neurali: vantaggi Problemi di cui non si conosce alcun modello analitico o per i quali la sua implementazione è estremamente difficile Capacità di generalizzazione adatte alla modellizzazione Facilità di implementazione in quanto costituite da neuroni simili Robustezza rispetto al rumore Reti Neurali: svantaggi Estremamente pesanti dal punto di vista computazione Necessità di un ampia gamma di casi già noti per l allenamento Errore di predizione a volte grande Non analitici a priori, ma possibile ricavare un modello 16 Tale trasformazione avviene tramite il calcolo a partire dagli input di strati (o layer) successivi di funzioni di attivazione che svolgono per l appunto la funzione di soglia come nel modello biologico semplificato di neurone.! Reti Neurali Artificiali: modello matematico Un primo modello semplificato di rete può essere visto come una serie funzionale pesata di isomorfismi non lineari che trasformano un insieme di variabili indipendenti di ingresso in un insieme di variabili dipendenti di uscita.! Al neurone di un certo l-esimo strato corrisponde uno stato determinato dalla funzione f l.!

Reti Neurali Artificiali Reti Neurali Artificiali La rete neurale è descrivibile mediante di un applicazione analitica:! Input layer:! Per il primo hidden layer:! Tale che ad ogni u associa! L insieme degli N elementi ui del vettore u è detto input layer, i neuroni sono suddivisi nei successivi strati detti hidden layer, in quanto la loro azione non è trasparente all utilizzatore finale. L insieme degli M elementi che compone il vettore di uscita y sarà detto infine output layer.! Per ogni altro neurone in ogni altro hidden layer:! 17 18 Reti Neurali Artificiali Detto L il numero di hidden layers, per i neuroni di output infine:! Questioni di peso I pesi w sono il cuore della rete neurale, una volta scelta la topologia Esplicitando in maniera poco elegante:! fissata una topologia T ed il relativo set di funzioni di attivazione {f l } T, il problema si riduce alla determinazione del migliore set di pesi {w(l)} T. Per determinare questo set è necessario allenare la rete a partire da associazioni note tra gli input ed alcuni output conosciuti chiamati target. 19 Cosa possiamo dire di w? Scelta una topologia si deve supporre che esista una N T in grado di ricostruire perfettamente t a partire da u, e quindi partendo da uno stato generico della rete, ossia da una distribuzione random di pesi, l allenamento consiste nell applicazioni di funzioni di scelta e variazione che modifichino i pesi della rete nel tentativo di trovare il set ideale che ricostruisca la cercata. 20

Training algorithms Funzioni di errore Training algorithms Training 21 22 Training algorithms Training Training algorithms Training Per ogni time step: 23 24

Training algorithms Problemi legati al training Feedforward Neural Networks (FNN) Spesso sono algoritmi pesanti e di lenta esecuzione Si potrebbe essere ingannati dalla presenza di minimi locali dell errore che facciano deviare l allenamento o peggio polarizzare DIPENDENZA DAI PESI INIZIALI (A VOLTE NON RANDOM) Criticità nella scelta del rateo di apprendimento Overfitting (o polarizzazione) SPESSO FORTISSIMA DIPENDENZA DALLA TOPOLOGIA Possibili dipendenze dalla struttura dei dati di input o di training 25 26 Hands on Recurrent Neural Networks (RNN) 27 28

Hands on? Hands on 29 30 Grazie. L edizione in formato PDF è reperibile nella sezione didattica del sito internet dell autore all indirizzo http://www.dmi.unict.it/~napoli/ Per contattare l autore è possibile inviare un e-mail a napoli@dmi.unict.it Prima di copiare o condividere questa presentazione è raccomandabile leggere la licenza d uso CC-BY-NC-ND-4.0: http://creativecommons.org/licenses/by-nc-nd/4.0/deed.en_us 31 Christian 31 Napoli! Rilasciato con licenza Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.!