LE RETI NEURONALI E L EMERGENZA DELLE FUNZIONI SUPERIORI



Documenti analoghi
Tecniche di riconoscimento statistico

Indice generale. OOA Analisi Orientata agli Oggetti. Introduzione. Analisi

Trattate una persona come se fosse già quella che dovrebbe essere. e l aiuterete a diventare ciò che è capace di essere. (W.

Psicologia dello Sviluppo

MEMORIA. La memoria umana è definita come la capacità di riattivare, in modo parziale o totale, gli avvenimenti del passato;

Automazione Industriale (scheduling+mms) scheduling+mms.

Laboratorio informatico Banche dati off line

Esame di INFORMATICA

Lezione 8. La macchina universale

IL CODICE BINARIO. Il codice binario. Codifica posizionale. Aritmetica binaria

La comunicazione e il linguaggio

Apprendimento e memoria

Sommario. Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi.

Dott.ssa Francesca De Rosi

Page 1. Evoluzione. Intelligenza Artificiale. Algoritmi Genetici. Evoluzione. Evoluzione: nomenclatura. Corrispondenze natura-calcolo

Tecniche di Simulazione: Introduzione. N. Del Buono:

COMUNE DI RAVENNA GUIDA ALLA VALUTAZIONE DELLE POSIZIONI (FAMIGLIE, FATTORI, LIVELLI)

un mondo sotterraneo della memoria

SVILUPPO DEL CORPO: l esercizio fisico stimola la respirazione e la circolazione, quindi le cellule sono nutrite meglio, e le loro scorie sono più

Regressione non lineare con un modello neurale feedforward

Brain architecture: A design for natural computation

Bisogni Educativi Speciali Il punto di vista delle Neuroscienze

A.A INDIRIZZO LA96 Analisi e intervento psicologico per l età adulta. Prof. Claudia Casadio

FONDAMENTI di INFORMATICA L. Mezzalira

Corso di Informatica

Informatica B a.a 2005/06 (Meccanici 4 squadra) PhD. Ing. Michele Folgheraiter

ROBOT COME PSICOLOGIA

Luigi Piroddi

Informatica 3. Informatica 3. LEZIONE 10: Introduzione agli algoritmi e alle strutture dati. Lezione 10 - Modulo 1. Importanza delle strutture dati

La memoria. È la capacità di immagazzinare informazioni e di recuperarle nel corso del tempo

La costruzione di strumenti per la verifica delle competenze. LA PROVA ESPERTA

Organizzazione della memoria principale Il bus

EMANUELE GAGLIARDINI ABILITA COGNITIVE

Tesina per il corso di Psicotecnologie dell apprendimento per l integrazione delle disabilità

L APPRENDIMENTO MULTIMEDIALE CAPITOLO 3

connessioni tra i singoli elementi Hanno caratteristiche diverse e sono presentati con modalità diverse Tali relazioni vengono rappresentate QUINDI

Corso di. Dott.ssa Donatella Cocca

Archivi e database. Prof. Michele Batocchi A.S. 2013/2014

Spinoza e il Male. Saitta Francesco

CRITERI DI VALUTAZIONE SCUOLA PRIMARIA SCUOLA PRIMARIA

ISTITUTO TECNICO ECONOMICO MOSSOTTI

L informatica nella scuola: mezzo o fine?

Macchine a stati finiti. Sommario. Sommario. M. Favalli. 5th June 2007

COS È UN LINGUAGGIO? LINGUAGGI DI ALTO LIVELLO LA NOZIONE DI LINGUAGGIO LINGUAGGIO & PROGRAMMA

5.Controllo Motorio SNC 1. Prof. Carlo Capelli Fisiologia Laurea in Scienze delle attività motorie e sportive Università di Verona

Scopo della lezione. Informatica. Informatica - def. 1. Informatica

La memoria - generalità

Macchine a stati finiti G. MARSELLA UNIVERSITÀ DEL SALENTO

La sindrome di Down. Sviluppo cognitivo e linguistico nel bambino con Sindrome di Down. Giacomo Stella 27/05/2008

INFORMATICA 1 L. Mezzalira

Linguaggi e Paradigmi di Programmazione

Alla ricerca dell algoritmo. Scoprire e formalizzare algoritmi.

Appunti del corso di Informatica 1 (IN110 Fondamenti) 4 Linguaggi di programmazione

Vari tipi di computer

Sistemi Web! per il turismo! - lezione 3 -

UNIVERSITA DI PISA FACOLTA DI INGEGNERIA CORSO DI LAUREA IN INGEGNERIA ELETTRONICA ANNO ACCADEMICO TESI DI LAUREA

SISTEMI DI ELABORAZIONE DELLE INFORMAZIONI

Architettura hardware

LABORATORIO DI SISTEMI

Macchine a stati finiti. Sommario. Sommario. M. Favalli. Le macchine a stati si utilizzano per modellare di sistemi fisici caratterizzabili mediante:

I Problemi e la loro Soluzione. Il Concetto Intuitivo di Calcolatore. Risoluzione di un Problema. Esempio

Luca Mari. Gallarate,

DIPARTIMENTO DI STUDI UMANISTICI

Tipi classici di memoria. Obiettivo. Principi di localita. Gerarchia di memoria. Fornire illimitata memoria veloce. Static RAM. Problemi: Dynamic RAM

SISTEMA NERVOSO. Il sistema nervoso controlla e regola tutte le funzioni dell organismo.

Corso di Matematica per la Chimica

Informatica per le discipline umanistiche 2 lezione 14

Coordinazione Distribuita

Fondamenti di Informatica Ingegneria Clinica Lezione 16/10/2009. Prof. Raffaele Nicolussi

Le immagini digitali. Le immagini digitali. Caterina Balletti. Caterina Balletti. Immagini grafiche. Trattamento di immagini digitali.

Marketing internazionale

Fasi di creazione di un programma

OSSERVAZIONI TEORICHE Lezione n. 4

Gli alunni con Disturbi dello spettro autistico nella scuola primaria La formazione degli insegnanti modelli di intervento e strategie educative

Calcolatori Elettronici A a.a. 2008/2009

Introduzione all Information Retrieval

LA MATEMATICA Devi esserci proprio portata! i capito nulla! Io non ci ho mai

Indice. 1 Il funzionamento del sistema uditivo

IDENTIFICAZIONE DEI BISOGNI DEL CLIENTE

Linguaggi di programmazione

Siamo così arrivati all aritmetica modulare, ma anche a individuare alcuni aspetti di come funziona l aritmetica del calcolatore come vedremo.

Sistema operativo: Gestione della memoria

Reti Neurali Artificiali

creativitoria 100% MADE IN ITALY

come nasce una ricerca

Gestione della memoria centrale

PRINCIPALI TIPI CELLULARI DEL SISTEMA NERVOSO NEURONI (CELLULE NERVOSE ) CELLULE GLIALI, O GLIA

Massimo Brescia Machine Learning Parte I

Introduzione alla Progettazione per Componenti

Laurea Specialistica in Informatica

Dimensione di uno Spazio vettoriale

CODICE ASSE: PRIMO ANNO SECONDO ANNO

Una Didattica per la scuola di TUTTI

11. Evoluzione del Software

DSA: CAMPANELLI D ALLARME

Ottimizzazione delle interrogazioni (parte I)

Introduzione. Coordinazione Distribuita. Ordinamento degli eventi. Realizzazione di. Mutua Esclusione Distribuita (DME)

Indice. pagina 2 di 10

prova, e che sembra provenire dal nostro interno, è una caratteristica fondamentale dell esperienza emotiva.

L applicazione dei vettori di collaudo

Transcript:

Scarica di neuroni in vivo Registrazioni multi-elettrodo in vitro LE RETI NEURONALI E L EMERGENZA DELLE FUNZIONI SUPERIORI Proprietà computazionali del sistema nervoso cervello vs. computer: lento ( 100 Hz vs. 0.1-1 GHz) impreciso (10 9 volte meno di una CPU) Limiti imposti dalla natura fisica dei neuroni Hardware modificabile: le reti sono programmate geneticamente solo in termini generali. Gli aggiustamenti fini avvengono mediante l esperienza determinata da interazioni ppilotate dal momdo interno (ormoni, fattori di crescita, neurotrasmettitori, fattori di adesione e contatto) ed esterno (stimoli sensoriali) Tuttavia il cervello, in 100 ms, riconosce un viso tra migliaia, un operazione che il più potente dei computer non può fare. Poco sensibile ad alterazioni dell hardware (graceful degradation) Si autoripara (plasticità riparatoria) Si modifica con l apprendimento Calcolo organizzato in parallelo Plasticità neuronale e tissutale Organizzazione in reti nervose Con 10 12 neuroni e 10 3 connessioni/neurone, ammettendo che ogni connessione rappresenti un bit, occorrerebbero 10 15 bits. Il genoma umano contiene 3x10 9 paia di basi, ognuna in 4 possibili configurazioni (ACGT). Ogni base contiene 2 bits di informazione ed il genoma 6x10 9 bits (750 MB). Quindi il genoma non potrebbe programmare tutte le connessioni necessarie (nemmeno ammettendo che serva interamente e solamente a questo scopo). L informazione necessaria per l assemblaggio del cervello deve provenire dall ambiente. L uomo apprende a circa 2 bits/sec 10 9 bits (circa 150 MB)

Capacità computazionale del sistema nervoso Problema cervello - mente 10 12 neurons 10 3 synapses/neuron 10 synaptic operation/sec 10 16 synapse operations/sec Le relazioni tra cervello e mente, tra materia e pensiero, hanno condotto a complesse ipotesi che hanno coinvolto numerosi settori della conoscenza. SNC = rete di reti In each retinal center-sorround (CS): 10 2 units/cs 10 2 operations/cs.sec 10 10 operations/sec 10 14 operations/sec 10 6 optic nerve fibers Retina = 10-4 whole brain Lo sviluppo delle Neuroscienze consente un approccio innovativo: cercare la funzione di trasferimento tra il cervello e la mente Una teoria di particolare interesse è quella delle reti neuronali computazione Dissipazione di energia per funzioni computazionali : cervello 10 watt nodo+internodo 5x10-15 joules/spike 2x10 15 Ranvier operation/sec n o Ranvier nodes n o synapses Apprendimento e memoria Stato di coscienza Memoria Orientamento temporo-spaziale Funzioni e stati del sistema nervoso: Pensiero Linguaggio Comportamento Attenzione Tono dell umore Emotività Logica Giudizio Modelli animali Psicologia sperimentale Osservazione clinica Reti neuronali Sono obiettivabili clinicamente ma difficili da quantificare. Sono alterati specificamente da patologie o trattamenti farmacologici Sono riconducibili (almeno in parte) a specifiche strutture cereberali Codificazione Apprendimento/memoria Organizzazione/struttura Apprendimento Riconoscimento Astrazione Categorizzazione Non hanno regole o memoria a priori,, eccetto quelle pertinenti alla loro struttura e modalità di apprendimento: creano regole estraendole dalla realtà à che viene loro presentata. Apprendimento, computazione e memoria sono proprietà distribuite delle reti neuronali. Il calcolo è parallelizzato Reti neuronali appropriate possono mimano le strutture corticali riproducendo aspetti rilevanti delle funzioni superiori ed i loro stati patologici ogici Implicazioni per: Ontogenesi Org.. topologica Apprendimento Percezione Linguaggio Motricità Patologie Epilessia Atassia M. Alzheimer Schizofrenia Depressione Autismo Dist.. Linguaggio

Principi operativi delle reti neuronali Input Synaptic weights Activation function Il neurone di McCulloch-Pitt e le sinapsi Hebbiane Il neurone è rappresntato formalmente come un elemento eccitabile binario che risponde con uno spike quando una soglia venga raggiunta. Le sinapsi contribuiscono sommando il loro contributo (peso) I pesi sinaptici sono regolabili secondo regole di apprendimento di tipi Hebbiano Single perceptron: il problema della rappresentazione La rete genera una rappresentazione interna dello stimolo modificando i suoi pesi sinaptici La rete può accumulare più immagini simultaneamente nella rete tutti I neuroni hanno uguale importanza, sia quelli che sctricano che quelli silenti Modifiche in su (LTP) o in giu (LTD) hanno uguale importanza. Grand-mother neurons segnalano l esistenza di proprieta complesse,, ma non spiegano come la rete funziona Supervised learning ed error back-propagation I I pesi sinaptici possono essere modificati mediante confronto con un output desiderato. In tal modo, la rete neuronale può apprendere, memorizzare, e generare regole. Matematicamente, tali operazioni sono rappresentabili da prodotti di matrici occorrono migliaia di presentazioni ed aggiustamenti. Ma noi impariamo anche con una sola rappresentazione e senza template.. Dove sta il problema? Ripetizione delle presentazioni: Memoria esplicita: l ippocampo ed il circuito di Papez consentono il ricircolo dell informazione e la sua proiezione sulla corteccia in migliaia di presentazioni. Memoria implicita: l apprendimento richiede di per sé migliaia di presentazioni Confronto con il template: 1. Reti auto-organizzanti organizzanti 2. Unsupervised learning Reti neuronali artificiali con supervised learning Simple perceptron Auto-organizzanti organizzanti Hidden layers Auto-associative Ricorrenti Organizzazione center-surround delle colonne corticali Mimano particolari caratteristiche organizztive del cervello Sono semplificazioni utili per studiare proprietà generali emergenti enti dalla strutura e dalla connettività cellulare del SNC.

Reti auto-organizzanti di Kohonen Effetto dell inibizione f laterale Hebbian learing Ogni neurone del Kohonen layer riceve una connessione da ogni neurone dell input layer Connessioni center-sorround Hebbian learning Nasce competizione tra i neuroni del Kohonen layer: il winner neuron domina un center-surround mediante regolazione dei pesi sinaptici. Riconoscimento di patterns: Somiglianza Frequenza Il processo di auto-organizzazione Inizialmente i pesi sono casuali Ripetute presentazioni dell input causano l emergenza dei winning neurons Dopo learning i pesi dei winning neurons rappresentano il vettore d ingresso L attivazione di un certo winning neuron sarà così rappresentativa di un deteminato input. È avvenuto il riconoscimento secondo rappresentazioni neuronali che rispecchaino principi di somiglianza, frequenza, ed organizzazione topografica. Spiega: 1. Organizzazione center-surround 2. Organizzazione somatotopica 3. Plasticità delle mappe corticali 4. Astrazione e rilevanza Hidden layers 2x10 6 input fibers 2x10 6 output fibers 10 12 neurons Oltre 99% dei neuroni non sono connessi direttamente con l input o l output del SNC Gli hidden layer consentono la rappresentazione di: Proprietà complesse Proprietà astratte prototipi Gli hidden layers consentono di risolvere il problema dell XOR (Sejinowski)

Feed-back: rete auto-associativa di Hopfield Se ogni neurone manda 10 4 connessioni ad altri neuroni, nel giro di 3 livelli di connessione deve avvenire un feed-back: 10 4 x 10 4 x 10 4 =10 12 neuroni del CNS Quindi, dopo solo 2 passaggi sinaptici, un impulso ritorna al punto di origine: qual e il significato di un feed-back cosi massiccio? Riconoscimento da pattern incompleto o rumoroso Giudica somiglianza generalizzazione Plasticita hebbiana nelle sinapsi Feed-back: rappresentazione del tempo Analisi formale secondo la teoria degli spin glasses : si formano attrattori per modifica Hebbiana dei pesi sinaptici Rete ricorrente di Elman Codifica sequenze temporali Rappresenta il contesto Working memory Ulteriori implicazioni delle reti neurali artificiali Coscienza?? Attivazione dei lobi prefrontali in un working-memory test Organizzazione modulare Top-down effect Le reti neuronali apprendono meglio se organizzate in moduli Durante l ontogenesi, i moduli si connettono progressivamente tra loro in seguito alla mielinizzazione dei fasci di proiezione

gestalt effects Organizzazione a ping-pong Applicazioni a patologie M. Alzheimer: Ach riduce la run-away synaptic modification Schizofrenia: Dopamina previene non-focused activation e indirect semantic priming Limiti ed evoluzione delle reti neurali artificiali Reti semantiche auto-organizzanti Limiti del processo di apprendimento mediante error backpropagation 2 problemi del meccanismo di errorbackpropagation: 1) Supervised learning: nella realta bisogna acquisire l informazione senza uno schema precostituito 2) Numero di ripetizioni enorme (10 3 ) Cio si verifica nell apprendamento implicito (di tipo motorio o procedurale). In quello esplicito (o semantico) sistemi di riverberazione determinano persistenza dell immagine da ricordare. Unsupervised learning 9 1anno = 30758400 sec 10 sec 90 anni usando il supervised learning. 14 9 Se la rete ha10 parametri e vive10 sec, Unsupervised learning Immaginiamo di utilizzare una rete neuronale per analizare una sequenza di immagini 5 il segnale di supervisione deve contenere10 bits/sec per sfruttare lacapacità dellesinapsi. Non è chiaro come un segnale di tai dimensioni possa essere generato. Le immagini non sono random bensì generate da processi fisici di complessità limitata Risposte appropriate all immagine dipendono dalle sue cause fisiche piuttosto che dall intensità dei pixels Un processo di UNSUPERVISED LEARNING estrae le cause sottostanti, ed un algoritmo separato tra conclusioni sulla risposta appropriata. UNSUPERVISED LEARNING modellizza la densità di probabilità dell input che fornisce i 100000 bit/sec di constrains necessari per sfruttare la capacità delle sinapsi.

struttura correlazioni ridondanza cause fisiche informazione Algoritmo di minimizzazione della ridondanza Estrazione dell informazione sfruttando la ridondanza dell immagine 100x10 6 fotorecettori 1x10 6 cellule ganglionari compression Questo si ottiene in feedforward neuronal networks con plasticità hebbiana ed inibizione laterale (es. retina, ippocampo, neocortex, cerebellum) Dinamica nelle reti neuronali Normalmente le reti procedono per stati successivi indipendenti, non hanno cioè una loro dinamica. Inoltre, i loro neuroni non sono spiking. Questi due aspetti sono attualmente in fase di studio. Modelli dinamici del cervelletto Modelli di controllo della coordinazione motoria Effetto dell LTP tra fibre muscoidi e cellule granulari No LTP LTP Conclusioni Le reti neuronali aitutano a comprendere l emergenza delle funzioni cognitive e delle loro patologie. Tuttavia una loro estenzione e necessaria per comprendere in che modo specifiche operazioni neuronali e sinaptiche e specifici principi computazionali si applichino alle reali reti del sistema nervoso.