Reti neurali introduzione. Vittorio Maniezzo Università di Bologna

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Reti neurali introduzione. Vittorio Maniezzo Università di Bologna"

Transcript

1 6 Reti neurali introduzione Vittorio Maniezzo Università di Bologna 1

2 Neuroni Reali Fan in Fan out Tempo elaborazione Sistema nervoso Calcolatore 10 < Vittorio Maniezzo - Università di Bologna 2

3 Fisiologia Neurone Neuroni: cellule elettricamente attive Interagiscono fra loro attraverso flussi elettrici (ionici) Normalmente nei neuroni esiste una ddpfra interno ed esterno della cellula, particolarmente dell'assone ASSONE Questa ddp(di ca. 60 mv) e'mantenuta dalla "pompa del sodio", che mantiene differenze di concentrazione fra interne ed esterno di ioni Na +, K +, CI - Vittorio Maniezzo - Università di Bologna 3

4 Pompa del Sodio II sodio viene attivamente espulso dall'interno dell'assone, nonostante il gradiente elettrico inverso. Quando la membrana viene depolarizzata, aumenta la sua permeabilità agli ioni Na (e K), generando così un feedback positivo Vittorio Maniezzo - Università di Bologna 4

5 Impulsi nervosi Consistono di rapidi cambiamenti di voltaggio che avvengono in sezioni molto localizzate della membrana, causate da flussi ionici attraverso la membrana Una volta iniziati, questi flussi si propagano alle aree adiacenti della membrana Subito dopo il loro passaggio la pompa del sodio si riattiva per ristabilire l'energia potenziale di riposo della membrana Finché non si ritorna al potenziale di riposo, non può passare un altro segnale. Esiste un "periodo di refrattarietà" Dati i periodi di refrattarietà, un neurone non può produrre più di c.a impulsi al secondo La durata massima di ogni impulso è di alcuni millisecondi Vittorio Maniezzo - Università di Bologna 5

6 Impulsi Nervosi - 2 Gli impulsi fluiscono dai dendriti al corpo ("soma") delle cellule, e da questo alle fibre di uscita: I'assone La direzione di passaggio degli impulsi e'fissa, per cui i neuroni si passano impulsi fra loro in un ordine preciso L'assone di una cellula e'collegato ai dendriti di altre attraverso delle sinapsi Quando il segnale raggiunge la fine dell'assone, vengono liberate delle sostanza (i neurotrasmettitori) che passano attraverso il gap sinaptico e arrivano alla membrana che segue Vittorio Maniezzo - Università di Bologna 6

7 Impulsi sinaptici Neurotrasmettitori di vari tipi, comunque gli effetti che producono possono solo essere: 1) eccitatori se fanno si che iipotenziale di membrana del dendrite diventi positivo. Queste sostanze depolarizzano la membrana 2) inibitori se fanno diventare iipotenziale di membrana negativo. Queste sostanze iperpolarizzano la membrana Se la membrana postsinaptica e'sufficientemente depolarizzata (i.e., al di sopra di una certa soglia), la cellula ricevente fa partire un impulso lungo il suo assone Vittorio Maniezzo - Università di Bologna 7

8 Interazioni fra eventi postsinaptici Sommazione temporale Sommazione spaziale Vittorio Maniezzo - Università di Bologna 8

9 Modellizzazioni: eiementi comuni I neuroni hanno un numero finito di canali in ingresso (sinapsi in ingresso). Ad ogni canale è associato un peso, valore numerico che individua l'efficacia della comunicazione fra canale e neurone. Ogni neurone ha una soglia. Per ogni neurone è definito un insieme di stati possibili, una funzione di stato prossimo, una funzione di uscita (generalmente l uscita coincide con lo stato). Vittorio Maniezzo - Università di Bologna 9

10 Cellule di McCulloch e Pitts (o Threshold logic units) x: Uscita a: Variabile di ingresso attivatrice b: Variabile di ingresso inibitoria T: Soglia della cellula Variabili booleane: si somma il numero di variabili attivatrici a valore 1 (attive), e si controlla che non ci siano variabili inibitorie attive. Se il risultato è uguale o superiore alla soglia, la variabile di uscita emette un impulso unitario. Vittorio Maniezzo - Università di Bologna 10

11 Cellule McC-P e Automi Considerando unitario il periodo di refrattarietà dei neuroni, li si può modellizzare come macchine a tempo discreto. La generazione di un impulso in uscita (firingdel neurone) al tempo t è determinata dagli ingressi al tempo t-1 L'inibizione può non essere assoluta, ma tale da far decrescere di uno la somma dei valori di attivazione per ogni variabile inibitoria attiva: la cellula in questo caso scatta se la somma dei valori eccitatori attivi meno la somma di quelli inibitori attivi è maggiore della soglia. Nel seguito sempre così salvo diverse indicazioni. E' possibile associare un peso (intero) ad ogni variabile di ingresso. La variabile varrà come un numero equivalente al suo peso di var. booleane, che si comportano tutte nello stesso modo. Vittorio Maniezzo - Università di Bologna 11

12 Separabilità lineare Un insieme è linearmente separabile se dato lo spazio degli ingressi, da classificare in due sottinsiemi, tutti quelli del primo stanno dalla stessa parte di un iperpiano, tutti quelli del secondo dall'altra. Se lo spazio è planare, l'iperpiano è una retta L'ingresso di un neurone con due input è dato da: I = W 1 *X 1 + W 2 *X 2 + Θ dove Θè la soglia. Gli ingressi che causano una transizione di dell'uscita da 0 a 1, corrispondono all'equazione W 1 *X 1 + W 2 *X 2 + Θ= 0 che è l'equazione di una retta nel piano. Quindi un neurone non può fare niente di più che separare linearmente gli insiemi di ingresso. Vittorio Maniezzo - Università di Bologna 12

13 Il problema dello XOR L' OR esclusivo (XOR) è uno dei più semplici operatori che discriminano gli ingressi in modo non linearmente separabile. Vittorio Maniezzo - Università di Bologna 13

14 Computazionalmenteuniversali Vittorio Maniezzo Università di Bologna 14

15 Computazionalmenteuniversali Teorema: Qualunque funzione logica : può essere simulata con una rete McCulloch-Pitts a due livelli Prova: ogni funzione booleana F può essere riscritta in forma normale disgiuntiva (DNF), quindi a due livelli (AND OR). Ogni clausola è rappresentata da un neurone con T=n (AND gate) Tutti gli output dei nueroni di livello 1 sono input di neuroni con T=1 (OR gate). Vittorio Maniezzo Università di Bologna 15

16 Reti complesse Interruttore Vittorio Maniezzo Università di Bologna 16

17 Sistemi connessionisti (Reti Neurali Artificiali, ANN) Ad ogni connessione è associato un peso, utilizzato nel sommatore che costituisce il primo stadio del neurone che riceve dati attraverso la connessione. Il comportamento di una rete neurale è quindi determinato: dalnumerodeineuroni dalla topologia dai valori dei pesi associati alle connessioni Vittorio Maniezzo Università di Bologna 17

18 Sistemi connessionisti: tipologie Possibili diverse classificazioni, es.: 1. Per topologia della rete Reti feedforward: il grafo delle connessioni non ha cicli Reti ricorrenti: il grafo può ammettere cicli 2. Per connettività interna Reti totalmente connesse: ogni neurone è connesso con ogni altro Reti parzialmente connesse: ogni neurone è connesso solo ad un sottoinsieme di neuroni (tipicamente grafo delle connessioni multipartito): - reti singolo strato: le unità di ingresso sono connesse direttamente a quelle di uscita - reti multistrato: grafi bipartiti, tripartiti, Vittorio Maniezzo Università di Bologna 18

19 Proprietà sistemi connessionisti Capacità di integrare un grosso numero di vincoli interagenti nella risoluzione di un problema Resistenza al rumore, tolleranza agli errori, "gracefuldegradation", buone capacità di scaling Capacità di effettuare (rapidamente) riconoscimenti molto complessi, con un grosso numero di alternative Apprendimento, ottenibile per aggiustamento dei pesi (Qualche) plausibilità biologica Potenzialità di aumentare moltissimo la velocità di elaborazione attraverso un parallelismo fine Vittorio Maniezzo - Università di Bologna 19

20 Proprietà sistemi connessionisti Capacità di apprendere da esempi Capacità di generalizzare (risposte simili in corrispondenza di esempi simili a quelli su cui sono state addestrate) Capacità di astrarre (risposte corrette in corrispondenza di esempi diversi da quelli su cui sono state addestrate) Insensibilità al rumore (capacità di generalizzare anche in presenza di dati alterati o incerti) Decadimento graduale delle prestazioni (il comportamento si altera gradualmente se si eliminano connessioni o si alterano i pesi) Vittorio Maniezzo Università di Bologna 20

21 Percettroni: storia McCulloch-Pitts: modello astratto delle cellule del cervello, che permette la definizione di un'algebra dell'attività neurale Hebb: studio dell'apprendimento neuronale su base neurofisiologica: piu'un canale sinaptico e' usato, più la forza della sua connessione cresce 1951: Minskycostruisce una macchina in grado di apprendere (a girare in un labirinto) basandosi sulle idee di McC-P. 1956: Dartmouth SummerResearchProject on Artificial Intelligence: grosso interesse alle macchine che apprendono (sono "intelligenti") e ai modelli del cervello. Rosenblatt: Perceptrons(percettroni): modello della retina dell'occhio, interesse alle macchine costruite come modelli del funzionamento del cervello Minsky: autoconvertitosostenitore di ricerche che mirino alla logica della soluzione dei problemi, indipendentemente dalle basi fisiologiche. Vittorio Maniezzo - Università di Bologna 21

22 Percettroni: storia Hoff: adalineè in grado di classificare correttamente uno spazio di input in sottinsiemi linearmente separabili 1969, Minsky - Papert: "perceptrons: an introductionto computationalgeometry" estendono i risultati di Hoffai percettroni: un percettrone non è in grado di fare uno XOR, quindi è troppo limitato per essere interessante una versione estesa del percettrone (percettrone a livelli multipli) è in grado di risolvere lo XOR ma non è chiaro come definire i pesi in modo da risolvere i vari problemi da affrontare: troppo mal definiti per essere interessanti Vittorio Maniezzo - Università di Bologna 22

23 Percettroni L'idea è modellizzare la retina, vista come una matrice di sensori luminosi. L'uscita dei sensori è collegata in modo fisso e geneticamente predeterminato ad un insieme di elementi elaborativi (demoni) che sono in grado di riconoscere particolari pattern di ingresso. L'uscita dei demoni va a unità logiche a soglia, con output nullo fino alla soglia, poi crescente linearmente. La rete che ne risulta è strettamente feedforward (non contiene feedback), non ha comunicazioni fra elementi elaborativi o operazioni casualizzate Vittorio Maniezzo - Università di Bologna 23

24 Percettroni I percettroni sono quindi reti a tre livelli. Il livello di ingressoè un buffer che mappa una matrice di sensori luminosi ad un array lineare di unità di ingresso. II mappaggiopuò avvenire tramite una funzione qualsiasi. Il livello intermedioè costituito dai demoni, connessi completamente a casualmente alle unità di ingresso. La loro funzione di trasferimento è lineare a soglia (se fosse semplicemente lineare questo strato intermedio potrebbe essere abolito). Il livello di uscitacontiene i percettroni. I pesi dei legami fra demoni e percettroni sana modificabili, quindi la rete è capace di apprendimento. Vittorio Maniezzo - Università di Bologna 24

25 Problemi risolubili con diverse topologie Vittorio Maniezzo Università di Bologna 25

26 Reti Neurali Artificiali: computabilità Teorema di Kolmogorov: Qualsiasi funzione continua y=f(x):r n R m può essere calcolata da una opportuna rete ricorrente a 3 strati avente n unità nello strato di ingresso, 2n+1 nello strato nascosto ed m nello strato di uscita e totalmente connessa fra gli strati Nota: Il teorema dimostra solo l'esistenza della soluzione, non come costruirla. Le unità considerate nel teorema hanno caratteristiche diverse dai neuroni artificiali utilizzati nelle reti neurali Risultato analogo per reti multistrato: una rete neurale con uno strato nascosto avente un numero sufficiente di unità, può approssimare qualsiasi funzione continua Vittorio Maniezzo Università di Bologna 26

27 Training L apprendimento (da esempi) da parte di una rete neurale si configura come un processo iterativo di ottimizzazione: i pesi della rete vengono modificati sulla base delle prestazioni della rete su un insieme di esempi si minimizza una funzione obiettivo che rappresenta di quanto il comportamento della rete si discosta da quello desiderato L insieme degli esempi su cui la rete viene addestrata è detto training set Le prestazioni della rete devono essere verificate su un insieme di dati (test set) che non appartengono al training set Vittorio Maniezzo Università di Bologna 27

28 Training L apprendimento può essere di 2 tipi: supervisionato (supervised learning) non supervisionato (unsupervised learning) Supervisionato: esempi divisi in due componenti: pattern di ingresso output che si desidera ottenere in corrispondenza di tale pattern I pesi sono adattati in modo da minimizzare le differenze fra il comportamento della rete e quello desiderato. Non supervisionato: esempi costituiti da soli dati di ingresso. pesi adattati in modo tale che la rete si auto-organizzi in modo da riflettere alcune caratteristiche e regolarità del training set si parla anche di regularity discovery o feature detection Vittorio Maniezzo Università di Bologna 28

29 Training Vittorio Maniezzo Università di Bologna 29

30 Addestramento con supervisione: Legge di Hebb se due unità sono attive nello stesso istante il peso della relativa connessione deve essere incrementato w ij = ε o i o j ε = Learning Rate Prima proposta di modello di apprendimento Modello di tipo correlazionale nato per giustificare l apprendimento nelle reti neuronali biologiche Problemi: - non sempre conduce a risultati corretti - continuando a mostrare gli stessi esempi i pesi crescono indefinitamente Vittorio Maniezzo Università di Bologna 30

31 Apprendimento nei percettroni L'algoritmo di apprendimento è: 1)Se I'outputè corretto, lascia i pesi come sono; 2)Se I'outputdovrebbe essere 1 ma è 0, aumenta i pesi dei legami di ingresso attivi, 3)Se I'outputdovrebbe essere 0 ma è 1, diminuisci i pesi dei legami di ingresso attivi. Un legame di ingresso èattivo se èsopra soglia. La politica con cui si modificano i pesi può essere: usare incrementi/decrementi fissi fare variazioni in funzione dell'errore (differenza fra somma pesata e valore desiderato). Questo porta facilmente ad instabilità. usare una combinazione dei due. Si dimostra che dato un insieme di vettori di ingresso e un insieme di uscite desiderate corrispondenti, c'è un metodo di aggiustamento dei pesi che ègarantito convergere sull'insieme dei pesi ottimi (se questo insieme esiste). Minsky: per molti problemi interessanti questo insieme non esiste. Vittorio Maniezzo - Università di Bologna 31

32 Apprendimento nei percettroni Possono realizzare funzioni estremamente complicate (ad es. distinzione fra figure concave e convesse) Algoritmo (ancora, repetita iuvant): 1. si presenta un pattern di ingresso e si calcola l uscita 2. se il pattern è stato classificato in modo corretto, ripeti 1. con un nuovo pattern 3. se l uscita è alta e il teaching input è 0, decrementa di uno i pesi delle linee per cui i i =1 e incrementa la soglia di uno 4. se l uscita è bassa e il teaching input è 1 fa l inverso (incrementa i pesi e decrementa la soglia) 5. si ripetono i passi precedenti finché i pesi non convergono. Vittorio Maniezzo Università di Bologna 32

33 Apprendimento nei percettroni Formalmente: o p = 1 se net = Σ i w i i pi > θ 0 altrimenti p w i = (t p - o p ) i pi p θ = (o p - t p ) In base a un teorema (Rosenblatt) converge alla soluzione in un numero finito di passi, se la soluzione esiste Purtroppo, non sempre esiste (es. XOR, se le uscite della funzione non sono linearmente separabili) Vittorio Maniezzo Università di Bologna 33

34 Addestramento supervisionato: discesa lungo il gradiente Si inizializzano i pesi Ad ogni iterazione Per ogni esempio nel training set: si calcola l uscita prodotta dalla attuale configurazione della rete si calcola l errore si modificano i pesi spostandoli lungo la direzione del gradiente della funzione errore calcolato rispetto ai pesi fino al raggiungimento di un limite inferiore prestabilito per l errore o di un certo numero prestabilito di iterazioni Vittorio Maniezzo Università di Bologna 34

35 Addestramento con supervisione: Regola Delta (di Widrowe Hoff) Dati: una rete monostrato con attivazioni lineari, un training set T = { (x p, t p ) : p = 1,., P} P = num esempi una funzione errore quadratico sul pattern p-esimo E p = Σ j =1,n (t pj -o pj ) 2 / 2 n=num unità di uscita, o pj,t pj = output/teaching input per l unità j una funzione errore globale E = Σ p = 1,P E p E = E(W), W = matrice dei pesi w ij associati alle connessioni ij (dall unità i verso l unità j) Se vogliamo minimizzare E possiamo utilizzare una discesa lungo il gradiente, che converge al minimo locale di E più vicino al punto di partenza (inizializzazione dei pesi) Vittorio Maniezzo Università di Bologna 35

36 Credit assignment problem Le unità dei livelli intermedi (nascosti) non hanno ne l'uscita voluta ne il segnale di ingresso Come decidere quali unità interne sono "giuste" e quali "sbagliate"? Non ci sono informazioni esterne al riguardo, bisogna deciderlo con calcoli (locali) Le unità nascoste dovranno costruirsi buone rappresentazioni interne del problema da affrontare, catturarne le regolarità. Vittorio Maniezzo - Università di Bologna 36

37 BackPropagation [Rumelhartet ai., 1986] ([Parker '85], [Le Cun, '85]) Algoritmo di discesa lungo il gradiente per reti a molti livelli II nome deriva dal fatto che si calcolano i gradienti propagando i segnali dall'uscita verso l'ingresso. Problema: calcolare efficientemente le derivate della funzione di costo rispetto ad ogni peso, in modo da poterne seguire il gradiente: BP è l'algoritmo migliore finora trovato per fare questo. x i stato dell'i-esimo neurone a i = Σ k w ki x k, x j =f(a j ) (fsigmoidale) d q uscita desiderata del q-esimo neurone di uscita w ij pesi reali Vittorio Maniezzo - Università di Bologna 37

38 BackPropagation La funzione di costo, da minimizzare: C =!" à si utilizzano gradienti istantanei, corrispondenti a coppie ingressouscita (una per ogni esempio) Per ogni esempio m si vuole stimare il gradiente #$! = %! (% &'! () * si può scendere lungo il gradiente ) * ++1 = ) * + - (%(+) () * (+) posto 0 = , dove 0 misura l'influenza dell'ingresso complessivo di un neurone sulla funzione di costo. Se 0 >0, diminuendo l'ingresso dell'unità i cala l'errore Vittorio Maniezzo - Università di Bologna 38

39 BackPropagation noti gli 0 si ha = nel caso di unità di output nel caso di unità nascoste : ; 2 7 :.; / = 12 8 = 0 8 ) 8 :.; / 1 6 1> > = :.; / 0 8 ) = Vittorio Maniezzo - Università di Bologna 39

40 BackPropagation A questo punto si possono calcolare i cambiamenti dei pesi (% ) * ++1 = ) * + - () * + = ) * * 7 Tutti i cambiamenti sono calcolati localmente. La correzione è calcolata prima per le unità di uscita, poi propagata all'indietro alle unità intermedie. BP non minimizza globalmente la funzione di costo ma riduce, sulla base del gradiente, il contributo all'errore dovuto ai singoli esempi proposti Può fermarsi in minimi locali. E' un processo molto lento (richiede molti esempi, per ognuno dei quali si modificano di poco i pesi) Vittorio Maniezzo - Università di Bologna 40

41 BackPropagation BACKPROPAGATION(W): 1. Presenta un vettore di ingresso 2. Propaga gli stati tramite 7 = :(; ), ; = ) Presenta uno stato desiderato D alle unità di uscita, ponendo le loro y a 2 7 : (; ) 4. Calcola gli y i tramite propagazione all indietro: 0 =: (; ) 0 8 ) Cambia i pesi con la regola: ) * = -0 * 7 * Vittorio Maniezzo - Università di Bologna 41

42 Applicazioni BP: XOR Necessario almeno uno strato intermedio, configurazione minima (tipo McC-P, progettazione manuale): Hidden: calcola A and B, la rete nel suo complesso: (A or B) and not(a and B) Vittorio Maniezzo - Università di Bologna 42

43 Applicazioni BP: XOR Stessa topologia con backprop: La rete si fa una sua interpretazione del problema: hidden: not(a or B) rete: (not(a and B)) and (not(not(a or B))) Vittorio Maniezzo - Università di Bologna 43

44 Applicazioni BP: Determinazione della parità di una stringa di elementi binari. Stringa di 6 bit [Rumelhart, 1986]: 6 neuroni intermedi. Hidden: contano il numero di 1 (da sin., 1 o più, 2 o più, etc.) II risultato non dipende dall'ordine degli 1 in di ingresso. Non sempre I'algoritmo riesce a trovare questa soluzione. Vittorio Maniezzo - Università di Bologna 44

45 Applicazioni BP: Riconoscimento simmetria stringa binaria Pattern molto simili possono richiedere classificazioni opposte Bastano due unità nascoste: Se ingresso simmetrico, ingresso hidden 0, out a 1 La crescita can rapporti 1:2:4:... dei pesi in hiddenevita il bilanciamento di 1 non simmetrici I due hiddenhanno lo stesso segnale, ma con segni opposti. Se ingresso non simmetrico, uno è a 1 e uno a 0, quindi l'out è a 0 Vittorio Maniezzo - Università di Bologna 45

46 ApplicazioniBP: benchmarks Risultati ottenuti su benchmark standard, ottenuti da una rete n S 1 con ninput un singolo livello nascosto con Sneuroni, un solo neurone nel livello di uscita livello nascosto livello di uscita Vittorio Maniezzo Università di Bologna 46

47 Iris plant classification Problema: Iris plant data set, contiene 3 classi, ognuna rappresentata da 50 piante. Ogni pianta è caratterizzata da: sepal length, sepal width, petal length, petal width. Rete BP a tre livelli three-layer, 5 neuroni nascosti e 3 in uscita (uno per ogni classe) Sistema addestrato con 102 esempi e testato sui restanti 48. Dopo 1000 iterazioni (epoche) il sistema ha raggiunto una accuratezza del 95.83% Vittorio Maniezzo Università di Bologna 47

48 Problemadelledue spirali Vittorio Maniezzo Università di Bologna 48

49 Due spirali: set completo di 194 punti Struttura della rete Tipo di rete risultati MLMVN Multi layer, neuroni multivalued MLMVN Multi layer, neuroni multivalued Addestr. completo, nessun errore Errore residuo: 4% Addestr. completo, nessun errore Errore residuo: 14% Vittorio Maniezzo Università di Bologna 49

50 Due spirali: validazione (training con 98 punti e predizione con 96 punti) Risultati stabili per reti da a : 68-72% Un successo del 74-75%è stato ottenuto 1-2 volte su 100 esperimenti con la rete Miglior risultato noto ottenuto con un "Fuzzy Kernel Perceptron" (Nov. 2002): 74.5%. Vittorio Maniezzo Università di Bologna 50

51 Predizione di serie temporali: Mackey-Glass Equazione del ritardo di Mackey-Glass : Il compito è predire x(t+6) da Vittorio Maniezzo Università di Bologna 51

52 Predizionedi serietemporali: Mackey-Glass Training Data: Testing Data: Vittorio Maniezzo Università di Bologna 52

53 Predizionedi serietemporali: Mackey-Glass RMSE(root mean square error) Training: RMSE Testing: Vittorio Maniezzo Università di Bologna 53

54 Predizionedi serietemporali: Mackey-Glass Risultati del test: curva blu dati rilevati; curva rossa dati previsti Vittorio Maniezzo Università di Bologna 54

55 OCR Problema: riconoscimento di cifre da 0 a 9. Ogni cifra è rappresentata da una bitmap 5 x 9. Gli input per il training (0-9) sono inviati a una rete con 45ingressi, assieme col target output (10-dimensionale). Test con esempi esterni al campione in input. Riconoscimento molto migliorato se proposti input affetti da rumore Vittorio Maniezzo Università di Bologna 55

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità Intelligenza Artificiale Soft Computing: Reti Neurali Generalità Neurone Artificiale Costituito da due stadi in cascata: sommatore lineare (produce il cosiddetto net input) net = S j w j i j w j è il peso

Dettagli

Reti neurali introduzione

Reti neurali introduzione 6 Reti neurali introduzione Vittorio Maniezzo Università di Bologna 1 Neuroni Reali Fan in Fan out Tempo elaborazione Sistema nervoso 10 10 10 Calcolatore 10 < 10 10 Vittorio Maniezzo - Università di Bologna

Dettagli

Reti Neurali (Parte I)

Reti Neurali (Parte I) Reti Neurali (Parte I) Corso di AA, anno 2018/19, Padova Fabio Aiolli 07 Novembre 2018 Fabio Aiolli Reti Neurali (Parte I) 07 Novembre 2018 1 / 16 Reti Neurali Artificiali: Generalità Due motivazioni diverse

Dettagli

Reti Neurali in Generale

Reti Neurali in Generale istemi di Elaborazione dell Informazione 76 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono

Dettagli

Reti Neurali (Parte I)

Reti Neurali (Parte I) Reti Neurali (Parte I) Corso di AA, anno 2017/18, Padova Fabio Aiolli 30 Ottobre 2017 Fabio Aiolli Reti Neurali (Parte I) 30 Ottobre 2017 1 / 15 Reti Neurali Artificiali: Generalità Due motivazioni diverse

Dettagli

Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo.

Reti Neurali. Corso di AA, anno 2016/17, Padova. Fabio Aiolli. 2 Novembre Fabio Aiolli Reti Neurali 2 Novembre / 14. unipd_logo. Reti Neurali Corso di AA, anno 2016/17, Padova Fabio Aiolli 2 Novembre 2016 Fabio Aiolli Reti Neurali 2 Novembre 2016 1 / 14 Reti Neurali Artificiali: Generalità Due motivazioni diverse hanno spinto storicamente

Dettagli

ADDESTRAMENTO DI UNA RETE NEURALE ED EVENTUALI CONSIDERAZIONI PRESTAZIONALI. (a cura di Buttolo Marco).

ADDESTRAMENTO DI UNA RETE NEURALE ED EVENTUALI CONSIDERAZIONI PRESTAZIONALI. (a cura di Buttolo Marco). ADDESTRAMENTO DI UNA RETE NEURALE ED EVENTUALI CONSIDERAZIONI PRESTAZIONALI. (a cura di Buttolo Marco). Lalgoritmo più utilizzato per addestrare una rete neurale è lalgoritmo di bac-propagation. In sostanza

Dettagli

Algoritmi di classificazione supervisionati

Algoritmi di classificazione supervisionati Corso di Bioinformatica Algoritmi di classificazione supervisionati Giorgio Valentini DI Università degli Studi di Milano 1 Metodi di apprendimento supervisionato per problemi di biologia computazionale

Dettagli

Criteri alternativi all Entropia

Criteri alternativi all Entropia Sistemi Intelligenti 94 Criteri alternativi all Entropia Altri criteri suggeriti al posto dell Entropia: - Variance Impurity (per due classi) - (Weighted) Gini Impurity (generalizzazione di Variance Impurity

Dettagli

Machine Learning:Reti Neurali. Sommario

Machine Learning:Reti Neurali. Sommario Machine Learning:Reti Neurali Sommario Apprendimento nel percettrone a sigmoide Reti feed-forward multistrato Apprendimento nel percettrone multistrato: back-propagation Conclusioni Apprendimento nel percettrone

Dettagli

Memoria associativa e dinamica del riconoscimento: introduzione al modello di Hopfield

Memoria associativa e dinamica del riconoscimento: introduzione al modello di Hopfield Verona - 25 Maggio 2007 (Seminario integrativo del corso di MMB, titolare M. Squassina, A.A. 2006/2007) Memoria associativa e dinamica del riconoscimento: introduzione al modello di Hopfield Antonio Ponno

Dettagli

Metodi supervisionati di classificazione

Metodi supervisionati di classificazione Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello

Dettagli

Introduzione alle Reti Neurali

Introduzione alle Reti Neurali Introduzione alle Reti Neurali Stefano Gualandi Università di Pavia, Dipartimento di Matematica email: twitter: blog: stefano.gualandi@unipv.it @famo2spaghi http://stegua.github.com Reti Neurali Terminator

Dettagli

LA PREDIZIONE DELLE PORTATE DELLE SORGENTI DI. Salvatore Rampone Carmine Tiso

LA PREDIZIONE DELLE PORTATE DELLE SORGENTI DI. Salvatore Rampone Carmine Tiso UN SISTEMA DI INTELLIGENZA COMPUTAZIONALE PER LA PREDIZIONE DELLE PORTATE DELLE SORGENTI DI SERINO Salvatore Rampone Carmine Tiso DSGA - Dipartimento di Studi Geologici e Ambientali Università del Sannio

Dettagli

Metodi supervisionati di classificazione

Metodi supervisionati di classificazione Metodi supervisionati di classificazione Giorgio Valentini e-mail: valentini@dsi.unimi.it DSI - Dipartimento di Scienze dell'informazione Classificazione bio-molecolare di tessuti e geni Diagnosi a livello

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Teoria e applicazioni industriali Parte 4 Reti neurali per la classificazione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

Reti Neurali. Giuseppe Manco. References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop. Reti Neurali

Reti Neurali. Giuseppe Manco. References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop. Reti Neurali Giuseppe Manco References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop Perceptron Learning Unità neurale Gradiente Discendente Reti Multi-Layer Funzioni nonlineari Reti di funzioni nonlineari

Dettagli

Reti neuronali: applicazioni biomediche. Anno Accademico Prof. Mauro Giacomini

Reti neuronali: applicazioni biomediche. Anno Accademico Prof. Mauro Giacomini Reti neuronali: applicazioni biomediche Anno Accademico 2007-2008 Prof. Mauro Giacomini Sommario Cenni storici Percettroni multi-strato Apprendimento competitivo Applicazioni biomediche Identificazione

Dettagli

Reti Neurali in Generale

Reti Neurali in Generale Apprendimento Automatico 123 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono da: Biologia

Dettagli

Memoria associativa e dinamica del riconoscimento: introduzione al modello di Hopfield

Memoria associativa e dinamica del riconoscimento: introduzione al modello di Hopfield Verona - 10 Giugno 2008 (Seminario integrativo del corso di MMB, titolare M. Squassina, A.A. 2007/2008) Memoria associativa e dinamica del riconoscimento: introduzione al modello di Hopfield Antonio Ponno

Dettagli

INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE

INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE INTRODUZIONE AI SISTEMI DI CLASSIFICAZIONE CON RETI NEURALI di G. Masala INTRODUZIONE Sistema di classificazione o riconoscimento Un sistema di classificazione [1][2] o di riconoscimento, considerato in

Dettagli

Sistemi di Elaborazione dell Informazione 170. Caso Non Separabile

Sistemi di Elaborazione dell Informazione 170. Caso Non Separabile Sistemi di Elaborazione dell Informazione 170 Caso Non Separabile La soluzione vista in precedenza per esempi non-linearmente separabili non garantisce usualmente buone prestazioni perchè un iperpiano

Dettagli

Reti Neurali (Parte III)

Reti Neurali (Parte III) Reti Neurali (Parte III) Corso di AA, anno 2017/18, Padova Fabio Aiolli 08 Novembre 2017 Fabio Aiolli Reti Neurali (Parte III) 08 Novembre 2017 1 / 16 Reti Neurali Multistrato Fabio Aiolli Reti Neurali

Dettagli

Reti neurali. una breve introduzione

Reti neurali. una breve introduzione Reti neurali una breve introduzione Idea Con un solo neurone non posso fare molto... Con molti neuroni connessi posso ottenere un sistema di elaborazione nasce una nuova proprietà emergente del sistema

Dettagli

Machine Learning:Reti Neurali. Sommario. Storia Il Sistema Nervoso Il Neurone Formale di Mc Culloch and Pitts Esempi

Machine Learning:Reti Neurali. Sommario. Storia Il Sistema Nervoso Il Neurone Formale di Mc Culloch and Pitts Esempi Machine Learning:Reti Neurali Sommario Storia Il Sistema Nervoso Il Neurone Formale di Mc Culloch and Pitts Esempi Storia - 1 3000 a.c. Ippocrate: primi tentativi di studio del cervello umano. Vengono

Dettagli

Corso di Intelligenza Artificiale A.A. 2016/2017

Corso di Intelligenza Artificiale A.A. 2016/2017 Università degli Studi di Cagliari Corsi di Laurea Magistrale in Ing. Elettronica Corso di Intelligenza rtificiale.. 26/27 Esercizi sui metodi di apprendimento automatico. Si consideri la funzione ooleana

Dettagli

Appunti sui percettroni

Appunti sui percettroni Università degli Studi di Modena e Reggio Emilia Facoltà di Scienze della Comunicazione e dell Economia Corso di Laurea Specialistica in Economia e Gestione delle Reti e dell Innovazione Appunti sui percettroni

Dettagli

Riconoscimento automatico di oggetti (Pattern Recognition)

Riconoscimento automatico di oggetti (Pattern Recognition) Riconoscimento automatico di oggetti (Pattern Recognition) Scopo: definire un sistema per riconoscere automaticamente un oggetto data la descrizione di un oggetto che può appartenere ad una tra N classi

Dettagli

Reti Neurali. Apprendimento di funzioni algebriche

Reti Neurali. Apprendimento di funzioni algebriche Reti Neurali Apprendimento di funzioni algebriche Storia Le reti neurali artificiali (Artificial Neural Networks o ANN) sono una simulazione astratta del nostro sistema nervoso, che contiene una collezione

Dettagli

Classificazione introduzione

Classificazione introduzione - Classificazione introduzione Vittorio Maniezzo Università di Bologna 1 Ringraziamenti Questi lucidi derivano anche da adattamenti personali di materiale prodotto (fornitomi o reso scaricabile) da: A.

Dettagli

Reti Neurali. Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti

Reti Neurali. Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti Introduzione Neuroni Biologici Neuroni Artificiali Tipologie di Reti Multilayer Perceptron (P) Forward propagation Training: Error Backpropagation On-line Backpropagation Stochastic Gradient Descent (SGD)

Dettagli

L informazione nervosa si basa sulla capacità dei neuroni di generare correnti elettriche, in seguito a modificazioni del potenziale di riposo che

L informazione nervosa si basa sulla capacità dei neuroni di generare correnti elettriche, in seguito a modificazioni del potenziale di riposo che L informazione nervosa si basa sulla capacità dei neuroni di generare correnti elettriche, in seguito a modificazioni del potenziale di riposo che risultano dall apertura o chiusura di canali ionici. I

Dettagli

Comunicazione tra cellule

Comunicazione tra cellule Comunicazione tra cellule I segnali-messaggi possono essere: elettrici o chimici Il messaggio deve avere le seguenti caratteristiche: 1. Contenere informazione 2. Essere indirizzato 3. Essere trasmesso

Dettagli

Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale

Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale Il presente lavoro, facente segiuto a quanto scritto precedentemente ha il fine di descrivere il codice di calcolo

Dettagli

Tecniche avanzate per la progettazione e la gestione dei sistemi produttivi

Tecniche avanzate per la progettazione e la gestione dei sistemi produttivi Tecniche avanzate per la progettazione e la gestione dei sistemi produttivi 1 Panoramica generale Dalle Scienze naturali Dalla matematica Knowledge Based systems Artificial Neural Networks Simulation Chaos

Dettagli

Otacon22 HgComo. Reti neurali artificiali

Otacon22 HgComo. Reti neurali artificiali Otacon22 HgComo Reti neurali artificiali Chi sono? Daniele Iamartino ( aka Otacon22 ) Membro del team HgComo Studente/sperimentatore Futura matricola del PoliMi, ex liceale con tesina sulle reti neurali!

Dettagli

EVOLUZIONE DEL MODELLO NEURALE

EVOLUZIONE DEL MODELLO NEURALE EVOLUZIONE DEL MODELLO NEURALE 1 RETI A DECISIONE BINARIA (McCulloch e Pitts, 1943) Per la prima volta viene proposto un modello di elaborazione dell informazione la cui singola unità è il neurone 2 IL

Dettagli

Il neurone. I neuroni trasmettono l informazione ad altri neuroni o alle cellule effettrici (cellule muscolari) attraverso le sinapsi.

Il neurone. I neuroni trasmettono l informazione ad altri neuroni o alle cellule effettrici (cellule muscolari) attraverso le sinapsi. Il neurone I neuroni trasmettono l informazione ad altri neuroni o alle cellule effettrici (cellule muscolari) attraverso le sinapsi. Trasmissione sinaptica Ingresso: segnali sinaptici Integrazione: segnali

Dettagli

Reti Neurali in Generale

Reti Neurali in Generale Sistemi Intelligenti 95 Reti Neurali in Generale Le Reti Neurali Artificiali sono studiate sotto molti punti di vista. In particolare, contributi alla ricerca in questo campo provengono da: Biologia (Neurofisiologia)

Dettagli

Reti Neurali Artificiali Concetti base

Reti Neurali Artificiali Concetti base Reti Neurali Artificiali Concetti base Dott. Crescenzio Gallo Professore Aggregato di Informatica e Sistemi di Elaborazione Dipartimento di Medicina Clinica e Sperimentale crescenzio.gallo@unifg.it Concetti

Dettagli

Introduzione alle Reti Neurali

Introduzione alle Reti Neurali Introduzione alle Reti Neurali Maurizio Palesi Introduzione alle Reti Neurali 1 Applicazioni dell I.A. n Giochi di strategia è Scacchi, dama, otello n Comprensione del parlato è Analisi sintattica e semantica

Dettagli

Riconoscimento immagini con Keras e Tensorflow Gabriele Baldi

Riconoscimento immagini con Keras e Tensorflow Gabriele Baldi Riconoscimento immagini con Keras e Tensorflow Gabriele Baldi https://github.com/bnznamco/keras_model_and_slides_notabugconf Riconoscimento immagini Attività tipica del cervello umano Task molto difficile

Dettagli

La trasmissione dell Impulso Nervoso

La trasmissione dell Impulso Nervoso La trasmissione dell Impulso Nervoso Il Neurone Neuroni: cellule specializzate per la trasmissione degli impulsi. Dendriti prolungamenti riccamente ramificati e un lungo Assone fibroso. La parte terminale

Dettagli

proprietà funzionali dei neuroni

proprietà funzionali dei neuroni Fenomeni responsabili della nascita e propagazione dell informazione nervosa Le funzioni del sistema nervoso si fondano sulle proprietà funzionali dei neuroni. L attività specifica dei neuroni consiste

Dettagli

Cristian Randieri.

Cristian Randieri. Cristian Randieri wwwintellisystemit Se si copia la struttura del cervello umano nella realizzazione di un sistema di calcolo, le capacità proprie della mente (apprendere da esempi, capacità di generalizzare

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Esempi di applicazioni di reti neurali

Esempi di applicazioni di reti neurali Esempi di applicazioni di reti neurali Ogni problema di rete neurale segue la stessa procedura di base: (1) caricare il set di dati, (2) inizializzare la rete, (3) addestrare la rete (training), e (4)

Dettagli

Teoria e Tecniche del Riconoscimento Reti neurali

Teoria e Tecniche del Riconoscimento Reti neurali Facoltà di Scienze MM. FF. NN. Università di Verona A.A. 2010-11 Teoria e Tecniche del Riconoscimento Reti neurali Sommario Introduzione: approcci non algoritmici all elaborazione dell informazione (soft

Dettagli

Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte)

Lezione introduttiva su reti neurali e SVM Veronica Piccialli. Corso di Ottimizzazione a.a (seconda parte) Lezione introduttiva su reti neurali e SVM Veronica Piccialli Corso di Ottimizzazione a.a. 2009-10 (seconda parte) Ottimizzazione Statistica Fisica Biologia Reti Neurali Matematica Psicologia Informatica

Dettagli

Richiamo di Concetti di Apprendimento Automatico ed altre nozioni aggiuntive

Richiamo di Concetti di Apprendimento Automatico ed altre nozioni aggiuntive Sistemi Intelligenti 1 Richiamo di Concetti di Apprendimento Automatico ed altre nozioni aggiuntive Libro di riferimento: T. Mitchell Sistemi Intelligenti 2 Ingredienti Fondamentali Apprendimento Automatico

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Scienze dell Informazione Università di Milano boccignone@dsi.unimi.it

Dettagli

Potenziale di riposo: Una ddp a cavallo della membrana plasmatica a riposo o quando la cellula non è stimolata.

Potenziale di riposo: Una ddp a cavallo della membrana plasmatica a riposo o quando la cellula non è stimolata. Potenziale di riposo: Una ddp a cavallo della membrana plasmatica a riposo o quando la cellula non è stimolata. Costante e stabile Negativa all interno Peculiare di ogni tipo di cellula Il Potenziale di

Dettagli

IL NUOVO MODELLO PER LA PREVISIONE POLLINICA. Stefano Marchesi Direzione Tecnica Centro Tematico Regionale Ambiente Salute

IL NUOVO MODELLO PER LA PREVISIONE POLLINICA. Stefano Marchesi Direzione Tecnica Centro Tematico Regionale Ambiente Salute IL NUOVO MODELLO PER LA PREVISIONE POLLINICA Stefano Marchesi Direzione Tecnica Centro Tematico Regionale Ambiente Salute La presenza del polline in atmosfera concentrazione pollinica [numero di granuli/mc

Dettagli

Reti combinatorie. Reti combinatorie (segue)

Reti combinatorie. Reti combinatorie (segue) Reti combinatorie Sommatore Sottrattore Reti sequenziali Generatore di sequenze Riconoscitore di sequenze Reti combinatorie PROGRAMMAZIONE Il programmatore riporta le istruzioni che il calcolatore dovrà

Dettagli

Reti combinatorie (segue) Reti combinatorie. Lezione 2. Architettura degli Elaboratori A. Sperduti 1

Reti combinatorie (segue) Reti combinatorie. Lezione 2. Architettura degli Elaboratori A. Sperduti 1 Reti combinatorie Reti sequenziali Sommatore Sottrattore Generatore di sequenze Riconoscitore di sequenze PROGRAMMAZIONE Il programmatore riporta le istruzioni che il calcolatore dovrà eseguire, in un

Dettagli

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò

Kernel Methods. Corso di Intelligenza Artificiale, a.a Prof. Francesco Trovò Kernel Methods Corso di Intelligenza Artificiale, a.a. 2017-2018 Prof. Francesco Trovò 14/05/2018 Kernel Methods Definizione di Kernel Costruzione di Kernel Support Vector Machines Problema primale e duale

Dettagli

Principali differenze tra sinapsi neuromuscolare e sinapsi centrali

Principali differenze tra sinapsi neuromuscolare e sinapsi centrali Sinapsi centrali ed Integrazione sinaptica Principali differenze tra sinapsi neuromuscolare e sinapsi centrali Le sinapsi neuromuscolari utilizzano come neurotrasmettitore Ach Le sinapsi centrali utilizzano

Dettagli

Geo-scienze e Rischi Naturali

Geo-scienze e Rischi Naturali Università degli studi della Basilicata Geo-scienze e Rischi Naturali Potenza, 4 5 Marzo 2009 Pericolosità spaziale di frana e reti neurali artificiali: alcuni casi di studio. Stefania Pascale e Francesco

Dettagli

Sistemi Neurali Artificiali applicati alla Robotica e alla BioRobotica

Sistemi Neurali Artificiali applicati alla Robotica e alla BioRobotica Sistemi Neurali Artificiali applicati alla Robotica e alla BioRobotica PhD. Ing. Michele Folgheraiter Corso di ROBOTICA2 Prof.ssa Giuseppina Gini Anno. Acc. 2005/2006 Controllo Mediante Rete-Neurale -

Dettagli

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019

Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 DIPARTIMENTO DI INGEGNERIA GESTIONALE, DELL INFORMAZIONE E DELLA PRODUZIONE Università degli Studi di Bergamo Intelligenza Artificiale (Codice: 38066) 12 Giugno 2019 Nome: Cognome: Matricola: Riga: Colonna:

Dettagli

Re# Neurali Stages es#vi LNF

Re# Neurali Stages es#vi LNF Vitaliano Chiarella Re# Neurali Stages es#vi LNF 16-20 Giugno 2014 16-20 giugno 2014 V. Chiarella 1 Rete Neur(on)ale Ar#ficiale La rete neurale ar#ficiale è uno strumento informa#co che cerca di imitare

Dettagli

Differenze tra sinapsi neuromuscolare e sinapsi centrali

Differenze tra sinapsi neuromuscolare e sinapsi centrali Sinapsi centrali ed Integrazione sinaptica Differenze tra sinapsi neuromuscolare e sinapsi centrali Le sinapsi neuromuscolari utilizzano come neurotrasmettitore solo Ach. Le sinapsi centrali utilizzano

Dettagli

1. Il cognitivismo classico 2. L approccio innatistamodulare. 3. L approccio connessionista 4. Il neurocostruttivismo

1. Il cognitivismo classico 2. L approccio innatistamodulare. 3. L approccio connessionista 4. Il neurocostruttivismo Lezione 3 Connessionismo MODULO 3 Le teorie dell elaborazione delle informazioni 1. Il cognitivismo classico 2. L approccio innatistamodulare 3. L approccio connessionista 4. Il neurocostruttivismo Argomenti

Dettagli

Si è ipotizzato che il potenziale di membrana fosse un potenziale di Equilibrio del K descritto dall eq. di Nerst : Em= -RT/ZF 2.

Si è ipotizzato che il potenziale di membrana fosse un potenziale di Equilibrio del K descritto dall eq. di Nerst : Em= -RT/ZF 2. Si è ipotizzato che il potenziale di membrana fosse un potenziale di Equilibrio del K descritto dall eq. di Nerst : Em= -RT/ZF 2.3log [K]i / [K]o Registrazione del potenziale di membrana Potenziale di

Dettagli

Classificazione Validazione Decision Tree & kmeans. Renato Mainetti

Classificazione Validazione Decision Tree & kmeans. Renato Mainetti Classificazione Validazione Decision Tree & kmeans Renato Mainetti Apprendimento Supervisionato e Non Supervisionato: forniamo input e output Non supervisionato: forniamo solo input 2 Apprendimento Supervisionato

Dettagli

6. Metodologie di processamento non convenzionali.

6. Metodologie di processamento non convenzionali. Marcello Salmeri - Progettazione Automatica di Circuiti e Sistemi Elettronici Capitolo 6-6. Metodologie di processamento non convenzionali. I sistemi esperti. Il processamento delle informazioni al fine

Dettagli

nuove prestazioni ottenibili: tempo reale in problemi complessi, autoapprendimento, resistenza a guasti ed errori, degradazione graduale

nuove prestazioni ottenibili: tempo reale in problemi complessi, autoapprendimento, resistenza a guasti ed errori, degradazione graduale RETI NEURALI Reti Neurali Sono una nuova tecnologia informatica: architettura innovativa (non Von Neumann): molti semplici processori paralleli fortemente integrati da una rete di connessioni che realizzano

Dettagli

POTENZIALE D AZIONE FGE AA

POTENZIALE D AZIONE FGE AA POTENZIALE D AZIONE FGE AA.2016-17 OBIETTIVI ORGANIZZAZIONE GENERALE SN POTENZIALE DI AZIONE: DESCRIZIONE DELLE FASI E DETERMINANTI FISICO-CHIMICI ANDAMENTO DELLE CONDUTTANZE DEL SODIO E DEL POTASSIO NEL

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 4 Reti neurali per la classificazione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com

Dettagli

Laboratorio d'analisi Numerica

Laboratorio d'analisi Numerica Laboratorio d'analisi Numerica Introduzione L analisi numerica è quel ramo della matematica che s'interessa a creare, formulare e sviluppare metodi che permettono, a partire da certi dati, di ottenerne

Dettagli

Dal connessionismo classico ai modelli genearativi gerarchici

Dal connessionismo classico ai modelli genearativi gerarchici European Research Council http://ccnl.psy.unipd.it Dal connessionismo classico ai modelli genearativi gerarchici Marco Zorzi Computational Cognitive Neuroscience Lab Università di Padova 1 Connessionismo

Dettagli

Simulazione di sistemi neuronali dell ippocampo

Simulazione di sistemi neuronali dell ippocampo Simulazione di sistemi neuronali dell ippocampo - Marco Piersanti - Relatore: prof. Brunello Tirozzi Introduzione introduzione» Obiettivo: sviluppo di un modello di neurone piramidale CA1 dell ippocampo.

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Reti Neurali Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Reti Neurali Sistema artificiale

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Reti Neurali Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Reti Neurali Sistema artificiale

Dettagli

Somma 3-bit. somma 3-bit con I/O sequenziale. somma 3-bit con I/O sequenziale. Osservazione

Somma 3-bit. somma 3-bit con I/O sequenziale. somma 3-bit con I/O sequenziale. Osservazione RETI COMBINATORIE In una rete combinatoria l uscita è funzione dei soli ingressi u = f () ADDIZIONATORE PARALLELO Addizionatore parallelo (a propagazione di riporto - ripple carry) per numeri binari di

Dettagli

Introduzione agli Algoritmi Genetici ed alle Reti Neurali

Introduzione agli Algoritmi Genetici ed alle Reti Neurali Introduzione agli Algoritmi Genetici ed alle Reti Neurali Maurizio Palesi Introduzione agli Algoritmi Genetici ed alle Reti Neurali 1 Sommario Algoritmi Genetici Introduzione e applicazioni Terminologia

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Comput per l inter naturale: macchine che apprendono Corso di Inter uomo-macchina II Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it http://boccignone.di.unimi.it/ium2_2014.html

Dettagli

Reti Neurali. Veronica Piccialli. Corso di MOBD - Roma 12 Novembre Università degli Studi di Roma Tor Vergata 1 / 77

Reti Neurali. Veronica Piccialli. Corso di MOBD - Roma 12 Novembre Università degli Studi di Roma Tor Vergata 1 / 77 Reti Neurali Veronica Piccialli Corso di MOBD - Roma 12 Novembre 2015 Università degli Studi di Roma Tor Vergata 1 / 77 Contesto Contesto Idea Il neurone Rete neurale da un punto di vista fisico A cosa

Dettagli

Teoria della complessità

Teoria della complessità Teoria della complessità Materiale consigliato: testo del corso capitolo 34 Introduzione agli algoritmi e strutture dati T.H. Cormen, C.E. Leiserson, R.L. Rivest, C. Stein McGraw Hill, 2005 Denise Salvi

Dettagli

Computazione Biologica e Simulazione Neurale

Computazione Biologica e Simulazione Neurale 2009 Neuroscienze.net Journal of Neuroscience, Psychology and Cognitive Science On-line date: 2009-07-03 Computazione Biologica e Simulazione Neurale Neurone Biologico nei Paradigmi delle Reti Neurali

Dettagli

Il dilemma dell I.A.

Il dilemma dell I.A. Reti Neuronali Fino ad ora abbiamo visto approcci di ragionamento simbolici basati su simboli e regole sintattiche per la loro manipolazione. I connessionisti credono che la manipolazione simbolica sia

Dettagli

Vivisezione di un algoritmo di machine learning. Francesco ESPOSITO Youbiquitous

Vivisezione di un algoritmo di machine learning. Francesco ESPOSITO Youbiquitous Vivisezione di un algoritmo di machine learning Francesco ESPOSITO Youbiquitous Argomenti Panoramica di algoritmi e problemi Dentro un algoritmo Definire un approssimazione Definire un errore Minimizzare

Dettagli

POTENZIALE DI EQUILIBRIO DEL K + la differenza di potenziale ai due lati della membrana utile alla formazione dell equilibrio elettrochimico del K +

POTENZIALE DI EQUILIBRIO DEL K + la differenza di potenziale ai due lati della membrana utile alla formazione dell equilibrio elettrochimico del K + POTENZIALE DI EQUILIBRIO DEL K + la differenza di potenziale ai due lati della membrana utile alla formazione dell equilibrio elettrochimico del K + P - K + P - P - P - P - P - Na + Cl - -80 mv Voltometro

Dettagli

POTENZIALE DI MEMBRANA A RIPOSO. Le informazioni all'interno del sistema nervoso vengono scambiate mediante SEGNALI ELETTRICI

POTENZIALE DI MEMBRANA A RIPOSO. Le informazioni all'interno del sistema nervoso vengono scambiate mediante SEGNALI ELETTRICI POTENZIALE DI MEMBRANA A RIPOSO Le informazioni all'interno del sistema nervoso vengono scambiate mediante SEGNALI ELETTRICI La membrana plasmatica delle cellule è POLARIZZATA (esiste una differenza nella

Dettagli

LE RETI NEURALI ARTIFICIALI

LE RETI NEURALI ARTIFICIALI LE RETI NEURALI ARTIFICIALI Una introduzione di V3rt1g0 Le Reti Neurali Artificiali (RNA) compongono una vasta famiglia di sistemi di elaborazione particolarmente adatti a risolvere problemi non lineari.

Dettagli

Il potenziale di membrana

Il potenziale di membrana Il potenziale di membrana Nel citoplasma della cellula, così come nel liquido extracellulare sono disciolti diversi tipi di ioni. La loro concentrazione non è però uguale dai due lati della membrana citoplasmatica

Dettagli

QUANTIZZATORE VETTORIALE

QUANTIZZATORE VETTORIALE QUANTIZZATORE VETTORIALE Introduzione Nel campo delle reti neurali, la scelta del numero di nodi nascosti da usare per un determinato compito non è sempre semplice. Per tale scelta potrebbe venirci in

Dettagli

Spazio e trasformazioni sensorimotorie

Spazio e trasformazioni sensorimotorie Università degli studi di Padova Dipartimento di Psicologia Generale Spazio e trasformazioni sensorimotorie Michele De Filippo De Grazia Simone Cutini Outline Trasformazioni sensorimotorie Basi anatomo-fisiologiche

Dettagli

Grafi e reti di flusso

Grafi e reti di flusso Grafi e reti di flusso Molti problemi di ottimizzazione sono caratterizzati da una struttura di grafo: in molti casi questa struttura emerge in modo naturale, in altri nasce dal particolare modo in cui

Dettagli

MODULO 3: CENNI SULLE RETI NEURALI

MODULO 3: CENNI SULLE RETI NEURALI MODULO 3: 1 CENNI SULLE RETI NEURALI Bibliografia: D. Floreano, Manuale sulle reti neurali, Bologna, Il Mulino, 1996. 2 1. Sistemi di calcolo seriale e intelligenza naturale Malgrado il fatto che i computer

Dettagli

V = 130 mv R = Ω = = A I = V R. Trascuriamo il canale del Cl - Voltaggio totale V. Resistenza totale R

V = 130 mv R = Ω = = A I = V R. Trascuriamo il canale del Cl - Voltaggio totale V. Resistenza totale R LA MEMBRANA I canali passivi trans-membranici selettivi per ciascuna specie di ione possono essere schematizzati come una combinazione di resistenze e batterie Trascuriamo il canale del Cl - V = 130 mv

Dettagli

Membrane Biologiche. Caratteristiche delle membrane biologiche

Membrane Biologiche. Caratteristiche delle membrane biologiche Membrane Biologiche Caratteristiche delle membrane biologiche 1. Le membrane sono strutture a foglio che formano setti di separazione tra compartimenti con composizione diversa tra loro. 2. Sono costituite

Dettagli

otenziali graduati (elettrotonici) potenziale d azione

otenziali graduati (elettrotonici) potenziale d azione I segnali elettrici che si generano nei neuroni: potenziali graduati (elettrotonici) potenziale d azione sono modificazioni del potenziale di riposo determinate dall apertura o chiusura di canali ionici.

Dettagli

Equazione di Nerst. Equazione di Goldman

Equazione di Nerst. Equazione di Goldman Equazione di Nerst Equazione di Goldman 1 PROPRIETA PASSIVE DEI NEURONI I NEURONI posseggono proprietà passive importanti: Resistenza della membrana a riposo Capacità della membrana Resistenza assiale

Dettagli

Cenni sui metodi iterativi per sistemi lineari. Analisi Numerica Prof. M. Lucia Sampoli a.a. 2014/2015

Cenni sui metodi iterativi per sistemi lineari. Analisi Numerica Prof. M. Lucia Sampoli a.a. 2014/2015 Cenni sui metodi iterativi per sistemi lineari Analisi Numerica Prof. M. Lucia Sampoli a.a. 2014/2015 Metodi numerici per sistemi lineari Nei metodi diretti la presenza di eventuali elementi nulli nella

Dettagli

Moduli combinatori Barbara Masucci

Moduli combinatori Barbara Masucci Architettura degli Elaboratori Moduli combinatori Barbara Masucci Punto della situazione Ø Abbiamo studiato le reti logiche e la loro minimizzazione Ø Obiettivo di oggi: studio dei moduli combinatori di

Dettagli

Regressione. Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting

Regressione. Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting Lineare Simple linear regression Multiple linear regression Regression vs Geometrical fitting Non lineare Variabile indipendente non lineare Ottimizzazione numerica (metodi iterativi) 1 Definizioni Nei

Dettagli

Equazione di Nerst. Equazione di Goldman

Equazione di Nerst. Equazione di Goldman Equazione di Nerst Equazione di Goldman 1 PROPRIETA PASSIVE DEI NEURONI I NEURONI posseggono proprietà passive importanti: Resistenza della membrana a riposo Capacità della membrana Resistenza assiale

Dettagli

Metodi di Iterazione Funzionale

Metodi di Iterazione Funzionale Appunti di Matematica Computazionale Lezione Metodi di Iterazione Funzionale Il problema di calcolare il valore per cui F() = si può sempre trasformare in quello di trovare il punto fisso di una funzione

Dettagli

Introduzione. Reti neurali. Una rete di percettroni

Introduzione. Reti neurali. Una rete di percettroni Introduzione Con questa guida il mio obiettivo è quello di presentare il tema delle reti neurali in modo semplice per coloro che hanno almeno delle basi universitarie dei concetti di Analisi 1 e 2 per

Dettagli