1- Hidden Markov Models 2- Reti neurali 3- Algoritmi genetici

Documenti analoghi
Constant Propagation. A More Complex Semilattice A Nondistributive Framework

Reti Neurali. Giuseppe Manco. References: Chapter 4, Mitchell Chapter 1-2,4, Haykin Chapter 1-4, Bishop. Reti Neurali

College Algebra. Logarithms: Denitions and Domains. Dr. Nguyen November 9, Department of Mathematics UK

A.S. 2011/2012. Circuito semaforico da incrocio. Corso di Elettronica. Dipartimento di Elettrotecnica

Introduzione alle Reti Neurali

Optmization Methods for Machine Learning. Gradient method for multilayer perceptron

Graphs: Cycles. Tecniche di Programmazione A.A. 2012/2013

Copyright 2012 Binary System srl Piacenza ITALIA Via Coppalati, 6 P.IVA info@binarysystem.eu

Scheduling. Scheduler. Class 1 Class 2 Class 3 Class 4. Scheduler. Class 1 Class 2 Class 3 Class 4. Scheduler. Class 1 Class 2 Class 3 Class 4

Materiali Intelligenti: introduzione. Corso Materiali Intelligenti e Biomimetici 1/03/2018

Finite Model Theory / Descriptive Complexity: bin

Corso di Laurea in FISICA Dispositivi di calcolo II

Keep calm, observe and assess

Apprendimento automatico e Reti Neurali. Francesco Sambo tel

LA SACRA BIBBIA: OSSIA L'ANTICO E IL NUOVO TESTAMENTO VERSIONE RIVEDUTA BY GIOVANNI LUZZI

INTERNET & MARKETING INNOVATIVE COMMUNICATION.

La questione dei Multiple Comparisons

I CAMBIAMENTI PROTOTESTO-METATESTO, UN MODELLO CON ESEMPI BASATI SULLA TRADUZIONE DELLA BIBBIA (ITALIAN EDITION) BY BRUNO OSIMO

Maps. a.k.a, associative array, map, or dictionary

LA SACRA BIBBIA: OSSIA L'ANTICO E IL NUOVO TESTAMENTO VERSIONE RIVEDUTA BY GIOVANNI LUZZI

Database support Prerequisites Architecture Driver features Setup Stored procedures Where to use. Contents

Resources and Tools for Bibliographic Research. Search & Find Using Library Catalogues

Reti neurali. una breve introduzione

3d geological modelling and education: teaching geological sections and geological mapping with MVE Move

Single-rate three-color marker (srtcm)

MOSAIC MOR4/MOR4S8 RELAY OUTPUT EXPANSION UNIT

WEB OF SCIENCE. COVERAGE: multidisciplinary TIME RANGE: DOCUMENT TYPES: articles, proceedings papers, books

Estratto dal Cap. 8 di: Statistics for Marketing and Consumer Research, M. Mazzocchi, ed. SAGE, 2008.

The simplest PLL structure is based on a phase detector, a low pass filter and a voltage controlled oscillator (VCO). This structure, widely used in

How to use the WPA2 encrypted connection

In mathematics, a prime number is a natural number that is divisible only by 1 and itself.

Introduzione a JESS Parte B - Note

Manuale per il collegamento e l uso Installation and operation manual

Exam of ELECTRONIC SYSTEMS June 15 th, 2012 Prof. Marco Sampietro

Esperienze nel settore Automotive

Scheda Allarmi Alarm Board MiniHi

Introduzione a Matlab

SOMMATORE / SOTTRATTORE - SEPARAZIONE GALVANICA

Multibiometric Systems

Fisher Linear discriminant analysis (pag 228)

A.A. 2006/2007 Laurea di Ingegneria Informatica. Fondamenti di C++ Horstmann Capitolo 3: Oggetti Revisione Prof. M. Angelaccio

REGISTRATION GUIDE TO RESHELL SOFTWARE

Enel App Store - Installation Manual - Mobile

Viaggio di un naturalista intorno al mondo (Viaggi e Viaggiatori) (Italian Edition)

LA SACRA BIBBIA: OSSIA L'ANTICO E IL NUOVO TESTAMENTO VERSIONE RIVEDUTA BY GIOVANNI LUZZI

Guida all installazione del prodotto 4600 in configurazione plip

Intelligenza Computazionale INSEGNAMENTO ANNO ACCADEMICO Informatica Magistrale CORSO DI LAUREA IN Anna Maria Fanelli DOCENTE II

Reti neurali. Il calcolo con le reti neurali si basa sull'analogia coi sistemi neurali biologici

ENGINE COMPONENT DESIGN Cap. 7 AIAA AIRCRAFT ENGINE DESIGN R03-23/10/2013

Teorie e modelli nelle scienze cognitive (parte 2)

19 touchscreen display

Introduzione a Matlab

Fieldbus. Introduzione terminologia. Industrial network systems. A short introduction to fieldbus for industrial applications. Systems interconnection

Self-Calibration Hands-on CASA introduction

Algoritmi Priority-Driven RT. Corso di Sistemi RT Prof. Davide Brugali Università degli Studi di Bergamo

Appendice A. Conduttori elettrici, sezioni e diametri Appendix A. Wires, Sizes and AWG diameters

LA SACRA BIBBIA: OSSIA L'ANTICO E IL NUOVO TESTAMENTO VERSIONE RIVEDUTA BY GIOVANNI LUZZI

PM10 and PM2.5 in an urban area of the Adriatic coast: Trends and forecast using a recursive neural network model

Oscillatore a microonde utilizzante. risonatore a tecnica FSS

Le cellule staminali dell embrione: cosa possono fare Embryonic stem cells are exciting because they can make all the different types of cell in the

Allineamenti multipli

Marketing non Convenzionale: Viral, Guerrilla e prospettive future (Italian Edition)

Corso di Laurea in FISICA Dispositivi di calcolo II

ESERCIZIO 1 Si faccia riferimento all Allegato A - OPS 2016, problema ricorrente REGOLE E DEDUZIONI, pagina 2.

Testi del Syllabus. Docente RUSSO FABRIZIO Matricola:

IP multimedia services in the NGN

Le piccole cose che fanno dimagrire: Tutte le mosse vincenti per perdere peso senza dieta (Italian Edition)

Code: GW-IMP-WEB-1. Datalogger web pulses counter. Version 6 inputs with Ethernet. MarCom

SEI PRONTO AD ENTRARE IN UNA NUOVA DIMENSIONE? ARE YOU READY TO ENJOY A NEW DIMENSION?

GstarCAD 2010 Features

Accesso Mul*plo - modelli

AVVISO n Aprile 2010 SeDeX

100 consigli per vivere bene (Italian Edition)

6.5 RNA Secondary Structure

TLR05S-350. Extender in corrente costante, 3 x 350mA per TLR04M_

Laboratorio di Amministrazione di Sistema (CT0157) parte A : domande a risposta multipla

Laboratorio di Apprendimento Automatico. Fabio Aiolli Università di Padova

AVVISO n AIM -Italia/Mercato Alternativo del Capitale. 23 Giugno Mittente del comunicato : BORSA ITALIANA. Societa' oggetto dell'avviso

LEGEND UPDATE GUIDE INSTALLING LEGEND UPDATE. viscount. Legend Update Guide

WELCOME UNIPA REGISTRATION:

SUNWAY M XS. Inverter solare monofase senza trasformatore. Transformerless Single-phase Solar Inverter

General info on using shopping carts with Ingenico epayments

Introduzione alle Reti Neurali

Esempio con Google Play tore Example with Google Play tore

HS RC-BW06V. Kit Content. AUX Video input cable LVDS Video cable

Alimentatori per LED di segnalazione (MINILED) Power supply units for Signal LEDs (MINILED)

Estendere Lean e Operational Excellence a tutta la Supply Chain

Technical Guidelines GON % Italian production. sports car oriented

MOC10982 Supporting and Troubleshooting Windows 10

EVOLUZIONE DEL MODELLO NEURALE

M12 X-4. Mixer Preamplifier MASTER 5 AUX TUNER TAPE CD VOLUME BASS HIGH. MAINOUT V JACK 50/60 Hz 3 T1,25A. R mic.

MACHINE LEARNING e DATA MINING Introduzione. a.a.2015/16 Jessica Rosati jessica.rosati@poliba.it

Codice: LEDALITF INDUTTIVO INDUCTIVE INDUTTIVO INDUCTIVE. Trasformatore Lamellare. Trasformatore Toroidale. Toroidal Transformer

2015 [ NEW PRODUCT ]

Expansion card. EXP-D8-120 I/O Interface Card 8 AC Opto-coupled Digital Inputs 8 DC Digital Outputs

ANALISI DI PANNELLI MURARI RINFORZATI CON FRP SOGGETTI A SOLLECITAZIONI DI TAGLIO

Canti Popolari delle Isole Eolie e di Altri Luoghi di Sicilia (Italian Edition)

SUPPORTI A RULLO PER TUBAZIONI

Transcript:

Algoritmi ad apprendimento automatico Se si possiedono dei buoni modelli probabilistici che descrivano bene l informazione contenuta in un contesto biologico, è possibile far imparare le relazioni che il modello propone ad un computer. L applicazione pratica di questo concetto si ritrova in: 1- Hidden Markov Models 2- Reti neurali 3- Algoritmi genetici Proprio perchè oggi disponiamo di un gran numero di informazioni ma piuttosto disordinate, è possibile cercare di istruire un computer allo scopo di capire da solo le relazioni che intercorrono tra i vari elementi.

Reti neurali Sono circuiti di informazioni con una fissato numero di nodi (STATI) in cui immagazzinare le informazioni risultanti dalle varie interconnessioni ed una precisa ARCHITETTURA, cioè una struttura di interconnessione dei nodi. Se fornisco ad una rete neurale una informazione e il suo risultato (un TRAINING SET), gli stati memorizzano il modo di andare dall informazione al risultati sfruttando le interconnessioni. Ripetendo molte volte il training con set diversi ma ugualmente veri, alla fine la rete è in grado di arrivare da sola al risultato. Se fornisco alla rete una informazione con risultato incognito, essa risponderà con il risultato che per lei è appropriato, dato quello che ha imparato dai training set. es. Se io fornisco un numero di multiallineamenti esatti, la rete impara a multiallineare, e alla fine, data una serie di sequenze, sarà in grado di multiallinearle.

Neural Networks Neural Networks can be : Biological models Artificial models Desire to produce artificial systems capable of sophisticated computations similar to the human brain Compute a known function Approximate an unknown function Pattern Recognition Signal Processing Learn to do any of the above 14 dicembre Jens Meiler 3

Biological Neurons NEURON The cell that perform information processing in the brain Fundamental functional unit of all nervous system tissue We are born with about 100 billion neurons A neuron may connect to as many as 100,000 other neurons Signals move via electrochemical signals The synapses release a chemical transmitter the sum of which can cause a threshold to be reached causing the neuron to fire Synapses can be inhibitory or excitatory 14 dicembre Jens Meiler 4

Biological Neurons Each consists of : SOMA, DENDRITES, AXON, and SYNAPSE 14 dicembre Jens Meiler 5

Brain vs. Computer Computers require hundreds of cycles to simulate a firing of a neuron The brain can fire all the neurons in a single step: Parallelism Serial computers require billions of cycles to perform some tasks but the brain takes less than a second (e.g. face recognition) 14 dicembre Jens Meiler 6

Artificial Neuron = NODE Each neuron is connected to other nodes with an associated weight (strength) which typically multiplies the signal transmitted Each neuron has a single threshold value Weighted sum of all the inputs coming into the neuron is formed and the threshold is subtracted from this value = activation Activation signal is passed through an activation function (a.k.a. transfer function) to produce the output of the neuron weight 1 weight 2 weight 3 weight 4 Sum Activation Function Output 1.0 0.5 Sum 14 dicembre Jens Meiler 7

Artificial Neuron = NODE Definition of a node: A node is an element which performs the function y = f H ( (w i x i ) + W b ) 14 dicembre Jens Meiler 8

What is and Artificial Neural Network (ANN)? An interconnected assembly of simple processing elements, units, neurons or nodes, whose functionality is loosely based on the animal neuron The processing ability of the network is stored in the interunit connection strengths, or weights, obtained by a process of adaptation to, or learning from, a set of training patterns. A Neural Network is a system composed of many simple processing elements operating in parallel which can acquire, store, and utilize experiential knowledge 14 dicembre Jens Meiler 9

ANN Characteristics Basis: a crude low-level model of biological neural systems Powerful: capable of modeling very complex functions/relationships handles curse of dimensionality Ease of Use: learns the structure for you, i.e. avoids need for formulating rules user must deal with type of network, complexity, learning algorithms & inputs to use Architecture: the pattern of nodes and connections between them Learning algorithm, or training method: method for determining weights of the connections 14 dicembre Jens Meiler 10

ANN Architecture: Basic Concept A Neural Network generally maps a set of inputs to a set of outputs Number of inputs/outputs is variable The Network itself is composed of an arbitrary number of nodes with an arbitrary topology 14 dicembre Jens Meiler 11

ANN Architecture Connectivity: fully connected partially connected Feedback feedforward network: no feedback simpler, more stable, proven most useful recurrent network: feedback from output to input units complex dynamics, may be unstable Number of layers i.e. presence of hidden layers 14 dicembre Jens Meiler 12

Simple Perceptron: Architecture Binary logic application f H (x) = u(x) [linear threshold] W i = random(-1,1) Y = u(w 0 X 0 + W 1 X 1 + W b ) Now how do we train it? 14 dicembre Jens Meiler 13

Simple Perceptron: Basic Training Perception learning rule ΔW i = η * (D Y) * X i η = Learning Rate D = Desired Output Adjust weights based on a how well the current weights match an objective 14 dicembre Jens Meiler 14

Simple Perceptron: Logic Training Expose the network to the logical OR operation Update the weights after each epoch As the output approaches the desired output for all cases, ΔW i will approach 0 X 0 X 1 D 0 0 0 0 1 1 1 0 1 1 1 1 14 dicembre Jens Meiler 15

Simple Perceptron: Training Progress and Result W 0 W 1 W b 14 dicembre Jens Meiler 16

Simple Perceptron: Details Network converges on a hyper-plane decision surface X 1 = (W 0 /W 1 )X 0 + (W b /W 1 ) 14 dicembre Jens Meiler 17

Simple Perceptron with multiple Outputs? 14 dicembre Jens Meiler 18

Simple Perceptron: Limits Simple Perceptrons can only represent Linearly Separable Functions 0,1 1,1 0,1 1,1 0,0 AND AND 1,0 0,0 XOR XOR 1,0 14 dicembre Jens Meiler 19

Sigmoidal Activation Function F(x) = 1 / (1 + e -k (w ixi) ) Shown for k = 0.5, 1 and 10 Using a nonlinear function which approximates a linear threshold allows a network to approximate nonlinear functions 14 dicembre Jens Meiler 20

Alternative Activation Functions Radial Basis Functions Square Triangle Gaussian! 14 dicembre Jens Meiler 21

Feedforward, Fully-Connected with One Hidden Layer Connection Node Outputs Inputs Input Layer Hidden Layer Output Layer 14 dicembre Jens Meiler 22

Hidden Layer Layer of nodes between input and output nodes Allow a network to learn non-linear functions Allow the net to represent combinations of the input features 14 dicembre Jens Meiler 23

Types of ANNs Multilayer Perceptron Radial Basis Function Kohonen Demo Linear Hopfield Adaline/Madaline Probabilistic Neural Network (PNN) General Regression Neural Network (GRNN) and at least thirty others 14 dicembre Jens Meiler 24

Training Algorithms What it is: How the network learns the relationship between the inputs and outputs. Type of algorithm used depends on type of networkarchitecture, type of learning,etc. The most popularis Back Propagation modifications exist: quick prop, Delta-bar-Delta Others: Conjugate gradient descent, Levenberg-Marquardt, K-Means, Kohonen, standard pseudo-inverse (SVD) linear optimization 14 dicembre Jens Meiler 25

Training algorithm: Backpropagation of Errors Forward Pass: Error is calculated from outputs Used to update output weights Backward Pass: Error at hidden nodes is calculated by back propagating the error at the outputs through the new weights Hidden weights updated 14 dicembre Jens Meiler 26

Algoritmi genetici Se consideriamo un problema che ha una soluzione dipendente da n parametri e da k valori, una esplorazione completa richiede k n operazioni. Ma se noi sappiamo come si può evolvere il sistema (perchè abbiamo un training set o sappiamo le regole) per ricavare il risultato, sappiamo che alcuni passaggi non sono possibili o non si sono mai verificati, e sappiamo che ci sono percorsi che sono preferiti ad altri. Se l algoritmo viene modellato per rispettare gli schemi osservati e viene calcolata per ogni passaggio una FITNESS, cioè un valore di attendibilità, posso arrivare entro un certo numero di cicli ad avere un risultato che ha una fitness ottimale per le mie aspettative

posso simulare un crossing over tra due sequenze visto che so come il crossing over avviene. posso simulare la mutagenesi visto che conosco le frequenze di mutazioni e gli eventi mutageni che accadono cromosomi valutazione della fitness generazione selezione del cromosoma con fitness maggiore mutazione e crossing-over nuovi cromosomi sostituiscono i precedenti stop