Backpropagation in MATLAB

Save this PDF as:
 WORD  PNG  TXT  JPG

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Backpropagation in MATLAB"

Transcript

1 Modello di neurone BACKPROPAGATION Backpropagation in MATLAB Prof. Beatrice Lazzerini Dipartimento di Ingegneria dell Informazione Via Diotisalvi 2, Pisa La funzione di trasferimento, che deve essere derivabile, è tipicamente una delle seguenti: 1 2

2 Creazione di una rete backpropagation Una rete backpropagation si crea con la funzione newff: >> net= newff(pr,[s1 s2...snl],{tf1 tf2...tfnl},btf,blf,pf) La figura seguente mostra una rete con un solo strato di S neuroni logsig. dove: pr = matrice Rx2 dei valori minimi e massimi per gli R elementi di ingresso si (i=1..n1) = numero di neuroni dell i-mo strato tfi (i=1..n1) = transfer function dell i-mo strato, default = 'tansig' btf = backprop network training function, default = 'trainlm' blf = backprop weight/bias learning function, default = 'learngdm' pf = performance function, default = 'mse'. Ad esempio: >> net=newff([-1 2; 0 5], [3,1], {'tansig','purelin'},'traingd'); crea una rete a due strati. Il vettore di ingresso ha due elementi i cui valori variano, rispettivamente, in [-1 2] e [0 5]. Ci sono tre neuroni nello strato nascosto e uno nello strato di uscita. La funzione di trasferimento nello strato nascosto è tansig mentre nello strato di uscita è lineare. La funzione di addestramento è traingd (algoritmo di backpropagation standard). Le reti feedforward hanno spesso uno o piú strati nascosti di neuroni con funzione di trasferimento sigmoidale ed uno strato di uscita composto da neuroni lineari. Strati di neuroni con funzione di trasferimento non lineare permettono alla rete di imparare relazioni non lineari tra input ed output. Lo strato di uscita lineare permette alla rete di produrre valori all esterno del range [-1 1]. D altra parte, se si vogliono limitare le uscite della rete, ad esempio, tra 0 e 1, lo strato di uscita deve usare una funzione di trasferimento sigmoidale (ad esempio, logsig). 3 La funzione newff, oltre a creare la rete, inizializza anche i pesi e i bias. È possibile, comunque, cambiare l inizializzazione dei pesi: >> net=init(net) >> p=[1;2]; >> a=sim(net,p); Simulazione Addestramento Una rete backpropagation può essere addestrata per eseguire approssimazione di funzioni, associazione di pattern o classificazione di pattern. 4

3 Durante l addestramento i pesi sono modificati iterativamente allo scopo di minimizzare la funzione di performance net.performfcn. La funzione di default per le reti feedforward è l errore quadratico medio mse. È possibile utilizzare diversi algoritmi di addestramento per reti feedforward. L algoritmo di backpropagation standard (gradient descent) sposta i pesi nella direzione del gradiente negativo, cioè nella direzione in cui la funzione di performance diminuisce piú rapidamente. Esistono alcune varianti dell algoritmo standard. Nel seguito presentiamo alcuni algoritmi di addestramento. Algoritmo backpropagation (traingd) La funzione traingd (gradient descent) ha sette parametri di addestramento: epochs: maximum number of epochs to train (default 10) show: epochs between displays (default 25) goal: performance goal (default 0) time: maximum time to train in seconds (default inf) min_grad: minimum performance gradient (default 1e-10) max_fail: maximum validation failures (default 5) lr: learning rate (default 0.01). Durante l addestramento si possono usare dei vettori di validazione per terminare l addestramento prematuramente, e precisamente quando le prestazioni della rete sui vettori di validazione non migliorano per max_fail epoche di seguito. 5) la performance di validazione è aumentata piú di max_fail volte dall ultima volta in cui è diminuita (quando si usa la validazione). Il codice seguente addestra una rete con l algoritmo di backpropagation in modalità batch (tale modalità richiede che i vettori di input siano posti in una matrice): p=[ ; ]; t=[ ]; net=newff(minmax(p),[3,1],{'tansig','purelin'},'traingd'); net.trainparam.show=50; net.trainparam.lr=0.05; net.trainparam.epochs=300; net.trainparam.goal=1e-5; [net,tr]=train(net,p,t); % tr (training record) contiene informazioni su come % procede l'addestramento a=sim(net,p) Durante l addestramento sono visualizzate le seguenti informazioni: TRAINGD, Epoch 0/300, MSE /1e-005, Gradient /1e-010 TRAINGD, Epoch 50/300, MSE /1e-005, Gradient /1e-010 TRAINGD, Epoch 100/300, MSE /1e-005, Gradient /1e-010 TRAINGD, Epoch 150/300, MSE e-005/1e-005, Gradient /1e-010 TRAINGD, Epoch 200/300, MSE e-005/1e-005, Gradient /1e-010 TRAINGD, Epoch 211/300, MSE e-006/1e-005, Gradient /1e-010 TRAINGD, Performance goal met. e viene prodotto il seguente grafico: Vettori di test possono essere utilizzati come ulteriore controllo della capacità di corretta generalizzazione della rete, comunque questi vettori non hanno alcun effetto sul training. L addestramento termina quando si verifica una delle seguenti condizioni: 1) si raggiunge il numero massimo di epoche; 2) si supera il massimo ammontare di tempo; 3) la performance raggiunge un valore minore di goal; 4) il gradiente della performance è inferiore a min_grad; 5 6

4 Ricreaiamo la rete precedente ed addestriamola con il metodo del momentum: p=[ ; ]; t=[ ]; net=newff(minmax(p),[3,1],{'tansig','purelin'},'traingdm'); net.trainparam.show=50; net.trainparam.lr=0.05; net.trainparam.mc=0.9; net.trainparam.epochs=300; net.trainparam.goal=1e-5; [net,tr]=train(net,p,t); a=sim(net,p) I due algoritmi di addestramento precedenti (traingd e traingdm) risultano spesso troppo lenti. Esistono varianti dell algoritmo di backpropagation che convergono molto piú velocemente. Vediamo alcune di tali varianti. Algoritmo traingda La simulazione produce: a = Osserviamo che, a causa dell inizializzazione casuale dei pesi, esecuzioni diverse dello stesso codice possono produrre risultati diversi. Tornando al parametro di uscita tr (training record), esso contiene le seguenti informazioni: tr.epoch: tr.perf: tr.vperf: tr.tperf: epoch number training performance validation performance test performance. Algoritmo backpropagation con momentum (traingdm) Vediamo la funzione traingdm (gradient descent with momentum). 7 La funzione traingda (gradient descent with adaptive learning rate) si comporta in modo simile a traingd con il piú il fatto che adotta un learning rate variabile. Algoritmo traingdx La funzione di addestramento traingdx combina learning rate variabile e momentum. Algoritmo Levenberg-Marquardt (trainlm) Questo algoritmo fa uso di tecniche di ottimizzazione numerica ed è il metodo piú veloce per addestrare reti neurali feedforward di dimensioni moderate (cioè contenenti fino a parecchie centinaia di pesi). È particolarmente efficiente in termini temporali in problemi di approssimazione di funzioni quando la rete ha un numero di pesi di alcune centinaia ed è richiesta un approssimazione molto accurata. All aumentare del numero di pesi della rete di solito l algoritmo trainlm non risulta essere il migliore. Inoltre, le prestazioni di trainlm tendono a calare in problemi di riconoscimento di pattern. 8

5 È opportuno osservare, comunque, che non esiste un algoritmo di addestramento che è in assoluto migliore degli altri in ogni problema, anche perchè le prestazioni di un algoritmo di addestramento dipendono, ad esempio, da fattori quali l accuratezza richiesta all approssimazione della rete. Quando si crea una rete con la funzione newff il valore di default dell algoritmo di addestramento è trainlm. Tipicamente, prima di addestrare una rete con questo algoritmo si settano parametri quali epochs, show e goal. Generalizzazione e overfitting Uno dei problemi che si possono verificare durante l addestramento di una rete neurale è il cosiddetto overfitting: l errore sul training set è estremamente basso, ma quando alla rete si presenta un nuovo ingresso (non incluso nel training set), l errore commesso è molto grande. In questo caso, la rete ha memorizzato gli esempi di addestramento, ma non ha imparato a generalizzare. Osserviamo che se il numero di parametri della rete è molto piú piccolo del numero di esempi di addestramento la possibilità di overfitting è scarsa o addirittura nulla. Quindi, se è possibile dimensionare il training set in maniera opportuna si riesce a prevenire il problema. Nei casi in cui il training set è invece non adeguato alle dimensioni della rete (e non è possibile raccogliere altri dati per qualche motivo) si puó, ad esempio, usare un metodo, detto early stopping, descritto di seguito. Early stopping Questo metodo prevede di suddividere i dati a disposizione in tre sottoinsiemi: training set, validation set e test set. Il training set è usato per calcolare il gradiente e aggiornare pesi e bias. Durante il processo di addestramento si calcola l errore sul validation set. Di solito sia l errore sul validation set che l errore sul training set decrescono durante la prima fase di addestramento. Quando comincia l overfitting, l errore sul validation set tipicamente comincia a salire. Quando l errore sul validation set continua a salire per un determinato numero di epoche, l addestramento viene interrotto e vengono restituiti i pesi e i bias corrispondenti al minimo dell errore di validazione. 9 Osserviamo che l errore sul test set non viene utilizzato durante la fase di addestramento. Tale errore viene invece usato per confrontare tra loro reti diverse. Puó comunque essere utile visualizzare l errore sul test set durante l addestramento: infatti, se l errore sul test set e l errore sul validation set raggiungono minimi in epoche sostanzialmente diverse, possiamo sospettare di non aver effettuato una suddivisione appropriata in tre sottoinsiemi dell insieme iniziale dei dati. Questa tecnica puó essere utilizzata con tutte le funzioni di addestramento viste precedentemente. È sufficiente passare il validation set alla funzione di addestramento. Esempio Addestriamo una rete (un input, 20 neuroni nascosti, un output) ad approssimare una funzione seno con rumore. % generiamo il training set p=[-1:0.05:1]; t=sin(2*pi*p) + 0.1*randn(size(p)); % aggiungiamo rumore al seno % (sommando numeri casuali con distribuzione normale) % generiamo il validation set; gli input variano in [-1 1] come nel training % set, ma sono traslati leggermente. Inoltre aggiungiamo un rumore % diverso alla funzione seno. % Il validation set è contenuto in una struttura che comprende sia gli % ingressi che le uscite desiderate. val.p=[-0.975:0.05:0.975]; val.t=sin(2*pi*val.p) + 0.1*randn(size(val.p)); net=newff([-1 1],[20 1],{'tansig','purelin'},'traingdx'); net.trainparam.show=25; net.trainparam.epochs=300; net=init(net); [net,tr]=train(net,p,t,[],[],val); Sul video compare, ad esempio : TRAINGDX, Epoch 0/300, MSE /0, Gradient /1e-006 TRAINGDX, Epoch 25/300, MSE /0, Gradient /1e-006 TRAINGDX, Epoch 50/300, MSE /0, Gradient /1e

6 TRAINGDX, Epoch 75/300, MSE /0, Gradient /1e-006 TRAINGDX, Epoch 100/300, MSE /0, Gradient /1e-006 TRAINGDX, Epoch 123/300, MSE /0, Gradient /1e-006 TRAINGDX, Validation stop. Appare il seguente grafico: La funzione seno (senza rumore) è rappresentata dalla linea tratteggiata, le misure rumorose (training set) sono indicate dal simbolo + e la risposta della rete è rappresentata dalla linea continua. Come possiamo osservare dal grafico, non c è overfitting. (la linea superiore è l errore sul validation set mentre quella inferiore è l errore sul training set) % simuliamo la rete y=sim(net,p); % grafichiamo la funzione da approssimare, il training set e % la risposta della rete plot(p,sin(2*pi*p),':',p,t,'+',p,y); 11 12

Regressione non lineare con un modello neurale feedforward

Regressione non lineare con un modello neurale feedforward Reti Neurali Artificiali per lo studio del mercato Università degli studi di Brescia - Dipartimento di metodi quantitativi Marco Sandri (sandri.marco@gmail.com) Regressione non lineare con un modello neurale

Dettagli

Sommario. 1 Specifiche della soluzione. Davide Anastasia, Nicola Cogotti. 27 dicembre 2005

Sommario. 1 Specifiche della soluzione. Davide Anastasia, Nicola Cogotti. 27 dicembre 2005 Utilizzo delle reti neurali di tipo MLP e RBF per l approssimazione di funzioni reali di variabile reale note mediante coppie di punti (x,y) in presenza di rumore Davide Anastasia, Nicola Cogotti 27 dicembre

Dettagli

Esperienze di Apprendimento Automatico per il corso di Intelligenza Artificiale

Esperienze di Apprendimento Automatico per il corso di Intelligenza Artificiale Esperienze di Apprendimento Automatico per il corso di lippi@dsi.unifi.it Dipartimento Sistemi e Informatica Università di Firenze Dipartimento Ingegneria dell Informazione Università di Siena Introduzione

Dettagli

Neural Network Toolbox

Neural Network Toolbox Neural Network Toolbox In questa sede verrà presentata una trattazione esauriente delle caretteristiche fondamentali del Neuron Network Toolbox presente come pacchetto supplementare al software Matlab

Dettagli

Feature Selection per la Classificazione

Feature Selection per la Classificazione 1 1 Dipartimento di Informatica e Sistemistica Sapienza Università di Roma Corso di Algoritmi di Classificazione e Reti Neurali 20/11/2009, Roma Outline Feature Selection per problemi di Classificazione

Dettagli

Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale

Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete euronale Descrizione Il presente lavoro, facente segiuto a quanto descritto precedentemente, ha il fine di: 1) introdurre

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico On AIR s.r.l. Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 4 Reti neurali per la classificazione Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com

Dettagli

Artificial Neural Network(ANN)

Artificial Neural Network(ANN) Artificial Neural Network(ANN) Dott.ssa Elisa Turricchia Alma Mater Studiorum - Università di Bologna ANN: Definizione Una rete neurale artificiale definisce un modello matematico per la simulazione di

Dettagli

Computazione per l interazione naturale: Modelli dinamici

Computazione per l interazione naturale: Modelli dinamici Computazione per l interazione naturale: Modelli dinamici Corso di Interazione Naturale Prof. Giuseppe Boccignone Dipartimento di Informatica Università di Milano boccignone@di.unimi.it boccignone.di.unimi.it/in_2015.html

Dettagli

Reti neurali e loro applicazioni

Reti neurali e loro applicazioni Università degli Studi di Padova FACOLTÀ DI INGEGNERIA Corso di Laurea in Informazione Tesi di laurea triennale Reti neurali e loro applicazioni Relatore: LUCA SCHENATO Laureando: STEFAN KOKOROVIC Anno

Dettagli

Ingegneria di Manutenzione II. Intelligence diagnostica

Ingegneria di Manutenzione II. Intelligence diagnostica 1 Ingegneria di Manutenzione II Intelligence diagnostica Stefano Ierace, Luigi Troiano stefano.ierace@unibg.it - troiano@unisannio.it Università degli Studi di Bergamo Università del Sannio Obiettivi del

Dettagli

Esempio di prova di laboratorio

Esempio di prova di laboratorio Esempio di prova di laboratorio Messa a punto di un modello mediante: Utilizzo dell interprete Matlab Utilizzo del toolbox Fuzzy Logic Utilizzo del toolbox Neuro Network Creazione di funzioni Analisi critica

Dettagli

Introduzione agli Algoritmi Genetici Prof. Beatrice Lazzerini

Introduzione agli Algoritmi Genetici Prof. Beatrice Lazzerini Introduzione agli Algoritmi Genetici Prof. Beatrice Lazzerini Dipartimento di Ingegneria della Informazione Via Diotisalvi, 2 56122 PISA ALGORITMI GENETICI (GA) Sono usati per risolvere problemi di ricerca

Dettagli

VC-dimension: Esempio

VC-dimension: Esempio VC-dimension: Esempio Quale è la VC-dimension di. y b = 0 f() = 1 f() = 1 iperpiano 20? VC-dimension: Esempio Quale è la VC-dimension di? banale. Vediamo cosa succede con 2 punti: 21 VC-dimension: Esempio

Dettagli

Introduzione agli Algoritmi Genetici Prof. Beatrice Lazzerini

Introduzione agli Algoritmi Genetici Prof. Beatrice Lazzerini Introduzione agli Algoritmi Genetici Prof. Beatrice Lazzerini Dipartimento di Ingegneria della Informazione Via Diotisalvi, 2 56122 PISA ALGORITMI GENETICI (GA) Sono usati per risolvere problemi di ricerca

Dettagli

Data mining: classificazione DataBase and Data Mining Group of Politecnico di Torino

Data mining: classificazione DataBase and Data Mining Group of Politecnico di Torino DataBase and Data Mining Group of Database and data mining group, Database and data mining group, DataBase and Data Mining Group of DataBase and Data Mining Group of So dati insieme di classi oggetti etichettati

Dettagli

Funzione di risposta di una RNA - Parte 2

Funzione di risposta di una RNA - Parte 2 Reti Neurali Artificiali per lo studio del mercato Università degli studi di Brescia - Dipartimento di metodi quantitativi Marco Sandri (sandri.marco@gmail.com) Funzione di risposta di una RNA - Parte

Dettagli

Documentazione esterna al software matematico sviluppato con MatLab

Documentazione esterna al software matematico sviluppato con MatLab Documentazione esterna al software matematico sviluppato con MatLab Algoritmi Metodo di Gauss-Seidel con sovrarilassamento Metodo delle Secanti Metodo di Newton Studente Amelio Francesco 556/00699 Anno

Dettagli

Page 1. Evoluzione. Intelligenza Artificiale. Algoritmi Genetici. Evoluzione. Evoluzione: nomenclatura. Corrispondenze natura-calcolo

Page 1. Evoluzione. Intelligenza Artificiale. Algoritmi Genetici. Evoluzione. Evoluzione: nomenclatura. Corrispondenze natura-calcolo Evoluzione In ogni popolazione si verificano delle mutazioni. Intelligenza Artificiale In un ambiente che varia, le mutazioni possono generare individui che meglio si adattano alle nuove condizioni. Questi

Dettagli

LABORATORIO DI ANALISI DEI SISTEMI

LABORATORIO DI ANALISI DEI SISTEMI LABORATORIO DI ANALISI DEI SISTEMI Si utilizzerà, come strumento di lavoro, un foglio elettronico, il più diffuso Excel o anche quello gratuito di OpenOffice (www.openoffice.org). Tale scelta, pur non

Dettagli

INTRODUZIONE A EXCEL ESERCITAZIONE I

INTRODUZIONE A EXCEL ESERCITAZIONE I 1 INTRODUZIONE A EXCEL ESERCITAZIONE I Corso di Idrologia e Infrastrutture Idrauliche Prof. Roberto Guercio Cos è Excel 2 Foglio di calcolo o foglio elettronico è formato da: righe e colonne visualizzate

Dettagli

6.2 Modelli per il monossido di carbonio

6.2 Modelli per il monossido di carbonio 6.2 Modelli per il monossido di carbonio La serie temporale scelta per l addestramento è quella rilevata in via Piave poiché tra le stazioni idonee, per legge, al controllo di questo inquinante essa presenta

Dettagli

Reti Neurali Artificiali Tutorial (Draft)

Reti Neurali Artificiali Tutorial (Draft) Reti Neurali Artificiali Tutorial (Draft) Crescenzio Gallo #1, Michelangelo De Bonis #2 IEEE MEMBERS # Dipartimento di Scienze Biomediche, Università degli Studi di Foggia 1 c.gallo@ieee.org, 2 m.debonis@ieee.org

Dettagli

Interpolazione ed approssimazione di funzioni

Interpolazione ed approssimazione di funzioni Interpolazione ed approssimazione di funzioni Lucia Gastaldi Dipartimento di Matematica, http://dm.ing.unibs.it/gastaldi/ 9 novembre 2007 Outline 1 Polinomi Valutazione di un polinomio Algoritmo di Horner

Dettagli

Metodi di ottimizzazione per le reti neurali

Metodi di ottimizzazione per le reti neurali Metodi di ottimizzazione per le reti neurali L. Grippo (grippo@dis.uniroma1.it) Dipartimento di Informatica e Sistemistica, Università di Roma La Sapienza, Via Buonarroti 12, 00185 Roma M. Sciandrone (sciandro@iasi.rm.cnr.it)

Dettagli

Riconoscimento e Recupero dell'informazione per Bioinformatica

Riconoscimento e Recupero dell'informazione per Bioinformatica Riconoscimento e Recupero dell'informazione per Bioinformatica LAB. 8 PRTools (2) Pietro Lovato Corso di Laurea in Bioinformatica Dip. di Informatica Università di Verona A.A. 2015/2016 Ripasso: validazione

Dettagli

Implementazione parallela di algoritmi genetici per la stima di HMM

Implementazione parallela di algoritmi genetici per la stima di HMM Università degli Studi di Trieste Implementazione parallela di algoritmi genetici per la stima di HMM Relatore Enzo Mumolo Candidato Nicola Timeus 14 marzo 2014 Motivazioni Pattern recognition mediante

Dettagli

SVM. Veronica Piccialli. Roma 11 gennaio 2010. Università degli Studi di Roma Tor Vergata 1 / 14

SVM. Veronica Piccialli. Roma 11 gennaio 2010. Università degli Studi di Roma Tor Vergata 1 / 14 SVM Veronica Piccialli Roma 11 gennaio 2010 Università degli Studi di Roma Tor Vergata 1 / 14 SVM Le Support Vector Machines (SVM) sono una classe di macchine di che derivano da concetti riguardanti la

Dettagli

Concetti di base. Scheduling della CPU. Diagramma della durata dei CPU-burst. Sequenza Alternata di CPU Burst e I/O Burst

Concetti di base. Scheduling della CPU. Diagramma della durata dei CPU-burst. Sequenza Alternata di CPU Burst e I/O Burst Impossibile visualizzare l'immagine. Scheduling della CPU Concetti di base La multiprogrammazione cerca di ottenere la massima utilizzazione della CPU. L esecuzione di un processo consiste in cicli d esecuzione

Dettagli

Elementi Finiti: stime d errore e adattività della griglia

Elementi Finiti: stime d errore e adattività della griglia Elementi Finiti: stime d errore e adattività della griglia Elena Gaburro Università degli studi di Verona Master s Degree in Mathematics and Applications 05 giugno 2013 Elena Gaburro (Università di Verona)

Dettagli

Sommario. Analysis & design delle applicazioni parallele. Misura delle prestazioni parallele. Tecniche di partizionamento.

Sommario. Analysis & design delle applicazioni parallele. Misura delle prestazioni parallele. Tecniche di partizionamento. Sommario Analysis & design delle applicazioni parallele Misura delle prestazioni parallele Tecniche di partizionamento Comunicazioni Load balancing 2 Primi passi: analizzare il problema Prima di iniziare

Dettagli

Introduzione. Classificazione di Flynn... 2 Macchine a pipeline... 3 Macchine vettoriali e Array Processor... 4 Macchine MIMD... 6

Introduzione. Classificazione di Flynn... 2 Macchine a pipeline... 3 Macchine vettoriali e Array Processor... 4 Macchine MIMD... 6 Appunti di Calcolatori Elettronici Esecuzione di istruzioni in parallelo Introduzione... 1 Classificazione di Flynn... 2 Macchine a pipeline... 3 Macchine vettoriali e Array Processor... 4 Macchine MIMD...

Dettagli

RETI NEURALI (II PARTE)

RETI NEURALI (II PARTE) RETI NEURALI (II PARTE) HOPFIELD Neural Net è utilizzata come MEMORIA ASSOCIATIVA e come CLASSIFICATORE input e output sono BINARI {+, -} i pesi sono fissati con un apprendimento non iterativo (fixed point

Dettagli

Analisi di segnali fisiologici mediante reti neurali

Analisi di segnali fisiologici mediante reti neurali POLITECNICO DI TORINO III Facoltà di Ingegneria Corso di Laurea in Ingegneria Informatica Tesi di Laurea Specialistica Analisi di segnali fisiologici mediante reti neurali Relatori: Prof.ssa Elena Baralis

Dettagli

Costruzione di una Rete Neurale Artificiale per applicazioni Economico Finanziarie

Costruzione di una Rete Neurale Artificiale per applicazioni Economico Finanziarie per applicazioni Economico Finanziarie Prof. Crescenzio Gallo c.gallo@unifg.it Università deglistudidifoggia Dipartimento di Scienze Biomediche Indice 1 Concetti preliminari 1 1.1 Introduzione......................................

Dettagli

Cap. 4 Ricostruzione delle tracce con reti neurali

Cap. 4 Ricostruzione delle tracce con reti neurali Cap. 4 Ricostruzione delle tracce con reti neurali 4.1 Introduzione alle Reti Neurali 4.1.1 Neuroni Le reti neurali si ispirano al funzionamento dei neuroni biologici, le cellule alla base dell'elaborazione

Dettagli

Metodi incrementali. ² Backpropagation on-line. ² Lagrangiani aumentati

Metodi incrementali. ² Backpropagation on-line. ² Lagrangiani aumentati Metodi incrementali ² Backpropagation on-line ² Lagrangiani aumentati 1 Backpropagation on-line Consideriamo un problema di addestramento di una rete neurale formulato come problema di ottimizzazione del

Dettagli

Generazione del campione secondo un predefinito meccanismo generatore dei dati (DGP) Stima dei parametri del modello

Generazione del campione secondo un predefinito meccanismo generatore dei dati (DGP) Stima dei parametri del modello 1. Simulazioni numeriche Generazione del campione secondo un predefinito meccanismo generatore dei dati (DGP) Stima dei parametri del modello Stima delle performance del modello (capacità predittiva, adattamento

Dettagli

STRUMENTO DI SUPPORTO PER L ANALISI DEL RISCHIO-RAPINA

STRUMENTO DI SUPPORTO PER L ANALISI DEL RISCHIO-RAPINA Convegno ABI BANCHE E SICUREZZA 2007 STRUMENTO DI SUPPORTO PER L ANALISI DEL RISCHIO-RAPINA Fabrizio Capobianco Responsabile Ufficio Gestione Sicurezza - SGS Gruppo Banco Popolare di Verona e Novara Caratteristiche

Dettagli

Altri metodi di indicizzazione

Altri metodi di indicizzazione Organizzazione a indici su più livelli Altri metodi di indicizzazione Al crescere della dimensione del file l organizzazione sequenziale a indice diventa inefficiente: in lettura a causa del crescere del

Dettagli

CIRCUITI INTELLIGENTI Parte 5: PCA e ICA

CIRCUITI INTELLIGENTI Parte 5: PCA e ICA Ing. Simone SCARDAPANE Circuiti e Algoritmi per l Elaborazione dei Segnali Anno Accademico 2012/2013 Indice della Lezione 1. Analisi delle Componenti Principali 2. Auto-Associatori 3. Analisi delle Componenti

Dettagli

Tecniche di Simulazione: Introduzione. N. Del Buono:

Tecniche di Simulazione: Introduzione. N. Del Buono: Tecniche di Simulazione: Introduzione N. Del Buono: 2 Che cosa è la simulazione La SIMULAZIONE dovrebbe essere considerata una forma di COGNIZIONE (COGNIZIONE qualunque azione o processo per acquisire

Dettagli

Riconoscimento di cifre manoscritte tramite una rete neurale

Riconoscimento di cifre manoscritte tramite una rete neurale Riconoscimento di cifre manoscritte tramite una rete neurale 3 luglio 2008 Argomenti discussi 1 Il problema 2 Il training set Codifica dei file 3 Soluzione implementata Soluzione ideale Soluzione implementata

Dettagli

Tecniche di riconoscimento statistico

Tecniche di riconoscimento statistico Tecniche di riconoscimento statistico Applicazioni alla lettura automatica di testi (OCR) Parte 8 Support Vector Machines Ennio Ottaviani On AIR srl ennio.ottaviani@onairweb.com http://www.onairweb.com/corsopr

Dettagli

Reti Neurali

Reti Neurali Reti Neurali In una piccola ditta di assemblaggio di circuiti integrati è appena arrivata una partita di chip logici con due piedini di input e uno di output, di cui purtroppo s è persa la bolla di accompagnamento:

Dettagli

Computazione per l interazione naturale: macchine che apprendono

Computazione per l interazione naturale: macchine che apprendono Computazione per l interazione naturale: macchine che apprendono Corso di Interazione Naturale! Prof. Giuseppe Boccignone! Dipartimento di Informatica Università di Milano! boccignone@di.unimi.it boccignone.di.unimi.it/in_2015.html

Dettagli

Statistical learning Strumenti quantitativi per la gestione

Statistical learning Strumenti quantitativi per la gestione Statistical learning Strumenti quantitativi per la gestione Emanuele Taufer Vendite Simbologia Reddito Statistical learning A cosa ci serve f? 1 Previsione 2 Inferenza Previsione Errore riducibile e errore

Dettagli

Introduzione al Pattern Recognition Statistico

Introduzione al Pattern Recognition Statistico Introduzione al Pattern Recognition Statistico Roberto Tagliaferri Dipartimento di Informatica Università di Salerno ( Sa ) 84084 Fisciano e-mail robtag@unisa.it Statistical Pattern Recognition Introduzione

Dettagli

PDF created with pdffactory trial version www.pdffactory.com. Il processo di KDD

PDF created with pdffactory trial version www.pdffactory.com. Il processo di KDD Il processo di KDD Introduzione Crescita notevole degli strumenti e delle tecniche per generare e raccogliere dati (introduzione codici a barre, transazioni economiche tramite carta di credito, dati da

Dettagli

Riconoscimento e recupero dell informazione per bioinformatica

Riconoscimento e recupero dell informazione per bioinformatica Riconoscimento e recupero dell informazione per bioinformatica Reti Neurali Manuele Bicego Corso di Laurea in Bioinformatica Dipartimento di Informatica - Università di Verona Sommario Introduzione: approcci

Dettagli

Ottimizzazione non Vincolata

Ottimizzazione non Vincolata Dipartimento di Informatica e Sitemistica Università di Roma Corso Dottorato Ingegneria dei Sistemi 15/02/2010, Roma Outline Ottimizzazione Non Vincolata Introduzione Ottimizzazione Non Vincolata Algoritmi

Dettagli

Data mining e rischi aziendali

Data mining e rischi aziendali Data mining e rischi aziendali Antonella Ferrari La piramide delle componenti di un ambiente di Bi Decision maker La decisione migliore Decisioni Ottimizzazione Scelta tra alternative Modelli di apprendimento

Dettagli

Machine Learning -1. Seminari di Sistemi Informatici. F.Sciarrone-Università Roma Tre

Machine Learning -1. Seminari di Sistemi Informatici. F.Sciarrone-Università Roma Tre Machine Learning -1 Seminari di Sistemi Informatici Sommario Problemi di apprendimento Well-Posed Esempi di problemi well-posed Progettazione di un sistema di apprendimento Scelta della Training Experience

Dettagli

Esercizi per il corso di Algoritmi e Strutture Dati

Esercizi per il corso di Algoritmi e Strutture Dati 1 Esercizi per il corso di Algoritmi e Strutture Dati Esercizi sulla Tecnica Divide et Impera N.B. Tutti gli algoritmi vanno scritti in pseudocodice (non in Java, né in C++, etc. ). Di tutti gli algoritmi

Dettagli

10 - Programmare con gli Array

10 - Programmare con gli Array 10 - Programmare con gli Array Programmazione e analisi di dati Modulo A: Programmazione in Java Paolo Milazzo Dipartimento di Informatica, Università di Pisa http://www.di.unipi.it/ milazzo milazzo di.unipi.it

Dettagli

Analisi della performance temporale della rete

Analisi della performance temporale della rete Analisi della performance temporale della rete In questo documento viene analizzato l andamento nel tempo della performance della rete di promotori. Alcune indicazioni per la lettura di questo documento:

Dettagli

Algoritmi euristici per il caricamento e l instradamento di una flotta di bisarche

Algoritmi euristici per il caricamento e l instradamento di una flotta di bisarche Università degli Studi di Modena e Reggio Emilia Ingegneria di Reggio Emilia Estratto della Tesi di Laurea di Simone Falavigna Algoritmi euristici per il caricamento e l instradamento di una flotta di

Dettagli

Manuale d'uso di FPM c. Poderico Luigi

Manuale d'uso di FPM c. Poderico Luigi Manuale d'uso di FPM c Poderico Luigi Introduzione Il presente documento fa parte della documentazione relativa al programma FPM c, nato dalla traduzione in c-ansi di un programma scritto in Fortran presso

Dettagli

Introduzione al MATLAB c Parte 2

Introduzione al MATLAB c Parte 2 Introduzione al MATLAB c Parte 2 Lucia Gastaldi Dipartimento di Matematica, http://dm.ing.unibs.it/gastaldi/ 18 gennaio 2008 Outline 1 M-file di tipo Script e Function Script Function 2 Costrutti di programmazione

Dettagli

Fogli Elettronici: MS Excel

Fogli Elettronici: MS Excel Fogli Elettronici: MS Excel Informatica - A.A. 2010/2011 - Excel 7.0 Foglio Elettronico Un foglio elettronico (o spreadsheet) è un software applicativo nato dall esigenza di: organizzare insiemi di dati

Dettagli

IBM SPSS Neural Networks 20

IBM SPSS Neural Networks 20 IBM SPSS Neural Networks 20 Nota: Prima di utilizzare queste informazioni e il relativo prodotto, leggere le informazioni generali disponibili in Note legali a pag. 99. Questa versione si applica a IBM

Dettagli

Mining Positive and Negative Association Rules:

Mining Positive and Negative Association Rules: Mining Positive and Negative Association Rules: An Approach for Confined Rules Alessandro Boca Alessandro Cislaghi Premesse Le regole di associazione positive considerano solo gli item coinvolti in una

Dettagli

Corso di Laurea in Matematica, Università di Roma La Sapienza Corso di ANALISI NUMERICA Esercitazioni in Laboratorio, 16 Maggio 2011

Corso di Laurea in Matematica, Università di Roma La Sapienza Corso di ANALISI NUMERICA Esercitazioni in Laboratorio, 16 Maggio 2011 Corso di Laurea in Matematica, Università di Roma La Sapienza Corso di ANALISI NUMERICA Esercitazioni in Laboratorio, 16 Maggio 2011 Foglio 4: Metodi diretti per i sistemi lineari Scrivere un programma

Dettagli

Algoritmi di scheduling

Algoritmi di scheduling Capitolo 3 Algoritmi di scheduling Come caso particolare di studio, di seguito è discussa in dettaglio la politica di scheduling del sistema operativo LINUX (kernel precedente alla versione 2.6). Sono

Dettagli

Introduzione alla Simulazione Numerica

Introduzione alla Simulazione Numerica Introduzione alla Simulazione Numerica Daniele Vigo D.E.I.S. - Università di Bologna dvigo@deis.unibo.it rev. 1.0 - Novembre 2001 Simulazione numerica Tecnica che permette di eseguire esperimenti su un

Dettagli

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità

Intelligenza Artificiale. Soft Computing: Reti Neurali Generalità Intelligenza Artificiale Soft Computing: Reti Neurali Generalità Neurone Artificiale Costituito da due stadi in cascata: sommatore lineare (produce il cosiddetto net input) net = S j w j i j w j è il peso

Dettagli

Pro e contro delle RNA

Pro e contro delle RNA Pro e contro delle RNA Pro: - flessibilità: le RNA sono approssimatori universali; - aggiornabilità sequenziale: la stima dei pesi della rete può essere aggiornata man mano che arriva nuova informazione;

Dettagli

Previsione BT dei prezzi MGP nazionale e zonali: Il progetto PriceCast in collaborazione con l Università di Verona

Previsione BT dei prezzi MGP nazionale e zonali: Il progetto PriceCast in collaborazione con l Università di Verona Previsione BT dei prezzi MGP nazionale e zonali: Il progetto PriceCast in collaborazione con l Università di Verona Fany Nan ifs Italia Università di Verona Mercati energetici e metodi quantitativi: un

Dettagli

DIABETES. Tesina sull'apprendimento - Intelligenza Artificiale Cosimo Cecchi, Tommaso Visconti

DIABETES. Tesina sull'apprendimento - Intelligenza Artificiale Cosimo Cecchi, Tommaso Visconti DIABETES Tesina sull'apprimento - Intelligenza Artificiale Cosimo Cecchi, Tommaso Visconti Indice Cap. 1 - Descrizione del problema... pag. 3 Cap. 2 - Preprocessing dei dati... pag. 4 Cap. 3 - Suddivisione

Dettagli

Rendering air show e verifica della sincronizzazione

Rendering air show e verifica della sincronizzazione Capitolo 5 Rendering air show e verifica della sincronizzazione 5.1 Introduzione Il Rendering 3D dell evoluzioni acrobatiche costituisce uno degli aspetti cruciali dell applicazione realizzata. L ambiente

Dettagli

MODELLO CLIENT/SERVER. Gianluca Daino Dipartimento di Ingegneria dell Informazione Università degli Studi di Siena daino@unisi.it

MODELLO CLIENT/SERVER. Gianluca Daino Dipartimento di Ingegneria dell Informazione Università degli Studi di Siena daino@unisi.it MODELLO CLIENT/SERVER Gianluca Daino Dipartimento di Ingegneria dell Informazione Università degli Studi di Siena daino@unisi.it POSSIBILI STRUTTURE DEL SISTEMA INFORMATIVO La struttura di un sistema informativo

Dettagli

Procedure di calcolo implicite ed esplicite

Procedure di calcolo implicite ed esplicite Procedure di calcolo implicite ed esplicite Il problema della modellazione dell impatto tra corpi solidi a medie e alte velocità. La simulazione dell impatto tra corpi solidi in caso di urti a media velocità,

Dettagli

Tecniche avanzate di sintesi di algoritmi: Programmazione dinamica Algoritmi greedy

Tecniche avanzate di sintesi di algoritmi: Programmazione dinamica Algoritmi greedy Tecniche avanzate di sintesi di algoritmi: Programmazione dinamica Algoritmi greedy Dr Maria Federico Programmazione dinamica Solitamente usata per risolvere problemi di ottimizzazione il problema ammette

Dettagli

VARIABILI LOCALI E GLOBALI (ESTERNE)

VARIABILI LOCALI E GLOBALI (ESTERNE) VARIABILI LOCALI E GLOBALI (ESTERNE) Le variabili locali sono definite (ed il loro uso dichiarato) nella funzione (o nel blocco) che le usa; nascono quando la funzione entra in esecuzione e muoiono al

Dettagli

Design of Experiments

Design of Experiments Design of Experiments Luigi Amedeo Bianchi 1 Introduzione Cominciamo spiegando cosa intendiamo con esperimento, ossia l investigare un processo cambiando i dati in ingresso, osservando i cambiamenti che

Dettagli

Dispense del corso di Introduzione all Informatica della Facoltà Di Scienze Matematiche, Fisiche e Naturali dell Università della Calabria

Dispense del corso di Introduzione all Informatica della Facoltà Di Scienze Matematiche, Fisiche e Naturali dell Università della Calabria Introduzione all Informatica 1 Dispense del corso di Introduzione all Informatica della Facoltà Di Scienze Matematiche, Fisiche e Naturali dell Università della Calabria Programma del corso Programma di

Dettagli

Sistemi Operativi. Interfaccia del File System FILE SYSTEM : INTERFACCIA. Concetto di File. Metodi di Accesso. Struttura delle Directory

Sistemi Operativi. Interfaccia del File System FILE SYSTEM : INTERFACCIA. Concetto di File. Metodi di Accesso. Struttura delle Directory FILE SYSTEM : INTERFACCIA 8.1 Interfaccia del File System Concetto di File Metodi di Accesso Struttura delle Directory Montaggio del File System Condivisione di File Protezione 8.2 Concetto di File File

Dettagli

Orange Discrimination Automatic System

Orange Discrimination Automatic System Università degli studi di Catania Facoltà di Ingegneria Informatica Orange Discrimination Automatic System Mazza Dario Merlino Sebastiano Monaco Davide Giuseppe Priscimone Eugenio Giuseppe INDEX 1. Introduzione

Dettagli

Analisi non lineari statiche e dinamiche valutate con il software: ETABS

Analisi non lineari statiche e dinamiche valutate con il software: ETABS Dipartimento di Ingegneria CORSO DI LAUREA IN INGENGNERIA CIVILE PER LA PROTEZIONE DAI RISCHI NATURALI Relazione di fine tirocinio Analisi non lineari statiche e dinamiche valutate con il software: ETABS

Dettagli

Reti Neurali. F. Sciarrone Dicembre2005. Seminari di Sistemi Informatici

Reti Neurali. F. Sciarrone Dicembre2005. Seminari di Sistemi Informatici Reti Neurali F. Sciarrone Dicembre2005 Seminari di Sistemi Informatici Schema presentazione Obiettivi generali Reti neurali NeuroSolutions (software per la costruzione di reti neurali) Applicazioni Università

Dettagli

Laboratorio Complementi di Ricerca Operativa DEI, Politecnico di Milano. Stima di parametri

Laboratorio Complementi di Ricerca Operativa DEI, Politecnico di Milano. Stima di parametri Stima di parametri Il gestore di un sito turistico dove si pratica il bungee-jumping deve fornire alla sovrintendenza municipale un documento che riguarda la sicurezza del servizio fornito. Il documento

Dettagli

1. Spiegare le differenze fra le seguenti modalità di binding degli indirizzi:

1. Spiegare le differenze fra le seguenti modalità di binding degli indirizzi: 1. Spiegare le differenze fra le seguenti modalità di binding degli indirizzi: compile time, load time, execution time. Quale delle modalità precedenti necessita di un supporto hardware per poter essere

Dettagli

Tema di Progetto n 1

Tema di Progetto n 1 Ingegneria e Tecnologie dei Sistemi di Controllo L-A Tema di Progetto n 1 Si progetti in ambiente CoDeSys il controllo di sequenze di un sistema costituito da un ascensore. Si utilizzi il file AscensoreSingolo.pro

Dettagli

Misure della dispersione o della variabilità

Misure della dispersione o della variabilità QUARTA UNITA Misure della dispersione o della variabilità Abbiamo visto che un punteggio di per sé non ha alcun significato e lo acquista solo quando è posto a confronto con altri punteggi o con una statistica.

Dettagli

3 - Variabili. Programmazione e analisi di dati Modulo A: Programmazione in Java. Paolo Milazzo

3 - Variabili. Programmazione e analisi di dati Modulo A: Programmazione in Java. Paolo Milazzo 3 - Variabili Programmazione e analisi di dati Modulo A: Programmazione in Java Paolo Milazzo Dipartimento di Informatica, Università di Pisa http://www.di.unipi.it/ milazzo milazzo di.unipi.it Corso di

Dettagli

Data Mining. Gabriella Trucco gabriella.trucco@unimi.it

Data Mining. Gabriella Trucco gabriella.trucco@unimi.it Data Mining Gabriella Trucco gabriella.trucco@unimi.it Perché fare data mining La quantità dei dati memorizzata su supporti informatici è in continuo aumento Pagine Web, sistemi di e-commerce Dati relativi

Dettagli

STIMA DEL COEFFICIENTE DI RIFLESSIONE ONDOSA MEDIANTE MODELLAZIONE ALLE RETI NEURALI

STIMA DEL COEFFICIENTE DI RIFLESSIONE ONDOSA MEDIANTE MODELLAZIONE ALLE RETI NEURALI XXXIII Convegno Nazionale di Idraulica e Costruzioni Idrauliche Brescia, 10-15 settembre 2012 STIMA DEL COEFFICIENTE DI RIFLESSIONE ONDOSA MEDIANTE MODELLAZIONE ALLE RETI NEURALI S. M. Formentin 1, B.

Dettagli

Metodi di ottimizzazione per le reti neurali

Metodi di ottimizzazione per le reti neurali Metodi di ottimizzazione per le reti neurali L. Grippo DIS, Università di Roma La Sapienza M. Sciandrone IASI, Consiglio Nazionale delle Ricerche, Roma Generalità sulle reti neurali Addestramento di reti

Dettagli

Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A. 2013-14. Pietro Frasca.

Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A. 2013-14. Pietro Frasca. Università di Roma Tor Vergata Corso di Laurea triennale in Informatica Sistemi operativi e reti A.A. 2013-14 Pietro Frasca Lezione 3 Martedì 15-10-2013 1 Struttura ed organizzazione software dei sistemi

Dettagli

Sommario della lezione

Sommario della lezione Universitá degli Studi di Salerno Corso di Algoritmi Prof. Ugo Vaccaro Anno Acc. 2014/15 p. 1/36 Sommario della lezione Ulteriori esempi di applicazione della Programmazione Dinamica Esempio di applicazione

Dettagli

02 L Informatica oggi. Dott.ssa Ramona Congiu

02 L Informatica oggi. Dott.ssa Ramona Congiu 02 L Informatica oggi Dott.ssa Ramona Congiu 1 Introduzione all Informatica Dott.ssa Ramona Congiu 2 Che cos è l Informatica? Con il termine Informatica si indica l insieme dei processi e delle tecnologie

Dettagli

RAPPRESENTAZIONE DEI NUMERI BINARI. Corso di Fondamenti di Informatica AA 2010-2011

RAPPRESENTAZIONE DEI NUMERI BINARI. Corso di Fondamenti di Informatica AA 2010-2011 RAPPRESENTAZIONE DEI NUMERI BINARI Corso di Fondamenti di Informatica AA 2010-2011 Prof. Franco Zambonelli Numeri interi positivi Numeri interi senza segno Caratteristiche generali numeri naturali (1,2,3,...)

Dettagli

CORSO ACCESS PARTE II. Esistono diversi tipi di aiuto forniti con Access, generalmente accessibili tramite la barra dei menu (?)

CORSO ACCESS PARTE II. Esistono diversi tipi di aiuto forniti con Access, generalmente accessibili tramite la barra dei menu (?) Ambiente Access La Guida di Access Esistono diversi tipi di aiuto forniti con Access, generalmente accessibili tramite la barra dei menu (?) Guida in linea Guida rapida Assistente di Office indicazioni

Dettagli

Il PageRank è obsoleto? Via libera al TrustRank

Il PageRank è obsoleto? Via libera al TrustRank Il PageRank è obsoleto? Via libera al TrustRank Prefazione: Questo documento si basa sull originale Combating web spam with TrustRank firmato da alcuni ricercatori del dipartimento di Computer Science

Dettagli

Data Mining in SAP. Alessandro Ciaramella

Data Mining in SAP. Alessandro Ciaramella UNIVERSITÀ DI PISA Corsi di Laurea Specialistica in Ingegneria Informatica per la Gestione d Azienda e Ingegneria Informatica Data Mining in SAP A cura di: Alessandro Ciaramella La Business Intelligence

Dettagli

Sistemi Operativi GESTIONE DELLA MEMORIA SECONDARIA. D. Talia - UNICAL. Sistemi Operativi 11.1

Sistemi Operativi GESTIONE DELLA MEMORIA SECONDARIA. D. Talia - UNICAL. Sistemi Operativi 11.1 GESTIONE DELLA MEMORIA SECONDARIA 11.1 Memoria Secondaria Struttura del disco Scheduling del disco Gestione del disco Gestione dello spazio di swap Struttura RAID Affidabilità Implementazione della memoria

Dettagli

Sistemi Operativi. Memoria Secondaria GESTIONE DELLA MEMORIA SECONDARIA. Struttura del disco. Scheduling del disco. Gestione del disco

Sistemi Operativi. Memoria Secondaria GESTIONE DELLA MEMORIA SECONDARIA. Struttura del disco. Scheduling del disco. Gestione del disco GESTIONE DELLA MEMORIA SECONDARIA 11.1 Memoria Secondaria Struttura del disco Scheduling del disco Gestione del disco Gestione dello spazio di swap Struttura RAID Affidabilità Implementazione della memoria

Dettagli

Corso di Matematica per la Chimica

Corso di Matematica per la Chimica Dott.ssa Maria Carmela De Bonis a.a. 203-4 I sistemi lineari Generalità sui sistemi lineari Molti problemi dell ingegneria, della fisica, della chimica, dell informatica e dell economia, si modellizzano

Dettagli

Rete di Hopfield applicata al problema del TSP

Rete di Hopfield applicata al problema del TSP Rete di Hopfield applicata al problema del TSP 1. Introduzione Nel 1982, il fisico John J. Hopfield pubblicò un articolo fondamentale in cui presentò un modello matematico comunemente noto come rete di

Dettagli

Struttura logica di un programma

Struttura logica di un programma Struttura logica di un programma Tutti i programmi per computer prevedono tre operazioni principali: l input di dati (cioè l inserimento delle informazioni da elaborare) il calcolo dei risultati cercati

Dettagli