editoriale 1 RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "editoriale 1 RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009"

Transcript

1 Imp. fasc qxd:Layout :36 Pagina 1 editoriale L inverno è passato lasciando alla primavera il compito di ricordarci che lei è stagione di transizione e quindi ha il diritto di mostrarsi con le caratteristiche sia dell inverno sia dell estate e questo sta facendo. Nella sempre più esasperata visione mediatica della Meteorologia, questo fatto diviene motivo di occasione per gridare all eccezionalità del Tempo sino a giungere al catastrofismo climatico. In queste pagine di riflessione non smetteremo anche questa volta di scrivere che la variabilità del Clima è nella natura delle cose da sempre, con rapidità variabile dai pochi anni ai secoli. Oggi stiamo sperimentando una sua mutazione particolarmente rapida. La causa di questa accelerazione è in una qualche misura dovuta alle nostre attività. L eventuale cessazione delle azioni umane non determinerebbe comunque uno stop al cambiamento climatico, anche perché il Clima non è una costante astronomica ma il frutto dell interazione tra tutte le componenti della Terra mobile nello spazio siderale. I lettori ci perdoneranno se apriamo l anno con alcuni articoli particolarmente impegnativi concettualmente e formalmente. Se pensavamo di esserci in qualche modo semplificata la vita con una visione idilliaca del Tempo e del Clima questi saggi ci riconducono alla complessa realtà dei fenomeni atmosferici che sono i nostri problemi istituzionali. Il primo lavoro di grande portata innovativa presenta i risultati iniziali di un nuovo metodo di approccio alle analisi dello stato dell atmosfera ai fini delle previsioni numeriche. L analisi dello stato del Tempo, di ciò che è appena accaduto, è condizione necessaria per ogni previsione meteorologica scientifica. Il Servizio Meteorologico dell Aeronautica è l unica istituzione in Italia ad avere una propria analisi numerica del Tempo. Da ciò ne discende anche la miglior qualità delle previsioni sull area mediterranea che vengono realizzate dal nostro Servizio. Il saggio successivo è di un ricercatore italiano che lavora presso il prestigioso Centro di ricerche atmosferiche di Boulder (USA) e tratta i risultati di uno studio fatto per individuare la posizione di una sorgente inquinante partendo dalle misure di radioattività raccolte a migliaia di chilometri dal punto di rilascio delle sostanze. Nell articolo successivo viene descritto un fenomeno atmosferico di dimensioni limitate che accade quasi esclusivamente in Antartide. Un fronte freddo generato dalla rapida discesa di masse d aria freddissima dall altopiano antartico verso il mar glaciale. L autore ne ha avuto esperienza diretta durante la campagna antartica cui ha partecipato. Il saggio a seguire ha un duplice interesse scientifico e tecnico e tratta del legame tra due misure distinte relative alla radiazione solare. Per il sempre maggior interesse che si ha per la stima della radiazione solare, quale fonte inesauribile di energia, è importante conoscere la quantità che ne giunge al suolo e la sua distribuzione nel tempo del giorno e dell anno. Gli strumenti per ottenere queste misure sono molteplici e si basano su principi diversi e quindi è necessario conoscere il legame esistente tra le diverse misurazioni dello stesso fenomeno. Infine, per dare un po di riposo ai lettori, seguono tre articoli meno impegnativi ma egualmente suggestivi. Il direttore col. Costante De Simone 1 RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009

2 Imp. fasc qxd:Layout :36 Pagina 2 AERONAUTICA ANNO 69 N 1 GENNAIO - MARZO 2009 Organo del Servizio Meteorologico dell Aeronautica Sommario Anno 69 gennaio - marzo 2009 Irlanda, Magheraroarly (contea di Donegal) 27/08/2008 (foto Alessandro Emiliani) Editoriale Costante De Simone 1 4 Il filtro di Kalman stocastico e la sua applicazione nel sistema di analisi e previsione numerica del CNMCA Massimo Bonavita, Lucio Torrisi, Francesca Marcucci 4 Inferenza Bayesiana e campionamento Markov Chain Monte Carlo per la ricostruzione di una sorgente atmosferica su scala continentale Luca Delle Monache Interazione di un mesociclone con un mesoscale boundary layer cold front sul Mare di Ross in Antartide Roberto Bove La radiazione solare e la durata del soleggiamento: un caso di studio a Vigna di Valle Stefania Vergari 33 L eclissi di Sole del 22 luglio 2009 Marco Meniero RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009 2

3 Imp. fasc qxd:Layout :36 Pagina 3 Notiziario: L osservatorio meteorologico di Monte Sant Angelo Giovanni Di Gennaro 44 Stranezze meteorologiche Franco Colombo Sommario climatologico italiano del trimestre gennaio-marzo 2009 Tiziano Colombo, Teodoro La Rocca, Fabrizio Ciciulla, Silvia Ughetto, Filippo Maimone, Nicola Bitetto, Emanuele Regoli, Francesco Volpe gennaio 50 febbraio marzo 69 EDITORE MINISTERO della DIFESA AERONAUTICA MILITARE STATO MAGGIORE AERONAUTICA UFFICIO GENERALE SPAZIO AEREO E METEOROLOGIA Legale rappresentante: brig. gen. Massimo Capaldo Le opinioni espresse negli articoli della Rivista di Meteorologia Aeronautica sono degli Autori e non riflettono necessariamente lo spirito del Servizio Meteorologico. La riproduzione degli articoli è consentita citando la fonte e inviando copia alla direzione della Rivista. La collaborazione alla Rivista è aperta a tutti gli studiosi. Periodico trimestrale fondato nel 1937 Anno 69 gennaio-marzo 2009 Fascicolo n. 1 Registrazione n. 191/1984 Tribunale di Roma-Sez. Stampa Direttore responsabile: col. Costante De Simone Redazione: t.col. Gaetano Cosimo Cacciola, Italo Piattelli, Marina Bonanni Comitato scientifico Alfio Giuffrida, Paolo Pagano, Sergio Pasquini, Corrado Tedeschi, Paolo Malco, Tiziano Colombo, Girolamo Sansosti, Luigi De Leonibus, Massimo Ferri Consulenti di redazione Adriano Raspanti, Roberto Tajani, Alessandro Galliani Impaginazione: Italo Piattelli Direzione e produzione Rivista di Meteorologia Aeronautica Viale dell Università, Roma Italia tel.: fax.: sito web: - rivista@meteoam.it La Rivista di Meteorologia è ceduta esclusivamente per abbonamento postale. L abbonamento dà diritto a ricevere quattro fascicoli della pubblicazione. Le quote per il 2009 sono: Abbonamento annuale Italia: 20,00 - Estero: 30,00 Fascicoli arretrati Italia: 5,00 - Estero: 7,50 L abbonamento può essere acceso mediante versamento sul c/c postale intestato a: COMAER - Quartier Generale - Servizio Amministrativo - Rivista di Meteorologia Viale dell Università, Roma. In alternativa, tramite bonifico bancario sul seguente conto corrente Coordinate Bancarie Internazionali (IBAN) Coordinate Bancarie Nazionali (BBAN) Paese IT Check 04 CIN D ABI CAB Codice BIC: BPPIITRRXXX L abbonamento decorre dal primo numero utile successivo alla data del versamento. Per accelerare le pratiche di accensione dell abbonamento si prega di inviare via fax al copia della ricevuta del c/c postale. Stampa e fotocomposizione: STILGRAFICA s.r.l. Via Ignazio Pettinengo, 31/ Roma - Italia Tel.: Fax.: N. CONTO RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009

4 Imp. fasc qxd:Layout :36 Pagina 4 Lavoro pervenuto in redazione il 03/02/2009 Il filtro di Kalman stocastico e la sua applicazione nel sistema di analisi e previsione numerica del CNMCA magg. Massimo Bonavita*, magg. Lucio Torrisi*, ten. Francesca Marcucci* Sommario - Con il nome di filtro di Kalman stocastico (EnKF, Ensemble Kalman Filter) si intende una classe di algoritmi che negli ultimi anni hanno ricevuto una crescente attenzione quali possibili candidati alla sostituzione della generazione corrente di sistemi variazionali di assimilazione dati in ambito meteorologico e oceanografico. L EnKF è stato sperimentato con una serie di modelli di vario realismo e complessità. Nel presente lavoro una particolare versione di EnKF (nota come LETKF, Local Ensemble Transform Kalman Filter) è stata implementata nell ambito del sistema Summary - Stochastic Filters like the Ensemble Kalman Filter (EnKF) are a class of state estimation algorithms which have received increasing attention in the meteorological and oceanographic communities as viable candidates for the next generation of DAS (Data Assimilation Systems). The EnKF has already been applied to a wide variety of realistic atmospheric and oceanographic models with competitive results with respect to current operational systems. One particular version of EnKF, the Local Ensemble Transform Kalman Filter (LETKF, Hunt et al., 2007), has been implemented in the CNMCA RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009 4

5 Imp. fasc qxd:Layout :36 Pagina 5 operativo di previsione numerica del CNMCA e il suo comportamento è stato valutato in relazione a quello del corrente sistema di assimilazione dati del CNMCA (3DVar). Una delle questioni ancora aperte nelle applicazioni operative dell EnKF consiste nella tendenza del filtro a generare ensemble di previsioni con un insufficiente varianza. Per affrontare questo problema sono stati proposti alcuni metodi per accrescere la dispersione dell ensemble previsto o analizzato. La loro implementazione richiede tuttavia una laboriosa opera di adattamento manuale dei parametri del sistema. Applicando alcuni recenti sviluppi di Teoria lineare della Stima, è stato implementato e verificato il comportamento di una procedura adattativa e completamente automatica per diagnosticare contemporaneamente i parametri del filtro LETKF e gli errori attesi delle osservazioni usate. I risultati ottenuti (Bonavita et al., 2008) dimostrano che questa tecnica ha successo nella configurazione operativa provata ed è capace di produrre analisi dei campi meteorologici, di qualità superiore a quelli correntemente ottenuti tramite tecniche variazionali. numerical weather prediction suite and its results have been evaluated in relation to the current operational variational DAS. One the main obstacles towards the operational use of EnKF the tendency of the Filter to produce in a cycled DAS environment set of ensembles with too small variance. In this way the Filter becomes progressively decoupled from the true state of the atmosphere, a phenomenon known as filter divergence. To tackle this problem we have tried an adaptive technique first proposed by Li et al., Results show that this approach is reasonably effective to prevent filter divergence and the ensuing analysed fields are of superior quality with respect to the operational ones from the CNMCA 3D- VAR. Introduzione Dalla sua introduzione (Evensen, 1994), il filtro di Kalman stocastico è stato visto come un promettente sistema di assimilazione dati per le applicazioni di tipo meteorologico e oceanografico. I motivi di questa favorevole accoglienza sono molteplici: relativa semplicità di implementazione, capacità di simulare la natura dinamica degli errori di previsione, possibilità di superare le limitazioni legate alle linearizzazioni necessarie negli algoritmi di analisi variazionale di uso corrente. L EnKF è stato sperimentato su modelli a scale spaziotemporali molto diverse, da quelle convettive (Zhang et al., 2004) a quelle a mesoscala (Zhang et al, 2006; Meng and Zhang, 2007), alle scale regionali e globali (Dirren et al., 2007; Whitaker et al., 2007). Una variante di grande efficienza computazionale dell EnKF, nota come LETKF (Local Ensemble Transform Kalman Filter), è stata più di recente proposta e verificata su sistemi di previsione numerica a scala globale (Hunt et al., 2007; Szunyogh et al, 2007; Miyoshi and Yamane, 2007), con risultati competitivi rispetto alle correnti tecniche di analisi variazionale. Due ingredienti fondamentali degli algoritmi di analisi oggettiva sono le stime degli errori del campo previsto (background forecast error) e delle osservazioni usate (Daley, 1992). In un filtro di Kalman stocastico con un numero di membri adeguato (i.e., dell ordine dei gradi di libertà del sistema che si vuole simulare) e una corretta rappresentazione degli effetti dell errore del modello, la varianza dell ensemble previsto può essere considerata una stima accurata dell errore del campo previsto. Nella realtà, le dimensioni tipiche di un ensemble che sia gestibile da un punto di vista operativo sono molto inferiori (nell ordine di elementi); la parametrizzazione dell errore del modello è ancora un problema sostanzialmente aperto e ci sono incertezze anche sugli errori da attribuire a priori alle osservazioni. Per questa serie di motivi, gli esperimenti di assimilazione dati tramite EnKF condotti in condizioni di modello perfetto ( perfect model experiments, nei quali si assume che la verità sia costituita da una lunga integrazione del modello prognostico) hanno portato a risultati migliori di quelli ottenuti in esperimenti condotti in situazioni realistiche. I limiti oggettivi nelle dimensioni degli ensemble utilizzabili e le deficienze nella rappresentazione degli errori del modello hanno come conseguenza generale quella di condurre a una progressiva perdita di varianza dell ensemble stesso e in ultima analisi a far sì che il filtro di Kalman stocastico ignori le nuove osservazioni e si disancori dalla realtà. Varie soluzioni di tipo euristico sono state proposte per contrastare questi sintomi (cfr. Hunt et al., 2007). Nel presente lavoro l approccio noto come inflazione moltiplicativa (Anderson and Anderson, 1999; Hamill et al., 2001), in cui un fattore moltiplicativo dipende dallo spazio e dal tempo, viene applicato alla matrice di covarianza dell errore (previsto o analizzato) dell ensemble. La stima di questi fattori e degli errori delle osservazioni a questi associati è però un compito estremamente gravoso in termini di risorse umane e di calcolo, e mal si adatta a delle applicazioni di tipo operativo. Da un punto di vista fondamentale, inoltre, la copertura spaziale e temporale delle osservazioni è variabile, il che comporta che i valori ottimi di questi parametri devono essere aggiustati in modo adattativo se si vuole che l ensemble risultante mantenga 5 RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009

6 Imp. fasc qxd:Layout :36 Pagina 6 caratteristiche di varianza realistiche. Dal nostro punto di vista, il problema sopra descritto costituisce una delle principali difficoltà da affrontare prima dell adozione di LETKF (e in generale di qualsiasi altro tipo di filtro di Kalman stocastico) in un ambiente operativo. Affrontare e risolvere questa difficoltà è stata dunque la motivazione principale del presente lavoro che sviluppa idee già presentate nell ambito della teoria lineare di stima dei parametri (Dee, 1995) e successivamente estese da Wang e Bishop, (2003), Miyoshi, (2005) e Li et al., (2007). Nel seguito faremo anche uso delle tecniche diagnostiche introdotte da Desrroziers et al. (2005). Tutti gli esperimenti sono stati condotti in una configurazione quasi operativa di assimilazione dati e previsioni numeriche, in maniera da ottenere dei risultati di immediata rilevanza per le applicazioni nella modellistica ad alta risoluzione del CNMCA. L organizzazione dell articolo è la seguente: il paragrafo 2 descrive la tecnica LETKF e come è stata implementata al CNMCA. Nel paragrafo 3 sono illustrati i risultati ottenuti con valori dei parametri fissati dopo un periodo di ottimizzazione e viene altresì valutata la qualità delle analisi e delle previsioni ottenute dal ciclo LETKF rispetto a quelle ottenute dalla 3DVar operativa del CNMCA. Nel paragrafo 4 viene discusso il comportamento del filtro stocastico allorché i suoi parametri vengono stimati in maniera adattativa. Nel paragrafo 5 si traggono le conclusioni dai risultati del lavoro svolto e si indicano le strade di sviluppo correnti. previsto e il loro valore medio x b ). Le perturbazioni dell ensemble analizzato sono invece fornite da: (2) in cui, a differenza di altre versioni di EnsRF, la radice quadrata ~ ~ simmetrica della matrice P a è usata. La matrice P a rappresenta la matrice di covarianza dell errore dell analisi espressa nella base costituita dalle perturbazioni dell ensemble (Hunt et al. 2007), ed è data da: (3) ~ E importante notare che la matrice P a ha dimensioni K x K, in cui K è la dimensione dell ensemble. Poiché K è solitamente molto più piccolo sia delle dimensioni del vettore di stato del modello sia del numero di osservazioni assimilate, l algoritmo LETKF (come del resto tutti gli algoritmi basati su implementazioni del filtro di Kalman stocastico) risulta di grande efficienza computazionale. Il metodo noto come inflazione moltiplicativa della covarianza (Multiplicative covariance inflation) è stato adottato come semplice sistema euristico per combattere la progressiva perdita di varianza dell ensemble derivante dalla sua insufficiente dimensionalità e dalla natura non lineare del modello numerico di previsione. Il fattore inflattivo della covarianza può essere applicato direttamente nell espressione (3) con la sostituzione: Il filtro stocastico LETKF Il filtro LETKF è una particolare implementazione di una vasta famiglia di filtri di Kalman stocastici noti come filtri a radice quadrata (EnsRF, Ensemble Root Filters, Whitaker and Hamill, 2002). In confronto con altre implementazioni di filtri EnsRF, il LETKF offre degli interessanti vantaggi pratici e computazionali. Lo schema LETKF è intrinsecamente parallelo, relativamente semplice da implementare e con scalabilità computazionale vicina al limite teorico massimo. Inoltre LETKF consente di rappresentare esplicitamente gli errori di osservazioni correlate e di procedere in modo naturale alla estensione del filtro alla dimensione temporale (4D-LETKF, Hunt et al., 2004). LETKF calcola separatamente il valore medio dell analisi e quello delle perturbazioni dell ensemble analizzato. Il valore medio dell analisi è sostanzialmente una combinazione lineare dei membri dell ensemble previsto pesati in maniera proporzionale alla prossimità di questi con le osservazioni disponibili delle variabili atmosferiche: (1) in cui x a, x b sono rispettivamente i valori medi degli ensemble analizzati e previsti, e X b le perturbazioni dei membri dell ensemble previsto rispetto al proprio valore medio x b (ossia, matrici le cui colonne contengono i valori differenza tra i vari membri dell ensemble o tramite moltiplicazione diretta della sua radice quadrata alle perturbazioni analizzate. L implementazione LETKF del CNMCA fa uso di un ensemble di 30 realizzazioni del modello idrostatico HRM (Highresolution Regional Model, Majewski, 2008) che vengono aggiornate ogni sei ore con nuovi dati osservati. Il modello HRM è integrato sul dominio Euro-Atlantico mostrato in fig.1 (EURO-HRM) a circa 28 km di passo di griglia e 40 livelli verticali di tipo sigma. In questo modo 30 stati analizzati del modello EURO-HRM x ai (t) sono integrati nel tempo per le successive sei ore, in modo da fornire 30 stati previsti x bi (t) al tempo t 0 +6h. Questo ensemble di stati previsti ci fornisce dei valori medi e delle covarianze che il filtro di Kalman stocastico LETKF aggiorna secondo le equazioni 1-3. Le variabili di controllo aggiornate nella fase di analisi sono la temperatura, le componenti zonali e meridiane del vento e la pressione superficiale, alla stessa risoluzione del modello prognostico. Le osservazioni di pressione superficiale influenzano l analisi delle altre variabili lungo la colonna atmosferica fino a una distanza verticale determinata dalla seguente condizione: log e (p surf /p i ) 1, mentre le osservazioni di temperatura e vento non influiscono sull analisi della pressione al suolo. Nella implementazione LETKF del CNMCA ciascun punto di griglia RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009 6

7 Imp. fasc qxd:Layout :36 Pagina 7 Figura 1. Dominio di integrazione del modello EURO-HRM. analizzato è influenzato dalle osservazioni presenti in una regione locale di 700 km di raggio. Questo valore è stato desunto dalla letteratura corrente, ma è presumibile che sia di rilevante importanza procedere alla sua ottimizzazione per l applicazione descritta. All interno della regione di influenza, il peso di ciascuna osservazione sull analisi diminuisce con la distanza r dal punto di griglia analizzato, tramite l applicazione di una funzione peso di r all inverso della matrice di covarianza dell errore delle osservazioni R -1 (Szunyiogh et al., 2007). La localizzazione è anche imposta sulla coordinata verticale, limitando la zona di influenza delle osservazioni a strati predefiniti. osservazioni. Negli esperimenti descritti in questo lavoro, solo un sottoinsieme limitato delle osservazioni usate operativamente viene assimilato. Detto sottoinsieme comprende i radiosondaggi e le osservazioni di pressione al suolo da piattaforme terrestri e marine (SYNOP, SHIP, BUOY) disponibili alle ore sinottiche principali. La scelta di fare uso di un numero limitato di osservazioni è stata fatta allo scopo di valutare meglio le caratteristiche dei due tipi di algoritmo di analisi, poiché è evidente che, con una distribuzione densa e omogenea delle osservazioni, tutti i tipi di analisi tendono a convergere sullo stesso stato dell atmosfera. Le condizioni al contorno derivano dalle previsioni deterministiche di ECMWF e sono le stesse per tutti i membri dell ensemble. Questa scelta può ovviamente portare a una mancanza di varianza nell ensemble, specialmente per lunghe integrazioni. Tuttavia, per integrazioni brevi come quelle necessarie all interno di un ciclo di assimilazione dati, questo problema non è stato rilevante. Nel primo ciclo di esperimenti gli errori delle osservazioni usate nell algoritmo LETKF sono stati posti uguali a quelli usati operativamente. I loro valori possono altresì essere diagnosticati facendo uso di una relazione proposta da Desroziers et al. (2005): In questa equazione il vettore delle innovazioni d o-b conserva le differenze tra valori osservati, y 0, e i corrispondenti valori previsti, (4) Esperimenti con parametri fissi Nel primo insieme di esperimenti abbiamo validato il comportamento di LETKF cercando di porci in una situazione quanto più possibile vicina a quella operativa. Per raggiungere questo scopo abbiamo predisposto due cicli di assimilazione dati paralleli. Nel primo il passo di analisi oggettiva è realizzato tramite l algoritmo 3DVar operativo del CNMCA (Bonavita and Torrisi, 2005); nel secondo tramite il filtro LETKF descritto in precedenza. L esperimento di assimilazione dati e previsione è stato condotto su un periodo di 15 giorni consecutivi a partire dall 1 novembre Lo stato iniziale per l esperimento 3DVar è stato ottenuto interpolando l analisi operativa del CNMCA (anch essa di tipo 3DVar, ma a 14 km e con assimilazione diretta delle radianze), mentre lo stato iniziale dell ensemble per LETKF è stato costruito tramite un set di previste del modello EURO-HRM valide in un intervallo di 48 ore intorno all istante iniziale. La differenza fondamentale tra la configurazione sperimentale ora descritta e quella operativa risiede nell uso delle Figura 2. Errore medio ed errore quadratico medio della previsione a t+48h di temperatura del modello EURO-HRM (verifica rispetto alle osservazioni disponibili da radiosondaggio, ciclo 3DVar linea continua blu, ciclo LETKF linea tratteggiata rossa). 7 RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009

8 Imp. fasc qxd:Layout :36 Pagina 8 Figura 3. Errore medio dell intensità del vento ed errore quadratico medio del vettore vento della previsione a t+48h del modello EURO-HRM (verifica rispetto alle osservazioni disponibili da radiosondaggio, ciclo 3DVar linea continua blu, ciclo LETKF linea tratteggiata rossa). Figura 4. Errore medio ed errore quadratico medio della previsione di pressione a MSL del modello EURO-HRM (verifica rispetto alle osservazioni di pressione al suolo, ciclo 3DVar linea continua blu, ciclo LETKF linea tratteggiata rossa). h(x b ), essendo h l operatore non lineare che proietta il campo previsto x b nello spazio delle osservazioni, mentre d o-a è il vettore che conserva le analoghe differenze tra osservazioni e valori dei campi analizzati. Gli esperimenti condotti mostrano che i valori diagnostici degli errori delle osservazioni sono sostanzialmente stabili nel periodo analizzato, a parte una ragionevole fase di adattamento iniziale, con valori molto vicini a quelli operativi. E altresì evidente dall equazione 4 che questi valori diagnostici dipendono implicitamente dalla covarianza degli errori del background e la loro stima richiede, in linea di principio, la soluzione iterativa di un problema non lineare che coinvolge anche la stima dei fattori di inflazione della covarianza stessa. Tuttavia, i nostri risultati indicano che questa dipendenza è sostanzialmente debole, e dunque risulta possibile derivare dei valori stabili per gli errori di osservazione e mantenerli fissi nel ciclo di assimilazione fino a quando i valori diagnostici stimati con l equazione 4 non mostrino degli scostamenti significativi. D altro lato, i fattori di inflazione della covarianza hanno mostrato un andamento più irregolare. E stato necessario assumere questi fattori funzioni, del livello di pressione analizzato, e fare un aggiustamento manuale dei loro valori in modo da ottimizzare l accuratezza di previsione dell ensemble e ottenere un ensemble calibrato, ossia approssimativamente soddisfacente la relazione (Houtekamer et al., 2005): Figura 5. Profilo del rapporto tra la varianza delle differenze (osservazione first guess) rispetto alla varianza totale aspettata degli errori di osservazione e first guess per l esperimento adattativo (linea continua) e per l esperimento adattativo inflazionato (3%, linea tratteggiata). (5) Inoltre si è trovato sperimentalmente che risulta conveniente porre i fattori inflattivi a valori leggermente maggiori di quelli diagnosticabili dall equazione 5. La probabile ragione di questo comportamento, come notato anche da Li et al., (2007), si trova nell assunzione implicita di un errore del campo previsto di background a valore medio nullo (unbiased). Essendo questa un assunzione in varia misura irrealistica, l eccesso di inflazione necessaria rispetto a (5) serve a coprire questa deficienza dell algoritmo. La procedura di ottimizzazione dei fattori inflattivi è risultata laboriosa, a causa dei tempi relativamente lunghi di cui il filtro ha bisogno per raggiungere una configurazione quasi stazionaria. Pur ammettendo che la calibrazione dell ensemble possa non essere ottimale, i risultati riportati in Bonavita et al. (2008) dimostrano che dopo appena pochi giorni dall inizio della corsa, l incertezza della previsione di first guess è rappresentativa della distribuzione spaziale media delle RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009 8

9 Imp. fasc qxd:Layout :36 Pagina 9 osservazioni e, inoltre, gli incrementi medi dell analisi sono fortemente correlati con la distribuzione spaziale dell errore del first guess, a conferma della capacità del filtro di sfruttare l informazione relativa a queste strutture dipendenti dal flusso atmosferico. L analisi del comportamento del filtro stocastico LETKF è stata verificata anche quantitativamente. Durante il ciclo di assimilazione sono state prodotte due corse giornaliere del modello EURO-HRM, di cui una inizializzata dall analisi operativa 3DVar e la seconda dalla media dei campi dell ensemble LETKF. Queste due previsioni deterministiche sono state verificate tramite il confronto con le osservazioni da radiosondaggio e pressione superficiale disponibili sull intero dominio di integrazione per il periodo 5-15 novembre Nelle figg. 2 e 3 sono presentati i risultati ottenuti per i campi previsti a +48h della temperatura e del vento. In fig. 4 viene poi mostrata la verifica del campo previsto di pressione ridotta a MSL su tutto il periodo di integrazione. Esperimenti con parametri adattativi Il problema principale che si incontra nell applicazione operativa dell algoritmo, descritto nella precedente sezione, risiede nella necessità di ricalibrare con una certa frequenza i parametri del filtro per rispondere alle mutate caratteristiche del sistema osservativo e del modello prognostico. E perciò opportuno utilizzare delle tecniche adattative che automatizzino questo processo. In questo senso dei metodi sono stati proposti da Miyoshi, (2005), Miyoshi e Yamane, (2007) e Li et al., In particolare Li et al., 2007 hanno usato le equazioni 4, 5 (o, in maniera del tutto equivalente l equazione 4 insieme con la seguente stima dell errore del campo di first guess: circa l accuratezza delle previsioni generate. La ragione di questo comportamento risiede nell insufficiente varianza dell ensemble così prodotto, come risulta dall analisi di fig. 5 (linea continua). Ciò dimostra che la tecnica di inflazione moltiplicativa non è in grado per sé di contrastare la tendenza dell ensemble a perdere varianza nel corso del ciclo, almeno nelle condizioni sperimentali date. Questo accade perché l inflazione di tipo moltiplicativo non può, per costruzione, tenere conto degli errori del modello che non siano rappresentati da errori che evolvono nel ciclo di assimilazione (i.e., errori sistematici). L approccio diretto alla soluzione del problema consisterebbe nel tenere in conto esplicitamente gli errori sistematici del modello (Baek et al., 2006, Danforth et al., 2007), ma questa è una strada di difficile attuazione per modelli realistici di previsione. Un altro approccio consiste nel tentare di rappresentare le incertezze insite nelle parametrizzazioni fisiche del modello e che sono una delle principali sorgenti di errore del modello stesso, tramite metodi ad hoc (ad es., Buizza et al., 1999). Una cura più semplice del problema consiste però nell aumentare leggermente i parametri inflattivi stimati adattativamente. Questo è stato fatto in un ulteriore esperimento, nel quale i valori stimati on-line sono stati a loro volta aumentati del 3%. Come si evince dalla linea tratteggiata in fig. 5, questo ha portato a una più soddisfacente calibrazione dell ensemble e, in modo più rilevante, a un miglioramento complessivo dell accuratezza della previsione, anche rispetto ai valori ottenuti con parametri fissi ottimizzati (vedi fig. 6). Conclusioni e sviluppi futuri Lo scopo di questo lavoro è stato quello di stabilire la fattibilità di usare il filtro stocastico LETKF come algoritmo di analisi oggettiva <d a-b d T o-b>=(hp b H T ), Desrozieres et al., 2005) per stimare simultaneamente e in modo coerente i parametri inflattivi della covarianza e gli errori di osservazione. L accuratezza dei valori stimati con questa tecnica dipende dalle dimensioni del campione osservativo usato che, nel caso in esame, è abbastanza ridotto. Per ridurre i conseguenti problemi di campionamento che, specie all inizio della simulazione, possono portare a oscillazioni irrealistiche dei valori stimati, si è applicato un semplice filtro di Kalman sulle stime ottenute, i cui valori sono altresì costretti entro variazioni realistiche. Alla luce della quasi stazionarietà dei valori stimati degli errori di osservazione, stabilita negli esperimenti della precedente sezione, e della loro debole dipendenza dai parametri inflattivi usati, detti errori di osservazione sono stati tenuti fissi e pari ai valori diagnosticati nei precedenti esperimenti. I primi risultati ottenuti con il metodo adattativo di stima dei parametri sono stati leggermente peggiorativi Figura 6. Profilo del rapporto tra la varianza delle differenze (osservazione first guess) rispetto alla varianza totale aspettata degli errori di osservazione e first guess per l esperimento adattativo (linea continua) e per l esperimento adattativo inflazionato (3%, linea tratteggiata). 9 RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009

10 Imp. fasc qxd:Layout :36 Pagina 10 per il sistema di previsione numerica a scala regionale del CNMCA. A questo fine sono stati svolti una serie di esperimenti di assimilazione dati nei quali il comportamento di LETKF è stato valutato in relazione a quello dell attuale algoritmo operativo del CNMCA (3DVar, Bonavita e Torrisi, 2005). La rilevanza dei risultati ottenuti è garantita dal fatto che, rispetto alla eventuale configurazione operativa, gli esperimenti condotti differiscono solo per il ridotto numero di osservazioni usate. Questo allo scopo di valutare il comportamento dell algoritmo in una situazione sperimentale in grado di metterne in evidenza i punti di forza e, eventualmente, di debolezza. Il risultato di questi esperimenti mostra in maniera chiara che LETKF è in grado di produrre analisi e previsioni di qualità superiore a quelli prodotti dalla corrente analisi 3DVar nella metrica dell errore quadratico e di qualità confrontabile nella metrica dell errore assoluto. Nella configurazione di LETKF implementata presso il CNMCA, i principali parametri del filtro sono stati desunti dalla letteratura. E molto probabile che l ottimizzazione di detti parametri per il sistema in studio possa condurre a un ulteriore, sostanziale, miglioramento dei risultati. I risultati discussi nel presente lavoro si riferiscono unicamente al valore medio dell ensemble, che è assunto come migliore stima dello stato del sistema atmosferico. Tuttavia, il vantaggio principale di un sistema di assimilazione dati basato sul paradigma dell EnKF risiede nella esplicita rappresentazione dell incertezza iniziale (Matrice di covarianza dell errore dell analisi, in termini tecnici). La verosimiglianza del campionamento dell incertezza iniziale che LETKF sembra in grado di fornire, fa sorgere l interessante possibilità di utilizzare i campi di analisi dell ensemble generato da LETKF come condizioni iniziali per l integrazione di un sistema di previsione di tipo ensemble (EPS, Ensemble Prediction System). Questo approccio all EPS, oltre a essere un estensione naturale ed a non richiedere costose tecniche di inversione (Singular Vectors, Molteni et al.,1996) o tecniche ad hoc di difficile ottimizzazione (Bred Vectors, Toth e Kalnay, 1993), ha il vantaggio di generare un sistema EPS con le corrette caratteristiche spazio-temporali di errore di previsione. Questo è difficilmente ottenibile con le tecniche alternative summenzionate e del tutto impossibile adottando l approccio ingenuo di interpolare sul grigliato di interesse un ensemble di qualche modello globale (o un suo sottoinsieme). Come tutte le tecniche basate sull algoritmo EnKF, l accuratezza di LETKF è legata all accuratezza della stima degli errori delle osservazioni e della previsione di first guess. In genere gli errori delle osservazioni sono predeterminati e tenuti fissi durante il ciclo di assimilazione, mentre gli errori della previsione di first guess sono campionati dall ensemble previsto. Un problema comune ai filtri stocastici di questo tipo è la progressiva perdita di varianza dell ensemble, dovuta a svariati fattori (insufficiente dimensionalità dell ensemble, non linearità del modello prognostico, mancata rappresentazione dell errore del modello all interno del filtro, ecc.). La conseguenza più grave di questa perdita di varianza dell ensemble è che le nuove osservazioni presentate all algoritmo vengono progressivamente sottopesate o ignorate, fino a raggiungere la spiacevole situazione di un sistema di analisi e previsione completamente disaccoppiato dalla realtà sperimentale. Per contrastare questo fenomeno, è stato adottato l approccio euristico noto come inflazione moltiplicativa. Benché algoritmicamente semplice da implementare, la tecnica di inflazione moltiplicativa è dispendiosa da ottimizzare e mantenere. Per questo motivo è necessario implementare delle tecniche adattative che producono e aggiornano automaticamente dei valori statisticamente ottimi per i parametri inflattivi del filtro. Nelle prove condotte presso il CNMCA e contrariamente all esperienza di altri ricercatori (Miyoshi and Yamane, 2007), il tuning adattativo dei parametri fornisce buoni risultati, competitivi con quelli ottenibili con parametri fissi ottenuti tramite ottimizzazione sul periodo di verifica. Dal punto di vista applicativo, la tecnica adattativa risulta necessaria solo per la stima dei fattori inflattivi della previsione di first guess, mentre gli errori a- posteriori delle osservazioni appaiono stazionari e debolmente dipendenti dai valori dei fattori inflattivi della previsione di first guess. I risultati presentati dimostrano chiaramente le potenzialità del nuovo sistema di analisi e incoraggiano sperimentazioni ancora più realistiche e vicine alla configurazione operativa. In particolare la validazione dell algoritmo LETKF in una configurazione che fa uso di tutte le principali tipologie di osservazione oggi disponibili è attualmente in corso. I primi risultati confermano il chiaro vantaggio di LETKF sulle tecniche variazionali ora in uso presso il CNMCA. Allorché il sistema di analisi basato su LETKF sarà entrato nella pratica operativa del CNMCA, e compatibilmente con la disponibilità delle necessarie risorse di calcolo, si procederà alla estensione del sistema verso la previsione di tipo ensemble, ossia all integrazione dei vari membri dell ensemble di analisi a scadenze di t+48-72h. In conclusione, a circa mezzo secolo dalla fondamentale scoperta di Edward Lorenz (Lorenz, 1963) sulla finita predicibilità del sistema atmosferico e sulla sensibilità alle condizioni iniziali, le sue conseguenze per le attività di previsione numerica del tempo cominciano a entrare nella migliore pratica operativa e il Servizio Meteorologico dell A.M. si pone all avanguardia in questi affascinanti sviluppi. To contact: bonavita@meteoam.it torrisi@meteoam.it marcucci@meteoam.it * Centro Nazionale di Meteorologia e Climatologia Aeronautica - Pratica di Mare RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/

11 Imp. fasc qxd:Layout :36 Pagina 11 Bibliografia Anderson, J. L. and S.L. Anderson, 1999, A Monte Carlo implementation of the nonlinear filtering problem to produce ensemble assimilations and forecasts. Mon. Wea. Rev. 127, Baek, S.J., B. R., Hunt, E. Kalnay, E. Ott, and I. Szunyogh 2006, Local ensemble Kalman filtering in the presence of model bias. Tellus, 58A, Bonavita M. And L. Torrisi, 2005, Impact Of a Variational Objective Analysis Scheme On a Regional Area Numerical Model: the Italian Air Force Weather Service Experience. Meteorology and Atmospheric Physics, Vol.88, No.1-2. Bonavita M., L. Torrisi e F. Marcucci, 2008, The Ensemble Kalman Filter in an Operational Regional NWP System: preliminary results with real observations. Q. J. R. Meteor. Soc, 134, Daley, R., 1992, Atmospheric Data Analysis. Cambridge Atmospheric and Space Science Series, Cambridge University Press, Cambridge. Danforth, C., E. Kalnay, and T. Miyoshi, 2007, Estimating and correcting global weather model error. Mon. Wea. Rev., 135, Dee, D. P., 1995, On-line estimation of error covariance parameters for atmospheric data assimilation. Mon. Wea. Rev.,123, Desroziers G., L. Berre, B.Chapnik, and P.Poli, 2005, Diagnosis of observation, background and analysis error statistics in observation space. Q. J. R. Meteor. Soc, 131, Dirren, S, R. D. Torn and G. Hakim, 2007, A data assimilation case study using a limited-area ensemble Kalman filter. Mon. Wea. Rev., 135, Hamill, T. M., Whitaker, J.S., and C. Snyder, 2001, Distance-dependent filtering of background error covariance estimates in an ensemble Kalman filter. Mon. Wea. Rev., 129, Houtekamer, P. L., H. L. Mitchell, G. Pellerin, M. Buehner, M. Charron, L. Spacek, and B. Hansen, 2005, Atmospheric data assimilation with an ensemble Kalman filter: Results with real observations. Mon. Wea. Rev., 133, Hunt, B. R., E. Kalnay, E. J. Kostelich, E. Ott, D. J. Patil, T. Sauer, I. Szunyogh, J. A. Yorke, and A. V. Zimin, 2004, Four-dimensional ensemble Kalman filtering, Tellus A 56, Hunt, B. R., E. Kostelich, I. Szunyogh, 2007, Efficient data assimilation for spatiotemporal chaos: a local ensemble transform Kalman filter. Physica D, 230, Li, H., E. Kalnay, and T. Miyoshi, 2007, Simultaneous estimation of covariance inflation and observation errors within ensemble Kalman filter. Submitted to Q. J. R. Meteor. Soc. Lorenz, E.N., 1963, Deterministic nonperiodic flow. J. Atmos. Sci., 20, Majewski, D., 2008, HRM User s Guide. Available from the author (detlev.majewski@dwd.de) Meng, Z. and F. Zhang, 2007, Test of an ensemble Kalman filter for mesoscale and regional-scale data assimilation: Part II, imperfect model experiments. Mon. Wea. Rev., 135, Miyoshi, T., 2005, Ensemble Kalman filter experiments with a primitive-equation global model, PhD Thesis at the University1 of Maryland. Miyoshi, T., S. Yamane, 2007, Local ensemble transform Kalman filtering with an AGCM at a T159/L48 resolution. Mon. Wea. Rev., 135, Molteni, F., R. Buizza, T. N. Palmer and T. Petroliagis, 1996, Ensemble Prediction System: Methodology and validation, Q.J. R. Meteor. Soc., 122, Szunyogh, I., E. J. Kostelich, G. Gyarmati, E. Kalnay, B. R. Hunt, E. Ott, E. Scatterfield and J. A. Yorke, 2007, A local ensemble transform Kalman filter data assimilation system for the NCEP global model. Tellus, accepted. Toth, Z., and E. Kalnay, 1993, Ensemble Forecasting at NMC: The generation of perturbations. Bull. Amer. Meteor. Soc., 74, Wang, X., and C. H. Bishop, 2003, A comparison of breeding and ensemble transform Kalman filter ensemble forecast schemes. J. Atmos. Sci., 60, Whitaker, J. S., and T. M. Hamill, 2002, Ensemble data assimilation without perturbed observations. Mon. Wea. Rev., 130, Whitaker, J. S., T. M. Hamill, X. Wei, Yucheng Song and Z. Toth, 2007, Ensemble data assimilation with the NCEP global forecasting system. Mon. Wea. Rev., to appear. Zhang, F., C. Snyder and J. Sun, 2004, Impacts of initial estimate and observation availability on convective-scale data assimilation with an ensemble Kalman filter. Mon. Wea. Rev., 132, Zhang, F., Z. Meng and A. Aksoy, 2006, Test of an ensemble Kalman filter for mesoscale and regional-scale data assimilation. Part I: Perfect model experiments. Mon. Wea. Rev., 134, RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009

12 Imp. fasc qxd:Layout :36 Pagina 12 Lavoro pervenuto in redazione il 03/07/2008 Inferenza Bayesiana e campionamento Markov Chain Monte Carlo per la ricostruzione di una sorgente atmosferica su scala continentale Luca Delle Monache* Sommario - Una metodologia basata sulla combinazione di inferenza Bayesiana con campionamento Markov Chain Monte Carlo è stata applicata per la ricostruzione di un rilascio accidentale di materiale radioattivo avvenuto nel maggio 1998 nei pressi di Algeciras, in Spagna. La località della sorgente e la quantità di materiale emesso sono stati stimati a partire da un numero limitato di misure sottovento. Summary - A methodology combining Bayesian inference with Markov Chain Monte Carlo sampling is applied to a real accidental radioactive release at the continental scale that occurred at the end of May, 1998, near Algeciras, Spain. The source parameters (i.e., source location and strength) are reconstructed from a limited set of measurements of the release. RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/

13 Imp. fasc qxd:Layout :36 Pagina 13 Introduzione Per adottare strategie efficienti alla protezione della salute pubblica, nonché per la mitigazione degli effetti dannosi dovuti alla dispersione di agenti atmosferici nocivi, è fondamentale la conoscenza della distribuzione spazio-temporale del materiale rilasciato. Nel rispondere a casi di emergenza, dovuti a rilasci accidentali o volontari di materiali tossici nell atmosfera, spesso i parametri che descrivono la sorgente non sono noti. Le stime di tali parametri spesso si basano su informazione limitatata e incompleta; una volta stimata la sorgente, modelli di dispersione vengono usati per predire la diffusione e il trasporto della nube tossica. La precisione di tali stime dipende da molti fattori, tra i quali la qualità dei modelli di dispersione, dei modelli meteorologici, delle misure assimilate da tali modelli, e non ultima l incertezza associata con la stima dei parametri della sorgente (posizione, quantità emessa, durata del rilascio, ecc.). Tra le sorgenti di incertezza appena elencate, quelle che influiscono sullo stato iniziale dell agente contaminante spesso sono le più significative, e per questo motivo sono l argomento centrale di questo studio, in cui viene presentato un metodo per la risoluzione di un problema inverso, nel quale si vogliono ricostruire i parametri di una sorgente atmosferica a partire da un insieme limitato di misure sottovento. Nell introduzione di Delle Monache et al. (2008) si può trovare un ampia raccolta e breve descrizione di numerosi lavori riguardo i diversi metodi che sono stati proposti per la soluzione di problemi inversi. In questo articolo viene presentato un algoritmo di inversione basato sulla combinazione di inferenza Bayesiana e campionamento MCMC (Markov Chain Monte Carlo). La generalità e flessibilità dell algoritmo in un contesto Bayesiano permette di utilizzare un modello di dispersione senza la necessità di alcuna modifica del modello stesso, come per esempio nel caso di metodi basati sull adjoint. Nell approccio utilizzato l algoritmo permette l utilizzo di diversi modelli di dispersione, inclusi quelli per i quali potrebbe non essere possibile formulare l adjoint, come per esempio modelli la cui formulazione include molte espressioni empiriche (Errico, 1997). L integrazione di diversi modelli di dispersione nella procedura stocastica è semplice e ciò risulta in uno strumento computazionale molto flessibile, che risponde alla necessità di utilizzare diversi modelli a seconda dei possibili scenari di dispersione. L algoritmo presentato in questo studio è stato testato per un rilascio accidentale di materiale radioattivo su scala continentale nei pressi di Algeciras, Spagna, nel maggio Quest evento coinvolse una buona porzione dell Europa per molti giorni, incluse località distanti alcune migliaia di chilometri sottovento. Il modello di dispersione utilizzato in questo studio è il LODI (Lagrangian Operational Dispersion Integrator) (Ermak e Nasstrom 2000; Nasstrom et al. 2000), sviluppato per applicazioni in NARAC (National Atmospheric Release Advisory Center) all LLNL (Lawrence Livermore National Laboratory). La metodologia sviluppata fornisce una robusta caratterizzazione dei parametri di sorgente (posizione e quantità di materiale radioattivo emesso) nel contesto di una complessa situazione meteo, utilizzando poche misure di concentrazione a bassa risoluzione temporale. Figura 1. Diagramma di flusso dell algoritmo. 13 RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009

14 Imp. fasc qxd:Layout :36 Pagina 14 Metodologia L algoritmo stocastico è basato sul teorema di Bayes e una procedura MCMC per il campionamento dei parametri incogniti (Gilks et al. 1996; Gelman et al. 2003). Le seguenti sezioni descrivono brevemente la teoria sulla quale la metodologia si basa, e i passi principali della procedura. Johannesson et al. (2004) descrivono il metodo qui presentato in maggior dettaglio. a. Teoria Nel contesto della ricostruzione di una sorgente, il teorema di Bayes può essere enunciato come segue: dove p(s\m) è una distribuzione di probabilità, S=(x,y,q) è il vettore stato formato dai parametri della sorgente puntuale (x e y indicano le coordinate orizzontali della sorgente, e q rappresenta il tasso di emissione), e M è un vettore le cui componenti sono le misure della concentrazione. Il teorema di Bayes mette in relazione la distribuzione a posteriori, p(s\m), con il prodotto della probabilità delle misure dati i parametri di sorgenti, p(m\s), che viene chiamata anche funzione di verosimiglianza, è la probabilità dei parametri di sorgente prima di avere disponibile alcuna misura, p(s), chiamata anche distribuzione a priori. In questo caso x, y e q sono le incognite, ma in generale il teorema di Bayes può essere applicato con S che include anche altri parametri, come ad esempio z (la coordinata verticale), o il tempo e la durata del rilascio. La seguente è un espressione alternativa del teorema di Bayes: In questa forma si evita la stima della distribuzione marginale di M, p(m)= p(s)p(m\s)ds, per la quale soluzioni analitiche sono rare e costose dal punto di vista computazionale. In questo studio il teorema di Bayes è applicato per descrivere la probabilità condizionale dei parametri di sorgente x, y e q, date le misure di concentrazione riportate dai sensori. Per stimare i parametri della sorgente incogniti utilizzando (2), la distribuzione a posteriori p(s\m) deve essere campionata, e ciò può essere realizzato calcolando tale distribuzione di probabilità per ogni realizzazione di S proposta. p(m\s) quantifica la verosimiglianza di un insieme di misure M dati i parametri di sorgente S. Questa verosimiglianza viene calcolata facendo girare un modello di dispersione con in input i parametri S e confrontando la sua predizione con le misure (sezione 2b). Più la predizione è vicina alle misure, e maggiore sarà la verosimiglianza dei parametri di sorgente S. b. L algoritmo L algoritmo presentato in questo studio è descritto in dettaglio da Delle Monache et al. (2008), e in quest articolo ne viene riportata solo una breve descrizione. Il modello lagrangiano di dispersione a particelle LODI (Ermak e Nasstrom 2000; Nasstrom et al. 2000) assume in input un campo meteorologico che può essere ottenuto da molteplici sorgenti, come misure in tempo reale, previsioni meteorologiche da modelli, analisi, e qualsiasi combinazione di queste diverse tipologie di dati. La distribuzione a posteriori è campionata con una procedura MCMC tramite un algoritmo Metropolis-Hasting (Gilks et al. 1996; Gelman et al. 2003). I passi principali dell algoritmo sono mostrati in fig. 1 e possono essere descritti come segue. Prima di eseguire la procedura di ricostruzione, vengono assegnate ai parametri di sorgente x, y e q le distribuzioni a priori (p(s)), confinate da un valore massimo e un valore minimo in base all informazione iniziale (spesso limitata o non esistente) riguardo il rilascio avvenuto. L ampiezza di tali distribuzioni riflette la confidenza nella stima iniziale dei parametri di sorgente. Successivamente, per ogni parametro viene campionato un valore iniziale dalla relativa distribuzione a priori, e vengono eseguite un numero di iterazioni che includono il campionamento dei parametri di sorgente, il calcolo della dispersione in base a tali parametri, e un confronto predizione-misure in termini bayesiani, fino al raggiungimento della convergenza alla distribuzione a posteriori. I valori di ogni parametro accettati dalla procedura stocastica e collezionati durante le iterazioni costituiscono la realizzazione di una catena di Markov, che può essere definita come un insieme di valori consecutivi in cui la probabilità di un valore dipende solo dal valore precedentemente campionato (Gilks et al. 1996). Un volta inizializzata, ogni iterazione consiste dei seguenti passi: 1. Un nuovo valore del parametro di sorgente x viene proposto (x prop ) come segue: x prop =x+dx. In questo caso x è il valore corrente e dx è un incremento aggiunto a tale valore che viene modellato come un random-walk campionato da una distribuzione Gaussiana con media zero e deviazione standard un parametro il cui valore è proporzionale alla varianza dell insieme di valori fin qui campionati (cfr. Delle Monache et al., 2008, per maggiori dettagli su tale parametro chiamato stepsize ). In questa fase la distribuzione a priori p(s) del parametro di sorgente x viene utilizzata come riferimento per stimare la verosimiglianza a priori di x prop (Appendice 6.11, Tarantola 2005). Se tale verosimiglianza a priori è superiore alla verosimiglianza di x, il valore proposto x prop sostituisce x, altrimenti tramite il metodo coin flip si determina se il nuovo valore proposto, nonostante abbia una minore verosimiglianza del precedente, verrà accettato. 2. Il primo passo viene ripetuto per y e q. E da notare che procedendo a un campionamento indipendente per ogni parametro, si favorisce maggiormente, rispetto al caso in cui tali parametri siano campionati contemporaneamente, la possibilità che i valori campionati riflettano fedelmente le rispettive verosimiglianze a priori. 3. Il modello di dispersione produce la predizione utilizzando i valori correnti dei parametri di sorgente x, y e q. 4. La verosimiglianza dei valori correnti di x, y e q, che formano il vettore di stato, viene stimata confrontando l accordo tra le concentrazioni predette facendo girare il modello LODI con tali valori in input e le concentrazioni misurate. Tale verosimiglianza viene poi confrontata con quella risultante dalla predizione dell iterazione precedente. La verosimiglianza del vettore di stato proposto p(mls) non deve essere confusa con la verosimiglianza a priori definita al passo 1, che è basata esclusivamente sulle distribuzioni a priori dei parametri di sorgente, ossia p(s), senza considerare le misure (M). Se la verosimiglianza del vettore di stato proposto è più alta della verosimiglianza del vettore di stato precedente, tale vettore viene accettato, altrimenti nuovamente tramite il metodo coin flip si determina se il vettore di stato proposto sia accettato nonostante abbia una minore verosimiglianza. Tale procedura viene eseguita per assicurare che la distribuzione a posteriori sia esplorata in ogni sua regione. Accettare occasionalmente proposte con verosimiglianza inferiore assicura che la ricostruzione compia una ricerca completa dello spazio dei valori proposti per i parametri di sorgente, prevenendo che la procedura continui a campionare valori solo nell intorno di estremi relativi. (1) (2) RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/

15 Imp. fasc qxd:Layout :36 Pagina 15 Figura 2. Illustrazione qualitativa del trasporto della nube tossica per i quattro giorni seguenti il rilascio (30 maggio-3 giugno, 1998) simulata con il modello Lagrangian Operational Dispersion Integrator. Il quadrato bianco rappresenta la località della sorgente (5 26' W, 36 10' N), mentre i cerchi bianchi rappresentano la posizione dei sensori. I contour della concentrazione (µbq m-3) sono medie giornaliere (nota: le barre dei colori hanno range diversi). Il rilascio accidentale di Algeciras L incidente avvenuto ad Algeciras non fu rilevato da alcun sensore per tre giorni seguenti il rilascio, e la sorgente rimase sconosciuta per ulteriori 10 giorni. Il 30 maggio 1998, una parte di un apparecchiatura medica contenente Cesium-137 (Cs-137) venne accidentalmente fusa in uno dei forni dell acciaieria Acerinox nei pressi di Algeciras, in Spagna. Questo incidente è stato il soggetto di numerosi studi di modellistica (come ad esempio Yamazawa 1998; Vogt et al. 1999; Buckley 2000; Graziani et al. 2000; Baklanov e Sorensen 2001). In base a quanto riportato dall Agenzia Nucleare Spagnola (CSN) (Vogt et al. 1999) la radioattività del materiale rilasciato è stata tra 8 e 80 Ci (1 Ci = 3.7 x Bq) e il rilascio è avvenuto tra 01 e 03 UTC il 30 maggio. Nessuno dei valori di radiazione misurati è risultato dannoso per l uomo o l ambiente. Questo evento fornisce un caso reale per testare il metodo descritto nella Sezione 2 su scala continentale. Vogt et al. (1999) presentano un analisi dettagliata della situazione sinottica al momento dell incidente. La fig. 2 mostra qualitativamente il trasporto del pennacchio tossico, riprodotto da LODI con parametri di sorgente realistici (posizione: 5 26' W, 36 10' N; tempo rilascio: 0130 UTC, 30 maggio; durata rilascio: 30 min.; quantità rilasciata: 50 Ci). In ogni pannello la posizione della sorgente è indicata dal quadrato bianco, mentre i cerchi bianchi indicano la posizione dei sensori utilizzati in questo studio, che sono situati nel nord-ovest dell Italia e nel sud-est della Francia, approssimativamente km a nord-est della sorgente. Inizialmente (pannello in alto a sinistra) il pennacchio viene trasportato da flussi atmosferici provenienti dall Atlantico sul Mediterraneo, rimanendo non rilevato. Tra il 31 maggio e il 1 o giugno (pannello in alto a destra) il pennacchio devia verso nord venendo rilevato nelle ore successive dai sensori usati in questo studio. Dopo il 3 giugno, elevati valori di radioattività vennero riportati da numerosi sensori in Europa centrale e orientale, con concentrazioni riportate come medie su un 15 RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009

16 Imp. fasc qxd:Layout :36 Pagina 16 Figura 3. Posizioni della sorgente campionate e accettate dall algoritmo. Il rettangolo tratteggiato rappresenta la zona iniziale di ricerca, ossia la distribuzione a priori dei parametri descriventi la posizione della sorgente. I punti grigi rappresentano punti prima del burn-in (iterazioni 1-500), mentre i punti neri rappresentano stati accettati dopo il burnin (iterazioni > 500). Quadrato e cerchi bianchi come in fig. 2. giorno, più giorni, o una settimana (Vogt et al. 1999). Risultati Questa sezione inizia con una descrizione delle specifiche del problema e delle assunzioni fatte nell eseguire le simulazioni, ed è seguita da un analisi dei risultati. Lo scopo principale è quello di dimostrare l abilità del metodo proposto di ricostruire i parametri di sorgente incogniti di un rilascio di una nube tossica, a partire dalle misure disponibili in condizioni simili (ma con alcune assunzioni, descritte di seguito) a una reale situazione di emergenza causata da un incidente o attacco terroristico su scala continentale. a. Assunzioni e settaggio delle simulazioni Le prime misure della contaminazione dovuta al rilascio di Algeciras furono disponibili il 2 giugno, tre giorni dopo l incidente. Dal 3 al 14 giugno altre misure vennero riportate in diverse zone sottovento in Europa. In questo studio per la ricostruzione della sorgente sono state usate solo le prime misure disponibili mediate su 24 ore (17 valori riportati da 11 stazioni il 2-3 giugno). Questi dati sono stati selezionati per valutare l abilità del metodo proposto di operare in condizioni simili a quelle che potrebbero presentarsi in casi di reale emergenza, utilizzando solo i dati disponibili inizialmente. I sensori utilizzati per ricostruire la sorgente ricoprono una piccola porzione del continente Europeo (fig. 3). La compattezza dell area coperta dai sensori rappresenta una sfida per l algoritmo di ricostruzione, in quanto parametri di sorgente leggermente diversi dai valori reali potrebbero generare una predizione di un pennacchio che non tocca alcun sensore. In aggiunta a questo, c è la difficoltà introdotta dall assenza di valori nulli nelle misure riportate dai sensori. Infatti, concentrazioni in prossimità delle soglie di detenzione degli strumenti non furono riportate, piuttosto che essere riportate come valori nulli. Tali valori costituiscono informazione utile per l algoritmo di ricostruzione che viene persa nel momento in cui non vengono riportati. La geometria della sorgente e la durata del rilascio sono stati assunti e specificati come sorgente puntuale attiva da 0130 a 02 UTC del 30 maggio 1998 (Vogt et al., 1999). CSN riportò che il rilascio avvenne tra 01 e 03 UTC del 30 maggio. I dati meteorologici utilizzati come input per il modello di dispersione LODI sono stati forniti dal National Centers for Environmental Protection Aviation model (AVN) (Kanamitsu et al., 1991), come campi di analisi ogni sei ore e con una risoluzione spaziale di un grado. Qualitativamente tali dati meteorologici rappresentano bene il flusso atmosferico osservato, particolarmente nell area occidentale del mar Mediterraneo, sopra la quale la nube tossica ha viaggiato prima di raggiungere i sensori. Le simulazioni di dispersione sono state effettuate utilizzando 100mila particelle. L esecuzione di LODI per questo caso ha RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/

17 Imp. fasc qxd:Layout :36 Pagina 17 impiegato meno di due minuti con circa 30 processori 4 GHz CPU. La distribuzione a priori della posizione della sorgente è indicata dall estensione del riquadro tratteggiato in fig. 3. Questo dominio (circa km nella direzione ovest-est e km nella direzione sudnord) è stato selezionato in base al flusso predominante dall ovest nella zona dei sensori dal 30 maggio (il giorno dell incidente) al 2 giugno (quando le prime misure furono disponibili), che implica che la sorgente fosse locata a ovest rispetto ai sensori (Europa occidentale o Africa nord occidentale). Inoltre l estensione dei lati del dominio selezionato riflette probabili località della sorgente, data la velocità media del vento nel periodo analizzato. Alla prima iterazione, a ogni punto all interno del dominio di ricerca viene assegnata quasi la stessa probabilità di essere campionato, con valori leggermente inferiori per punti vicini ai limiti del dominio. Similmente, la distribuzione a priori per q viene definita assegnando a ogni valore nell intervallo [1013, 1017] approssimativamente la stessa probabilità di essere selezionato dalla procedura di campionamento. b. Ricostruzione della sorgente L algoritmo stocastico è stato eseguito per tre catene di Markov indipendenti. Un più alto numero di catene permetterebbe di collezionare un dato numero di campioni più velocemente, assumendo la disponibilità di risorse computazionali per risolvere contemporaneamente l algoritmo per le diverse catene. Figura 3 mostra le zone esplorate dalle tre catene di Markov. Avendo assunto una sorgente alla superficie, alle tre catene è permesso di esplorare possibili località per la sorgente solo alla superficie. I punti grigi rappresentano stati accettati durante il burn-in (prime 500 iterazioni), che è una fase dopo la quale si può assumere che le catene abbiano dimenticato lo stato di partenza, mentre Figura 4. Ingrandimento di fig. 3 nella zona adiacente la sorgente. Ogni punto rappresenta valori campionati dopo il burn-in (iterazioni > 500), dove simboli diversi (cerchio, stella a cinque punte e triangolo) corrispondono a diverse catene di Markov. i punti neri rappresentano gli stati accettati successivamente. Le catene esplorano efficacemente il domino di ricerca, costruendo distribuzioni a posteriori che includono tutte le mode dominanti. Figura 4 mostra un ingrandimento della regione che include gli stati accettati dopo il burn-in. I diversi simboli (cerchio, stella a cinque punte e triangolo) rappresentano le tre catene. La distribuzione a posteriori mostra due mode distinte, che indicano le località più probabili della sorgente: una nell entroterra a nord di Algeciras a circa 60 km dalla località reale (quadrato bianco), e l altra nel Mediterraneo a circa 80 km est e 20 km sud di Algeciras. Le catene di Markov campionano valori tra le due mode, fornendo evidenza dell avvenuta convergenza della procedura stocastica. Tale convergenza può essere considerata raggiunta in termini pratici quando aggiungere nuovi campioni alle distribuzioni a posteriori non ne cambia la forma (2.000 iterazioni in questo studio). Gli aspetti probabilistici delle soluzioni fornite dall algoritmo potrebbero essere utilizzati per situazioni di emergenze reali. L algoritmo seleziona tra tutte le possibili risposte quelle che sono più consistenti con i dati disponibili, e le relative incertezze. L informazione in figura 4 fornisce indicazioni utili per operatori sul territorio nel disegnare strategie appropriate per rispondere a un eventuale emergenza. In questo caso, tali operatori avrebbero suggerito 17 RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009

18 Imp. fasc qxd:Layout :36 Pagina 18 Figura 5. Distribuzione spaziale della probabilità della posizione della sorgente costruita con stati accettati dopo il burnin (iterazioni > 500). di cercare sorgenti potenziali, come per esempio acciaierie, poco a nord di Algeciras e ciò avrebbe permesso una rapida identificazione della vera sorgente. Inoltre, la moda sottovento ad Algeciras potrebbe aver scaturito una ricerca per possibili imbarcazioni o sottomarini rilascianti materiale radioattivo in quella ristretta area del Mediterraneo. La distribuzione a posteriori mostrata in figura 4 potrebbe anche essere utilizzata come distribuzione a priori per iniziare una ricerca più dettagliata della sorgente. Applicando più volte questo approccio potrebbe portare a successivi miglioramenti della distribuzione a posteriori della posizione della sorgente. In figura 5 sono mostrati i contour di probabilità della località della sorgente basati sulla distribuzione spaziale degli stati, accettati come mostrato in figura 4. In figura 5 vengono mostrati anche i venti alla superficie utilizzati da LODI al momento del rilascio. Le distribuzioni di probabilità mostrano chiaramente le posizioni delle due mode, e l effetto del campo di vento sulle distribuzioni stesse. Per esempio si può notare che le distribuzioni sono allungate approssimativamente lungo la direzione del vento, e con un allungamento proporzionale alla velocità del vento. Tale allungamento è stato osservato anche applicando simili versioni dell algoritmo presentato in questo studio a rilasci avvenuti su scale spaziali molto più ridotte (Lundquist et al. 2005; Chow et al. 2007). Figura 6 mostra le distribuzioni a posteriori per ognuno dei parametri considerati. Tali distribuzioni sono costruite mostrando la frequenza relativa dei valori accettati per ogni parametro. La linea grigia verticale rappresenta il vero valore del parametro, e il range dell asse dell ascissa indica l insieme di valori utilizzati per le distribuzioni a priori del parametro dato. Per RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/

19 Imp. fasc qxd:Layout :36 Pagina 19 quanto riguarda x, la maggior parte dei valori sono entro 100 km dal valore reale, e la moda dominante è a 80 km sottovento. Il pannello centrale in figura 6 mostra la qualità della ricostruzione per il parametro y (la linea grigia verticale rappresenta il valore reale della coordinata y della sorgente). La distribuzione è caratterizzata da due mode, alcune decine di km a nord e sud della sorgente reale, essendo la moda a sud dominante. I valori campionati di y convergono velocemente a un sottoinsieme molto più piccolo del range iniziale (pannello centrale in figura 6). Rispetto ad x si può osservare un più alto tasso di rifiuto da parte della procedura stocastica dei valori proposti, come evidente dalla più alta frequenza di intervalli in cui i valori di y vengono riproposti (Delle Monache et al., 2008). Ciò può essere spiegato come segue. I sensori utilizzati nella ricostruzione ricoprono una zona limitata in estensione; conseguentemente, spostamenti di poche decine di km nord o sud rispetto alla sorgente risultano in predizioni della dispersione della nube tossica che finisce per non ricoprire l area coperta dai sensori sottovento. Ciò a sua volta risulta in una proposta della località della sorgente con una bassa verosimiglianza, che spesso porta a un rifiuto dei valori dei parametri di sorgente proposti. Un campo meteorologico meno accurato potrebbe invece produrre nubi tossiche nell area dei sensori anche con località di rilascio non in prossimità di Algeciras, risultando in una ricostruzione della sorgente non accurata. Il pannello in basso di figura 6 mostra i valori campionati per il parametro q, ossia il tasso di emissione della sorgente. L ascissa, dove è riportato log(q), copre il vasto range di valori forniti all algoritmo come informazione a priori (da a µbq s -1 ). L incertezza associata alla risposta dell algoritmo per questo parametro è maggiore rispetto ai parametri descriventi le coordinate della sorgente (x e y) come è evidente dalla più ampia larghezza della distribuzione a posteriori. I valori reali per q, riportati da CSN con un range da 8 a 80 Ci (1 Ci = 3.7 x Bq), sono rappresentati in figura 6 dalle due linee grigie. q è il parametro più lento a raggiungere una fase in cui i valori campionati appartengono a un ristretto sottoinsieme del range di partenza (Delle Monache et al., 2008). I valori campionati per q mostrano anche il più alto grado di variabilità, sottolineando ancora una più alta incertezza in questo parametro rispetto alle coordinate della sorgente. Si può osservare anche che la Figura 6. Le distribuzioni a posteriori generate dall algoritmo stocastico per x (km), y (km) e log(q) (log(µbq s -1 )). Le linee verticali rappresentano i valori reali per x e y (due pannelli in alto) e i valori riportati dall Agenzia Nucleare Spagnola (Vogt et al. 1999) per il range di q (pannello in basso). 19 RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/2009

20 Imp. fasc qxd:Layout :36 Pagina 20 maggior parte dei valori campionati sono al di sopra del range 8-80 Ci, con una moda dominante avente lo stesso ordine di grandezza del limite superiore dell intervallo, 80 Ci. Essendo le misure sottovento riportate come medie giornaliere, è estremamente difficoltoso ottenere una distribuzione a posteriori più appuntita, visto che i valori osservati potrebbero risultare da un ampio range di valori per x, y e q. Tale incertezza influisce sulla rapidità di convergenza dell algoritmo, essendo q l ultimo dei parametri per il quale la procedura si sofferma a esplorare un sottoinsieme del range di partenza (Delle Monache et al., 2008). Conclusioni In quest articolo è stata presentata una metodologia per ricostruire una sorgente di un contaminante atmosferico a partire da alcune misure sottovento. L algoritmo presentato si basa su una combinazione di inferenza Bayesiana con un campionamento Markov Chain Monte Carlo (MCMC) per produrre distribuzioni di probabilità a posteriori descriventi i parametri di sorgente incogniti. La procedura stocastica è stata applicata per la prima volta a un incidente realmente accaduto nel maggio del 1998, nei pressi di Algeciras, in Spagna. I parametri campionati sono la posizione della sorgente e l intensità di emissione. La durata del rilascio è stata assunta come nota, così come è stato assunto che la sorgente fosse puntiforme e al suolo. La posizione della sorgente viene ricostruita dall algoritmo con una distribuzione bimodale, con le mode alcune decine di km a nord di Algeciras ed entro 100 km sottovento alla località reale della sorgente. L intensità della sorgente viene rappresentata invece con una distribuzione di probabilità a posteriori più ampia rispetto alla posizione della sorgente, riflettendo una maggiore incertezza nella ricostruzione di questo parametro, con una tendenza dell algoritmo Bayesiano MCMC a sovrastimare il range di valori riportati dall Agenzia Nucleare Spagnola. L aspetto probabilistico della soluzione combina in maniera ottimale la verosimiglianza della soluzione tenendo conto dell incertezza dell informazione disponibile (concentrazioni misurate, predizioni della dispersione, ecc.). Tra le infinite possibili soluzioni l algoritmo Bayesiano è capace di selezionare solo quelle che sono più consistenti con i dati disponibili e la loro incertezza. La ricostruzione della sorgente effettuata in questo studio avrebbe fornito a coloro che dispongono di potere decisionale nell evento di un emergenza una informazione accurata sulla sorgente, poche ore dopo che le prime misure furono disponibili. Ciò sarebbe risultato in azioni efficaci al fine di proteggere la popolazione dal contatto con la nube tossica rilasciata. Questi risultati mostrano che l algoritmo è capace di produrre una risposta utile, nonostante il numero limitato di misure disponibili e la bassa risoluzione temporale delle misure che furono riportate come medie giornaliere. L incertezza dei dati meteorologici usati per la ricostruzione determinano la qualità della ricostruzione dei parametri di sorgente incogniti. Infatti sia il vento medio sia le quantità turbolente influiscono direttamente sulla qualità delle predizioni di dispersione. Tale incertezza può essere considerata combinando la metodologia presentata in questo studio con tecniche di ensemble, un metodo largamente utilizzato nel campo delle previsioni meteorologiche (vedi per esempio Palmer e Hagedorn 2006). Tale sviluppo verrà considerato in futuri aggiornamenti dell algoritmo. Infine, sforzi futuri saranno concentrati sull ottimizzazione dell algoritmo al fine di ridurre ulteriormente i costi computazionali. Ringraziamenti Questo lavoro è stato realizzato sotto gli auspici dell U.S. Department of Energy dal Lawrence Livermore National Laboratory (Contract DE-AC52-07NA27344). To contact: lucadm@ucar.edu * National Center for Atmospheric Research, Boulder, Colorado, USA. RIVISTA DI METEOROLOGIA AERONAUTICA - N 1/

Appendice III. Criteri per l utilizzo dei metodi di valutazione diversi dalle misurazioni in siti fissi

Appendice III. Criteri per l utilizzo dei metodi di valutazione diversi dalle misurazioni in siti fissi Appendice III (articolo 5, comma 1 e art. 22 commi 5 e 7) Criteri per l utilizzo dei metodi di valutazione diversi dalle misurazioni in siti fissi 1. Tecniche di modellizzazione 1.1 Introduzione. In generale,

Dettagli

STRUMENTO PER LA LOCALIZZAZIONE DI CAMPI EOLICI. Eolo-CISMA

STRUMENTO PER LA LOCALIZZAZIONE DI CAMPI EOLICI. Eolo-CISMA STRUMENTO PER LA LOCALIZZAZIONE DI CAMPI EOLICI Eolo-CISMA è un sistema di previsioni meteorologiche messo a punto da CISMA srl che ci permette di disporre di previsioni del potenziale eolico di un sito

Dettagli

Automazione Industriale (scheduling+mms) scheduling+mms. adacher@dia.uniroma3.it

Automazione Industriale (scheduling+mms) scheduling+mms. adacher@dia.uniroma3.it Automazione Industriale (scheduling+mms) scheduling+mms adacher@dia.uniroma3.it Introduzione Sistemi e Modelli Lo studio e l analisi di sistemi tramite una rappresentazione astratta o una sua formalizzazione

Dettagli

Capitolo 13: L offerta dell impresa e il surplus del produttore

Capitolo 13: L offerta dell impresa e il surplus del produttore Capitolo 13: L offerta dell impresa e il surplus del produttore 13.1: Introduzione L analisi dei due capitoli precedenti ha fornito tutti i concetti necessari per affrontare l argomento di questo capitolo:

Dettagli

GESTIONE DELLE TECNOLOGIE AMBIENTALI PER SCARICHI INDUSTRIALI ED EMISSIONI NOCIVE LEZIONE 10. Angelo Bonomi

GESTIONE DELLE TECNOLOGIE AMBIENTALI PER SCARICHI INDUSTRIALI ED EMISSIONI NOCIVE LEZIONE 10. Angelo Bonomi GESTIONE DELLE TECNOLOGIE AMBIENTALI PER SCARICHI INDUSTRIALI ED EMISSIONI NOCIVE LEZIONE 10 Angelo Bonomi CONSIDERAZIONI SUL MONITORAGGIO Un monitoraggio ottimale dipende dalle considerazioni seguenti:

Dettagli

1. Distribuzioni campionarie

1. Distribuzioni campionarie Università degli Studi di Basilicata Facoltà di Economia Corso di Laurea in Economia Aziendale - a.a. 2012/2013 lezioni di statistica del 3 e 6 giugno 2013 - di Massimo Cristallo - 1. Distribuzioni campionarie

Dettagli

E naturale chiedersi alcune cose sulla media campionaria x n

E naturale chiedersi alcune cose sulla media campionaria x n Supponiamo che un fabbricante stia introducendo un nuovo tipo di batteria per un automobile elettrica. La durata osservata x i delle i-esima batteria è la realizzazione (valore assunto) di una variabile

Dettagli

La distribuzione Normale. La distribuzione Normale

La distribuzione Normale. La distribuzione Normale La Distribuzione Normale o Gaussiana è la distribuzione più importante ed utilizzata in tutta la statistica La curva delle frequenze della distribuzione Normale ha una forma caratteristica, simile ad una

Dettagli

Stima per intervalli Nei metodi di stima puntuale è sempre presente un ^ errore θ θ dovuto al fatto che la stima di θ in genere non coincide con il parametro θ. Sorge quindi l esigenza di determinare una

Dettagli

e-dva - eni-depth Velocity Analysis

e-dva - eni-depth Velocity Analysis Lo scopo dell Analisi di Velocità di Migrazione (MVA) è quello di ottenere un modello della velocità nel sottosuolo che abbia dei tempi di riflessione compatibili con quelli osservati nei dati. Ciò significa

Dettagli

Prof. Ing. Andrea Giuseppe CAPODAGLIO. Prof. Ing. Arianna CALLEGARI

Prof. Ing. Andrea Giuseppe CAPODAGLIO. Prof. Ing. Arianna CALLEGARI RIDUZIONE IMPATTO AMBIENTALE CERTIFICATI DI VALIDAZIONE DIFFUSIONE DELLE EMISSIONI ODORIGENE DAL CANALE DI INGRESSO DELL IMPIANTO DI NOSEDO: STUDIO DIFFUSIONALE DI CONFRONTO TRA RISULTATI DEL SISTEMA ODOWATCH

Dettagli

Documentazione esterna al software matematico sviluppato con MatLab

Documentazione esterna al software matematico sviluppato con MatLab Documentazione esterna al software matematico sviluppato con MatLab Algoritmi Metodo di Gauss-Seidel con sovrarilassamento Metodo delle Secanti Metodo di Newton Studente Amelio Francesco 556/00699 Anno

Dettagli

Corso di Matematica per la Chimica

Corso di Matematica per la Chimica Dott.ssa Maria Carmela De Bonis a.a. 203-4 I sistemi lineari Generalità sui sistemi lineari Molti problemi dell ingegneria, della fisica, della chimica, dell informatica e dell economia, si modellizzano

Dettagli

Regressione Mario Guarracino Data Mining a.a. 2010/2011

Regressione Mario Guarracino Data Mining a.a. 2010/2011 Regressione Esempio Un azienda manifatturiera vuole analizzare il legame che intercorre tra il volume produttivo X per uno dei propri stabilimenti e il corrispondente costo mensile Y di produzione. Volume

Dettagli

LE FUNZIONI A DUE VARIABILI

LE FUNZIONI A DUE VARIABILI Capitolo I LE FUNZIONI A DUE VARIABILI In questo primo capitolo introduciamo alcune definizioni di base delle funzioni reali a due variabili reali. Nel seguito R denoterà l insieme dei numeri reali mentre

Dettagli

Nota interpretativa. La definizione delle imprese di dimensione minori ai fini dell applicazione dei principi di revisione internazionali

Nota interpretativa. La definizione delle imprese di dimensione minori ai fini dell applicazione dei principi di revisione internazionali Nota interpretativa La definizione delle imprese di dimensione minori ai fini dell applicazione dei principi di revisione internazionali Febbraio 2012 1 Mandato 2008-2012 Area di delega Consigliere Delegato

Dettagli

GIOCHI MATEMATICI PER LA SCUOLA SECONDARIA DI I GRADO ANNO SCOLASTICO 2011-2012

GIOCHI MATEMATICI PER LA SCUOLA SECONDARIA DI I GRADO ANNO SCOLASTICO 2011-2012 GIOCHI MATEMATICI PER LA SCUOLA SECONDARIA DI I GRADO ANNO SCOLASTICO 2011-2012 L unità di Milano Città Studi del Centro matematita propone anche per l a.s. 2011-2012 una serie di problemi pensati per

Dettagli

Rapporto dal Questionari Insegnanti

Rapporto dal Questionari Insegnanti Rapporto dal Questionari Insegnanti SCUOLA CHIC81400N N. Docenti che hanno compilato il questionario: 60 Anno Scolastico 2014/15 Le Aree Indagate Il Questionario Insegnanti ha l obiettivo di rilevare la

Dettagli

6.1. Risultati simulazioni termovalorizzatore Osmannoro2000

6.1. Risultati simulazioni termovalorizzatore Osmannoro2000 pag. 217 6. Risultati Di seguito si riportano i risultati relativi alle diverse simulazioni di diffusione atmosferica degli inquinanti effettuate. In particolare sono riportati i risultati sotto forma

Dettagli

CAPACITÀ DI PROCESSO (PROCESS CAPABILITY)

CAPACITÀ DI PROCESSO (PROCESS CAPABILITY) CICLO DI LEZIONI per Progetto e Gestione della Qualità Facoltà di Ingegneria CAPACITÀ DI PROCESSO (PROCESS CAPABILITY) Carlo Noè Università Carlo Cattaneo e-mail: cnoe@liuc.it 1 CAPACITÀ DI PROCESSO Il

Dettagli

Elementi di Psicometria con Laboratorio di SPSS 1

Elementi di Psicometria con Laboratorio di SPSS 1 Elementi di Psicometria con Laboratorio di SPSS 1 12-Il t-test per campioni appaiati vers. 1.2 (7 novembre 2014) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca

Dettagli

Dimensione di uno Spazio vettoriale

Dimensione di uno Spazio vettoriale Capitolo 4 Dimensione di uno Spazio vettoriale 4.1 Introduzione Dedichiamo questo capitolo ad un concetto fondamentale in algebra lineare: la dimensione di uno spazio vettoriale. Daremo una definizione

Dettagli

2 + (σ2 - ρσ 1 ) 2 > 0 [da -1 ρ 1] b = (σ 2. 2 - ρσ1 σ 2 ) = (σ 1

2 + (σ2 - ρσ 1 ) 2 > 0 [da -1 ρ 1] b = (σ 2. 2 - ρσ1 σ 2 ) = (σ 1 1 PORTAFOGLIO Portafoglio Markowitz (2 titoli) (rischiosi) due titoli rendimento/varianza ( μ 1, σ 1 ), ( μ 2, σ 2 ) Si suppone μ 1 > μ 2, σ 1 > σ 2 portafoglio con pesi w 1, w 2 w 1 = w, w 2 = 1- w 1

Dettagli

APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI

APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI Indice 1 Le frazioni algebriche 1.1 Il minimo comune multiplo e il Massimo Comun Divisore fra polinomi........ 1. Le frazioni algebriche....................................

Dettagli

Introduzione all analisi dei segnali digitali.

Introduzione all analisi dei segnali digitali. Introduzione all analisi dei segnali digitali. Lezioni per il corso di Laboratorio di Fisica IV Isidoro Ferrante A.A. 2001/2002 1 Segnali analogici Si dice segnale la variazione di una qualsiasi grandezza

Dettagli

General Linear Model. Esercizio

General Linear Model. Esercizio Esercizio General Linear Model Una delle molteplici applicazioni del General Linear Model è la Trend Surface Analysis. Questa tecnica cerca di individuare, in un modello di superficie, quale tendenza segue

Dettagli

Analisi di scenario File Nr. 10

Analisi di scenario File Nr. 10 1 Analisi di scenario File Nr. 10 Giorgio Calcagnini Università di Urbino Dip. Economia, Società, Politica giorgio.calcagnini@uniurb.it http://www.econ.uniurb.it/calcagnini/ http://www.econ.uniurb.it/calcagnini/forecasting.html

Dettagli

1 Serie di Taylor di una funzione

1 Serie di Taylor di una funzione Analisi Matematica 2 CORSO DI STUDI IN SMID CORSO DI ANALISI MATEMATICA 2 CAPITOLO 7 SERIE E POLINOMI DI TAYLOR Serie di Taylor di una funzione. Definizione di serie di Taylor Sia f(x) una funzione definita

Dettagli

SVILUPPO, CERTIFICAZIONE E MIGLIORAMENTO DEL SISTEMA DI GESTIONE PER LA SICUREZZA SECONDO LA NORMA BS OHSAS 18001:2007

SVILUPPO, CERTIFICAZIONE E MIGLIORAMENTO DEL SISTEMA DI GESTIONE PER LA SICUREZZA SECONDO LA NORMA BS OHSAS 18001:2007 Progettazione ed erogazione di servizi di consulenza e formazione M&IT Consulting s.r.l. Via Longhi 14/a 40128 Bologna tel. 051 6313773 - fax. 051 4154298 www.mitconsulting.it info@mitconsulting.it SVILUPPO,

Dettagli

(Atti per i quali la pubblicazione non è una condizione di applicabilità) COMMISSIONE

(Atti per i quali la pubblicazione non è una condizione di applicabilità) COMMISSIONE L 86/6 Gazzetta ufficiale dell Unione europea 5.4.2005 II (Atti per i quali la pubblicazione non è una condizione di applicabilità) COMMISSIONE DECISIONE DELLA COMMISSIONE del 22 marzo 2005 che stabilisce

Dettagli

Statistica. Lezione 6

Statistica. Lezione 6 Università degli Studi del Piemonte Orientale Corso di Laurea in Infermieristica Corso integrato in Scienze della Prevenzione e dei Servizi sanitari Statistica Lezione 6 a.a 011-01 Dott.ssa Daniela Ferrante

Dettagli

Modelli meteorologici

Modelli meteorologici Fondamenti di meteorologia e climatologia Cenni storici Vilhelm Bjerknes (1904): L evoluzione degli stati atmosferici é controllata da leggi fisiche, quindi condizioni necessarie e sufficienti per risolvere

Dettagli

Elementi di Psicometria con Laboratorio di SPSS 1

Elementi di Psicometria con Laboratorio di SPSS 1 Elementi di Psicometria con Laboratorio di SPSS 1 29-Analisi della potenza statistica vers. 1.0 (12 dicembre 2014) Germano Rossi 1 germano.rossi@unimib.it 1 Dipartimento di Psicologia, Università di Milano-Bicocca

Dettagli

Consideriamo due polinomi

Consideriamo due polinomi Capitolo 3 Il luogo delle radici Consideriamo due polinomi N(z) = (z z 1 )(z z 2 )... (z z m ) D(z) = (z p 1 )(z p 2 )... (z p n ) della variabile complessa z con m < n. Nelle problematiche connesse al

Dettagli

Appunti sulla Macchina di Turing. Macchina di Turing

Appunti sulla Macchina di Turing. Macchina di Turing Macchina di Turing Una macchina di Turing è costituita dai seguenti elementi (vedi fig. 1): a) una unità di memoria, detta memoria esterna, consistente in un nastro illimitato in entrambi i sensi e suddiviso

Dettagli

Controlli Automatici T. Trasformata di Laplace e Funzione di trasferimento. Parte 3 Aggiornamento: Settembre 2010. Prof. L.

Controlli Automatici T. Trasformata di Laplace e Funzione di trasferimento. Parte 3 Aggiornamento: Settembre 2010. Prof. L. Parte 3 Aggiornamento: Settembre 2010 Parte 3, 1 Trasformata di Laplace e Funzione di trasferimento Prof. Lorenzo Marconi DEIS-Università di Bologna Tel. 051 2093788 Email: lmarconi@deis.unibo.it URL:

Dettagli

Come visto precedentemente l equazione integro differenziale rappresentativa dell equilibrio elettrico di un circuito RLC è la seguente: 1 = (1)

Come visto precedentemente l equazione integro differenziale rappresentativa dell equilibrio elettrico di un circuito RLC è la seguente: 1 = (1) Transitori Analisi nel dominio del tempo Ricordiamo che si definisce transitorio il periodo di tempo che intercorre nel passaggio, di un sistema, da uno stato energetico ad un altro, non è comunque sempre

Dettagli

TECNICHE DI SIMULAZIONE

TECNICHE DI SIMULAZIONE TECNICHE DI SIMULAZIONE INTRODUZIONE Francesca Mazzia Dipartimento di Matematica Università di Bari a.a. 2004/2005 TECNICHE DI SIMULAZIONE p. 1 Introduzione alla simulazione Una simulazione è l imitazione

Dettagli

Amplificatori Audio di Potenza

Amplificatori Audio di Potenza Amplificatori Audio di Potenza Un amplificatore, semplificando al massimo, può essere visto come un oggetto in grado di aumentare il livello di un segnale. Ha quindi, generalmente, due porte: un ingresso

Dettagli

Capitolo 2. Operazione di limite

Capitolo 2. Operazione di limite Capitolo 2 Operazione di ite In questo capitolo vogliamo occuparci dell operazione di ite, strumento indispensabile per scoprire molte proprietà delle funzioni. D ora in avanti riguarderemo i domini A

Dettagli

1. Scopo dell esperienza.

1. Scopo dell esperienza. 1. Scopo dell esperienza. Lo scopo di questa esperienza è ricavare la misura di tre resistenze il 4 cui ordine di grandezza varia tra i 10 e 10 Ohm utilizzando il metodo olt- Amperometrico. Tale misura

Dettagli

EVOLUZIONE DELLE INIZIATIVE PER LA QUALITA : L APPROCCIO SIX SIGMA

EVOLUZIONE DELLE INIZIATIVE PER LA QUALITA : L APPROCCIO SIX SIGMA http://www.sinedi.com ARTICOLO 3 LUGLIO 2006 EVOLUZIONE DELLE INIZIATIVE PER LA QUALITA : L APPROCCIO SIX SIGMA A partire dal 1980 sono state sviluppate diverse metodologie per la gestione della qualità

Dettagli

PowerSchedo. Un sistema di supporto alla decisione nel settore dell'oil&gas. For further information: www.mbigroup.it

PowerSchedo. Un sistema di supporto alla decisione nel settore dell'oil&gas. For further information: www.mbigroup.it PowerSchedo Un sistema di supporto alla decisione nel settore dell'oil&gas For further information: Introduzione PowerSchedO è uno strumento software di supporto alle decisioni per problemi nel settore

Dettagli

Statistica inferenziale

Statistica inferenziale Statistica inferenziale Popolazione e campione Molto spesso siamo interessati a trarre delle conclusioni su persone che hanno determinate caratteristiche (pazienti, atleti, bambini, gestanti, ) Osserveremo

Dettagli

1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario:

1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario: Esempi di domande risposta multipla (Modulo II) 1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario: 1) ha un numero di elementi pari a 5; 2) ha un numero di elementi

Dettagli

VALORE DELLE MERCI SEQUESTRATE

VALORE DELLE MERCI SEQUESTRATE La contraffazione in cifre: NUOVA METODOLOGIA PER LA STIMA DEL VALORE DELLE MERCI SEQUESTRATE Roma, Giugno 2013 Giugno 2013-1 Il valore economico dei sequestri In questo Focus si approfondiscono alcune

Dettagli

L ORGANIZZAZIONE AZIENDALE

L ORGANIZZAZIONE AZIENDALE L ORGANIZZAZIONE AZIENDALE CONCETTO: L ORGANIZZAZIONE SI PONE COME OBIETTIVO LO STUDIO DELLE COMPOSIZIONI PIU CONVENIENTI DELLE FORZE PERSONALI, MATERIALI E IMMATERIALI OPERANTI NEL SISTEMA AZIENDALE.

Dettagli

Corso di. Dott.ssa Donatella Cocca

Corso di. Dott.ssa Donatella Cocca Corso di Statistica medica e applicata Dott.ssa Donatella Cocca 1 a Lezione Cos'è la statistica? Come in tutta la ricerca scientifica sperimentale, anche nelle scienze mediche e biologiche è indispensabile

Dettagli

come nasce una ricerca

come nasce una ricerca PSICOLOGIA SOCIALE lez. 2 RICERCA SCIENTIFICA O SENSO COMUNE? Paola Magnano paola.magnano@unikore.it ricevimento: martedì ore 10-11 c/o Studio 16, piano -1 PSICOLOGIA SOCIALE COME SCIENZA EMPIRICA le sue

Dettagli

Indice di rischio globale

Indice di rischio globale Indice di rischio globale Di Pietro Bottani Dottore Commercialista in Prato Introduzione Con tale studio abbiamo cercato di creare un indice generale capace di valutare il rischio economico-finanziario

Dettagli

Ing. Simone Giovannetti

Ing. Simone Giovannetti Università degli Studi di Firenze Dipartimento di Elettronica e Telecomunicazioni Ing. Simone Giovannetti Firenze, 29 Maggio 2012 1 Incertezza di Misura (1/3) La necessità di misurare nasce dall esigenza

Dettagli

Posizionamento ottimale di sensori per il monitoraggio degli inquinanti nelle reti idriche

Posizionamento ottimale di sensori per il monitoraggio degli inquinanti nelle reti idriche Posizionamento ottimale di sensori per il monitoraggio degli inquinanti nelle reti idriche Fulvio BOANO Politecnico di Torino Dipartimento di Ingegneria dell Ambiente, del Territorio e delle Infrastrutture

Dettagli

11. Analisi statistica degli eventi idrologici estremi

11. Analisi statistica degli eventi idrologici estremi . Analisi statistica degli eventi idrologici estremi I processi idrologici evolvono, nello spazio e nel tempo, secondo modalità che sono in parte predicibili (deterministiche) ed in parte casuali (stocastiche

Dettagli

Statistica. Esercitazione 15. Alfonso Iodice D Enza iodicede@unicas.it. Università degli studi di Cassino. Statistica. A. Iodice

Statistica. Esercitazione 15. Alfonso Iodice D Enza iodicede@unicas.it. Università degli studi di Cassino. Statistica. A. Iodice Esercitazione 15 Alfonso Iodice D Enza iodicede@unicas.it Università degli studi di Cassino () 1 / 18 L importanza del gruppo di controllo In tutti i casi in cui si voglia studiare l effetto di un certo

Dettagli

Metodi statistici per le ricerche di mercato

Metodi statistici per le ricerche di mercato Metodi statistici per le ricerche di mercato Prof.ssa Isabella Mingo A.A. 2014-2015 Facoltà di Scienze Politiche, Sociologia, Comunicazione Corso di laurea Magistrale in «Organizzazione e marketing per

Dettagli

Università degli Studi di Salerno

Università degli Studi di Salerno Università degli Studi di Salerno Facoltà di Scienze Matematiche Fisiche e Naturali Corso di Laurea in Informatica Tesi di Laurea Algoritmi basati su formule di quadratura interpolatorie per GPU ABSTRACT

Dettagli

SPC e distribuzione normale con Access

SPC e distribuzione normale con Access SPC e distribuzione normale con Access In questo articolo esamineremo una applicazione Access per il calcolo e la rappresentazione grafica della distribuzione normale, collegata con tabelle di Clienti,

Dettagli

~ Copyright Ripetizionando - All rights reserved ~ http://ripetizionando.wordpress.com STUDIO DI FUNZIONE

~ Copyright Ripetizionando - All rights reserved ~ http://ripetizionando.wordpress.com STUDIO DI FUNZIONE STUDIO DI FUNZIONE Passaggi fondamentali Per effettuare uno studio di funzione completo, che non lascia quindi margine a una quasi sicuramente errata inventiva, sono necessari i seguenti 7 passaggi: 1.

Dettagli

Rette e curve, piani e superfici

Rette e curve, piani e superfici Rette e curve piani e superfici ) dicembre 2 Scopo di questo articolo è solo quello di proporre uno schema riepilogativo che metta in luce le caratteristiche essenziali delle equazioni di rette e curve

Dettagli

OSSERVAZIONI TEORICHE Lezione n. 4

OSSERVAZIONI TEORICHE Lezione n. 4 OSSERVAZIONI TEORICHE Lezione n. 4 Finalità: Sistematizzare concetti e definizioni. Verificare l apprendimento. Metodo: Lettura delle OSSERVAZIONI e risoluzione della scheda di verifica delle conoscenze

Dettagli

Federico Laschi. Conclusioni

Federico Laschi. Conclusioni Lo scopo di questa tesi è stato quello di proporre alcuni algoritmi di allocazione dinamica della capacità trasmissiva, basati su tecniche di predizione on-line dei processi di traffico. Come prima analisi

Dettagli

Calcolo delle probabilità

Calcolo delle probabilità Calcolo delle probabilità Laboratorio di Bioinformatica Corso A aa 2005-2006 Statistica Dai risultati di un esperimento si determinano alcune caratteristiche della popolazione Calcolo delle probabilità

Dettagli

Scheduling della CPU. Sistemi multiprocessori e real time Metodi di valutazione Esempi: Solaris 2 Windows 2000 Linux

Scheduling della CPU. Sistemi multiprocessori e real time Metodi di valutazione Esempi: Solaris 2 Windows 2000 Linux Scheduling della CPU Sistemi multiprocessori e real time Metodi di valutazione Esempi: Solaris 2 Windows 2000 Linux Sistemi multiprocessori Fin qui si sono trattati i problemi di scheduling su singola

Dettagli

UTILIZZATORI A VALLE: COME RENDERE NOTI GLI USI AI FORNITORI

UTILIZZATORI A VALLE: COME RENDERE NOTI GLI USI AI FORNITORI UTILIZZATORI A VALLE: COME RENDERE NOTI GLI USI AI FORNITORI Un utilizzatore a valle di sostanze chimiche dovrebbe informare i propri fornitori riguardo al suo utilizzo delle sostanze (come tali o all

Dettagli

Che cosa e come valutano le prove di matematica e con quali risultati. nell A.S. 2008 2009

Che cosa e come valutano le prove di matematica e con quali risultati. nell A.S. 2008 2009 Che cosa e come valutano le prove di matematica e con quali risultati nell A.S. 2008 2009 Presentazione a cura di Roberta Michelini Casalpusterlengo, 8 gennaio 2010 http://www.invalsi.it/esamidistato0809/

Dettagli

Laboratorio di Pedagogia Sperimentale. Indice

Laboratorio di Pedagogia Sperimentale. Indice INSEGNAMENTO DI LABORATORIO DI PEDAGOGIA SPERIMENTALE LEZIONE III INTRODUZIONE ALLA RICERCA SPERIMENTALE (PARTE III) PROF. VINCENZO BONAZZA Indice 1 L ipotesi -----------------------------------------------------------

Dettagli

Analisi e diagramma di Pareto

Analisi e diagramma di Pareto Analisi e diagramma di Pareto L'analisi di Pareto è una metodologia statistica utilizzata per individuare i problemi più rilevanti nella situazione in esame e quindi le priorità di intervento. L'obiettivo

Dettagli

Corrispondenze e funzioni

Corrispondenze e funzioni Corrispondenze e funzioni L attività fondamentale della mente umana consiste nello stabilire corrispondenze e relazioni tra oggetti; è anche per questo motivo che il concetto di corrispondenza è uno dei

Dettagli

Introduzione allo studio sulla pericolosità meteorologica a scala nazionale: la sensibilità del mercato assicurativo ai

Introduzione allo studio sulla pericolosità meteorologica a scala nazionale: la sensibilità del mercato assicurativo ai Introduzione allo studio sulla pericolosità meteorologica a scala nazionale: la sensibilità del mercato assicurativo ai danni da eventi atmosferici Ronchi Romina Milano, 1 Giugno 2011 CONTENUTI Lo studio

Dettagli

Le fattispecie di riuso

Le fattispecie di riuso Le fattispecie di riuso Indice 1. PREMESSA...3 2. RIUSO IN CESSIONE SEMPLICE...4 3. RIUSO CON GESTIONE A CARICO DEL CEDENTE...5 4. RIUSO IN FACILITY MANAGEMENT...6 5. RIUSO IN ASP...7 1. Premessa Poiché

Dettagli

Grandezze fisiche e loro misura

Grandezze fisiche e loro misura Grandezze fisiche e loro misura Cos è la fisica? e di che cosa si occupa? - Scienza sperimentale che studia i fenomeni naturali suscettibili di sperimentazione e caratterizzati da entità o grandezze misurabili.

Dettagli

PROGETTO INDAGINE DI OPINIONE SUL PROCESSO DI FUSIONE DEI COMUNI NEL PRIMIERO

PROGETTO INDAGINE DI OPINIONE SUL PROCESSO DI FUSIONE DEI COMUNI NEL PRIMIERO PROGETTO INDAGINE DI OPINIONE SUL PROCESSO DI FUSIONE DEI COMUNI NEL PRIMIERO L indagine si è svolta nel periodo dal 26 agosto al 16 settembre 2014 con l obiettivo di conoscere l opinione dei residenti

Dettagli

Rendering air show e verifica della sincronizzazione

Rendering air show e verifica della sincronizzazione Capitolo 5 Rendering air show e verifica della sincronizzazione 5.1 Introduzione Il Rendering 3D dell evoluzioni acrobatiche costituisce uno degli aspetti cruciali dell applicazione realizzata. L ambiente

Dettagli

Che cos è l intelligenza e come funzionano i test del Q.I.

Che cos è l intelligenza e come funzionano i test del Q.I. Che cos è l intelligenza e come funzionano i test del Q.I. Non esiste, al giorno d oggi, un parere unanime della comunità scientifica sulla definizione di intelligenza. In generale, potremmo dire che è

Dettagli

Sistemi Informativi Territoriali. Map Algebra

Sistemi Informativi Territoriali. Map Algebra Paolo Mogorovich Sistemi Informativi Territoriali Appunti dalle lezioni Map Algebra Cod.735 - Vers.E57 1 Definizione di Map Algebra 2 Operatori locali 3 Operatori zonali 4 Operatori focali 5 Operatori

Dettagli

Parte I. Prima Parte

Parte I. Prima Parte Parte I Prima Parte Capitolo 1 Introduzione generale 1.1 Il problema dell assegnazione Corsi-Borsisti Il problema dell assegnazione delle borse dei corsi ai vari studenti può essere riassunto nei punti

Dettagli

Monitoraggio sulla conversione dei prezzi al consumo dalla Lira all Euro

Monitoraggio sulla conversione dei prezzi al consumo dalla Lira all Euro ISTAT 17 gennaio 2002 Monitoraggio sulla conversione dei prezzi al consumo dalla Lira all Euro Nell ambito dell iniziativa di monitoraggio, avviata dall Istat per analizzare le modalità di conversione

Dettagli

ANNO SCOLASTICO 2014-2015

ANNO SCOLASTICO 2014-2015 ATTIVITÀ DI SPERIMENTAZIONE IN CLASSE PREVISTA NELL AMBITO DEL PROGETTO M2014 PROMOSSO DALL ACCADEMIA DEI LINCEI PER LE SCUOLE PRIMARIE E SECONDARIE DI I GRADO ANNO SCOLASTICO 2014-2015 Il Centro matematita,

Dettagli

Capitolo II. La forma del valore. 7. La duplice forma in cui si presenta la merce: naturale e di valore.

Capitolo II. La forma del valore. 7. La duplice forma in cui si presenta la merce: naturale e di valore. Capitolo II La forma del valore 7. La duplice forma in cui si presenta la merce: naturale e di valore. I beni nascono come valori d uso: nel loro divenire merci acquisiscono anche un valore (di scambio).

Dettagli

Esponenziali elogaritmi

Esponenziali elogaritmi Esponenziali elogaritmi Potenze ad esponente reale Ricordiamo che per un qualsiasi numero razionale m n prendere n>0) si pone a m n = n a m (in cui si può sempre a patto che a sia un numero reale positivo.

Dettagli

Abbiamo costruito il grafico delle sst in funzione del tempo (dal 1880 al 1995).

Abbiamo costruito il grafico delle sst in funzione del tempo (dal 1880 al 1995). ANALISI DI UNA SERIE TEMPORALE Analisi statistica elementare Abbiamo costruito il grafico delle sst in funzione del tempo (dal 1880 al 1995). Si puo' osservare una media di circa 26 C e una deviazione

Dettagli

Capitolo 12 La regressione lineare semplice

Capitolo 12 La regressione lineare semplice Levine, Krehbiel, Berenson Statistica II ed. 2006 Apogeo Capitolo 12 La regressione lineare semplice Insegnamento: Statistica Corso di Laurea Triennale in Economia Facoltà di Economia, Università di Ferrara

Dettagli

Pro e contro delle RNA

Pro e contro delle RNA Pro e contro delle RNA Pro: - flessibilità: le RNA sono approssimatori universali; - aggiornabilità sequenziale: la stima dei pesi della rete può essere aggiornata man mano che arriva nuova informazione;

Dettagli

Matematica generale CTF

Matematica generale CTF Successioni numeriche 19 agosto 2015 Definizione di successione Monotonìa e limitatezza Forme indeterminate Successioni infinitesime Comportamento asintotico Criterio del rapporto per le successioni Definizione

Dettagli

La manutenzione come elemento di garanzia della sicurezza di macchine e impianti

La manutenzione come elemento di garanzia della sicurezza di macchine e impianti La manutenzione come elemento di garanzia della sicurezza di macchine e impianti Alessandro Mazzeranghi, Rossano Rossetti MECQ S.r.l. Quanto è importante la manutenzione negli ambienti di lavoro? E cosa

Dettagli

COMUNE DI RAVENNA GUIDA ALLA VALUTAZIONE DELLE POSIZIONI (FAMIGLIE, FATTORI, LIVELLI)

COMUNE DI RAVENNA GUIDA ALLA VALUTAZIONE DELLE POSIZIONI (FAMIGLIE, FATTORI, LIVELLI) COMUNE DI RAVENNA Il sistema di valutazione delle posizioni del personale dirigente GUIDA ALLA VALUTAZIONE DELLE POSIZIONI (FAMIGLIE, FATTORI, LIVELLI) Ravenna, Settembre 2004 SCHEMA DI SINTESI PER LA

Dettagli

Stimare il WCET Metodo classico e applicazione di un algoritmo genetico

Stimare il WCET Metodo classico e applicazione di un algoritmo genetico Stimare il WCET Metodo classico e applicazione di un algoritmo genetico Sommario Introduzione Definizione di WCET Importanza del WCET Panoramica dei classici metodi per calcolare il WCET [1] Utilizzo di

Dettagli

Un po di statistica. Christian Ferrari. Laboratorio di Matematica

Un po di statistica. Christian Ferrari. Laboratorio di Matematica Un po di statistica Christian Ferrari Laboratorio di Matematica 1 Introduzione La statistica è una parte della matematica applicata che si occupa della raccolta, dell analisi e dell interpretazione di

Dettagli

Indice generale. OOA Analisi Orientata agli Oggetti. Introduzione. Analisi

Indice generale. OOA Analisi Orientata agli Oggetti. Introduzione. Analisi Indice generale OOA Analisi Orientata agli Oggetti Introduzione Analisi Metodi d' analisi Analisi funzionale Analisi del flusso dei dati Analisi delle informazioni Analisi Orientata agli Oggetti (OOA)

Dettagli

1.5. ISTOGRAMMA 17. Figura 1.3: Istogramma ottenuto mediante campionamento da VA Gaussiana (η x =0, σ 2 X =1).

1.5. ISTOGRAMMA 17. Figura 1.3: Istogramma ottenuto mediante campionamento da VA Gaussiana (η x =0, σ 2 X =1). .5. ISTOGRAMMA 7.5 Istogramma A partire dalle considerazioni svolte nel paragrafo precedente, posto x m = min(x,,x N e x M = max(x,,x N, possiamo ottenere una stima della densità di probabilità p (x suddividendo

Dettagli

Funzioni in C. Violetta Lonati

Funzioni in C. Violetta Lonati Università degli studi di Milano Dipartimento di Scienze dell Informazione Laboratorio di algoritmi e strutture dati Corso di laurea in Informatica Funzioni - in breve: Funzioni Definizione di funzioni

Dettagli

Gestione della politica monetaria: strumenti e obiettivi corso PAS. Mishkin, Eakins, Istituzioni e mercati finanziari, 3/ed.

Gestione della politica monetaria: strumenti e obiettivi corso PAS. Mishkin, Eakins, Istituzioni e mercati finanziari, 3/ed. Gestione della politica monetaria: strumenti e obiettivi corso PAS 1 Anteprima Con il termine politica monetaria si intende la gestione dell offerta di moneta. Sebbene il concetto possa apparire semplice,

Dettagli

( x) ( x) 0. Equazioni irrazionali

( x) ( x) 0. Equazioni irrazionali Equazioni irrazionali Definizione: si definisce equazione irrazionale un equazione in cui compaiono uno o più radicali contenenti l incognita. Esempio 7 Ricordiamo quanto visto sulle condizioni di esistenza

Dettagli

Il concetto di valore medio in generale

Il concetto di valore medio in generale Il concetto di valore medio in generale Nella statistica descrittiva si distinguono solitamente due tipi di medie: - le medie analitiche, che soddisfano ad una condizione di invarianza e si calcolano tenendo

Dettagli

Capitolo 4 Probabilità

Capitolo 4 Probabilità Levine, Krehbiel, Berenson Statistica II ed. 2006 Apogeo Capitolo 4 Probabilità Insegnamento: Statistica Corso di Laurea Triennale in Economia Facoltà di Economia, Università di Ferrara Docenti: Dott.

Dettagli

Un gioco con tre dadi

Un gioco con tre dadi Un gioco con tre dadi Livello scolare: biennio Abilità interessate Costruire lo spazio degli eventi in casi semplici e determinarne la cardinalità. Valutare la probabilità in diversi contesti problematici.

Dettagli

Slide Cerbara parte1 5. Le distribuzioni teoriche

Slide Cerbara parte1 5. Le distribuzioni teoriche Slide Cerbara parte1 5 Le distribuzioni teoriche I fenomeni biologici, demografici, sociali ed economici, che sono il principale oggetto della statistica, non sono retti da leggi matematiche. Però dalle

Dettagli

STATISTICA IX lezione

STATISTICA IX lezione Anno Accademico 013-014 STATISTICA IX lezione 1 Il problema della verifica di un ipotesi statistica In termini generali, si studia la distribuzione T(X) di un opportuna grandezza X legata ai parametri

Dettagli

Per studio di funzione intendiamo un insieme di procedure che hanno lo scopo di analizzare le proprietà di una funzione f ( x) R R

Per studio di funzione intendiamo un insieme di procedure che hanno lo scopo di analizzare le proprietà di una funzione f ( x) R R Studio di funzione Per studio di funzione intendiamo un insieme di procedure che hanno lo scopo di analizzare le proprietà di una funzione f ( x) R R : allo scopo di determinarne le caratteristiche principali.

Dettagli

ESAME DI STATO DI LICEO SCIENTIFICO CORSO SPERIMENTALE P.N.I. 2004

ESAME DI STATO DI LICEO SCIENTIFICO CORSO SPERIMENTALE P.N.I. 2004 ESAME DI STAT DI LICE SCIENTIFIC CRS SPERIMENTALE P.N.I. 004 Il candidato risolva uno dei due problemi e 5 dei 0 quesiti in cui si articola il questionario. PRBLEMA Sia la curva d equazione: ke ove k e

Dettagli