Data transfer. Paolo Veronesi INFN-CNAF. www.eu-egee.org. http://grid.infn.it. VII Workshop GARR network in progress: la rete evolve con I suoi utenti

Documenti analoghi
INFN-BOLOGNA-T3. L. Rinaldi

Reti di Telecomunicazione Lezione 6

tecnologie di cloud computing per il calcolo scientifico Presentazione stage per studenti triennali Università di Torino Mar 6, 2013

WNoD: Virtualizzazione, Grid e Cloud nel Calcolo Scientifico per l INFN

Titolo progetto: ConsoliData. Ambito di intervento: ICT e dispositivi sensoriali. Struttura di riferimento : Coordinatore di progetto: INFN

Reti e Internet: introduzione

Reti di Calcolatori. Il Livello delle Applicazioni

Infrastruttura di produzione INFN-GRID

Ministero della Giustizia

Il proge)o ReCaS infrastru)ura distribuita di calcolo per SuperB ed altre applicazioni

Sistemi Operativi. Conclusioni e nuove frontiere

Sommario. Oracle Database 10g (laboratorio) Grid computing. Oracle Database 10g. Concetti. Installazione Oracle Database 10g

Ambienti di calcolo a griglia Parte 2. Risorse (e loro gestione) Job di griglia e applicazioni di griglia Riservare le risorse ai job

Dal protocollo IP ai livelli superiori

Introduzione al Cloud Computing

PROGETTO ELDAO ORGANIZZAZIONE, VANTAGGI, OFFERTA

SOMMARIO... 2 Introduzione... 3 Configurazione Microsoft ISA Server... 4 Microsoft ISA Server Microsoft ISA Server

Grid Data Management Services

File Server Resource Manager (FSRM)

TYPO3 in azione con l infrastruttura ZEND: affidabilità e sicurezza. Mauro Lorenzutti CTO di Webformat srl mauro.lorenzutti@webformat.

Reti di Telecomunicazione Lezione 7

Lo scenario: la definizione di Internet

Site Matrix e PoP Matrix

Scuola Superiore Sant Anna. Progetto parte Unix. AA : Distributed File Repository

Informatica per la comunicazione" - lezione 8 -

Griglie computazionali LEZIONE N. 10. Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno

Prodotto <ADAM DASHBOARD> Release <1.0> Gennaio 2015

Infrastruttura ReCaS. Roberto Bellotti Università degli Studi di Bari A. Moro & INFN

Grid Data Management Services. Griglie e Sistemi di Elaborazione Ubiqui

Accesso integrato a risorse computazionali: stato e prospettive

Sicurezza nelle applicazioni multimediali: lezione 9, firewall. I firewall

Sommario. Introduzione al problema Infrastruttura realizzata Procedure di ottimizzazione Validazione Conclusioni

Il Progetto di Centro di Reprocessing di BaBar: Monitoring e Simulazione

Tabelle di riferimento Pulsanti Inserire documento Predisposizione doc Approvazione Doc Numerazione Doc Pubblicazione Albo Webservice

Manuale per la configurazione di AziendaSoft in rete

Introduzione alle applicazioni di rete

PROGETTO ELDAO ORGANIZZAZIONE, VANTAGGI, OFFERTA

Riccardo Dutto, Paolo Garza Politecnico di Torino. Riccardo Dutto, Paolo Garza Politecnico di Torino

SEGNALIBRO NON È DEFINITO.

Grid Data Management Services

Tier1-CNAF. DC04 Activities and Status. TISB - Pisa - P. Capiluppi

Organizzazioni nel Grid Computing

Manuale d uso della libreria Volta Log

1) GESTIONE DELLE POSTAZIONI REMOTE

AVIPA 1. Presentazione generale dell'ambiente software

CORSO DI RETI SSIS. Lezione n.2. 2 Novembre 2005 Laura Ricci

MANUALE CONFIGURAZIONE ED UTILIZZO GATEWAY MBUS-MODBUS (RTU/TCP) MODELLO PiiGAB M900

CONTENT MANAGEMENT SY STEM

Reti di calcolatori. Reti di calcolatori

Firewall applicativo per la protezione di portali intranet/extranet

GROUP POLICY MANAGEMENT CONSOLE (ACTIVE DIRECTORY)

Guida alla registrazione on-line di un DataLogger

Corso basi di dati Installazione e gestione di PWS

Plugin Single Sign-On

ACCESS LIST. Pietro Nicoletti

crazybrain snc Presentazione_VisualFTP.pdf Pag. 1 VisualFTP Presentazione del prodotto Web partner:

CLOUD AWS. #cloudaws. Community - Cloud AWS su Google+ Amazon Web Services. Amazon VPC (Virtual Private Cloud)

Esercitazione 05. Sommario. Packet Filtering [ ICMP ] Esercitazione Descrizione generale. Angelo Di Iorio (Paolo Marinelli)

Manuale di Aggiornamento BOLLETTINO. Rel H4. DATALOG Soluzioni Integrate a 32 Bit

Siti web centrati sui dati (Data-centric web applications)

Grid on Cloud : Implementazione e Monitoraggio

Torino Milano Reggio Emilia Roma

AGENDA.. Mission. Componenti SMC. Security Environment. Report. Eventi. Update prodotti. Faq. Achab 2009 pagina 1

Un sistema per l'emulazione delle reti su cluster di macchine virtuali Anno Accademico 2007/2008

Manuale d'uso del Connection Manager

Controllo web per endpoint Panoramica

Controllo web per endpoint Panoramica. Sophos Web Appliance Sophos Enterprise Console Sophos Endpoint Security and Control

Software di sistema e software applicativo. I programmi che fanno funzionare il computer e quelli che gli permettono di svolgere attività specifiche

Copyright TIQ srl 2009 Internal/Confidential/Public

MODELLO CLIENT/SERVER. Gianluca Daino Dipartimento di Ingegneria dell Informazione Università degli Studi di Siena

MISURAZIONE DEI LIVELLI DI SERVIZIO

DW-SmartCluster (ver. 2.1) Architettura e funzionamento

Data Base. Master "Bio Info" Reti e Basi di Dati Lezione 6

Reti di Telecomunicazione Lezione 8

Studi di Settore. Nota Operativa 22/4/2013

Console di Amministrazione Centralizzata Guida Rapida

NEAL. Increase your Siebel productivity

LA MIGRAZIONE IN SEMPLICI STEP. Il moving di una macchina Linux sul Cloud Server Seeweb

Ministero dell Ambiente e della Tutela del Territorio e del Mare

Come si può vedere, la regola è stata fatta in modo da spostare tutti i messaggi di Spam nella cartella del cestino.

Progetto ReCaS status update. Giuseppe Andronico WS CCR, Catania 28 Maggio 2014

Alfa Layer S.r.l. Via Caboto, Torino ALFA PORTAL

Workshop CCR-INFNGRID Survey MPI. Roberto Alfieri - Università di Parma & INFN, Gr.Coll. di Parma. Catania, 18 Maggio 2010

INTERNET INTRANET EXTRANET

Protocollo SNMP e gestione remota delle apparecchiature

Receptionist 2.0. La soluzione semplice ed affidabile per il contact center

RETI DI COMPUTER Reti Geografiche. (Sez. 9.8)

Contesto: Peer to Peer

ARCHIVIA PLUS VERSIONE SQL SERVER

OpenVAS - Open Source Vulnerability Scanner

Allegato. Servizio Hosting Virtual DataCenter di Regione Lombardia. per l ENTE UCL Asta del Serio

INFORMATICA DISTRIBUITA. prof. Carlo Bellettini. lez 9 Distribuzione dei contenuti

Architettura client-server

Tirocinio per la Laurea Triennale

Gestione del file system

Harvesting delle tesi di dottorato delle Biblioteche Nazionali tramite DSpace

VMware. Gestione dello shutdown con UPS MetaSystem

REGIONE BASILICATA UFFICIO S. I. R. S.

SurfCop. Informazioni sul prodotto

Applicazioni web centrati sui dati (Data-centric web applications)

Transcript:

Data transfer www.eu-egee.org Paolo Veronesi INFN-CNAF http://grid.infn.it VII Workshop GARR network in progress: la rete evolve con I suoi utenti

Sommario La sfida di WLCG Modello di calcolo degli esperimenti LHC Esempio: il modello LHCb Esempio: il modello CMS FTS: File Transfer Service Architettura e concetti; Utilizzo e monitoring; Note su firewall Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 2

La sfida LHC Volume di dati Alto rate x tanti canali x 4 esperimenti 15 PetaBytes di nuovi dati ogni anno Potenza di calcolo Analisi di eventi x migliaia di utenti 100k delle piu veloci CPUs di oggi Analisi e fondi distribuiti Worldwide Fondi per le risorse di calcolo e di storage distribuiti a livello regionale e nazionale Analisi efficente ovunque GRID technology Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 3

La distribuzione dei progetti EGEE e OSG I progetti EGEE e OSG sono la base del progetto Worldwide LHC Computing Grid Project WLCG INTEROPERABILITA Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 4

La collaborazione WLCG La collaborazione 4 LHC esperimenti ~200 centri di calcolo 12 (Tier-0, Tier-1) 38 Tier-2 40 Paesi coinvolti Grids: EGEE, OSG TIER2: Universita ; Sezioni INFN; Laboratori; Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 5

LHCb Computing Model 1/2 Modello gerarchico; TIER 0: CERN Centro di produzione centrale, responsabile per la distribuzione dei RAW data in quasi real-time a tutti i Tier1; TIER 0 + 6 TIER 1 Responsabili del processo di produzione associato ai dati reali (dati salvati al CERN e una copia distribuita sui tier1). La maggioranza delle analisi fisiche saranno svolte al CERN e nei tier1. Una certa porzione di dati (DST current year) verra poi distribuita a tutti i tier2; 12 TIER2 Usati quasi esclusivamente per produzione di eventi simulati (MonteCarlo), con CERN e TIER1 che faranno da repository centrali Per analisi occorre ricevere gli ultimi DST in semi real-time (50MB/s) Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 6

LHCb Computing Model 2/2 Concetto di cloud Tier 2 Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 7

LHCb computing resource Stime 2006-2010 Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 8

Il modello CMS Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 9

INFN Tier 2 sites ALICE INFN-CATANIA INFN-TORINO INFN-BARI (TBD) INFN-LEGNARO (TBD) ATLAS INFN-ROMA1 INFN-NAPOLI INFN-MILANO (sj) INFN-FRASCATI (in) CMS INFN-ROMA1 INFN-LEGNARO INFN-BARI (in) INFN-PISA (sj) LHCb INFN-T1 (CNAF) Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 10

FTS overview File Transfer Service (FTS) e un servizio per il trasferimento di dati E un servizio multi esperimento, utilizzato per bilanciare l uso delle risorse di un sito in accordo con le policy del sito stesso e delle Virtual Organizzation (VO) che supporta; Perche serve? Lato utenti, il servizio permette il trasferimento dei file da una sorgente ad una destinazione in modo affidabile; Lato site manager, fornisce una soluzione affidabile ed elastica per soddisfare le richieste di trasferimento dati provenienti dagli esperimenti supportati; Lato production manager, permette di controllare le richieste dei loro utenti (priorita, re-schedule transfer,.) Il focus e nel servizio : Deve permettere queste operazioni in maniera semplice e trasparente Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 11

CANALE : non e un nome corretto Non si intende un percorso di rete ; Il concetto di canale E solo definito in maniera concettuale (nulla vieta di avere canali che si mappano su link fisici); Coda sarebbe comunque meglio Un canale puo essere: Una connessione punto a punto (sorgente -> destinazione) Canali catch-all (e.g. Mondo->me, me->mondo) Una definizione piu flessibile dei canali e in via di sviluppo. I canali sono uni direzionali I job di trasferimento vengono serviti secondo diverse priorita : Priorita Intra-VO per canale (Atlas 75%, CMS 25%) Ogni canale ha il proprio set di parametri da configurare: Numero di trasferimenti concorrenti, numero di streams, buffer TCP, numero di risottomissioni in caso di fallimenti, etc. Il servizio puo dividere un job su piu canali; Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 12

Chi lo usa? FTS e utilizzato dai frameworks degli esperimenti Di solito un utente finale non utilizza direttamentre il servizio, ma attraverso il framework del proprio esperimento; Production managers possono fare query dirette per debug e test Esempio: 1. Il framework degli esperimenti e responsabile dello stagin-in dei dati; 2. Vengono definiti dei set di sorgenti/destinzioni per un determinato gruppo di dati e sottomessi job di trasferimento a FTS; 3. Lo stato di ciascun job viene tracciato durante le varie fasi del trasferimento; 4. Il framework dell esperimento puo registrare lo stato dei job in ogni momento CMS TUTTI i transfers T0-T1 sono fatti con PhEDEx/FTS; La maggioranza dei trasferimenti T1-T2 sono fatti con PhEDEx/FTS Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 13

Architettura di FTS Web-service come front-end VO agents si occupano di operazioni VO-specifiche (1 per VO) Channel agents si occupano di operazioni specifiche del canale (1 per canale) Oracle come backend DB. Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 14

Configurazione FTS a INFN-T1 Non solo LHC VOs PAMELA VIRGO 2 server dedicati in produzione (uno idle) + 1 server in preproduzione Problemi di cpu load con il DB sullo stesso; FTS DB installato su un server dedicato (verra installato su un cluster oracle) Matrice completa di canali T1<->T1 + T1<->T2 + STAR channels (39 canali in tutto); (Prototipo) Monitoring tool disponibile: Web interface: http://argus.cnaf.infn.it/fts/index-fts.php Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 15

FTS monitoring tool DN utente recuperato dai log del web service; Tutte le altre informazioni recuperate dai log degli agenti dei canali e delle VO; Auto discovery di nuove VO e nuovi canali; UP & RUNNING da 5 mesi ~ 70 000 job collezionati Informazioni disponibile per job: Canale VO DN Utente SRM Sorgente e destinazione FILE Sorgente e destinazione stato del job Inizio trasferimento Termine trasferimento Byte trasferiti Durata del job Rate Error code & Error Message FAIR-SHARE # job concorrenti # di streams Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 16

Failed = Aborted + Cancelled by users + Succesfully Failed Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 17

FTS Monitoring tool dettagli del job Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 18

Firewall Non e proposta nessuna configurazione firewall automatica dagli script di installazione e/o configurazione; Se un sito e protetto da firewall, occorre comunicare agli amministratori di rete di aprire alcuni buchi in entrata e/o uscita a seconda dei servizi. Una mappa completa delle porte utilizzate, suddivise per servizi, e disponibile nel seguente URL: http://j.home.cern.ch/j/jwhite/www/lcg-port-table.xls Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 19

Esempio di porte utilizzate Node Service From To src port (tcp) dest port (tcp) SE GridFTP Control *{UI,SE,CE,WN} C localhost 2811 GridFTP data (single channel) *{UI,SE,CE,WN} C localhost C GridFTP data (multiple channel) *{UI,SE,CE,WN} C localhost C C SRM - httpd(apache) * localhost Controlable Ephemeral range (e.g. 20000-25000). Note: In practice, although this portrange is locally configurable using the GLOBUS_TCP_PORT_RANGE environment variable, the values applying at a remote service cannot be predicted. Consequently reliable connection can only be established if all ports >1023 are left open for outbound connections. * 80 Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 20

References Grid.IT Italian Grid Infrastructure: http://grid.infn.it/ EGEE Project: http://www.eu-egee.org/ LCG - LHC Computing Grid Project http://www.cern.ch/lcg LHCb Computing Model (LHCC Review Report, 18/01/2005), CERN/LHCC-2004-036 LHCC-G-084 CMS Computing Model, CERN-LHCC-2004-035 and CERN-LHCC- 2005-023 FTS Wiki page: https://uimon.cern.ch/twiki/bin/view/lcg/ftsrelease15 Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 21

Grid in action Tier-1 Centers: TRIUMF (Canada); GridKA (Germany); IN2P3 (France); CNAF (Italy); SARA/NIKHEF (NL); Nordic Data Grid Facility (NDGF); ASCC (Taipei); RAL (UK); BNL (US); FNAL (US); PIC (Spain) Roma, November 16-17, 2006 VII WS GARR Paolo Veronesi - 22