Il Progetto TIER1 Status Report
|
|
- Franco Venturini
- 5 anni fa
- Visualizzazioni
Transcript
1 Il Progetto TIER1 Status Report Federico Ruggieri Riunione della CSN I Catania 18 Settembre 2002
2 IT Division We have a very big job ahead of us as in the past, together we will make it GB/sec Detector 0.1 to 1 GB/sec Raw data 35K SI95 Event Filter (selection & reconstruction) 1 PB / year 500 TB One Experiment Event Summary Data ~200 MB/sec 350K SI95 64 GB/sec Batch Physics Analysis 200 TB /year Processed Data ~100 MB/sec 250K SI95 Event Reconstruction analysis objects Event Simulation Thousands of scientists Interactive Data Analysis
3 Le Capacità Richieste CERN (Somma di tutti gli esperimenti): Mass Storage: 10 Peta Bytes (10 15 B)/anno disk: 2 PB CPU: 20 MSPECint2000 Per ogni Tier 1 Multi-esperimento : Mass Storage: 1-3 PB/anno disk: 1.5 PB CPU: 10 MSPECint2000 Networking Tier 0 (CERN) --> Tier 1:2 Gbps
4 La GRID dei TIER per LHC
5 Obiettivi: Progetto Prototipo TIER1 Costruzione e sperimentazione di un prototipo di Tier1 INFN unico per i 4 esperimenti LHC. Ottimizzazione delle risorse. Formazione di personale. Rappresentatività verso gli altri Tier1 e verso il CERN. Coordinamento con i Tier2 e fornitura di servizi ed attrezzature non replicabili o costose.
6 Bilancio di un anno di lavoro Nuova Sala Macchine: Progetto Definitivo completato a fine Maggio. Gara per i Lavori pubblicata ad inizio Agosto. Installate nuove risorse (vedi seguito). 8 nuove persone assunte o in via di assunzione con contratti temporanei. Produzioni degli esperimenti effettuate con successo anche se in tempi limitati (vedi seguito).
7 Riassunto Esperimenti ALICE Produzione di MC (600 jobs in meno di 2 mesi). ATLAS Circa il 30% della produzione estiva Italiana CMS LHCb Test di integrazione delle Produzioni anche con US (DataTAG). Preparazione Summer Prod (Ott. Nov. 02). Produzione MC 1MEv. (2 o sito dopo CERN) VIRGO Trasferimento dati (4TB) Spett. Centrale e 2 macchine di preanalisi e selezione + 3 GRID.
8 ALICE Produzioni (Primo Mese) Host Jobs finished CPU time lxplus051.cern.ch na49b01.cern.ch ccwalj01.in2p3.fr pdsflx002.nersc.gov alifarm01.to.infn.it alice.fzk.de alifarm9.ct.infn.it pcalice6.pd.infn.it ccali04.in2p3.fr dell26.cnaf.infn.it
9 ATLAS Produzioni (40 gg) CPU percentage usage at CNAF Jul 1 Aug 15 Aug 1 Sep 12 Sep
10 Produzioni LHCb (1 Agosto-21 Settembre) 50% 45% 40% 35% 30% 25% 20% 15% 10% 5% 0% CERN INFN IN2P3 RAL
11 I Servizi Tecnici Necessari Potenza di calcolo (FARM di CPU) Accesso ai Dati in Linea (Dischi) Archiviazione Dati (Mass Storage/Nastri) Rete di Accesso ad Alta Banda e Qualità di Servizio Gestione Sistemi Operativi e File System Gestione DataBase Gestione Librerie Software Generali Supporto all Utenza e servizi accessori Coordinamento con gli altri Centri Regionali (Tier0, Tier1, Tier2, ecc.).
12 Architettura dei sistemi (1) FARM Racks da circa 40 macchine biprocessori collegati in dual fast ethernet a Switch di armadio con 2 o 4 uplink Gigabit Ethernet in modalità trunking. Boot ed installazione automatica del sistema e del sw via rete tramite PXE ed LCFG con personalizzazioni. Gestione remota delle console (KVM Analogici e Digitali). Monitoring via SNMP (temperature, carico CPU, ecc.) con Ganglia -> SNMP e NAGIOS. Batch system: PBS (o Condor). Assegnazione di un pool base ad ogni esperimento. Gestione dinamica di un pool schedulabile su richiesta.
13 FARMING 1U dual CPU Pentium III e MHz 2.2 GHz/CPU 2 disks GB/Node 512MB 2GB/Node 1 or 2 48FE + 2GE Switches Single TFT console via KVM Cost of VAT/Node 160 Dual CPU presently installed
14 Architettura dei sistemi (2) DISCO Pool di circa 2-10 TB per staging (CASTOR, o altro SW). 2-4 TB spazio utente (AFS/NFS) per esperimento. Moduli di 1-2 TB spazio disco su richiesta. Architetture: EIDE, SCSI e/o Fibre Channel con accesso tramite Gigabit Ethernet su Servers ridondati (Fail-over + Accesso distribuito) o NAS. Sperimentazioni in corso su: FC-IDE, HA, iscsi, uso di Volumi superiori a 2 TB, Lock Managers, File Systems Distribuiti (GFS, GPFS, PFS, ecc.)
15 Disks NAS: Procom dual head 17 TB single rack (96x180GB FC disks, RAID5 with hot spares) 4GEth. IDE 2.5TB 16x160 GB disks in 4U, dual Processor and redundant Power Supply. SAS: DELL FC storage 8TB dual RAID5 controller, 112x73GB disks in 24U (8x3U). FC to IDE 2.5TB 16x160GB in 4U. Raidtec SCSI 2TB RAID5 12x180GB in 4U. Costs ranging from 8 to 13 K /TB.
16 NASTRI Architettura dei sistemi (3) Legato Networker per Backup (spazio utente). CASTOR per Staging dati da nastri LTO. Virtualizzazione della libreria L180 con ACSLS. Possibile uso di DLT per import/export se richiesto. Accesso tramite servers su Gigabit Ethernet con ridondanza (Fail-over + Distributed Access) Nuova libreria da cassette entro fine 2002 inizio 2003.
17 Architettura dei sistemi (4) ACCESSO GRID per le attività di utente sia schedulate che non schedulate (produzione e analisi). Portale web personalizzato per monitoraggio ed amministrazione delle risorse assegnate all esperimento. Uso di certificati per l autorizzazione. Autenticazione Kerberos 5 (in corso di attivazione). Rete IP con indirizzi visibili dall esterno e limitazioni sulle porte. Rete interna multi-gigabit con accesso a 1-10 Gbps.
18 Rete Accesso attuale a 1 Gbps. Attualmente il CNAF ospita il PoP per il Pilot GARR- G con 2 Link a 2.5 Gbps con Roma e Milano. La rete interna è già basata su core switches con interfacce Gbit: 8600 Cabletron (rete CNAF) 8 GE F/O; Extreme 7i (Tier1) 32 GE F/O; 3COM (Tier1) 24 GE UTP + 4 GE F/O; Cisco 6509 (GRID e Test) 20 GE F/O.
19 TO PI CT US Abilene 2x2.5 Gbps GEANT MI RM Networking PD BO GARR-G Pilot Infrastructure already in place (2.5 Gb F/O Lines) 2.5 Gbps 2.5 Gbps 155 Mbps 2.5 Gbps 2.5 Gbps 2.5 Gbps 2.5 Gbps 1 Gbps TIER1 CNAF 2.5 Gbps 2.5 Gbps 155 Mbps
20 Trasferimento dei dati Trasferimenti effettuati da LHCb al CNAF al CERN con un throughput massimo di 70 Mbit/s
21 Data Movers Giga Switch Tape Robotics Dati Controllo Robot SCSI Switch Fast Ethernet Gigabit Ethernet Farms Disk Servers Fibre Channel
22 Configurazione attuale Tipo Farm Dischi Descrizione 14 biproc. 800Mhz Capacità 10K SPECint biproc MHz 55K SPECint biproc. 1400Mhz 100K SPECint biproc MHz 60K SPECint2000 NAS Procom 17 TB Raw RAID5 NAS EIDE (Naos) 2.5 TB Raw RAID5 Dischi SCSI 2 TB Raw RAID5 Dischi FC 10.5 TB Raw RAID5 Robot L180 STK 3.6 TB / 8 TB (comp.) Drives LTO 15 TB / 30 TB (comp.) 6 rack Switch 1/2U 48 FE UTP + 2 GE FO 1 rack Switch 1.5 U 24 GE UTP + 4 GE FO 1 Core Switch 32 GE FO Nastri Rete 225 KSI2K 32 TB 15/30 TB 288 FE UTP 24 GE UTP 48 GE FO
23 Esempio: Allocazione CPU CDF GRID CNAF VIRGO LHCb CMS ATLAS ALICE 1/7/02 2/7/02 3/7/02 4/7/02 5/7/02 6/7/02 7/7/02 8/7/02 9/7/02 10/7/02 11/7/02 12/7/02 week KSI2000
24 Allocazione Disco 1/1/02 3/1/02 5/1/02 7/1/02 9/1/02 11/1/02 Week CDF GRID TEST VIRGO LHCb CMS ATLAS ALICE TBytes
25 Personale In Organico: 4 persone Pietro Matteuzzi: Responsabile Luca Dell Agnello: Farming, Storage, Sicurezza Stefano Zani: Networking. Storage Massimo Cinque: Servizi Generali ed Impianti Contratti temporanei: 10 persone Andrea Chierici: Farming LCFG - GRID Pier Paolo Ricci: Storage - CASTOR Guido Negri: Supporto agli Esperimenti (ATLAS) Andrea Collamati: Supporto agli Esperimenti (LHCb) Felice Rosso: Monitoring ed Allarmistica Donato De Girolamo: Sicurezze ed Allarmistica Massimo Donatelli: AFS, Kerberos5, NFS4, GRID Assegno di Ricerca: Supporto Esperimenti 2 nuovi Art. 2222: Supporto Esperimenti e Programmazione SW.
26 Programma delle Installazioni Virgo (Tier 1) LHC (Tier 1) Totali Centro Regionale Anno CPU (ksi2000) DISK (TB) TAPES (PB) CPU (ksi2000) DISK (TB) TAPES (PB) CPU (ksi2000) DISK (TB) TAPES (PB) , , , , , , , NB: I numeri quotati sono aggiuntivi per anno
27 Costi in K Year Farm Disks Tapes Other Total Notes: 1) Virgo + LHC only 2) Personnel costs are not included.
28 Scala dei tempi Novembre 2002: Aggiudicazione Gara Lavori Sala M. Aprile 2003: Fine Lavori Sala Macchine Giugno 2003: Completa operatività della nuova Sala Macchine. Dicembre 2004: Fine della fase sperimentale. Gennaio 2005: Revisione della sperimentazione ed aggiornamento tecnico-economico-logisticoorganizzativo del piano. Dicembre 2005: Inizio della realizzazione del Centro per la fase di Produzione.
29 LHC Computing Grid Progetto CERN approvato a settembre. Si indirizza al calcolo per LHC e per la prototipizzazione dei sistemi Hw e SW necessari. Cerca di coordinare lo sforzo con i centri regionali (tier1 e tier2 almeno). Strettamente legato agli esperimenti, cerca di coordinarne le attività comuni.
30 Interazioni Tier1-LCG-GRID Il Tier1 è uno dei Centri Regionali per LHC e, come tale partecipa all attività di LCG. L attività di GRID è di fondamentale importanza per la realizzazione del sistema a Tiers previsto. L architettura generale, definita dal progetto MONARC ha ora un architettura pratica di riferimento. In prospettiva, il Tier1 dovrebbe anche assumere un ruolo di coordinamento e supporto generale.
I Centri Regionali di LHC ed il TIER 1 unico. F. Ruggieri IV Incontro di GARR-B Bologna Giugno 2002
I Centri Regionali di LHC ed il TIER 1 unico F. Ruggieri IV Incontro di GARR-B Bologna 24-26 Giugno 2002 Esperimenti a LHC 3.5 PetaBytes / year ~4x109 events/year IT Division We have a very big job ahead
DettagliIl Progetto TIER1 Status Update. Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003
Il Progetto TIER1 Status Update Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Sommario Stato delle infrastrutture Stato del Personale Uso da parte degli Esperimenti
DettagliTier1-CNAF. DC04 Activities and Status. TISB - Pisa - P. Capiluppi 23-01-04
Tier1-CNAF DC04 Activities and Status TISB - Pisa - P. Capiluppi 23-01-04 Tier1-CNAF 2003-04 Note: [obtained/requested] or [new req/old req] As of end November 2003 requests Dettaglio Netw Boxes CPUs eq.
DettagliIl Progetto TIER1 Status Update
Il Progetto TIER1 Status Update Federico Ruggieri Riunione CSN1 PISA 22 Giugno 2004 Indice Infrastrutture Risorse DC esperimenti LHC e non Previsione 2005 Novità nell immediato. Infrastrutture Nuova Sala
DettagliPiano di calcolo dell esperimento HERA-B
Piano di calcolo dell esperimento HERA-B Domenico Galli Dipartimento di Fisica e INFN, Bologna Roma, 2-3 maggio 2000 Modello di calcolo di HERA-B La farm on-line del DESY è il centro di produzione dei
DettagliTier1, Tier2 e Tier3 CMS Italia. Paolo Capiluppi 23/01/01CNS1
Tier1, Tier2 e Tier3 CMS Italia Modello di Calcolo per CMS Italia Modello di Calcolo per CMS Italia Il Modello di CMS e basato su una Gerarchia di Funzioni e Risorse (Tier-n). Tale Gerarchia e integrata
DettagliRISORSE E MODELLI DI CALCOLO
RISORSE E MODELLI DI CALCOLO Roberto Alfieri - CSN4 del 13.04.2007 13/04/2007 Risorse e modelli di calcolo- CSN4 page 1 Sommario ATTIVITA' DELLA CCR Bilancio della CCR Contratti Centralizzati (NAG e Mathematica)
DettagliPiano di calcolo dell esperimento HERA-B
Bologna, 27 aprile 2000 Piano di calcolo dell esperimento HERA-B Introduzione Questo piano di calcolo si propone di individuare le risorse di cui il gruppo italiano si deve dotare per l elaborazione dei
DettagliReferaggio SST. Carbone, Gianoli, Mezzadri
Referaggio SST Carbone, Gianoli, Mezzadri Linee guida Nulla di nuovo sulle linee guida che abbiamo seguito richieste di finanziamento che riguardano lavori (muratura, elettrici, condizionamento, ) dovrebbero
DettagliAllegato 1. Consolidamento Sistemi Informatici. Specifiche Tecniche
Allegato 1 Consolidamento Sistemi Informatici Specifiche Tecniche Sommario Generalità... 3 Specifiche Tecniche Infrastruttura Tecnologica Hw e Sw... 4 Condizioni Generali di Fornitura... 6 2 Generalità
DettagliPREVENTIVO LOCALE DI SPESA PER L'ANNO 2005
PREVENTIVO LOCALE DI SPESA PER L'ANNO 2005 VOCI DI SPESA DESCRIZIONE DELLA SPESA Parziali IMPORTI In KEuro Totale Compet. n. 2 missioni settimanali per Workshop n. 10 missioni di un giorno per gruppi di
DettagliP r o g e t t o P I 2 S 2
P r o g e t t o P I 2 S 2 P R O G E T T A Z I O N E E I M P L E M E N T A Z I O N E D E L L A E - I N F R A S T R U T T U R A D I P R O D U Z I O N E DELIVERABLE: D1.3 Nome file: Data: 31/12/2007 Attività:
DettagliEsperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali
Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali Mirko Corosu Atlas Italia Tier-3 task force Workshop CCR-INFNGRID 2010 Sommario Breve panoramica della situazione
DettagliModello di Progetto di massima Centro Tier 2
Referees del calcolo LHC e Commissione Calcolo e Reti INFN Modello di Progetto di massima Centro Tier 2 (v. 1.6 del 29 luglio 2005) Questo modello e' stato preparato per fornire ai gruppi promotori dei
DettagliOrganizzazione LAN dei Tier2 di CMS Italia
Organizzazione LAN dei Tier2 di CMS Italia Premesse... Non sono un fisico di CMS ma solo un tecnologo di servizio calcolo Raccolte le informazioni dai singoli T2 cercando di coinvolgere le tre entità coinvolte:
DettagliEsperienze in alcune sezioni su integrazione gestione sistemi storage per il calcolo e per i servizi. Alessandro Brunengo
Esperienze in alcune sezioni su integrazione gestione sistemi storage per il calcolo e per i servizi Alessandro Brunengo Monitoring Componenti di un sistema di storage Posix (local or parallel file system,
DettagliProposte assegnazioni server & storage. L. Carbone, A. Gianoli, M. Serra
Proposte assegnazioni server & storage L. Carbone, A. Gianoli, M. Serra Considerazioni generali richieste di finanziamento che secondo i referee riguardano lavori (muratura, elettrici, condizionamento,..)
DettagliLe Farm Grid a Pisa. Commissione Calcolo e Reti ROMA 5/10/2007. Silvia Arezzini INFN - Pisa
Le Farm Grid a Pisa Commissione Calcolo e Reti ROMA 5/10/2007 Silvia Arezzini INFN - Pisa Sala Calcolo e farm Caratteristiche Scirocco (Opteron 280 ) 300 processori opteron dual core 2.4 GHz (socket E)
DettagliAspetti critici rete LAN e WAN per i Tier-2. R.Gomezel
Aspetti critici rete LAN e WAN per i Tier-2 R.Gomezel Modello rete FARM SAN Rack_farm Rack_farm NAS STK Tape Library Caratteristiche collegamenti Usare switch a 48 porte per ogni rack + numero uplink Porte
DettagliOff-line Computing. Emanuele Leonardi. Referee Meeting - Roma 10 Luglio 2017
Off-line Computing Emanuele Leonardi Referee Meeting - Roma 10 Luglio 2017 Simulazione Il programma di simulazione PadmeMC è sostanzialmente completo Tutti i detector simulati Target, Veti, ECal, SAC,
DettagliBaBar Calcolo. L. Perini per i referees: L.Perini,A.Staiano CSN1-Assisi L.Perini 1
BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano 20-9-2004 CSN1-Assisi L.Perini 1 Note generali e MoU I referees si congratulano con BaBar per l impegno e i risultati ottenuti nel computing Ancora
DettagliCentri Regionali per il calcolo di ATLAS in Italia
1 Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale 2 Validita delle stime presentate: h/w Le stime per ATLAS globale sono tratte
DettagliDETTAGLIO LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA/VALORE PRESUNTO
Appalto specifico "Infrastruttura Hardware per il progetto PNR" ID Negoziazione: 1898107 Codice univoco IPA: U64LLU Criterio di aggiudicazione Presentazione delle offerte al netto di IVA Ordinamento delle
DettagliServizio di Calcolo e Reti. F. Semeria 10 Luglio 2013
Servizio di Calcolo e Reti F. Semeria 10 Luglio 2013 Personale Antonio Bassi (tempo parziale: 1/3) Daniela Bortolotti Franco Brasolin (CERN, ATLAS Tdaq SysAdmins ) Patrizia Calligola Francesca Del Corso
DettagliUfficio Affari Generali IV Settore. N. MI-123-U-A Roma, 18 aprile 2018 QUESITI E RELATIVE RISPOSTE
N. MI-123-U-A-4-3-2018-174 Roma, 18 aprile 2018 SDAPA 1761287 Infrastruttura Tecnologica per la piattaforma SIDAF QUESITI E RELATIVE RISPOSTE 1) Capitolato Tecnico - Pag. 7 Viene richiesta la migrazione
DettagliLa farm di ALICE a Trieste
La farm di ALICE a Trieste ALICE Trieste Presentazione per il Consiglio di Sezione INFN 4 maggio 2004 Utilizzo della farm a Trieste o Studio di eventi con charm nelle collisioni p-pb con ALICE ad LHC (Raffaele
DettagliTOTALE LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA
Bando Semplificato "CRAIM Hardware" ID Negoziazione: 1150714 Totale Lotti: 1 TOTALE LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA 1 Lotto 1 Non previsto N Lotto 1 LOTTO 1 - DATI DI LOTTO Denominazione
DettagliScheda E allegata al Capitolato Tecnico --- Inventario dell Hardware
ROMA CAPITALE Scheda E allegata al Capitolato Tecnico --- Inventario dell Hardware Procedura Aperta Servizio di gestione, manutenzione, supporto e sviluppo tecnologico delle infrastrutture hardware e software
DettagliCARATTERISTICHE TECNICHE, FUNZIONALI, OPERATIVE E NORME DI ESECUZIONE
RDO (ME-PAT) N. 72651 PER LA FORNITURA DI UNA PIATTAFORMA IT MODULARE DI VIRTUALIZZAZIONE A SERVIZIO DEI LABORATORI PROM FACILITY CODICE CIG 76141123FE CAPITOLATO TECNICO CAPITOLATO TECNICO 1 Art. 1. Premessa
DettagliCalcolo LHC: Tier-1 e Tier-2
Calcolo LHC: Tier-1 e Tier-2 Donatella Lucchesi, Bruna Bertucci, Gianpaolo Carlino, Sara Pirrone, Paolo Spagnolo, Vincenzo Vagnoni Great performances as shown by the experiments presentations. Here only:
DettagliRoberto Stroili 16 settembre 2002 Commissione I. Roberto Stroili 16 settembre 2002 Commissione I
Stato del calcolo di BaBar Roberto Stroili Università di Padova & INFN Commissione I 16 settembre 2002 1 Outline Calcolo di BaBar Computing Review 2 nuovo Computing Model Calcolo di BaBar in Italia CASPUR
DettagliAllegato Tecnico BaaS/CBaaS
Allegato Tecnico BaaS/CBaaS Nota di lettura 1 Descrizione del servizio 1.1 Definizioni e acronimi 1.2 Blade as a Service e Computing Blade as a Service 1.3 Attivazione del servizio Configurazione Network
DettagliStato dei progetti INFN in COMPASS
Stato dei progetti INFN in COMPASS! Il RICH-1! I trakers dello spettrometro: MWPC s, MW1, W 4/5! Il RICH-Wall! Le FARM di Torino e di Trieste! Preparazione al run adronico W4/5 MWPC-A* MW-1 RICH-1 MWPC-B
DettagliTier-1. Luca dell Agnello 25 Maggio 2016
Tier-1 Luca dell Agnello 25 Maggio 2016 Tier-1 users It is the main INFN computing centre providing computing and storage services to ~30 scientific collaborations Tier-1 for LHC experiments (ATLAS, CMS,
DettagliSpecifica Tecnica Acquisizione Server Blade ed Enclosure
Specifica Tecnica INDICE 1 OGGETTO...3 2 CONSISTENZA DELLA FORNITURA...3 2.1 SERVER QUADRI-PROCESSORE...3 2.2 SERVER BI-PROCESSORE...4 2.3 ENCLOSURE PER SERVER BLADE...4 2.4 CARATTERISTICHE COMUNI...4
DettagliIl Tier2 di CMS Roma. Francesco Safai Tehrani INFN Roma.
Il Tier2 di CMS Roma Francesco Safai Tehrani INFN Roma (francesco.safaitehrani@roma1.infn.it) Il progetto di un Tier2: Richieste dell esperimento: Potenza di calcolo + storage Servizi erogati Affidabilità?
DettagliSISTEMI DI STORAGE CON DEDUPLICA DELL EMC DATA DOMAIN
Sistemi Data Domain SISTEMI DI STORAGE CON DEDUPLICA DELL EMC DATA DOMAIN I sistemi di storage con deduplica Dell EMC Data Domain continuano a rivoluzionare il disk backup, l'archiviazione e il disaster
DettagliINFN-BOLOGNA-T3. L. Rinaldi
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività di Ricerca Tecnologica Richieste e supporto Light
DettagliAllegato Tecnico BaaS/CBaaS
Allegato Tecnico BaaS/CBaaS Nota di lettura 1 Descrizione del servizio 1.1 Definizioni e acronimi 1.2 Blade as a Service e Computing Blade as a Service 1.3 Attivazione del servizio Configurazione Network
DettagliLa e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS. Guido Russo WS GARR, Napoli 19 Giugno 2014
La e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS Guido Russo WS GARR, Napoli 19 Giugno 2014 Il PON ReCaS http://www.pon-recas.it Rete di Calcolo per SuperB e altre
DettagliServizio Calcolo. Alessandro Brunengo
Servizio Calcolo Alessandro Brunengo Personale (2017) Alessandro Brunengo (tecnologo, responsabile) 10% Mailing, 90% Calcolo Mirko Corosu (tecnologo) 30% Atlas, 70% Calcolo Francesco Saffioti (CTER) Enrico
DettagliImpianti informatici. Sistemi di storage. Paolo Cremonesi
Impianti informatici Sistemi di storage Paolo Cremonesi Capacità e Prestazioni Aumento di capacità dei dischi Densità di informazione (Mbit/cm 2 ) 100.000 10.000 1.000 100 10 1 1980 1985 1990 1995 2000
DettagliFuturo del Calcolo in Sezione
Futuro del Calcolo in Sezione INFN Trieste 1 Perche questa presentazione Da tempo e in corso una discussione sul calcolo in sezione e.g. farm di sezione e gia stata argomento di questo consiglio (4 Maggio
Dettaglitecnologie di cloud computing per il calcolo scientifico Presentazione stage per studenti triennali Università di Torino Mar 6, 2013
tecnologie di cloud computing per il calcolo scientifico Università di Torino Mar 6, 2013 il centro di calcolo INFN Università di Torino Mar 6, 2013-2/417 Cosa facciamo a torino Ricerca tecnologica Core
DettagliManutenzione mezzi di calcolo. Manutenzioni Novità del mercato e consigli per gli acquisti
Manutenzione mezzi di calcolo Uff Manutenzioni Novità del mercato e consigli per gli acquisti 1 Uff Guardando questa presentazione avrete l impressione che il tempo si sia fermato! In effetti ho avuto
DettagliTest di storage ad alte prestazioni con interconnessione 10 GE
Test di storage ad alte prestazioni con interconnessione 10 GE Incipit Saggezza popolare Labronica: Inutile votarsi i co...ni con gli aquiloni quando non c'è vento Bene ieri vi hanno parlato degli aquiloni
DettagliIl Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management
Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management Moreno Marzolla INFN Padova BaBar Collaboration & Dip. Informatica, Università di Venezia Workshop su Management
DettagliGrandi infrastrutture di storage per calcolo ad elevato throughput e Cloud
Grandi infrastrutture di storage per calcolo ad elevato throughput e Cloud Michele Di Benedetto, Alessandro Cavalli, Luca dell Agnello, Matteo Favaro, Daniele Gregori, Michele Pezzi, Andrea Prosperini,
DettagliConsolidamento e virtualizzazione dei server: l esperienza di UniBo
Consolidamento e virtualizzazione dei server: l esperienza di UniBo Simone Balboni CeSIA Università di Bologna Seminario corso Sistemi Operativi Bologna, 6 marzo 2007 Agenda: il progetto di consolidamento
DettagliBACKUP MULTIPIATTAFORMA ON PREMISE, RIMOVIBILE, DECENTRALIZZATO E CLOUD IBRIDIO
STORAGE EVOLUTION BACKUP MULTIPIATTAFORMA ON PREMISE, RIMOVIBILE, DECENTRALIZZATO E CLOUD IBRIDIO Tutti i sistemi sono forniti di una serie di modalità di Backup che permettono di soddisfare ogni esigenza.
DettagliRiorganizzazione dei Sistemi Informativi Comunali COMPUTO METRICO
COMUNE DI CATANIA Riorganizzazione dei Sistemi Informativi Comunali Sviluppo ed integrazione dei Sistemi Informatici SottoProgetto1 Potenziamento strumenti informatici dell amministrazione comunale COMPUTO
DettagliIl calcolo distribuito mediante griglie computazionali
ossia Il calcolo distribuito mediante griglie computazionali Massimo Masera Dipartimento di Fisica Sperimentale dell Universita` e I.N.F.N. Torino (ringrazio Federico Carminati, Fabrizio Gagliardi e Claudio
DettagliREALIZZAZIONE SALA CED
REALIZZAZIONE SALA CED CAPITOLATO TECNICO SOMMARIO 1 Realizzazione sala CED 2 Specifiche minime dell intervento 1. REALIZZAZIONE SALA CED L obiettivo dell appalto è realizzare una Server Farm di ultima
DettagliSperimentazione del file-system distribuito HDFS in ambiente GRID. III Borsista Day, Roma, 06.12.2012
Sperimentazione del file-system distribuito HDFS in ambiente GRID Tutor: Domenico Diacono Outline Use cases Hadoop Distributed File System Test di funzionalità Sviluppo di politiche di replica dei dati
DettagliSoluzione medium cost: Thumper
CCR/19/07/P Luglio 2007 Versione 1.1 Infrastrutture di storage per servizi centrali e calcolo di esperimento: soluzioni e costi Gruppo storage di CCR Introduzione Questo documento riassume i dati sulle
DettagliListino del mese OVERBYTE. di Braghini e Passadore S.n.c. Personal Computer. Via castello n Rodengo Saiano BS
OVERBYTE di Braghini e Passadore S.n.c. Via castello n 50 25050 Rodengo Saiano BS P.I. 02437650985 Tel. & Fax 030/6119654 Listino del mese Personal Computer Soluzione 1: Cabinet middletower Elite 430 ATX
DettagliTest e risultati sull uso di un file system GPFS condiviso su rete WAN
Test e risultati sull uso di un file system GPFS condiviso su rete WAN Antonio Budano (INFN Sezione di Roma 3) In collaborazione con: Vladimir Sapunenko (INFN - CNAF) Elisabetta Vilucchi (INFN LNF) Sommario
DettagliSISTEMI DI STORAGE CON DEDUPLICA DELL EMC DATA DOMAIN
SISTEMI DI STORAGE CON DEDUPLICA DELL EMC DATA DOMAIN I sistemi di storage con deduplica Dell EMC Data Domain continuano a rivoluzionare il disk backup, l'archiviazione e il disaster recovery con funzionalità
DettagliProgetto Pon n 1 Istituto Rilke
Progetto Pon n 1 Istituto Rilke 10.8.1.A1 Realizzazione dell infrastruttura e dei punti di accesso alla rete LAN/WLAN Scuola Primaria Pascoli N 1 ARMADIO RACK 19" SERIE RWB 9U, GRIGIO PROFONDITA' 500 MM
DettagliDomanda 1 Risposta 1 Domanda 2 Risposta 2 Domanda 3 Risposta 3 Domanda 4 Risposta 4:
Domanda 1 Da una nostra verifica non risultano brand che offrano la disponibilità di installare dischi con tecnologia SAS hot swap 6Gbps 15k rpm di capacità 600GB sulla tipologia dei server richiesti nei
DettagliELASTIC CLOUD STORAGE (ECS) APPLIANCE
Specifiche tecniche ELASTIC CLOUD STORAGE (ECS) APPLIANCE Dell EMC Elastic Cloud Storage (ECS ) Appliance è una piattaforma di storage cloud software-defined multifunzionale. Questa soluzione Dell EMC
DettagliIl calcolo distribuito in ATLAS
Il calcolo distribuito in ATLAS Alessandra Doria INFN Sezione di Napoli Workshop CCR2003 Paestum 12 Giugno 2003 Argomenti Modello di calcolo a Tier Il sw offline di ATLAS ATLAS Data Challenges Progetti
DettagliARGO-YBJ: il modello di calcolo. CSNII 29 Novembre 2012 Stefano Mari
ARGO-YBJ: il modello di calcolo CSNII 29 Novembre 2012 Stefano Mari L esperimento Argo-YBJ } L apparato dell esperimento Argo YBJ è situato in Tibet (YangBajing), a 4300 s.l.m. } Apparato di sciami con
DettagliBologna Batch System (BBS) Franco Semeria Seminario di Sezione
Bologna Batch System (BBS) Franco Semeria Seminario di Sezione 28-06-2004 Cosa e BBS BBS e un sistema batch basato su Condor. L utente sottomette i job da una macchina e il sistema li distribuisce sulle
DettagliStato risorse di calcolo CDF in Italia
Stato risorse di calcolo CDF in Italia - August 31, 2011 S. Amerio (INFN Padova) Stato risorse a Fermilab Portale CDFGRID per accedere alle risorse di calcolo locali a Fermilab. Job in corso 5k CDFGRID
DettagliLa componente tecnologica dei. sistemi informativi. Architettura hw
Informatica o Information Technology La componente tecnologica dei sistemi informativi m. rumor Architettura del Sistema tecnologico Sistema tecnologico: insieme di componenti connessi e coordinati che
DettagliPREVENTIVO LOCALE DI SPESA PER L'ANNO 2004
PREVENTIVO LOCALE DI SPESA PER L'ANNO 2004 VOCI DI SPESA DESCRIZIONE DELLA SPESA Parziali IMPORTI In KEuro Totale Compet. Progetto TRIP Riunioni Netgroup e Security 2.0 2.0 4.0 0.0 Metabolismo Software
DettagliDETTAGLIO LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA/VALORE PRESUNTO
Appalto specifico "Progetto ISF potenziamento Cen Napoli - stemi Hardware" ID Negoziazione: 1905896 Codice univoco IPA: U64LLU Criterio di aggiudicazione Presentazione delle offerte al netto di IVA Ordinamento
Dettaglienimonitor proactive IT monitoring
enimonitor proactive IT monitoring enimonitor EniMonitor è il modulo che consente il monitoraggio proattivo delle reti informatiche. EniMonitor è il progetto Open Source Nagios, corredato da numerosi add-on
DettagliHepix Spring 2006 Report Roberto Gomezel
Hepix Spring 2006 Report Roberto Gomezel CCR 5-6 giugno 2006 Spring meeting 2006 La riunione primaverile è stata organizzata dal CASPUR presso le sale riunioni CNR a Roma Organizzazione ha evidenziato
DettagliIBM Svizzera Offerte Express Primavera 2012
IBM Svizzera Offerte Express Primavera 2012 NOVITÀ: Intel Romley Inside! Offerte IBM Express Primavera 2012 2 IL modello base per eccellenza IBM System x3100 M4 Ordine nr.: 2582K9G Processor Inside: Intel
DettagliLA VIRTUALIZZAZIONE CASE STUDY CAMPUS DI CESENA
LA VIRTUALIZZAZIONE CASE STUDY CAMPUS DI CESENA Macchine virtuali Virtualizzazione: Perché Virtualizzazione: Cos è Forme di virtualizzazione Il Polo scientifico-didattico di Cesena Esigenze Scelte Architettura
DettagliCSN4! GGI marzo 2008. Calcolo teorico. E. Onofri, R. Tripiccione, E. Vicari
CSN4! GGI marzo 2008 Calcolo teorico E. Onofri, R. Tripiccione, E. Vicari Piano della presentazione Piano della presentazione La manovra di ottobre 2007 Piano della presentazione La manovra di ottobre
Dettagli(1) Formula Lineare spezzata sulla media (interdipendente) per il calcolo del punteggio economico:
Appalto specifico "Infrastruttura ICT Centrale del Sistema Informativo VISTI (I-VIS)" ID Negoziazione: 1307729 Codice univoco IPA: Criterio di aggiudicazione Presentazione delle offerte al netto di IVA
DettagliID Ambito Metrica Peso C S N G Computing Storage Networking Cross Caratteristiche dei sistemi di computing 20 Caratteristiche dei sistemi Storage 25 Caratteristiche degli apparati di Networking 6 Caratteristiche
Dettagli2.2.1 FrontEnd FIREWALL CARATTERISTICHE VALORE RICHIESTO VALORE OFFERTO QTA' 2
2.2.1 FrontEnd FIREWALL RICHIESTO QTA' 2 modello throughput 400 Mbps Throughput cifrato (3DES) 200 Mbps VPN Session 700 Connessioni al secondo 7000 RAM 512 Mbyte System flash 64 6 porte per Network Gigabitporte
DettagliEsperienze di gestione di OpenNebula, Openstack, VMWare
Workshop GARR Terabit Generation. Una comunità ad alte prestazioni Roma CNR 18-21 aprile 2016 Esperienze di gestione di Cloud @ENEA OpenNebula, Openstack, VMWare Tavolo tecnico Cloud e Storage Giovanni
DettagliMASTERCLASS CINEMA. Incontro martedì 23 ottobre 2018 presso Fluendo srl Intervento: Istituto Luce. in collaborazione con Deutsche Bank per la cultura
MASTERCLASS CINEMA Incontro martedì 23 ottobre 2018 presso Fluendo srl Intervento: Istituto Luce in collaborazione con Deutsche Bank per la cultura LA GESTIONE DEI DATI CED (Centro Elaborazione Dati) Il
DettagliIndice degli argomenti
Introduzione alle griglie computazionali Università degli Studi di Napoli Federico II Corso di Laurea in Informatica III Anno LEZIONE N. 3 Distribuzione delle risorse Un precursore della Grid La rete e
DettagliCAPITOLATO TECNICO. Fornitura di hardware Fujitsu e Fortinet e software Microsoft
CAPITOLATO TECNICO Fornitura di hardware Fujitsu e Fortinet e software Microsoft Introduzione... 2 Oggetto della RdO... 3. Lotto : Hardware... 3 A. Server Fujitsu 2550M... 3 B. Fortianalyzer 3000E... 4
DettagliMezz ora in amicizia. Ross
Mezz ora in amicizia www.linuxvar.it Ross Cosa si usa Quando si parla di virtualizzazione in ambito server viene immediato pensare a VMware vsphere, a Hyper-V di Microsoft o a Citrix XenServer, piuttosto
DettagliReti per il datacenter: l esperienza di UniBo. Simone Balboni CeSIA Università di Bologna
Reti per il datacenter: l esperienza di UniBo Simone Balboni CeSIA Università di Bologna Agenda: il progetto di consolidamento dei server UniBo focus sulla virtualizzazione il datacenter e la rete locale
DettagliGrid Tutorial Day Palermo, 13 Aprile 2011
Grid Tutorial Day Palermo, 13 Aprile 2011 01 - Introduzione Pier Paolo Corso Sommario Introduzione generale Introduzione al Grid Computing Introduzione alla Grid COMETA Anteprima delle lezioni successive
DettagliAcquisti in Rete Pa Condizioni economiche Server Entry Pagina 1 di 12
PREZZI ORDINATIVO VIA FAX (IVA ESCLUSA) (Configurazioni Base, le Amministrazioni potranno scegliere fra unità in configurazione rack 19 e unità in configurazione deskside tower) Configurazione da Rack
DettagliISTITUTO NAZIONALE DI FISICA NUCLEARE
INFN/CCR-10/05 7 Settembre 2010 CCR-39/2010/P VALUTAZIONE DI APPARATI DI AGGREGAZIONE E DI EDGE ROUTING PER I TIER2 INFN A. Brunengo 1, A. De Salvo 2, D. Di Bari 3, G. Donvito 3, R. Gomezel 4, P. Lo Re
DettagliBR-QCA58 MiMo Serie Access-Point Wireless 3x3 MiMo Dual-Band AC1750 Indoor
BR-QCA58 MiMo Serie Access-Point Wireless 3x3 MiMo Dual-Band AC1750 Indoor Modello: BR-QCA44 CARATTERISTICHE PRINCIPALI Chipset Qualcomm Atheros 700MHz QCA9558 Standard IEEE 802.11ac/a/b/g/n @28dBm & @25dBm
DettagliNormalizzazione puntuale dei dati di accounting
Normalizzazione puntuale dei dati di accounting Proposta per uno strumento automatizzato Felice Rosso, CNAF Guido Guizzunti, CNAF Andrea Guarise, INFN Torino Sommario Sistema corrente Limiti, problemi
DettagliBaBar Computing in Italia: status report
BaBar Computing in Italia: status report Alexis Pompili - CNAF (per il gruppo italiano di computing) Contributi di D.Andreotti, A.Fella, A.Lusiani, P.Solagna MEETING BABAR-ITALIA Roma 6/7 aprile 2006 1.
DettagliIl nuovo cluster INFN per la fisica teorica
Il nuovo cluster INFN per la fisica teorica Incontro di lavoro della CCR Napoli, 26 Gennaio 2010 Roberto Alfieri 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 1 Necessità di calcolo del Gr.
DettagliCloud Infrastructure - studio di fattibilità
Cloud Infrastructure - studio di fattibilità Business Intelligence Group: Lorenzo Baldacci Matteo Gofarelli Matteo Francia Simone Graziani Enrico Gallinucci Stefano Rizzi Obiettivi dello studio di fattibilità
DettagliGara europea per la fornitura di apparati hardware e relativo software per l ammodernamento del data center della Regione Valle D Aosta
Gara europea per la fornitura di apparati hardware e relativo software per l ammodernamento del data center della Regione Valle D Aosta Risposte alle richieste di chiarimenti Risposte alle richieste di
DettagliAttività su EOS Prime esperienze d implementazione della soluzione storage prodotta al CERN presso la Sezione di Trieste
Attività su EOS Prime esperienze d implementazione della soluzione storage prodotta al CERN presso la Sezione di Trieste Workshop della CCR - 16-20 maggio 2016 - La Biodola 1/16 Introduzione Il progetto
DettagliCluster CRESCO ed ENEAGRID
Seminario INTEL a CRESCO Portici 18 Settembre 2014 Cluster CRESCO ed AGRID G.Bracco bracco@enea.it S.Migliori,A.Quintiliani,R.Guadagni,F.Ambrosino,G.Aprea,F.Beone,M.Caporicci, P.DAngelo,A.Funel,G.Guarnieri,S.Podda,G.Ponti,F.Palombi,G.Furini,A.Mariano,
DettagliRelazione utilizzo rete, proposte per banda e collegamenti extra GARR
Relazione utilizzo rete, proposte per banda e collegamenti extra GARR M. Morandin, G. Riccobene, P. Veronesi CCR, Roma, 6 Ottobre 2010 1 Richieste 2011 1/2 2 Richieste 2010 2/2 Per quanto riguarda le seguenti
DettagliMateriale informatico per esigenze dell Amministrazione Difesa Codice Pratica: TELEDIFE 263/17/0440 CIG: Z4920C36C9
1 Materiale informatico per esigenze dell Amministrazione Difesa Codice Pratica: TELEDIFE 263/17/0440 CIG: Z4920C36C9 CRITERI DI VALUTAZIONE DELLA PPOSTA TECNICA I Criteri di Valutazione Misurabili saranno
DettagliBaBar: stato ed utilizzo delle farms
BaBar: stato ed utilizzo delle farms presentato da Fulvio Galeazzi a nome del gruppo di Computing BaBar Italia BaBar: stato ed utilizzo delle farms, F. Galeazzi, Settembre 2004, pag. 1 Sommario Il gruppo
DettagliREQUISITI HARDWARE E SOFTWARE
REQUISITI HARDWARE E SOFTWARE Sistemi operativi supportati Configurazione installazione client/server Configurazione installazione con servizi terminal server Ultimo aggiornamento: 07/11/2018 FACTORY ERP
DettagliNEXPReS: Evoluzione e completamento dell e-vlbi. (INAF Ist. Radioastronomia)
NEXPReS: Evoluzione e completamento dell e-vlbi Mauro Nanni (INAF Ist. Radioastronomia) 200 kpc 650,000 light years Per avere un buon radiotelescopio Sensibilità = capacità di rivelare segnali deboli.
DettagliAcquisizione di apparati di calcolo e storage ad alte prestazioni e relativi servizi di manutenzione (Gara 107_16) CIG C1C
Acquisizione di apparati di calcolo e storage ad alte prestazioni e relativi servizi di manutenzione (Gara 107_16) CIG 6858392C1C Capitolato tecnico di gara Indice degli argomenti art. 1 Il contesto del
Dettagli