Il Progetto TIER1 Status Report

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Il Progetto TIER1 Status Report"

Transcript

1 Il Progetto TIER1 Status Report Federico Ruggieri Riunione della CSN I Catania 18 Settembre 2002

2 IT Division We have a very big job ahead of us as in the past, together we will make it GB/sec Detector 0.1 to 1 GB/sec Raw data 35K SI95 Event Filter (selection & reconstruction) 1 PB / year 500 TB One Experiment Event Summary Data ~200 MB/sec 350K SI95 64 GB/sec Batch Physics Analysis 200 TB /year Processed Data ~100 MB/sec 250K SI95 Event Reconstruction analysis objects Event Simulation Thousands of scientists Interactive Data Analysis

3 Le Capacità Richieste CERN (Somma di tutti gli esperimenti): Mass Storage: 10 Peta Bytes (10 15 B)/anno disk: 2 PB CPU: 20 MSPECint2000 Per ogni Tier 1 Multi-esperimento : Mass Storage: 1-3 PB/anno disk: 1.5 PB CPU: 10 MSPECint2000 Networking Tier 0 (CERN) --> Tier 1:2 Gbps

4 La GRID dei TIER per LHC

5 Obiettivi: Progetto Prototipo TIER1 Costruzione e sperimentazione di un prototipo di Tier1 INFN unico per i 4 esperimenti LHC. Ottimizzazione delle risorse. Formazione di personale. Rappresentatività verso gli altri Tier1 e verso il CERN. Coordinamento con i Tier2 e fornitura di servizi ed attrezzature non replicabili o costose.

6 Bilancio di un anno di lavoro Nuova Sala Macchine: Progetto Definitivo completato a fine Maggio. Gara per i Lavori pubblicata ad inizio Agosto. Installate nuove risorse (vedi seguito). 8 nuove persone assunte o in via di assunzione con contratti temporanei. Produzioni degli esperimenti effettuate con successo anche se in tempi limitati (vedi seguito).

7 Riassunto Esperimenti ALICE Produzione di MC (600 jobs in meno di 2 mesi). ATLAS Circa il 30% della produzione estiva Italiana CMS LHCb Test di integrazione delle Produzioni anche con US (DataTAG). Preparazione Summer Prod (Ott. Nov. 02). Produzione MC 1MEv. (2 o sito dopo CERN) VIRGO Trasferimento dati (4TB) Spett. Centrale e 2 macchine di preanalisi e selezione + 3 GRID.

8 ALICE Produzioni (Primo Mese) Host Jobs finished CPU time lxplus051.cern.ch na49b01.cern.ch ccwalj01.in2p3.fr pdsflx002.nersc.gov alifarm01.to.infn.it alice.fzk.de alifarm9.ct.infn.it pcalice6.pd.infn.it ccali04.in2p3.fr dell26.cnaf.infn.it

9 ATLAS Produzioni (40 gg) CPU percentage usage at CNAF Jul 1 Aug 15 Aug 1 Sep 12 Sep

10 Produzioni LHCb (1 Agosto-21 Settembre) 50% 45% 40% 35% 30% 25% 20% 15% 10% 5% 0% CERN INFN IN2P3 RAL

11 I Servizi Tecnici Necessari Potenza di calcolo (FARM di CPU) Accesso ai Dati in Linea (Dischi) Archiviazione Dati (Mass Storage/Nastri) Rete di Accesso ad Alta Banda e Qualità di Servizio Gestione Sistemi Operativi e File System Gestione DataBase Gestione Librerie Software Generali Supporto all Utenza e servizi accessori Coordinamento con gli altri Centri Regionali (Tier0, Tier1, Tier2, ecc.).

12 Architettura dei sistemi (1) FARM Racks da circa 40 macchine biprocessori collegati in dual fast ethernet a Switch di armadio con 2 o 4 uplink Gigabit Ethernet in modalità trunking. Boot ed installazione automatica del sistema e del sw via rete tramite PXE ed LCFG con personalizzazioni. Gestione remota delle console (KVM Analogici e Digitali). Monitoring via SNMP (temperature, carico CPU, ecc.) con Ganglia -> SNMP e NAGIOS. Batch system: PBS (o Condor). Assegnazione di un pool base ad ogni esperimento. Gestione dinamica di un pool schedulabile su richiesta.

13 FARMING 1U dual CPU Pentium III e MHz 2.2 GHz/CPU 2 disks GB/Node 512MB 2GB/Node 1 or 2 48FE + 2GE Switches Single TFT console via KVM Cost of VAT/Node 160 Dual CPU presently installed

14 Architettura dei sistemi (2) DISCO Pool di circa 2-10 TB per staging (CASTOR, o altro SW). 2-4 TB spazio utente (AFS/NFS) per esperimento. Moduli di 1-2 TB spazio disco su richiesta. Architetture: EIDE, SCSI e/o Fibre Channel con accesso tramite Gigabit Ethernet su Servers ridondati (Fail-over + Accesso distribuito) o NAS. Sperimentazioni in corso su: FC-IDE, HA, iscsi, uso di Volumi superiori a 2 TB, Lock Managers, File Systems Distribuiti (GFS, GPFS, PFS, ecc.)

15 Disks NAS: Procom dual head 17 TB single rack (96x180GB FC disks, RAID5 with hot spares) 4GEth. IDE 2.5TB 16x160 GB disks in 4U, dual Processor and redundant Power Supply. SAS: DELL FC storage 8TB dual RAID5 controller, 112x73GB disks in 24U (8x3U). FC to IDE 2.5TB 16x160GB in 4U. Raidtec SCSI 2TB RAID5 12x180GB in 4U. Costs ranging from 8 to 13 K /TB.

16 NASTRI Architettura dei sistemi (3) Legato Networker per Backup (spazio utente). CASTOR per Staging dati da nastri LTO. Virtualizzazione della libreria L180 con ACSLS. Possibile uso di DLT per import/export se richiesto. Accesso tramite servers su Gigabit Ethernet con ridondanza (Fail-over + Distributed Access) Nuova libreria da cassette entro fine 2002 inizio 2003.

17 Architettura dei sistemi (4) ACCESSO GRID per le attività di utente sia schedulate che non schedulate (produzione e analisi). Portale web personalizzato per monitoraggio ed amministrazione delle risorse assegnate all esperimento. Uso di certificati per l autorizzazione. Autenticazione Kerberos 5 (in corso di attivazione). Rete IP con indirizzi visibili dall esterno e limitazioni sulle porte. Rete interna multi-gigabit con accesso a 1-10 Gbps.

18 Rete Accesso attuale a 1 Gbps. Attualmente il CNAF ospita il PoP per il Pilot GARR- G con 2 Link a 2.5 Gbps con Roma e Milano. La rete interna è già basata su core switches con interfacce Gbit: 8600 Cabletron (rete CNAF) 8 GE F/O; Extreme 7i (Tier1) 32 GE F/O; 3COM (Tier1) 24 GE UTP + 4 GE F/O; Cisco 6509 (GRID e Test) 20 GE F/O.

19 TO PI CT US Abilene 2x2.5 Gbps GEANT MI RM Networking PD BO GARR-G Pilot Infrastructure already in place (2.5 Gb F/O Lines) 2.5 Gbps 2.5 Gbps 155 Mbps 2.5 Gbps 2.5 Gbps 2.5 Gbps 2.5 Gbps 1 Gbps TIER1 CNAF 2.5 Gbps 2.5 Gbps 155 Mbps

20 Trasferimento dei dati Trasferimenti effettuati da LHCb al CNAF al CERN con un throughput massimo di 70 Mbit/s

21 Data Movers Giga Switch Tape Robotics Dati Controllo Robot SCSI Switch Fast Ethernet Gigabit Ethernet Farms Disk Servers Fibre Channel

22 Configurazione attuale Tipo Farm Dischi Descrizione 14 biproc. 800Mhz Capacità 10K SPECint biproc MHz 55K SPECint biproc. 1400Mhz 100K SPECint biproc MHz 60K SPECint2000 NAS Procom 17 TB Raw RAID5 NAS EIDE (Naos) 2.5 TB Raw RAID5 Dischi SCSI 2 TB Raw RAID5 Dischi FC 10.5 TB Raw RAID5 Robot L180 STK 3.6 TB / 8 TB (comp.) Drives LTO 15 TB / 30 TB (comp.) 6 rack Switch 1/2U 48 FE UTP + 2 GE FO 1 rack Switch 1.5 U 24 GE UTP + 4 GE FO 1 Core Switch 32 GE FO Nastri Rete 225 KSI2K 32 TB 15/30 TB 288 FE UTP 24 GE UTP 48 GE FO

23 Esempio: Allocazione CPU CDF GRID CNAF VIRGO LHCb CMS ATLAS ALICE 1/7/02 2/7/02 3/7/02 4/7/02 5/7/02 6/7/02 7/7/02 8/7/02 9/7/02 10/7/02 11/7/02 12/7/02 week KSI2000

24 Allocazione Disco 1/1/02 3/1/02 5/1/02 7/1/02 9/1/02 11/1/02 Week CDF GRID TEST VIRGO LHCb CMS ATLAS ALICE TBytes

25 Personale In Organico: 4 persone Pietro Matteuzzi: Responsabile Luca Dell Agnello: Farming, Storage, Sicurezza Stefano Zani: Networking. Storage Massimo Cinque: Servizi Generali ed Impianti Contratti temporanei: 10 persone Andrea Chierici: Farming LCFG - GRID Pier Paolo Ricci: Storage - CASTOR Guido Negri: Supporto agli Esperimenti (ATLAS) Andrea Collamati: Supporto agli Esperimenti (LHCb) Felice Rosso: Monitoring ed Allarmistica Donato De Girolamo: Sicurezze ed Allarmistica Massimo Donatelli: AFS, Kerberos5, NFS4, GRID Assegno di Ricerca: Supporto Esperimenti 2 nuovi Art. 2222: Supporto Esperimenti e Programmazione SW.

26 Programma delle Installazioni Virgo (Tier 1) LHC (Tier 1) Totali Centro Regionale Anno CPU (ksi2000) DISK (TB) TAPES (PB) CPU (ksi2000) DISK (TB) TAPES (PB) CPU (ksi2000) DISK (TB) TAPES (PB) , , , , , , , NB: I numeri quotati sono aggiuntivi per anno

27 Costi in K Year Farm Disks Tapes Other Total Notes: 1) Virgo + LHC only 2) Personnel costs are not included.

28 Scala dei tempi Novembre 2002: Aggiudicazione Gara Lavori Sala M. Aprile 2003: Fine Lavori Sala Macchine Giugno 2003: Completa operatività della nuova Sala Macchine. Dicembre 2004: Fine della fase sperimentale. Gennaio 2005: Revisione della sperimentazione ed aggiornamento tecnico-economico-logisticoorganizzativo del piano. Dicembre 2005: Inizio della realizzazione del Centro per la fase di Produzione.

29 LHC Computing Grid Progetto CERN approvato a settembre. Si indirizza al calcolo per LHC e per la prototipizzazione dei sistemi Hw e SW necessari. Cerca di coordinare lo sforzo con i centri regionali (tier1 e tier2 almeno). Strettamente legato agli esperimenti, cerca di coordinarne le attività comuni.

30 Interazioni Tier1-LCG-GRID Il Tier1 è uno dei Centri Regionali per LHC e, come tale partecipa all attività di LCG. L attività di GRID è di fondamentale importanza per la realizzazione del sistema a Tiers previsto. L architettura generale, definita dal progetto MONARC ha ora un architettura pratica di riferimento. In prospettiva, il Tier1 dovrebbe anche assumere un ruolo di coordinamento e supporto generale.

I Centri Regionali di LHC ed il TIER 1 unico. F. Ruggieri IV Incontro di GARR-B Bologna Giugno 2002

I Centri Regionali di LHC ed il TIER 1 unico. F. Ruggieri IV Incontro di GARR-B Bologna Giugno 2002 I Centri Regionali di LHC ed il TIER 1 unico F. Ruggieri IV Incontro di GARR-B Bologna 24-26 Giugno 2002 Esperimenti a LHC 3.5 PetaBytes / year ~4x109 events/year IT Division We have a very big job ahead

Dettagli

Il Progetto TIER1 Status Update. Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003

Il Progetto TIER1 Status Update. Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Il Progetto TIER1 Status Update Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Sommario Stato delle infrastrutture Stato del Personale Uso da parte degli Esperimenti

Dettagli

Tier1-CNAF. DC04 Activities and Status. TISB - Pisa - P. Capiluppi 23-01-04

Tier1-CNAF. DC04 Activities and Status. TISB - Pisa - P. Capiluppi 23-01-04 Tier1-CNAF DC04 Activities and Status TISB - Pisa - P. Capiluppi 23-01-04 Tier1-CNAF 2003-04 Note: [obtained/requested] or [new req/old req] As of end November 2003 requests Dettaglio Netw Boxes CPUs eq.

Dettagli

Il Progetto TIER1 Status Update

Il Progetto TIER1 Status Update Il Progetto TIER1 Status Update Federico Ruggieri Riunione CSN1 PISA 22 Giugno 2004 Indice Infrastrutture Risorse DC esperimenti LHC e non Previsione 2005 Novità nell immediato. Infrastrutture Nuova Sala

Dettagli

Piano di calcolo dell esperimento HERA-B

Piano di calcolo dell esperimento HERA-B Piano di calcolo dell esperimento HERA-B Domenico Galli Dipartimento di Fisica e INFN, Bologna Roma, 2-3 maggio 2000 Modello di calcolo di HERA-B La farm on-line del DESY è il centro di produzione dei

Dettagli

Tier1, Tier2 e Tier3 CMS Italia. Paolo Capiluppi 23/01/01CNS1

Tier1, Tier2 e Tier3 CMS Italia. Paolo Capiluppi 23/01/01CNS1 Tier1, Tier2 e Tier3 CMS Italia Modello di Calcolo per CMS Italia Modello di Calcolo per CMS Italia Il Modello di CMS e basato su una Gerarchia di Funzioni e Risorse (Tier-n). Tale Gerarchia e integrata

Dettagli

RISORSE E MODELLI DI CALCOLO

RISORSE E MODELLI DI CALCOLO RISORSE E MODELLI DI CALCOLO Roberto Alfieri - CSN4 del 13.04.2007 13/04/2007 Risorse e modelli di calcolo- CSN4 page 1 Sommario ATTIVITA' DELLA CCR Bilancio della CCR Contratti Centralizzati (NAG e Mathematica)

Dettagli

Piano di calcolo dell esperimento HERA-B

Piano di calcolo dell esperimento HERA-B Bologna, 27 aprile 2000 Piano di calcolo dell esperimento HERA-B Introduzione Questo piano di calcolo si propone di individuare le risorse di cui il gruppo italiano si deve dotare per l elaborazione dei

Dettagli

Referaggio SST. Carbone, Gianoli, Mezzadri

Referaggio SST. Carbone, Gianoli, Mezzadri Referaggio SST Carbone, Gianoli, Mezzadri Linee guida Nulla di nuovo sulle linee guida che abbiamo seguito richieste di finanziamento che riguardano lavori (muratura, elettrici, condizionamento, ) dovrebbero

Dettagli

Allegato 1. Consolidamento Sistemi Informatici. Specifiche Tecniche

Allegato 1. Consolidamento Sistemi Informatici. Specifiche Tecniche Allegato 1 Consolidamento Sistemi Informatici Specifiche Tecniche Sommario Generalità... 3 Specifiche Tecniche Infrastruttura Tecnologica Hw e Sw... 4 Condizioni Generali di Fornitura... 6 2 Generalità

Dettagli

PREVENTIVO LOCALE DI SPESA PER L'ANNO 2005

PREVENTIVO LOCALE DI SPESA PER L'ANNO 2005 PREVENTIVO LOCALE DI SPESA PER L'ANNO 2005 VOCI DI SPESA DESCRIZIONE DELLA SPESA Parziali IMPORTI In KEuro Totale Compet. n. 2 missioni settimanali per Workshop n. 10 missioni di un giorno per gruppi di

Dettagli

P r o g e t t o P I 2 S 2

P r o g e t t o P I 2 S 2 P r o g e t t o P I 2 S 2 P R O G E T T A Z I O N E E I M P L E M E N T A Z I O N E D E L L A E - I N F R A S T R U T T U R A D I P R O D U Z I O N E DELIVERABLE: D1.3 Nome file: Data: 31/12/2007 Attività:

Dettagli

Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali

Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali Mirko Corosu Atlas Italia Tier-3 task force Workshop CCR-INFNGRID 2010 Sommario Breve panoramica della situazione

Dettagli

Modello di Progetto di massima Centro Tier 2

Modello di Progetto di massima Centro Tier 2 Referees del calcolo LHC e Commissione Calcolo e Reti INFN Modello di Progetto di massima Centro Tier 2 (v. 1.6 del 29 luglio 2005) Questo modello e' stato preparato per fornire ai gruppi promotori dei

Dettagli

Organizzazione LAN dei Tier2 di CMS Italia

Organizzazione LAN dei Tier2 di CMS Italia Organizzazione LAN dei Tier2 di CMS Italia Premesse... Non sono un fisico di CMS ma solo un tecnologo di servizio calcolo Raccolte le informazioni dai singoli T2 cercando di coinvolgere le tre entità coinvolte:

Dettagli

Esperienze in alcune sezioni su integrazione gestione sistemi storage per il calcolo e per i servizi. Alessandro Brunengo

Esperienze in alcune sezioni su integrazione gestione sistemi storage per il calcolo e per i servizi. Alessandro Brunengo Esperienze in alcune sezioni su integrazione gestione sistemi storage per il calcolo e per i servizi Alessandro Brunengo Monitoring Componenti di un sistema di storage Posix (local or parallel file system,

Dettagli

Proposte assegnazioni server & storage. L. Carbone, A. Gianoli, M. Serra

Proposte assegnazioni server & storage. L. Carbone, A. Gianoli, M. Serra Proposte assegnazioni server & storage L. Carbone, A. Gianoli, M. Serra Considerazioni generali richieste di finanziamento che secondo i referee riguardano lavori (muratura, elettrici, condizionamento,..)

Dettagli

Le Farm Grid a Pisa. Commissione Calcolo e Reti ROMA 5/10/2007. Silvia Arezzini INFN - Pisa

Le Farm Grid a Pisa. Commissione Calcolo e Reti ROMA 5/10/2007. Silvia Arezzini INFN - Pisa Le Farm Grid a Pisa Commissione Calcolo e Reti ROMA 5/10/2007 Silvia Arezzini INFN - Pisa Sala Calcolo e farm Caratteristiche Scirocco (Opteron 280 ) 300 processori opteron dual core 2.4 GHz (socket E)

Dettagli

Aspetti critici rete LAN e WAN per i Tier-2. R.Gomezel

Aspetti critici rete LAN e WAN per i Tier-2. R.Gomezel Aspetti critici rete LAN e WAN per i Tier-2 R.Gomezel Modello rete FARM SAN Rack_farm Rack_farm NAS STK Tape Library Caratteristiche collegamenti Usare switch a 48 porte per ogni rack + numero uplink Porte

Dettagli

Off-line Computing. Emanuele Leonardi. Referee Meeting - Roma 10 Luglio 2017

Off-line Computing. Emanuele Leonardi. Referee Meeting - Roma 10 Luglio 2017 Off-line Computing Emanuele Leonardi Referee Meeting - Roma 10 Luglio 2017 Simulazione Il programma di simulazione PadmeMC è sostanzialmente completo Tutti i detector simulati Target, Veti, ECal, SAC,

Dettagli

BaBar Calcolo. L. Perini per i referees: L.Perini,A.Staiano CSN1-Assisi L.Perini 1

BaBar Calcolo. L. Perini per i referees: L.Perini,A.Staiano CSN1-Assisi L.Perini 1 BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano 20-9-2004 CSN1-Assisi L.Perini 1 Note generali e MoU I referees si congratulano con BaBar per l impegno e i risultati ottenuti nel computing Ancora

Dettagli

Centri Regionali per il calcolo di ATLAS in Italia

Centri Regionali per il calcolo di ATLAS in Italia 1 Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale 2 Validita delle stime presentate: h/w Le stime per ATLAS globale sono tratte

Dettagli

DETTAGLIO LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA/VALORE PRESUNTO

DETTAGLIO LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA/VALORE PRESUNTO Appalto specifico "Infrastruttura Hardware per il progetto PNR" ID Negoziazione: 1898107 Codice univoco IPA: U64LLU Criterio di aggiudicazione Presentazione delle offerte al netto di IVA Ordinamento delle

Dettagli

Servizio di Calcolo e Reti. F. Semeria 10 Luglio 2013

Servizio di Calcolo e Reti. F. Semeria 10 Luglio 2013 Servizio di Calcolo e Reti F. Semeria 10 Luglio 2013 Personale Antonio Bassi (tempo parziale: 1/3) Daniela Bortolotti Franco Brasolin (CERN, ATLAS Tdaq SysAdmins ) Patrizia Calligola Francesca Del Corso

Dettagli

Ufficio Affari Generali IV Settore. N. MI-123-U-A Roma, 18 aprile 2018 QUESITI E RELATIVE RISPOSTE

Ufficio Affari Generali IV Settore. N. MI-123-U-A Roma, 18 aprile 2018 QUESITI E RELATIVE RISPOSTE N. MI-123-U-A-4-3-2018-174 Roma, 18 aprile 2018 SDAPA 1761287 Infrastruttura Tecnologica per la piattaforma SIDAF QUESITI E RELATIVE RISPOSTE 1) Capitolato Tecnico - Pag. 7 Viene richiesta la migrazione

Dettagli

La farm di ALICE a Trieste

La farm di ALICE a Trieste La farm di ALICE a Trieste ALICE Trieste Presentazione per il Consiglio di Sezione INFN 4 maggio 2004 Utilizzo della farm a Trieste o Studio di eventi con charm nelle collisioni p-pb con ALICE ad LHC (Raffaele

Dettagli

TOTALE LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA

TOTALE LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA Bando Semplificato "CRAIM Hardware" ID Negoziazione: 1150714 Totale Lotti: 1 TOTALE LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA 1 Lotto 1 Non previsto N Lotto 1 LOTTO 1 - DATI DI LOTTO Denominazione

Dettagli

Scheda E allegata al Capitolato Tecnico --- Inventario dell Hardware

Scheda E allegata al Capitolato Tecnico --- Inventario dell Hardware ROMA CAPITALE Scheda E allegata al Capitolato Tecnico --- Inventario dell Hardware Procedura Aperta Servizio di gestione, manutenzione, supporto e sviluppo tecnologico delle infrastrutture hardware e software

Dettagli

CARATTERISTICHE TECNICHE, FUNZIONALI, OPERATIVE E NORME DI ESECUZIONE

CARATTERISTICHE TECNICHE, FUNZIONALI, OPERATIVE E NORME DI ESECUZIONE RDO (ME-PAT) N. 72651 PER LA FORNITURA DI UNA PIATTAFORMA IT MODULARE DI VIRTUALIZZAZIONE A SERVIZIO DEI LABORATORI PROM FACILITY CODICE CIG 76141123FE CAPITOLATO TECNICO CAPITOLATO TECNICO 1 Art. 1. Premessa

Dettagli

Calcolo LHC: Tier-1 e Tier-2

Calcolo LHC: Tier-1 e Tier-2 Calcolo LHC: Tier-1 e Tier-2 Donatella Lucchesi, Bruna Bertucci, Gianpaolo Carlino, Sara Pirrone, Paolo Spagnolo, Vincenzo Vagnoni Great performances as shown by the experiments presentations. Here only:

Dettagli

Roberto Stroili 16 settembre 2002 Commissione I. Roberto Stroili 16 settembre 2002 Commissione I

Roberto Stroili 16 settembre 2002 Commissione I. Roberto Stroili 16 settembre 2002 Commissione I Stato del calcolo di BaBar Roberto Stroili Università di Padova & INFN Commissione I 16 settembre 2002 1 Outline Calcolo di BaBar Computing Review 2 nuovo Computing Model Calcolo di BaBar in Italia CASPUR

Dettagli

Allegato Tecnico BaaS/CBaaS

Allegato Tecnico BaaS/CBaaS Allegato Tecnico BaaS/CBaaS Nota di lettura 1 Descrizione del servizio 1.1 Definizioni e acronimi 1.2 Blade as a Service e Computing Blade as a Service 1.3 Attivazione del servizio Configurazione Network

Dettagli

Stato dei progetti INFN in COMPASS

Stato dei progetti INFN in COMPASS Stato dei progetti INFN in COMPASS! Il RICH-1! I trakers dello spettrometro: MWPC s, MW1, W 4/5! Il RICH-Wall! Le FARM di Torino e di Trieste! Preparazione al run adronico W4/5 MWPC-A* MW-1 RICH-1 MWPC-B

Dettagli

Tier-1. Luca dell Agnello 25 Maggio 2016

Tier-1. Luca dell Agnello 25 Maggio 2016 Tier-1 Luca dell Agnello 25 Maggio 2016 Tier-1 users It is the main INFN computing centre providing computing and storage services to ~30 scientific collaborations Tier-1 for LHC experiments (ATLAS, CMS,

Dettagli

Specifica Tecnica Acquisizione Server Blade ed Enclosure

Specifica Tecnica Acquisizione Server Blade ed Enclosure Specifica Tecnica INDICE 1 OGGETTO...3 2 CONSISTENZA DELLA FORNITURA...3 2.1 SERVER QUADRI-PROCESSORE...3 2.2 SERVER BI-PROCESSORE...4 2.3 ENCLOSURE PER SERVER BLADE...4 2.4 CARATTERISTICHE COMUNI...4

Dettagli

Il Tier2 di CMS Roma. Francesco Safai Tehrani INFN Roma.

Il Tier2 di CMS Roma. Francesco Safai Tehrani INFN Roma. Il Tier2 di CMS Roma Francesco Safai Tehrani INFN Roma (francesco.safaitehrani@roma1.infn.it) Il progetto di un Tier2: Richieste dell esperimento: Potenza di calcolo + storage Servizi erogati Affidabilità?

Dettagli

SISTEMI DI STORAGE CON DEDUPLICA DELL EMC DATA DOMAIN

SISTEMI DI STORAGE CON DEDUPLICA DELL EMC DATA DOMAIN Sistemi Data Domain SISTEMI DI STORAGE CON DEDUPLICA DELL EMC DATA DOMAIN I sistemi di storage con deduplica Dell EMC Data Domain continuano a rivoluzionare il disk backup, l'archiviazione e il disaster

Dettagli

INFN-BOLOGNA-T3. L. Rinaldi

INFN-BOLOGNA-T3. L. Rinaldi INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività di Ricerca Tecnologica Richieste e supporto Light

Dettagli

Allegato Tecnico BaaS/CBaaS

Allegato Tecnico BaaS/CBaaS Allegato Tecnico BaaS/CBaaS Nota di lettura 1 Descrizione del servizio 1.1 Definizioni e acronimi 1.2 Blade as a Service e Computing Blade as a Service 1.3 Attivazione del servizio Configurazione Network

Dettagli

La e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS. Guido Russo WS GARR, Napoli 19 Giugno 2014

La e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS. Guido Russo WS GARR, Napoli 19 Giugno 2014 La e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS Guido Russo WS GARR, Napoli 19 Giugno 2014 Il PON ReCaS http://www.pon-recas.it Rete di Calcolo per SuperB e altre

Dettagli

Servizio Calcolo. Alessandro Brunengo

Servizio Calcolo. Alessandro Brunengo Servizio Calcolo Alessandro Brunengo Personale (2017) Alessandro Brunengo (tecnologo, responsabile) 10% Mailing, 90% Calcolo Mirko Corosu (tecnologo) 30% Atlas, 70% Calcolo Francesco Saffioti (CTER) Enrico

Dettagli

Impianti informatici. Sistemi di storage. Paolo Cremonesi

Impianti informatici. Sistemi di storage. Paolo Cremonesi Impianti informatici Sistemi di storage Paolo Cremonesi Capacità e Prestazioni Aumento di capacità dei dischi Densità di informazione (Mbit/cm 2 ) 100.000 10.000 1.000 100 10 1 1980 1985 1990 1995 2000

Dettagli

Futuro del Calcolo in Sezione

Futuro del Calcolo in Sezione Futuro del Calcolo in Sezione INFN Trieste 1 Perche questa presentazione Da tempo e in corso una discussione sul calcolo in sezione e.g. farm di sezione e gia stata argomento di questo consiglio (4 Maggio

Dettagli

tecnologie di cloud computing per il calcolo scientifico Presentazione stage per studenti triennali Università di Torino Mar 6, 2013

tecnologie di cloud computing per il calcolo scientifico Presentazione stage per studenti triennali Università di Torino Mar 6, 2013 tecnologie di cloud computing per il calcolo scientifico Università di Torino Mar 6, 2013 il centro di calcolo INFN Università di Torino Mar 6, 2013-2/417 Cosa facciamo a torino Ricerca tecnologica Core

Dettagli

Manutenzione mezzi di calcolo. Manutenzioni Novità del mercato e consigli per gli acquisti

Manutenzione mezzi di calcolo. Manutenzioni Novità del mercato e consigli per gli acquisti Manutenzione mezzi di calcolo Uff Manutenzioni Novità del mercato e consigli per gli acquisti 1 Uff Guardando questa presentazione avrete l impressione che il tempo si sia fermato! In effetti ho avuto

Dettagli

Test di storage ad alte prestazioni con interconnessione 10 GE

Test di storage ad alte prestazioni con interconnessione 10 GE Test di storage ad alte prestazioni con interconnessione 10 GE Incipit Saggezza popolare Labronica: Inutile votarsi i co...ni con gli aquiloni quando non c'è vento Bene ieri vi hanno parlato degli aquiloni

Dettagli

Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management

Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management Moreno Marzolla INFN Padova BaBar Collaboration & Dip. Informatica, Università di Venezia Workshop su Management

Dettagli

Grandi infrastrutture di storage per calcolo ad elevato throughput e Cloud

Grandi infrastrutture di storage per calcolo ad elevato throughput e Cloud Grandi infrastrutture di storage per calcolo ad elevato throughput e Cloud Michele Di Benedetto, Alessandro Cavalli, Luca dell Agnello, Matteo Favaro, Daniele Gregori, Michele Pezzi, Andrea Prosperini,

Dettagli

Consolidamento e virtualizzazione dei server: l esperienza di UniBo

Consolidamento e virtualizzazione dei server: l esperienza di UniBo Consolidamento e virtualizzazione dei server: l esperienza di UniBo Simone Balboni CeSIA Università di Bologna Seminario corso Sistemi Operativi Bologna, 6 marzo 2007 Agenda: il progetto di consolidamento

Dettagli

BACKUP MULTIPIATTAFORMA ON PREMISE, RIMOVIBILE, DECENTRALIZZATO E CLOUD IBRIDIO

BACKUP MULTIPIATTAFORMA ON PREMISE, RIMOVIBILE, DECENTRALIZZATO E CLOUD IBRIDIO STORAGE EVOLUTION BACKUP MULTIPIATTAFORMA ON PREMISE, RIMOVIBILE, DECENTRALIZZATO E CLOUD IBRIDIO Tutti i sistemi sono forniti di una serie di modalità di Backup che permettono di soddisfare ogni esigenza.

Dettagli

Riorganizzazione dei Sistemi Informativi Comunali COMPUTO METRICO

Riorganizzazione dei Sistemi Informativi Comunali COMPUTO METRICO COMUNE DI CATANIA Riorganizzazione dei Sistemi Informativi Comunali Sviluppo ed integrazione dei Sistemi Informatici SottoProgetto1 Potenziamento strumenti informatici dell amministrazione comunale COMPUTO

Dettagli

Il calcolo distribuito mediante griglie computazionali

Il calcolo distribuito mediante griglie computazionali ossia Il calcolo distribuito mediante griglie computazionali Massimo Masera Dipartimento di Fisica Sperimentale dell Universita` e I.N.F.N. Torino (ringrazio Federico Carminati, Fabrizio Gagliardi e Claudio

Dettagli

REALIZZAZIONE SALA CED

REALIZZAZIONE SALA CED REALIZZAZIONE SALA CED CAPITOLATO TECNICO SOMMARIO 1 Realizzazione sala CED 2 Specifiche minime dell intervento 1. REALIZZAZIONE SALA CED L obiettivo dell appalto è realizzare una Server Farm di ultima

Dettagli

Sperimentazione del file-system distribuito HDFS in ambiente GRID. III Borsista Day, Roma, 06.12.2012

Sperimentazione del file-system distribuito HDFS in ambiente GRID. III Borsista Day, Roma, 06.12.2012 Sperimentazione del file-system distribuito HDFS in ambiente GRID Tutor: Domenico Diacono Outline Use cases Hadoop Distributed File System Test di funzionalità Sviluppo di politiche di replica dei dati

Dettagli

Soluzione medium cost: Thumper

Soluzione medium cost: Thumper CCR/19/07/P Luglio 2007 Versione 1.1 Infrastrutture di storage per servizi centrali e calcolo di esperimento: soluzioni e costi Gruppo storage di CCR Introduzione Questo documento riassume i dati sulle

Dettagli

Listino del mese OVERBYTE. di Braghini e Passadore S.n.c. Personal Computer. Via castello n Rodengo Saiano BS

Listino del mese OVERBYTE. di Braghini e Passadore S.n.c. Personal Computer. Via castello n Rodengo Saiano BS OVERBYTE di Braghini e Passadore S.n.c. Via castello n 50 25050 Rodengo Saiano BS P.I. 02437650985 Tel. & Fax 030/6119654 Listino del mese Personal Computer Soluzione 1: Cabinet middletower Elite 430 ATX

Dettagli

Test e risultati sull uso di un file system GPFS condiviso su rete WAN

Test e risultati sull uso di un file system GPFS condiviso su rete WAN Test e risultati sull uso di un file system GPFS condiviso su rete WAN Antonio Budano (INFN Sezione di Roma 3) In collaborazione con: Vladimir Sapunenko (INFN - CNAF) Elisabetta Vilucchi (INFN LNF) Sommario

Dettagli

SISTEMI DI STORAGE CON DEDUPLICA DELL EMC DATA DOMAIN

SISTEMI DI STORAGE CON DEDUPLICA DELL EMC DATA DOMAIN SISTEMI DI STORAGE CON DEDUPLICA DELL EMC DATA DOMAIN I sistemi di storage con deduplica Dell EMC Data Domain continuano a rivoluzionare il disk backup, l'archiviazione e il disaster recovery con funzionalità

Dettagli

Progetto Pon n 1 Istituto Rilke

Progetto Pon n 1 Istituto Rilke Progetto Pon n 1 Istituto Rilke 10.8.1.A1 Realizzazione dell infrastruttura e dei punti di accesso alla rete LAN/WLAN Scuola Primaria Pascoli N 1 ARMADIO RACK 19" SERIE RWB 9U, GRIGIO PROFONDITA' 500 MM

Dettagli

Domanda 1 Risposta 1 Domanda 2 Risposta 2 Domanda 3 Risposta 3 Domanda 4 Risposta 4:

Domanda 1 Risposta 1 Domanda 2 Risposta 2 Domanda 3 Risposta 3 Domanda 4 Risposta 4: Domanda 1 Da una nostra verifica non risultano brand che offrano la disponibilità di installare dischi con tecnologia SAS hot swap 6Gbps 15k rpm di capacità 600GB sulla tipologia dei server richiesti nei

Dettagli

ELASTIC CLOUD STORAGE (ECS) APPLIANCE

ELASTIC CLOUD STORAGE (ECS) APPLIANCE Specifiche tecniche ELASTIC CLOUD STORAGE (ECS) APPLIANCE Dell EMC Elastic Cloud Storage (ECS ) Appliance è una piattaforma di storage cloud software-defined multifunzionale. Questa soluzione Dell EMC

Dettagli

Il calcolo distribuito in ATLAS

Il calcolo distribuito in ATLAS Il calcolo distribuito in ATLAS Alessandra Doria INFN Sezione di Napoli Workshop CCR2003 Paestum 12 Giugno 2003 Argomenti Modello di calcolo a Tier Il sw offline di ATLAS ATLAS Data Challenges Progetti

Dettagli

ARGO-YBJ: il modello di calcolo. CSNII 29 Novembre 2012 Stefano Mari

ARGO-YBJ: il modello di calcolo. CSNII 29 Novembre 2012 Stefano Mari ARGO-YBJ: il modello di calcolo CSNII 29 Novembre 2012 Stefano Mari L esperimento Argo-YBJ } L apparato dell esperimento Argo YBJ è situato in Tibet (YangBajing), a 4300 s.l.m. } Apparato di sciami con

Dettagli

Bologna Batch System (BBS) Franco Semeria Seminario di Sezione

Bologna Batch System (BBS) Franco Semeria Seminario di Sezione Bologna Batch System (BBS) Franco Semeria Seminario di Sezione 28-06-2004 Cosa e BBS BBS e un sistema batch basato su Condor. L utente sottomette i job da una macchina e il sistema li distribuisce sulle

Dettagli

Stato risorse di calcolo CDF in Italia

Stato risorse di calcolo CDF in Italia Stato risorse di calcolo CDF in Italia - August 31, 2011 S. Amerio (INFN Padova) Stato risorse a Fermilab Portale CDFGRID per accedere alle risorse di calcolo locali a Fermilab. Job in corso 5k CDFGRID

Dettagli

La componente tecnologica dei. sistemi informativi. Architettura hw

La componente tecnologica dei. sistemi informativi. Architettura hw Informatica o Information Technology La componente tecnologica dei sistemi informativi m. rumor Architettura del Sistema tecnologico Sistema tecnologico: insieme di componenti connessi e coordinati che

Dettagli

PREVENTIVO LOCALE DI SPESA PER L'ANNO 2004

PREVENTIVO LOCALE DI SPESA PER L'ANNO 2004 PREVENTIVO LOCALE DI SPESA PER L'ANNO 2004 VOCI DI SPESA DESCRIZIONE DELLA SPESA Parziali IMPORTI In KEuro Totale Compet. Progetto TRIP Riunioni Netgroup e Security 2.0 2.0 4.0 0.0 Metabolismo Software

Dettagli

DETTAGLIO LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA/VALORE PRESUNTO

DETTAGLIO LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA/VALORE PRESUNTO Appalto specifico "Progetto ISF potenziamento Cen Napoli - stemi Hardware" ID Negoziazione: 1905896 Codice univoco IPA: U64LLU Criterio di aggiudicazione Presentazione delle offerte al netto di IVA Ordinamento

Dettagli

enimonitor proactive IT monitoring

enimonitor proactive IT monitoring enimonitor proactive IT monitoring enimonitor EniMonitor è il modulo che consente il monitoraggio proattivo delle reti informatiche. EniMonitor è il progetto Open Source Nagios, corredato da numerosi add-on

Dettagli

Hepix Spring 2006 Report Roberto Gomezel

Hepix Spring 2006 Report Roberto Gomezel Hepix Spring 2006 Report Roberto Gomezel CCR 5-6 giugno 2006 Spring meeting 2006 La riunione primaverile è stata organizzata dal CASPUR presso le sale riunioni CNR a Roma Organizzazione ha evidenziato

Dettagli

IBM Svizzera Offerte Express Primavera 2012

IBM Svizzera Offerte Express Primavera 2012 IBM Svizzera Offerte Express Primavera 2012 NOVITÀ: Intel Romley Inside! Offerte IBM Express Primavera 2012 2 IL modello base per eccellenza IBM System x3100 M4 Ordine nr.: 2582K9G Processor Inside: Intel

Dettagli

LA VIRTUALIZZAZIONE CASE STUDY CAMPUS DI CESENA

LA VIRTUALIZZAZIONE CASE STUDY CAMPUS DI CESENA LA VIRTUALIZZAZIONE CASE STUDY CAMPUS DI CESENA Macchine virtuali Virtualizzazione: Perché Virtualizzazione: Cos è Forme di virtualizzazione Il Polo scientifico-didattico di Cesena Esigenze Scelte Architettura

Dettagli

CSN4! GGI marzo 2008. Calcolo teorico. E. Onofri, R. Tripiccione, E. Vicari

CSN4! GGI marzo 2008. Calcolo teorico. E. Onofri, R. Tripiccione, E. Vicari CSN4! GGI marzo 2008 Calcolo teorico E. Onofri, R. Tripiccione, E. Vicari Piano della presentazione Piano della presentazione La manovra di ottobre 2007 Piano della presentazione La manovra di ottobre

Dettagli

(1) Formula Lineare spezzata sulla media (interdipendente) per il calcolo del punteggio economico:

(1) Formula Lineare spezzata sulla media (interdipendente) per il calcolo del punteggio economico: Appalto specifico "Infrastruttura ICT Centrale del Sistema Informativo VISTI (I-VIS)" ID Negoziazione: 1307729 Codice univoco IPA: Criterio di aggiudicazione Presentazione delle offerte al netto di IVA

Dettagli

ID Ambito Metrica Peso C S N G Computing Storage Networking Cross Caratteristiche dei sistemi di computing 20 Caratteristiche dei sistemi Storage 25 Caratteristiche degli apparati di Networking 6 Caratteristiche

Dettagli

2.2.1 FrontEnd FIREWALL CARATTERISTICHE VALORE RICHIESTO VALORE OFFERTO QTA' 2

2.2.1 FrontEnd FIREWALL CARATTERISTICHE VALORE RICHIESTO VALORE OFFERTO QTA' 2 2.2.1 FrontEnd FIREWALL RICHIESTO QTA' 2 modello throughput 400 Mbps Throughput cifrato (3DES) 200 Mbps VPN Session 700 Connessioni al secondo 7000 RAM 512 Mbyte System flash 64 6 porte per Network Gigabitporte

Dettagli

Esperienze di gestione di OpenNebula, Openstack, VMWare

Esperienze di gestione di OpenNebula, Openstack, VMWare Workshop GARR Terabit Generation. Una comunità ad alte prestazioni Roma CNR 18-21 aprile 2016 Esperienze di gestione di Cloud @ENEA OpenNebula, Openstack, VMWare Tavolo tecnico Cloud e Storage Giovanni

Dettagli

MASTERCLASS CINEMA. Incontro martedì 23 ottobre 2018 presso Fluendo srl Intervento: Istituto Luce. in collaborazione con Deutsche Bank per la cultura

MASTERCLASS CINEMA. Incontro martedì 23 ottobre 2018 presso Fluendo srl Intervento: Istituto Luce. in collaborazione con Deutsche Bank per la cultura MASTERCLASS CINEMA Incontro martedì 23 ottobre 2018 presso Fluendo srl Intervento: Istituto Luce in collaborazione con Deutsche Bank per la cultura LA GESTIONE DEI DATI CED (Centro Elaborazione Dati) Il

Dettagli

Indice degli argomenti

Indice degli argomenti Introduzione alle griglie computazionali Università degli Studi di Napoli Federico II Corso di Laurea in Informatica III Anno LEZIONE N. 3 Distribuzione delle risorse Un precursore della Grid La rete e

Dettagli

CAPITOLATO TECNICO. Fornitura di hardware Fujitsu e Fortinet e software Microsoft

CAPITOLATO TECNICO. Fornitura di hardware Fujitsu e Fortinet e software Microsoft CAPITOLATO TECNICO Fornitura di hardware Fujitsu e Fortinet e software Microsoft Introduzione... 2 Oggetto della RdO... 3. Lotto : Hardware... 3 A. Server Fujitsu 2550M... 3 B. Fortianalyzer 3000E... 4

Dettagli

Mezz ora in amicizia. Ross

Mezz ora in amicizia.   Ross Mezz ora in amicizia www.linuxvar.it Ross Cosa si usa Quando si parla di virtualizzazione in ambito server viene immediato pensare a VMware vsphere, a Hyper-V di Microsoft o a Citrix XenServer, piuttosto

Dettagli

Reti per il datacenter: l esperienza di UniBo. Simone Balboni CeSIA Università di Bologna

Reti per il datacenter: l esperienza di UniBo. Simone Balboni CeSIA Università di Bologna Reti per il datacenter: l esperienza di UniBo Simone Balboni CeSIA Università di Bologna Agenda: il progetto di consolidamento dei server UniBo focus sulla virtualizzazione il datacenter e la rete locale

Dettagli

Grid Tutorial Day Palermo, 13 Aprile 2011

Grid Tutorial Day Palermo, 13 Aprile 2011 Grid Tutorial Day Palermo, 13 Aprile 2011 01 - Introduzione Pier Paolo Corso Sommario Introduzione generale Introduzione al Grid Computing Introduzione alla Grid COMETA Anteprima delle lezioni successive

Dettagli

Acquisti in Rete Pa Condizioni economiche Server Entry Pagina 1 di 12

Acquisti in Rete Pa Condizioni economiche Server Entry Pagina 1 di 12 PREZZI ORDINATIVO VIA FAX (IVA ESCLUSA) (Configurazioni Base, le Amministrazioni potranno scegliere fra unità in configurazione rack 19 e unità in configurazione deskside tower) Configurazione da Rack

Dettagli

ISTITUTO NAZIONALE DI FISICA NUCLEARE

ISTITUTO NAZIONALE DI FISICA NUCLEARE INFN/CCR-10/05 7 Settembre 2010 CCR-39/2010/P VALUTAZIONE DI APPARATI DI AGGREGAZIONE E DI EDGE ROUTING PER I TIER2 INFN A. Brunengo 1, A. De Salvo 2, D. Di Bari 3, G. Donvito 3, R. Gomezel 4, P. Lo Re

Dettagli

BR-QCA58 MiMo Serie Access-Point Wireless 3x3 MiMo Dual-Band AC1750 Indoor

BR-QCA58 MiMo Serie Access-Point Wireless 3x3 MiMo Dual-Band AC1750 Indoor BR-QCA58 MiMo Serie Access-Point Wireless 3x3 MiMo Dual-Band AC1750 Indoor Modello: BR-QCA44 CARATTERISTICHE PRINCIPALI Chipset Qualcomm Atheros 700MHz QCA9558 Standard IEEE 802.11ac/a/b/g/n @28dBm & @25dBm

Dettagli

Normalizzazione puntuale dei dati di accounting

Normalizzazione puntuale dei dati di accounting Normalizzazione puntuale dei dati di accounting Proposta per uno strumento automatizzato Felice Rosso, CNAF Guido Guizzunti, CNAF Andrea Guarise, INFN Torino Sommario Sistema corrente Limiti, problemi

Dettagli

BaBar Computing in Italia: status report

BaBar Computing in Italia: status report BaBar Computing in Italia: status report Alexis Pompili - CNAF (per il gruppo italiano di computing) Contributi di D.Andreotti, A.Fella, A.Lusiani, P.Solagna MEETING BABAR-ITALIA Roma 6/7 aprile 2006 1.

Dettagli

Il nuovo cluster INFN per la fisica teorica

Il nuovo cluster INFN per la fisica teorica Il nuovo cluster INFN per la fisica teorica Incontro di lavoro della CCR Napoli, 26 Gennaio 2010 Roberto Alfieri 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 1 Necessità di calcolo del Gr.

Dettagli

Cloud Infrastructure - studio di fattibilità

Cloud Infrastructure - studio di fattibilità Cloud Infrastructure - studio di fattibilità Business Intelligence Group: Lorenzo Baldacci Matteo Gofarelli Matteo Francia Simone Graziani Enrico Gallinucci Stefano Rizzi Obiettivi dello studio di fattibilità

Dettagli

Gara europea per la fornitura di apparati hardware e relativo software per l ammodernamento del data center della Regione Valle D Aosta

Gara europea per la fornitura di apparati hardware e relativo software per l ammodernamento del data center della Regione Valle D Aosta Gara europea per la fornitura di apparati hardware e relativo software per l ammodernamento del data center della Regione Valle D Aosta Risposte alle richieste di chiarimenti Risposte alle richieste di

Dettagli

Attività su EOS Prime esperienze d implementazione della soluzione storage prodotta al CERN presso la Sezione di Trieste

Attività su EOS Prime esperienze d implementazione della soluzione storage prodotta al CERN presso la Sezione di Trieste Attività su EOS Prime esperienze d implementazione della soluzione storage prodotta al CERN presso la Sezione di Trieste Workshop della CCR - 16-20 maggio 2016 - La Biodola 1/16 Introduzione Il progetto

Dettagli

Cluster CRESCO ed ENEAGRID

Cluster CRESCO ed ENEAGRID Seminario INTEL a CRESCO Portici 18 Settembre 2014 Cluster CRESCO ed AGRID G.Bracco bracco@enea.it S.Migliori,A.Quintiliani,R.Guadagni,F.Ambrosino,G.Aprea,F.Beone,M.Caporicci, P.DAngelo,A.Funel,G.Guarnieri,S.Podda,G.Ponti,F.Palombi,G.Furini,A.Mariano,

Dettagli

Relazione utilizzo rete, proposte per banda e collegamenti extra GARR

Relazione utilizzo rete, proposte per banda e collegamenti extra GARR Relazione utilizzo rete, proposte per banda e collegamenti extra GARR M. Morandin, G. Riccobene, P. Veronesi CCR, Roma, 6 Ottobre 2010 1 Richieste 2011 1/2 2 Richieste 2010 2/2 Per quanto riguarda le seguenti

Dettagli

Materiale informatico per esigenze dell Amministrazione Difesa Codice Pratica: TELEDIFE 263/17/0440 CIG: Z4920C36C9

Materiale informatico per esigenze dell Amministrazione Difesa Codice Pratica: TELEDIFE 263/17/0440 CIG: Z4920C36C9 1 Materiale informatico per esigenze dell Amministrazione Difesa Codice Pratica: TELEDIFE 263/17/0440 CIG: Z4920C36C9 CRITERI DI VALUTAZIONE DELLA PPOSTA TECNICA I Criteri di Valutazione Misurabili saranno

Dettagli

BaBar: stato ed utilizzo delle farms

BaBar: stato ed utilizzo delle farms BaBar: stato ed utilizzo delle farms presentato da Fulvio Galeazzi a nome del gruppo di Computing BaBar Italia BaBar: stato ed utilizzo delle farms, F. Galeazzi, Settembre 2004, pag. 1 Sommario Il gruppo

Dettagli

REQUISITI HARDWARE E SOFTWARE

REQUISITI HARDWARE E SOFTWARE REQUISITI HARDWARE E SOFTWARE Sistemi operativi supportati Configurazione installazione client/server Configurazione installazione con servizi terminal server Ultimo aggiornamento: 07/11/2018 FACTORY ERP

Dettagli

NEXPReS: Evoluzione e completamento dell e-vlbi. (INAF Ist. Radioastronomia)

NEXPReS: Evoluzione e completamento dell e-vlbi. (INAF Ist. Radioastronomia) NEXPReS: Evoluzione e completamento dell e-vlbi Mauro Nanni (INAF Ist. Radioastronomia) 200 kpc 650,000 light years Per avere un buon radiotelescopio Sensibilità = capacità di rivelare segnali deboli.

Dettagli

Acquisizione di apparati di calcolo e storage ad alte prestazioni e relativi servizi di manutenzione (Gara 107_16) CIG C1C

Acquisizione di apparati di calcolo e storage ad alte prestazioni e relativi servizi di manutenzione (Gara 107_16) CIG C1C Acquisizione di apparati di calcolo e storage ad alte prestazioni e relativi servizi di manutenzione (Gara 107_16) CIG 6858392C1C Capitolato tecnico di gara Indice degli argomenti art. 1 Il contesto del

Dettagli