I Centri Regionali di LHC ed il TIER 1 unico. F. Ruggieri IV Incontro di GARR-B Bologna Giugno 2002
|
|
- Marco Chiesa
- 5 anni fa
- Visualizzazioni
Transcript
1 I Centri Regionali di LHC ed il TIER 1 unico F. Ruggieri IV Incontro di GARR-B Bologna Giugno 2002
2 Esperimenti a LHC 3.5 PetaBytes / year ~4x109 events/year
3 IT Division We have a very big job ahead of us as in the past, together we will make it GB/sec Detector 0.1 to 1 GB/sec Raw data 35K SI95 Event Filter (selection & reconstruction) 1 PB /year 500 TB One Experiment Event Summary Data ~200 MB/sec 350K SI95 64 GB/sec Batch Physics Analysis 200 TB /year Processed Data ~100 MB/sec 250K SI95 Event Reconstruction analysis objects Event Simulation Thousands of scientists Interactive Data Analysis
4 Evolution of Computing Capacity at CERN LEP Thousands of CERN Units Thousands of CERN Units CERN Centre Physics Computing Capacity IBM 9000 mainframe decomissioned SHIFT Project at CERN Moore's law (based on 1988) year CERN Centre Physics Computing Capacity 40 Mainframes decomissioned First PC services CERN RD47 project RISC decomissioning agreed Moore's law (based on 1988) year Jan 2000: 3.5K SI95 LHC Moore s law some measure of the capacity technology advances provide for a constant number of processors or investment (based on 2000)
5 HTC piuttosto che HPC High Throughput Computing Un numero molto elevato di problemi indipendenti (Eventi) Calcolo in parallelo e non calcolo parallelo. Prestazioni di insieme piuttosto che alte prestazioni sul singolo programma. Ridondanza piuttosto che totale affidabilità dei singoli componenti. Questo permette di rivolgersi al mercato consumer per i componenti meno critici. Servono però dei sistemi di management altamente scalabili e, possibilmente, altrettanto economici. Pur essendo tipica della HEP, non è unica come problematica di calcolo (Biologia, Astronomia, ecc.)
6 CERN's Network in the World 267 institutes in Europe, 4603 users 208 institutes elsewhere, 1632 users some points = several institutes 11-Oct-00 Hans F. Hoffmann, CERN, Dir. TT&SC 14
7 Architettura Gerarchica Tier 2 Tier 2 Network Tier 1 R.C. Tier 2 Tier 2 Tier 2 Tier 2 Network Network Tier 1 R.C. Tier 1 R.C. Network CERN (Tier 0)
8 Le Capacità Richieste CERN (Somma di tutti gli esperimenti): Mass Storage: 10 Peta Bytes (10 15 B)/anno disk: 2 PB CPU: 20 MSPECint2000 Per ogni Tier 1 Multi-esperimento : Mass Storage: 3 PB/anno disk: 1.5 PB CPU: 10 MSPECint2000 Networking Tier 0 --> Tier 1: 2 Gbps
9 LHC Computing Grid Progetto CERN approvato a settembre. Si indirizza al calcolo per LHC e per la prototipizzazione dei sistemi Hw e SW necessari. Cerca di coordinare lo sforzo con i centri regionali (tier1 e tier2 almeno). Strettamente legato agli esperimenti, cerca di coordinarne le attività comuni.
10 La GRID dei TIER per LHC
11 Esperimento VIRGO LYON LIGO CASCINA CNAF
12 Obiettivi: Progetto TIER1 Costruzione e sperimentazione di un prototipo di Tier1 INFN unico per i 4 esperimenti LHC. Ottimizzazione delle risorse. Formazione di personale. Rappresentatività verso gli altri Tier1 e verso il CERN. Coordinamento con i Tier2 e fornitura di servizi ed attrezzature non replicabili o costose.
13 I Servizi Tecnici Necessari Potenza di calcolo (FARM di CPU) Accesso ai Dati in Linea (Dischi) Archiviazione Dati (Mass Storage/Nastri) Rete di Accesso ad Alta Banda e Qualità di Servizio Gestione Sistemi Operativi e File System Gestione DataBase Gestione Librerie Software Generali Supporto all Utenza e servizi accessori Coordinamento con gli altri Centri Regionali (Tier0, Tier1, Tier2, ecc.).
14 Programma delle Installazioni Virgo (Tier 1) LHC (Tier 1) Totali Centro Regionale Anno CPU (ksi2000) DISK (TB) TAPES (PB) CPU (ksi2000) DISK (TB) TAPES (PB) CPU (ksi2000) DISK (TB) TAPES (PB) , , , , , , ,
15 Rete Accessi attuali tra 34Mbps e 2.5 Gbps Nel corso dei prossimi anni un Tier1 dovrebbe avere un accesso di almeno 1-2 Gbps Attualmente il CNAF ha un accesso a 100 Mbps e si sta migrando verso 1 Gbps. La rete interna è già basata su core switches con interfacce Gbit: 8600 Cabletron (rete CNAF); Extreme 7i (Tier1); Cisco 6509 (GRID e Test)..
16 FARMING Racks da circa 40 macchine biprocessori collegati in dual fast ethernet ed uplink Gigabit Ethernet. Boot ed installazione automatica del sistema e del sw (LCFG). Gestione remota delle console (KVM Analogici e Digitali). Monitoring via SNMP (temperature, carico CPU, ecc.).
17 Architettura dei sistemi (2) DISCO Pool di circa 2-10 TB per staging (CASTOR, o altro SW). 2-4 TB spazio utente (AFS/NFS) per esperimento. Moduli di 1-2 TB spazio disco su richiesta. Architettura attualmente preferita: SCSI e/o Fibre Channel (nativo o su SCSI) con accesso tramite Gigabit Ethernet su Servers ridondati (Fail-over + Accesso distribuito). Sperimentazioni in corso su: FC-IDE, HA, iscsi, uso di Volumi superiori a 2 TB, Lock Managers, File Systems Distribuiti (GFS, GPFS, ecc.)
18 NASTRI Architettura dei sistemi (3) Legato Networker per Backup (spazio utente). CASTOR (o altro) per Staging dati da nastri LTO. Virtualizzazione della libreria L180 con ACSLS. Possibile uso di DLT per import/export se richiesto. Accesso tramite servers su Gigabit Ethernet con ridondanza (Fail-over + Distributed Access) Nuova possibile libreria da cassette entro fine 2002 inizio 2003.
19 Architettura dei sistemi (4) ACCESSO GRID per le attività di utente sia schedulate che non schedulate (produzione e analisi). Portale web personalizzato per monitoraggio ed amministrazione delle risorse assegnate all esperimento. Uso di certificati per l autorizzazione. Autenticazione Kerberos 5 (in corso). Rete IP con indirizzi visibili dall esterno e limitazioni sulle porte. Rete interna multi-gigabit con accesso a 1-10 Gbps.
20 Data Movers Giga Switch Tape Robotics Dati Controllo Robot SCSI Switch Fast Ethernet Gigabit Ethernet Farms Disk Servers Fibre Channel
21 Configurazione attuale Tipo Descrizione Capacità 14 biproc. 800Mhz 10K SPECint2000 Farm 55 biproc MHz 55K SPECint biproc. 1400Mhz 100K SPECint2000 NAS Procom 17 TB Raw RAID5 Dischi Server IBM 396 GB Raw RAID5 Dischi SCSI 2 TB Raw RAID5 Dischi FC 8 TB Raw RAID5 Nastri Robot L180 StorageTek 3.6 TB / 8 TB (compressi) Drives LTO 15 TB / 30 TB (Compressi)
22 Esempio: Allocazione CPU CDF GRID CNAF VIRG O LHCb CMS ATLAS ALICE 0 Jan-02 Feb- 02 Ma r- 02 Apr-02 Ma y- 02 Jun-02 Jul-02 Aug- 02 Sep- 02 Oct- 02 Nov- 02 Dec- 02 we e k
23 Interazioni Tier1-LCG-GRID Il Tier1 è uno dei Centri Regionali per LHC e, come tale partecipa all attività di LCG. L attività di GRID è di fondamentale importanza per la realizzazione del sistema a Tiers previsto. L architettura generale, definita dal progetto MONARC ha ora un architettura pratica di riferimento. In prospettiva, il Tier1 dovrebbe anche assumere un ruolo di coordinamento e supporto generale.
24 Una Centrale di Servizi GRID
25 Scala dei tempi Giugno 2003: Completa operatività della Sala Macchine. Fine 2004: Fine della fase sperimentale. Inizio 2005: Revisione della sperimentazione ed aggiornamento tecnico-economico-logisticoorganizzativo del piano. Fine 2005: Inizio della realizzazione del Centro per la fase di Produzione.
Il Progetto TIER1 Status Report
Il Progetto TIER1 Status Report Federico Ruggieri Riunione della CSN I Catania 18 Settembre 2002 IT Division We have a very big job ahead of us as in the past, together we will make it. 1-100 GB/sec Detector
Il Progetto TIER1 Status Update. Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003
Il Progetto TIER1 Status Update Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Sommario Stato delle infrastrutture Stato del Personale Uso da parte degli Esperimenti
Tier1-CNAF. DC04 Activities and Status. TISB - Pisa - P. Capiluppi 23-01-04
Tier1-CNAF DC04 Activities and Status TISB - Pisa - P. Capiluppi 23-01-04 Tier1-CNAF 2003-04 Note: [obtained/requested] or [new req/old req] As of end November 2003 requests Dettaglio Netw Boxes CPUs eq.
Il Progetto TIER1 Status Update
Il Progetto TIER1 Status Update Federico Ruggieri Riunione CSN1 PISA 22 Giugno 2004 Indice Infrastrutture Risorse DC esperimenti LHC e non Previsione 2005 Novità nell immediato. Infrastrutture Nuova Sala
Tier1, Tier2 e Tier3 CMS Italia. Paolo Capiluppi 23/01/01CNS1
Tier1, Tier2 e Tier3 CMS Italia Modello di Calcolo per CMS Italia Modello di Calcolo per CMS Italia Il Modello di CMS e basato su una Gerarchia di Funzioni e Risorse (Tier-n). Tale Gerarchia e integrata
Piano di calcolo dell esperimento HERA-B
Piano di calcolo dell esperimento HERA-B Domenico Galli Dipartimento di Fisica e INFN, Bologna Roma, 2-3 maggio 2000 Modello di calcolo di HERA-B La farm on-line del DESY è il centro di produzione dei
Allegato 1. Consolidamento Sistemi Informatici. Specifiche Tecniche
Allegato 1 Consolidamento Sistemi Informatici Specifiche Tecniche Sommario Generalità... 3 Specifiche Tecniche Infrastruttura Tecnologica Hw e Sw... 4 Condizioni Generali di Fornitura... 6 2 Generalità
PREVENTIVO LOCALE DI SPESA PER L'ANNO 2005
PREVENTIVO LOCALE DI SPESA PER L'ANNO 2005 VOCI DI SPESA DESCRIZIONE DELLA SPESA Parziali IMPORTI In KEuro Totale Compet. n. 2 missioni settimanali per Workshop n. 10 missioni di un giorno per gruppi di
P r o g e t t o P I 2 S 2
P r o g e t t o P I 2 S 2 P R O G E T T A Z I O N E E I M P L E M E N T A Z I O N E D E L L A E - I N F R A S T R U T T U R A D I P R O D U Z I O N E DELIVERABLE: D1.3 Nome file: Data: 31/12/2007 Attività:
Centri Regionali per il calcolo di ATLAS in Italia
1 Centri Regionali per il calcolo di ATLAS in Italia Tier-1 e Tiers-N : funzioni, localizzazione, necessita di h/w, personale 2 Validita delle stime presentate: h/w Le stime per ATLAS globale sono tratte
Esperienze di gestione di OpenNebula, Openstack, VMWare
Workshop GARR Terabit Generation. Una comunità ad alte prestazioni Roma CNR 18-21 aprile 2016 Esperienze di gestione di Cloud @ENEA OpenNebula, Openstack, VMWare Tavolo tecnico Cloud e Storage Giovanni
tecnologie di cloud computing per il calcolo scientifico Presentazione stage per studenti triennali Università di Torino Mar 6, 2013
tecnologie di cloud computing per il calcolo scientifico Università di Torino Mar 6, 2013 il centro di calcolo INFN Università di Torino Mar 6, 2013-2/417 Cosa facciamo a torino Ricerca tecnologica Core
Grandi infrastrutture di storage per calcolo ad elevato throughput e Cloud
Grandi infrastrutture di storage per calcolo ad elevato throughput e Cloud Michele Di Benedetto, Alessandro Cavalli, Luca dell Agnello, Matteo Favaro, Daniele Gregori, Michele Pezzi, Andrea Prosperini,
Piano di calcolo dell esperimento HERA-B
Bologna, 27 aprile 2000 Piano di calcolo dell esperimento HERA-B Introduzione Questo piano di calcolo si propone di individuare le risorse di cui il gruppo italiano si deve dotare per l elaborazione dei
Esperienze in alcune sezioni su integrazione gestione sistemi storage per il calcolo e per i servizi. Alessandro Brunengo
Esperienze in alcune sezioni su integrazione gestione sistemi storage per il calcolo e per i servizi Alessandro Brunengo Monitoring Componenti di un sistema di storage Posix (local or parallel file system,
IBM Corporation
1 Che cosa è la virtualizzazione? Risorse virtuali Sostituti per le risorse reali: stesse interfacce /funzioni, differenti attributi. Parte di una risorsa fisica o più risorse fisiche multiple. izzazione
Modello di Progetto di massima Centro Tier 2
Referees del calcolo LHC e Commissione Calcolo e Reti INFN Modello di Progetto di massima Centro Tier 2 (v. 1.6 del 29 luglio 2005) Questo modello e' stato preparato per fornire ai gruppi promotori dei
Referaggio SST. Carbone, Gianoli, Mezzadri
Referaggio SST Carbone, Gianoli, Mezzadri Linee guida Nulla di nuovo sulle linee guida che abbiamo seguito richieste di finanziamento che riguardano lavori (muratura, elettrici, condizionamento, ) dovrebbero
Off-line Computing. Emanuele Leonardi. Referee Meeting - Roma 10 Luglio 2017
Off-line Computing Emanuele Leonardi Referee Meeting - Roma 10 Luglio 2017 Simulazione Il programma di simulazione PadmeMC è sostanzialmente completo Tutti i detector simulati Target, Veti, ECal, SAC,
Organizzazione LAN dei Tier2 di CMS Italia
Organizzazione LAN dei Tier2 di CMS Italia Premesse... Non sono un fisico di CMS ma solo un tecnologo di servizio calcolo Raccolte le informazioni dai singoli T2 cercando di coinvolgere le tre entità coinvolte:
Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management
Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management Moreno Marzolla INFN Padova BaBar Collaboration & Dip. Informatica, Università di Venezia Workshop su Management
Servizio Calcolo. Alessandro Brunengo
Servizio Calcolo Alessandro Brunengo Personale (2017) Alessandro Brunengo (tecnologo, responsabile) 10% Mailing, 90% Calcolo Mirko Corosu (tecnologo) 30% Atlas, 70% Calcolo Francesco Saffioti (CTER) Enrico
Ufficio Affari Generali IV Settore. N. MI-123-U-A Roma, 18 aprile 2018 QUESITI E RELATIVE RISPOSTE
N. MI-123-U-A-4-3-2018-174 Roma, 18 aprile 2018 SDAPA 1761287 Infrastruttura Tecnologica per la piattaforma SIDAF QUESITI E RELATIVE RISPOSTE 1) Capitolato Tecnico - Pag. 7 Viene richiesta la migrazione
INFN-BOLOGNA-T3. L. Rinaldi
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività di Ricerca Tecnologica Richieste e supporto Light
BaBar Calcolo. L. Perini per i referees: L.Perini,A.Staiano CSN1-Assisi L.Perini 1
BaBar Calcolo L. Perini per i referees: L.Perini,A.Staiano 20-9-2004 CSN1-Assisi L.Perini 1 Note generali e MoU I referees si congratulano con BaBar per l impegno e i risultati ottenuti nel computing Ancora
Test e risultati sull uso di un file system GPFS condiviso su rete WAN
Test e risultati sull uso di un file system GPFS condiviso su rete WAN Antonio Budano (INFN Sezione di Roma 3) In collaborazione con: Vladimir Sapunenko (INFN - CNAF) Elisabetta Vilucchi (INFN LNF) Sommario
Servizio di Calcolo e Reti. F. Semeria 10 Luglio 2013
Servizio di Calcolo e Reti F. Semeria 10 Luglio 2013 Personale Antonio Bassi (tempo parziale: 1/3) Daniela Bortolotti Franco Brasolin (CERN, ATLAS Tdaq SysAdmins ) Patrizia Calligola Francesca Del Corso
Proposte assegnazioni server & storage. L. Carbone, A. Gianoli, M. Serra
Proposte assegnazioni server & storage L. Carbone, A. Gianoli, M. Serra Considerazioni generali richieste di finanziamento che secondo i referee riguardano lavori (muratura, elettrici, condizionamento,..)
Calcolo LHC: Tier-1 e Tier-2
Calcolo LHC: Tier-1 e Tier-2 Donatella Lucchesi, Bruna Bertucci, Gianpaolo Carlino, Sara Pirrone, Paolo Spagnolo, Vincenzo Vagnoni Great performances as shown by the experiments presentations. Here only:
DETTAGLIO LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA/VALORE PRESUNTO
Appalto specifico "Progetto ISF potenziamento Cen Napoli - stemi Hardware" ID Negoziazione: 1905896 Codice univoco IPA: U64LLU Criterio di aggiudicazione Presentazione delle offerte al netto di IVA Ordinamento
Allegato Tecnico BaaS/CBaaS
Allegato Tecnico BaaS/CBaaS Nota di lettura 1 Descrizione del servizio 1.1 Definizioni e acronimi 1.2 Blade as a Service e Computing Blade as a Service 1.3 Attivazione del servizio Configurazione Network
DETTAGLIO LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA/VALORE PRESUNTO
Appalto specifico "Infrastruttura Hardware per il progetto PNR" ID Negoziazione: 1898107 Codice univoco IPA: U64LLU Criterio di aggiudicazione Presentazione delle offerte al netto di IVA Ordinamento delle
Quale Calcolo e Storage Per le applicazioni scientifiche ORA? Maggio 2015
Quale Calcolo e Storage Per le applicazioni scientifiche ORA? Maggio 2015 Testbed di correlazione @ IRA Flusso e dimensione dei dati Antenna Istituti/Centri /Cloud Personale / PC Acquis. Acquis. Acquis.
RISORSE E MODELLI DI CALCOLO
RISORSE E MODELLI DI CALCOLO Roberto Alfieri - CSN4 del 13.04.2007 13/04/2007 Risorse e modelli di calcolo- CSN4 page 1 Sommario ATTIVITA' DELLA CCR Bilancio della CCR Contratti Centralizzati (NAG e Mathematica)
Riorganizzazione dei Sistemi Informativi Comunali COMPUTO METRICO
COMUNE DI CATANIA Riorganizzazione dei Sistemi Informativi Comunali Sviluppo ed integrazione dei Sistemi Informatici SottoProgetto1 Potenziamento strumenti informatici dell amministrazione comunale COMPUTO
CSN4! GGI marzo 2008. Calcolo teorico. E. Onofri, R. Tripiccione, E. Vicari
CSN4! GGI marzo 2008 Calcolo teorico E. Onofri, R. Tripiccione, E. Vicari Piano della presentazione Piano della presentazione La manovra di ottobre 2007 Piano della presentazione La manovra di ottobre
Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali
Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali Mirko Corosu Atlas Italia Tier-3 task force Workshop CCR-INFNGRID 2010 Sommario Breve panoramica della situazione
TOTALE LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA
Bando Semplificato "CRAIM Hardware" ID Negoziazione: 1150714 Totale Lotti: 1 TOTALE LOTTI N LOTTO DENOMINAZIONE CIG TOTALE BASE D'ASTA 1 Lotto 1 Non previsto N Lotto 1 LOTTO 1 - DATI DI LOTTO Denominazione
ELASTIC CLOUD STORAGE (ECS) APPLIANCE
Specifiche tecniche ELASTIC CLOUD STORAGE (ECS) APPLIANCE Dell EMC Elastic Cloud Storage (ECS ) Appliance è una piattaforma di storage cloud software-defined multifunzionale. Questa soluzione Dell EMC
Roberto Stroili 16 settembre 2002 Commissione I. Roberto Stroili 16 settembre 2002 Commissione I
Stato del calcolo di BaBar Roberto Stroili Università di Padova & INFN Commissione I 16 settembre 2002 1 Outline Calcolo di BaBar Computing Review 2 nuovo Computing Model Calcolo di BaBar in Italia CASPUR
Il calcolo distribuito mediante griglie computazionali
ossia Il calcolo distribuito mediante griglie computazionali Massimo Masera Dipartimento di Fisica Sperimentale dell Universita` e I.N.F.N. Torino (ringrazio Federico Carminati, Fabrizio Gagliardi e Claudio
Scheda E allegata al Capitolato Tecnico --- Inventario dell Hardware
ROMA CAPITALE Scheda E allegata al Capitolato Tecnico --- Inventario dell Hardware Procedura Aperta Servizio di gestione, manutenzione, supporto e sviluppo tecnologico delle infrastrutture hardware e software
Allegato Tecnico BaaS/CBaaS
Allegato Tecnico BaaS/CBaaS Nota di lettura 1 Descrizione del servizio 1.1 Definizioni e acronimi 1.2 Blade as a Service e Computing Blade as a Service 1.3 Attivazione del servizio Configurazione Network
Grid Tutorial Day Palermo, 13 Aprile 2011
Grid Tutorial Day Palermo, 13 Aprile 2011 01 - Introduzione Pier Paolo Corso Sommario Introduzione generale Introduzione al Grid Computing Introduzione alla Grid COMETA Anteprima delle lezioni successive
La farm di ALICE a Trieste
La farm di ALICE a Trieste ALICE Trieste Presentazione per il Consiglio di Sezione INFN 4 maggio 2004 Utilizzo della farm a Trieste o Studio di eventi con charm nelle collisioni p-pb con ALICE ad LHC (Raffaele
ID Ambito Metrica Peso C S N G Computing Storage Networking Cross Caratteristiche dei sistemi di computing 20 Caratteristiche dei sistemi Storage 25 Caratteristiche degli apparati di Networking 6 Caratteristiche
La e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS. Guido Russo WS GARR, Napoli 19 Giugno 2014
La e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS Guido Russo WS GARR, Napoli 19 Giugno 2014 Il PON ReCaS http://www.pon-recas.it Rete di Calcolo per SuperB e altre
Tier-1. Luca dell Agnello 25 Maggio 2016
Tier-1 Luca dell Agnello 25 Maggio 2016 Tier-1 users It is the main INFN computing centre providing computing and storage services to ~30 scientific collaborations Tier-1 for LHC experiments (ATLAS, CMS,
SISTEMI DI STORAGE CON DEDUPLICA DELL EMC DATA DOMAIN
Sistemi Data Domain SISTEMI DI STORAGE CON DEDUPLICA DELL EMC DATA DOMAIN I sistemi di storage con deduplica Dell EMC Data Domain continuano a rivoluzionare il disk backup, l'archiviazione e il disaster
SISSA computing project 2012: HPC technical specification
SISSA computing project 2012: HPC technical specification giugno 2012 A.Lanza, P. Calucci: SISSA Trieste S. Cozzini: CNR-IOM DEMOCRITOS Trieste A.Ciampa, S. Arezzini, E. Mazzoni: INFN Pisa 1 INTRODUZIONE
REALIZZAZIONE SALA CED
REALIZZAZIONE SALA CED CAPITOLATO TECNICO SOMMARIO 1 Realizzazione sala CED 2 Specifiche minime dell intervento 1. REALIZZAZIONE SALA CED L obiettivo dell appalto è realizzare una Server Farm di ultima
Consolidamento e virtualizzazione dei server: l esperienza di UniBo
Consolidamento e virtualizzazione dei server: l esperienza di UniBo Simone Balboni CeSIA Università di Bologna Seminario corso Sistemi Operativi Bologna, 6 marzo 2007 Agenda: il progetto di consolidamento
Aspetti critici rete LAN e WAN per i Tier-2. R.Gomezel
Aspetti critici rete LAN e WAN per i Tier-2 R.Gomezel Modello rete FARM SAN Rack_farm Rack_farm NAS STK Tape Library Caratteristiche collegamenti Usare switch a 48 porte per ogni rack + numero uplink Porte
Thinking Fast: il sistema di backup più veloce al mondo ora esegue anche l'archiviazione
Thinking Fast: il sistema di backup più veloce al mondo ora esegue anche l'archiviazione I sistemi di backup più veloci al mondo Il primo sistema al mondo per la conservazione a lungo termine di backup
Impianti informatici. Sistemi di storage. Paolo Cremonesi
Impianti informatici Sistemi di storage Paolo Cremonesi Capacità e Prestazioni Aumento di capacità dei dischi Densità di informazione (Mbit/cm 2 ) 100.000 10.000 1.000 100 10 1 1980 1985 1990 1995 2000
ALLEGATO A - TABELLA CRITERI DI VALUTAZIONE. Voce capitolato tecnico massimo
ALLEGATO A - TABELLA CRITERI DI VALUTAZIONE Valutazione tecnica offerte: 70 punti Tabella Ripartizione punteggio: Voce capitolato tecnico Punteggio massimo Modalità di assegnazione Caratteristiche migliorative
Cluster CRESCO ed ENEAGRID
Seminario INTEL a CRESCO Portici 18 Settembre 2014 Cluster CRESCO ed AGRID G.Bracco bracco@enea.it S.Migliori,A.Quintiliani,R.Guadagni,F.Ambrosino,G.Aprea,F.Beone,M.Caporicci, P.DAngelo,A.Funel,G.Guarnieri,S.Podda,G.Ponti,F.Palombi,G.Furini,A.Mariano,
Comune di Cesena. MAN e Videosorveglianza Progetto lotto 1 Anello
Comune di Cesena MAN e Videosorveglianza Progetto lotto 1 Anello Progetto Anello Il progetto comprende i seguenti ambiti di intervento: Predisposizioni «Smart city» Telecamere e apparati di rete attivi
Stato dei progetti INFN in COMPASS
Stato dei progetti INFN in COMPASS! Il RICH-1! I trakers dello spettrometro: MWPC s, MW1, W 4/5! Il RICH-Wall! Le FARM di Torino e di Trieste! Preparazione al run adronico W4/5 MWPC-A* MW-1 RICH-1 MWPC-B
LA VIRTUALIZZAZIONE CASE STUDY CAMPUS DI CESENA
LA VIRTUALIZZAZIONE CASE STUDY CAMPUS DI CESENA Macchine virtuali Virtualizzazione: Perché Virtualizzazione: Cos è Forme di virtualizzazione Il Polo scientifico-didattico di Cesena Esigenze Scelte Architettura
Il nuovo cluster INFN per la fisica teorica
Il nuovo cluster INFN per la fisica teorica Incontro di lavoro della CCR Napoli, 26 Gennaio 2010 Roberto Alfieri 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 1 Necessità di calcolo del Gr.
Il cloud server, affidabile senza rinunciare a flessibilità e velocità
Il cloud server, affidabile senza rinunciare a flessibilità e velocità Attraverso l'offerta strutturata Stellar Server Cloud, CoreTech mette a disposizione di system integrator, software house e web agency
Futuro del Calcolo in Sezione
Futuro del Calcolo in Sezione INFN Trieste 1 Perche questa presentazione Da tempo e in corso una discussione sul calcolo in sezione e.g. farm di sezione e gia stata argomento di questo consiglio (4 Maggio
Test di storage ad alte prestazioni con interconnessione 10 GE
Test di storage ad alte prestazioni con interconnessione 10 GE Incipit Saggezza popolare Labronica: Inutile votarsi i co...ni con gli aquiloni quando non c'è vento Bene ieri vi hanno parlato degli aquiloni
CARATTERISTICHE TECNICHE, FUNZIONALI, OPERATIVE E NORME DI ESECUZIONE
RDO (ME-PAT) N. 72651 PER LA FORNITURA DI UNA PIATTAFORMA IT MODULARE DI VIRTUALIZZAZIONE A SERVIZIO DEI LABORATORI PROM FACILITY CODICE CIG 76141123FE CAPITOLATO TECNICO CAPITOLATO TECNICO 1 Art. 1. Premessa
Le Farm Grid a Pisa. Commissione Calcolo e Reti ROMA 5/10/2007. Silvia Arezzini INFN - Pisa
Le Farm Grid a Pisa Commissione Calcolo e Reti ROMA 5/10/2007 Silvia Arezzini INFN - Pisa Sala Calcolo e farm Caratteristiche Scirocco (Opteron 280 ) 300 processori opteron dual core 2.4 GHz (socket E)
Normalizzazione del Sistema Informativo dell Istituto RAZIONALIZZAZIONE DEGLI AMBIENTI TECNOLOGICI DELL INPDAP
INPDAP Istituto Nazionale di Previdenza per i Dipendenti dell Amministrazione Pubblica Gara per la Razionalizzazione degli ambienti tecnologici dell inpdap Normalizzazione del Sistema Informativo dell
Listino del mese OVERBYTE. di Braghini e Passadore S.n.c. Personal Computer. Via castello n Rodengo Saiano BS
OVERBYTE di Braghini e Passadore S.n.c. Via castello n 50 25050 Rodengo Saiano BS P.I. 02437650985 Tel. & Fax 030/6119654 Listino del mese Personal Computer Soluzione 1: Cabinet middletower Elite 430 ATX
La componente tecnologica dei. sistemi informativi. Architettura hw
Informatica o Information Technology La componente tecnologica dei sistemi informativi m. rumor Architettura del Sistema tecnologico Sistema tecnologico: insieme di componenti connessi e coordinati che
Indice degli argomenti
Introduzione alle griglie computazionali Università degli Studi di Napoli Federico II Corso di Laurea in Informatica III Anno LEZIONE N. 3 Distribuzione delle risorse Un precursore della Grid La rete e
BACKUP MULTIPIATTAFORMA ON PREMISE, RIMOVIBILE, DECENTRALIZZATO E CLOUD IBRIDIO
STORAGE EVOLUTION BACKUP MULTIPIATTAFORMA ON PREMISE, RIMOVIBILE, DECENTRALIZZATO E CLOUD IBRIDIO Tutti i sistemi sono forniti di una serie di modalità di Backup che permettono di soddisfare ogni esigenza.
IBM Svizzera Offerte Express Primavera 2012
IBM Svizzera Offerte Express Primavera 2012 NOVITÀ: Intel Romley Inside! Offerte IBM Express Primavera 2012 2 IL modello base per eccellenza IBM System x3100 M4 Ordine nr.: 2582K9G Processor Inside: Intel
Attività su EOS Prime esperienze d implementazione della soluzione storage prodotta al CERN presso la Sezione di Trieste
Attività su EOS Prime esperienze d implementazione della soluzione storage prodotta al CERN presso la Sezione di Trieste Workshop della CCR - 16-20 maggio 2016 - La Biodola 1/16 Introduzione Il progetto
CRESCO4 & ENEAGRID per TEDAT e per il calcolo scientifico in ENEA
Inaugurazione CRESCO4 Portici 12 Marzo 2014 CRESCO4 & AGRID per TEDAT e per il calcolo scientifico in A G.Bracco bracco@enea.it S.Migliori,A.Quintiliani,R.Guadagni,F.Ambrosino,G.Aprea,F.Beone,M.Caporicci,
Servizi nazionali dell INFN (ai LNF)
26-28 febbraio 2014 Report sui Servizi nazionali dell INFN (ai LNF) Massimo Pistoni Elenco dei servizi Una parte dei servizi nazionali dell INFN risiede ai LNF: Gestione di Database Siti Web istituzionali
SISTEMI DI STORAGE CON DEDUPLICA DELL EMC DATA DOMAIN
SISTEMI DI STORAGE CON DEDUPLICA DELL EMC DATA DOMAIN I sistemi di storage con deduplica Dell EMC Data Domain continuano a rivoluzionare il disk backup, l'archiviazione e il disaster recovery con funzionalità
BaBar: stato ed utilizzo delle farms
BaBar: stato ed utilizzo delle farms presentato da Fulvio Galeazzi a nome del gruppo di Computing BaBar Italia BaBar: stato ed utilizzo delle farms, F. Galeazzi, Settembre 2004, pag. 1 Sommario Il gruppo
( WNoDeS in OpenStack ) Davide Salomoni INFN CNAF 28/5/2013
( WNoDeS in OpenStack ) INFN CNAF 28/5/2013 Wack: definitions Wack - WS CCR, 27-31/5/2013 2 Le componenti OpenStack Cloud computing IaaS framework WNoDeS Framework per l integrazione di workload di tipo
RELIABILITY MADE EASY
RELIABILITY MADE EASY Grazie alla tecnologia Profinet MRP e stata introdotta la semplicita per la realizzazione delle architetture di controllo ad alta disponibilita DOMENICO VINCI Responsabile Divisione
Bologna Batch System (BBS) Franco Semeria Seminario di Sezione
Bologna Batch System (BBS) Franco Semeria Seminario di Sezione 28-06-2004 Cosa e BBS BBS e un sistema batch basato su Condor. L utente sottomette i job da una macchina e il sistema li distribuisce sulle
Specifica Tecnica Acquisizione Server Blade ed Enclosure
Specifica Tecnica INDICE 1 OGGETTO...3 2 CONSISTENZA DELLA FORNITURA...3 2.1 SERVER QUADRI-PROCESSORE...3 2.2 SERVER BI-PROCESSORE...4 2.3 ENCLOSURE PER SERVER BLADE...4 2.4 CARATTERISTICHE COMUNI...4
Hepix Spring 2006 Report Roberto Gomezel
Hepix Spring 2006 Report Roberto Gomezel CCR 5-6 giugno 2006 Spring meeting 2006 La riunione primaverile è stata organizzata dal CASPUR presso le sale riunioni CNR a Roma Organizzazione ha evidenziato
Sperimentazione del file-system distribuito HDFS in ambiente GRID. III Borsista Day, Roma, 06.12.2012
Sperimentazione del file-system distribuito HDFS in ambiente GRID Tutor: Domenico Diacono Outline Use cases Hadoop Distributed File System Test di funzionalità Sviluppo di politiche di replica dei dati
BR-QCA58 MiMo Serie Access-Point Wireless 3x3 MiMo Dual-Band AC1750 Indoor
BR-QCA58 MiMo Serie Access-Point Wireless 3x3 MiMo Dual-Band AC1750 Indoor Modello: BR-QCA44 CARATTERISTICHE PRINCIPALI Chipset Qualcomm Atheros 700MHz QCA9558 Standard IEEE 802.11ac/a/b/g/n @28dBm & @25dBm
Affidamento della progettazione e messa in opera di una infrastruttura tecnologia per la realizzazione di un sistema di continuità operativa ICT
ALLEGATO 1 AL CAPITOLATO TECNICO Affidamento della progettazione e messa in opera di una infrastruttura tecnologia per la realizzazione di un sistema di continuità operativa ICT NUOVO BLADE CENTER PRESSO
2.2.1 FrontEnd FIREWALL CARATTERISTICHE VALORE RICHIESTO VALORE OFFERTO QTA' 2
2.2.1 FrontEnd FIREWALL RICHIESTO QTA' 2 modello throughput 400 Mbps Throughput cifrato (3DES) 200 Mbps VPN Session 700 Connessioni al secondo 7000 RAM 512 Mbyte System flash 64 6 porte per Network Gigabitporte
Stato risorse di calcolo CDF in Italia
Stato risorse di calcolo CDF in Italia - August 31, 2011 S. Amerio (INFN Padova) Stato risorse a Fermilab Portale CDFGRID per accedere alle risorse di calcolo locali a Fermilab. Job in corso 5k CDFGRID
Installazione Configuration Software
1 Guida rapida Installazione Configuration Software per Agility e LightSYS e ProSYS Plus Il Software di Configurazione RISCO è un applicativo basato su Windows con interfaccia multi-lingue semplice e intuitiva
VDI4U. La virtualizzazione dei desktop applicata all Università. Marco Grilli III Borsisti Day, Roma, 6.12.2012
VDI4U La virtualizzazione dei desktop applicata all Università III Borsisti Day, Roma, 6.12.2012 Obiettivo della ricerca FINALITÀ: Progettare, implementare e sperimentare la virtualizzazione dei desktop
Il Tier2 di CMS Roma. Francesco Safai Tehrani INFN Roma.
Il Tier2 di CMS Roma Francesco Safai Tehrani INFN Roma (francesco.safaitehrani@roma1.infn.it) Il progetto di un Tier2: Richieste dell esperimento: Potenza di calcolo + storage Servizi erogati Affidabilità?
Strumenti di Federazione per la gestione dell AAI in SuperB e ReCaS
Strumenti di Federazione per la gestione dell AAI in SuperB e ReCaS INFN-Napoli 16/05/2012 1 Il progetto bandiera SuperB Proposto dall Istituto Nazionale di Fisica Nucleare (INFN), il progetto SuperB ha
Domanda 1 Risposta 1 Domanda 2 Risposta 2 Domanda 3 Risposta 3 Domanda 4 Risposta 4:
Domanda 1 Da una nostra verifica non risultano brand che offrano la disponibilità di installare dischi con tecnologia SAS hot swap 6Gbps 15k rpm di capacità 600GB sulla tipologia dei server richiesti nei
Garantiamo il business delle aziende attraverso tecnologie informatiche e telecomunicazioni
IL TUO PARTNER TECNOLOGICO Garantiamo il business delle aziende attraverso tecnologie informatiche e telecomunicazioni Fitel telecomunicazioni srl SEDE DI FIRENZE: VIA COSSERIA TEL.+9 0 FAX 080 SEDE DI
Reti per il datacenter: l esperienza di UniBo. Simone Balboni CeSIA Università di Bologna
Reti per il datacenter: l esperienza di UniBo Simone Balboni CeSIA Università di Bologna Agenda: il progetto di consolidamento dei server UniBo focus sulla virtualizzazione il datacenter e la rete locale
Il calcolo distribuito in ATLAS
Il calcolo distribuito in ATLAS Alessandra Doria INFN Sezione di Napoli Workshop CCR2003 Paestum 12 Giugno 2003 Argomenti Modello di calcolo a Tier Il sw offline di ATLAS ATLAS Data Challenges Progetti
Backup, Protezione e Virtualizzazione dei dati aziendali.
Smart IT, not Big IT Backup, Protezione e Virtualizzazione dei dati aziendali. Le soluzioni ReadyNAS permettono di archiviare, condividere e proteggere i dati critici dell azienda.performanti, affidabili
enimonitor proactive IT monitoring
enimonitor proactive IT monitoring enimonitor EniMonitor è il modulo che consente il monitoraggio proattivo delle reti informatiche. EniMonitor è il progetto Open Source Nagios, corredato da numerosi add-on