Run Coordinator: Marcelo Soares 7 giugno 2018
|
|
- Donata Virginia Franceschi
- 5 anni fa
- Visualizzazioni
Transcript
1 Rapporto delle attività del Tier1 CNAF Maggio 2018 NB: NON TUTTI I PLOT SONO COMPLETI A CAUSA DI PROBLEMI CON IL SISTEMA DI MONITORING A CUI STIAMO LAVORANDO! Run Coordinator: Marcelo Soares 7 giugno 2018 Indice 1 Utilizzo delle risorse - Storage Disk usage - LHC Disk usage - No LHC Consistenza fra accounting CNAF e cataloghi di esperimento nell uso dello storage Tickets Aperti Chiusi nell ultimo mese ALICE 14 4 ATLAS 16 5 CMS 23 6 LHCb 32 7 Esperimenti di Gruppo Altri esperimenti 39 1
2 1 Utilizzo delle risorse - Storage 1.1 Disk usage - LHC 2
3 3
4 1.2 Disk usage - No LHC 4
5 5
6 6
7 7
8 8
9 9
10 10
11 11
12 1.3 Consistenza fra accounting CNAF e cataloghi di esperimento nell uso dello storage ALICE Catalogo Accounting CNAF Disco + Buffer (PB) ATLAS Catalogo Accounting CNAF Disco(PB) - - Tape (PB) - - CMS Catalogo Accounting CNAF Disco(PB) Nastro (PB) LHCb Catalogo Accounting CNAF Disco(TB) Nastro + Buffer (TB)
13 2 Tickets 2.1 Aperti Ticket-ID VO Subject CMS xrootd xonfig at T1 IT CNAF CMS Lost files on wet tapes CMS checksums do not match at T1 IT CNAF Buffer 2.2 Chiusi nell ultimo mese Ticket-ID VO Subject CMS T1 IT CNAF SAM CONDOR-JobSubmit tests ATLAS Atlas file transfers failing with destination to INFN- T CMS checksums do not match at T1 IT CNAF Buffer CMS Merge issues T1 IT CNAF none This TEST ALARM ops Issues detected at INFN-T CMS T1 IT CNAF SAM SRM failures ATLAS INFN-T1 DATATAPE and MCTAPE: transfer errors due to source and destination checksum mismatch CMS Posix access inside singularity at CNAF CMS T1 IT CNAF SAM SRM failures CMS Automatic approval of the transfer requests LHCb MCSimulation jobs Failed at INFN-T ATLAS INFN-T1 failing transfers with DESTINATION SRM PUT TURL error on the turl request CMS T1 IT CNAF storm-fe-cms.cr.cnaf.infn.it SRM SAM test critical for 2 hours CMS tape request approval CMS T1 IT CNAF SAM CONDOR-JobSubmit tests CancelledPurged ATLAS Deletion errors at INFN-T1-MWTEST DATADISK 13
14 3 ALICE Figura 1: Number of jobs and CPU efficiency - Alice (pledge HS06) 14
15 Site Availability using ALICE CRITCAL Figura 2: Availability - 07/05: Unscheduled downtime on tape library due to several hardware failures during the weekend 15
16 4 ATLAS Figura 1: Number of jobs and CPU efficiency - Atlas (pledge HS06) 16
17 Figura 2: Number of jobs and CPU efficiency - Atlas himem (pledge HS06) 17
18 Figura 3: Number of jobs and CPU efficiency - Mcore (pledge HS06) 18
19 Site Availability using ATLAS CRITCAL Figura 3: Availability 19
20 ATLAS Throughput T0 Export 20
21 Disco ATLAS (datadisk -scratchdisk) Nastro ATLAS (datatape - mctape) 21
22 - 30/05: Transfer fails from Florida to CNAF: ipv6 issue - 28/05: Tape Errors: impossible to write on them - 24/05: Atlas file transfers failing with destination to INFN-T1 related to a mis-configuration of the StoRM spacetoken quota management: scratchdisk space token got full and it blocked also the other endpoints - 13/05: Errors between INFN-T1 DATATAPE and MCTAPE: transfer errors due to source and destination checksum mismatch - 07/05: INFN-T1 failing transfers with DESTINATION SRM PUT TURL error on the turl request due to a mis-configuration of the storage pool placement policy 22
23 5 CMS Figura 1: Number of jobs and CPU efficiency - CMS Single Core (pledge HS06) 23
24 Figura 2: Number of jobs and CPU efficiency - CMS Multi Core (pledge HS06) 24
25 Site Availability using CMS CRITCAL FULL Figura 4: Availability 25
26 Phedex Transfers Quality (CNAF All) 26
27 Phedex Transfers Quality (All CNAF) 27
28 Phedex Transfers Volume(CNAF All) Phedex Transfers Volume (All CNAF) 28
29 Completed jobs T1 29
30 Site Readiness /05: Errors in SAM tests due a storm problem - 07/05: Unscheduled downtime on tape library due to several hardware failures during the weekend /05: Errors in SAM tests due to tests to try to find the better Singularity /05: Transfer errors due to gridftp servers dead, resolved after restart /05: SAM tests errors, resolved after a intervention on CEs - 16/05: Errors due to an unreachable gridftp server - 21/05: SAM tests errors - 22/05: Transfer failures due to all dead gridftp servers /05: SAM Errors due to CEs problems 30
31 - 31/05: All transfers from world to CNAF failed due to proxy expired on Phedex ui 31
32 6 LHCb Figura 5: Number of jobs and CPU efficiency - LHCb + LHCb TIER2 (pledge HS06) 32
33 /05: Data migration from Huawei disk server to newer Huawei disk server 33
34 7 Esperimenti di Gruppo 2 AMS-O2 - Number of jobs and CPU efficiency (pledge HS06) - Setup istanza MongoDB su macchina cloud - Cambiato owner di /storage/gpfs ams/ams/users/nmasi 34
35 - richiesta di xrootd - richiesta di condor submit sulle ui ARGO-YBJ - Number of jobs and CPU efficiency (pledge 200 HS06) - NTR Auger - Number of jobs and CPU efficiency (pledge 3090 HS06) - Cambio filesystem da da gpfs01 a data - Ripartono ad usare le risosre al CNAF: 30 TB storage e tutti i nodi quando disponibili. Lato CNAF tutto pronto Borexino - Number of jobs and CPU efficiency (pledge 1500 HS06) Open Actions: - Richiesta GPUs - richiesta di tenere overpledge fino a fine giugno - rsync dalla ui-borexino a LNGS per 12 file da 5GB al giorno - Eseguito move di file tra folder con owner diversi COSMO WNEXT - Number of jobs and CPU efficiency (pledge 2500 HS06) - Trasferimento dati (400TB) da Cineca a CNAF (tape) CTA - Number of jobs and CPU efficiency (pledge 4000 HS06) Open Actions: - Richiesta tool per trasferimento dati da Torino CUORE - Pledge 1400 HS06 Open Actions: 35
36 - Esigenze particolari per transferimento dati. Soluzione proposta (da discutere): user-interface ad hoc non molto carrozzata ad uso esclusivo di cuore per gli rsync (100 GB/giorno) - Per i 30 TB iniziali usano globus-url-copy/dataclient - Controllare slot assegnati a una coda a partire dallo shares perchè ci sono pochi jub running contemporaneamente (una decina) a fronte di 1900 HS06 pledgiati (190 slots) - NTR CUPID-0 - Number of jobs and CPU efficiency (pledge 100 HS06) - NTR DarkSide-50 - Pledge 4000 HS06 Open Actions: - NTR - NTR Fermi-LAT - Number of jobs and CPU efficiency (pledge 900 HS06) - NTR Gerda - Pledge 40 HS06 - NTR 36
37 ICARUS - Pledge 0 HS06 Open Actions: - Vorrebbero i dati da una tape bagnata mandata in Germania Configurare area disco - Creata una mailing list con riferimenti esperimento Juno - Pledge 1000 HS06 Open Actions: - NONE - NTR LHAASO - Number of jobs and CPU efficiency (pledge 300 HS06) Open Actions: - Richiesta tool per trasferimento dati da Torino - NTR MAGIC - Number of jobs and CPU efficiency (pledge 296 HS06) - NTR OPERA - Number of jobs and CPU efficiency (pledge 200 HS06) - NTR PAMELA - Number of jobs and CPU efficiency (pledge 650 HS06) - NTR 37
38 Virgo - Number of jobs and CPU efficiency (pledge HS06) Open Actions: - Installare autoconf su ui di virgo - In corso test utilizzando i sottogruppi al posto dei role nel proxy voms - NTR XENON - Number of jobs and CPU efficiency (pledge 700 HS06) - Rate di transferimento abbassato. Problemi precendenti riportati da Vladimir scomparsi 38
39 8 Altri esperimenti BELLEII - Number of jobs and CPU efficiency (pledge HS06) - NTR CDF - Number of jobs and CPU efficiency (pledge 1300 HS06) - NTR. COSINUS - Number of jobs and CPU efficiency (pledge 0 HS06) - NTR Open Action: - NTR CSES-Limadou - Pledge 400 HS06 - Assegnati 2 TB di extrapledge - Proposto di usare gfal per i trasferimenti, mandate istruzioni su come installarlo e usarlo - Aumentato il numero di inode a 10M perchè non si riusciva a scrivere nell area /storage/gpfs data/limadou/data DAMPE - Pledge 3000 HS06 Open Action: - Utente lamenta job che non vanno in running in dampe usr. Causa: utente non appartiene a gruppo dampeuser - Problemi di dati riportati sbagliati nel monitoring mon-tier1 - NTR 39
40 FAMU - Pledge 250 HS06 - NTR Gruppi Fisica Teorica - Number of jobs and CPU efficiency - NTR KLOE - Pledge 0 HS06 - spostata sui gridftp di archive e tutto va KM3Net - Pledge 0 HS06 Open Actions: - Richieste per fornire un servizio web di aiuto alla integrazione dell esperimento Km3: high availability poche risorse di calcolo (CPU/ RAM 4 core/8 GB) server LAMP (linux, apache, mysql/mariadb, php) - Le proposte del CNAF: server virtuale ospitato al CNAF autenticazione al servizio web tramite IAM, esteso a INFN, CNRS, NIKHEF ed eventualmente altri enti di ricerca europei) - Esigenza ancora aperta, ma il codice non è ancora pronto da aprte dell esperimento - Settato tape per KM3 per trasferimento dati (tape) Lione-CNAF. Trasferimento funziona - Per il trasferimento dati da Tolone al CNAF verrà messo in opera un sistema per il trasferimento diretto usando globus-toolkit. - Il trasferimento è iniziato ma procede a rilento a causa del fatto che la procedura con cui vengono esposti i file a CC-Lyon non è ottimale. Ad oggi, circa 12TB su circa 14 sono stati copiati su tape/disco. 40
41 COMPASS - Pledge 0 HS06 - NTR LHCf - Number of jobs and CPU efficiency (pledge 4000 HS06) - NTR NEWS - Pledge 0 HS06 - Report phone: Emulsioni nucleari prodotte in italia e giappone storage: richiesta 60TB disk + 60TB tape cpu: 200HS 3.5GB RAM ok per simulazione, forse pochi per analisi SL6/7 OK proposto CVMFS per software FLUKA+Geant simulazione ROOT per analisi, pyhton i job devono accedere ai 60 TB di dati su disco, quindi bisogna montare sui wn questi 60 TB con accesso POSIX configurare area storage e tape per accedere sia via WebDav con certificato sia con gridftp con e senza certificato (una soluzione potrebbe essere dataclient) Mandare istruzioni per accesso al CNAF e creazione account bastion NEWCHIM - Pledge 0 HS06 - NTR FAZIA - Pledge 0 HS06 - Dato accesso a Silvia Piantelli a 17 macchine su cloud: 16 macchine worker da 16 core e 8GB RAM ciascuna (256 core e 128GB RAM in totale) + 1 bastion-like per storage (1.2TB) e accesso alla sottorete dedicata. 41
42 - Le macchine fazia condividono lo storage di 1.2TB via nfs sulla sottorete dedicata. - Accesso tramite LDAP+Kerberos di sezione. - La produzione procede senza problemi. PADME - Pledge 0 HS06 - NTR AGATA - Pledge 0 HS06 Minute skype-call 11/10: - Macchina con mac address fisso su cui installare la licenza. - Specifiche macchina: SO: Linux accesso interattivo e grafico (x2go, per CAD) almeno una GPU NVIDIA (aumenterebbe la velocità di calcolo fino a 7 volte) compilatore CUDA ultima versione dovrebbe andare bene RAM: 64 GB Disk: 1-2 TB mac address fisso per legarci la licenza - due o più utenti - previsto un anno di lavoro e poi non dovrebbe più essere necessario - Licenza non compatibile con cloud, da capire con macchine virtuali. NON-LHCf - Pledge 30 CPU - Creata coda GENERIC su ui-tier1con share a disposizione 30 CPU - Lo spazio riservato a LHC-f non si potebbe utlizzare perchè partiranno a breve delle simulationi che lo occuperanno la gran parte. Richiesta di avere un proprio spazio disco di 1-2 TB. 42
43 43
44 44
45 45
46 Figura 1 Figura 2 46
47 Figura 3 Figura 4 47
48 Figura 5 48
49 Figura 6 49
Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali
Esperienza di un sito INFNGrid che offre risorse di calcolo e supporto T3-like ad utenti locali Mirko Corosu Atlas Italia Tier-3 task force Workshop CCR-INFNGRID 2010 Sommario Breve panoramica della situazione
Tier-1. Luca dell Agnello 25 Maggio 2016
Tier-1 Luca dell Agnello 25 Maggio 2016 Tier-1 users It is the main INFN computing centre providing computing and storage services to ~30 scientific collaborations Tier-1 for LHC experiments (ATLAS, CMS,
Tier-2 Legnaro-Padova. Massimo Biasotto
Tier-2 Legnaro- Massimo Biasotto 1 1 Tier-2 Legnaro Prototipo sito Grid e farm CMS dal 2001 Tier-2 ufficiale CMS dal 2007 Tier-2 ufficiale ALICE dal 2011 Nato fin dall'inizio come collaborazione LNL-PD,
Servizio di backup e ripristino dati su sistema disco/tape al CNAF
Servizio di backup e ripristino dati su sistema disco/tape al CNAF ENRICO FAT TIBENE INFN CNAF WORKSHOP DELLA CCR L.N.G.S. 26 MAGGIO 2017 Problematiche In caso di problemi sui servizi i dati devono essere
Off-line Computing. Emanuele Leonardi. Referee Meeting - Roma 10 Luglio 2017
Off-line Computing Emanuele Leonardi Referee Meeting - Roma 10 Luglio 2017 Simulazione Il programma di simulazione PadmeMC è sostanzialmente completo Tutti i detector simulati Target, Veti, ECal, SAC,
Grandi infrastrutture di storage per calcolo ad elevato throughput e Cloud
Grandi infrastrutture di storage per calcolo ad elevato throughput e Cloud Michele Di Benedetto, Alessandro Cavalli, Luca dell Agnello, Matteo Favaro, Daniele Gregori, Michele Pezzi, Andrea Prosperini,
Calcolo LHC: Tier-1 e Tier-2
Calcolo LHC: Tier-1 e Tier-2 Donatella Lucchesi, Bruna Bertucci, Gianpaolo Carlino, Sara Pirrone, Paolo Spagnolo, Vincenzo Vagnoni Great performances as shown by the experiments presentations. Here only:
Il Progetto TIER1 Status Update. Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003
Il Progetto TIER1 Status Update Federico Ruggieri INFN-CNAF Commissione Scientifica Nazionale I Lecce 24 Settembre 2003 Sommario Stato delle infrastrutture Stato del Personale Uso da parte degli Esperimenti
La farm di LNL-Padova: stato e piani per il futuro
La farm di LNL-Padova: stato e piani per il futuro Stefano Lacaprara INFN Padova meeting T3-INFN per CMS Milano Bicocca, 23-Apr-2010 Stefano Lacaprara (INFN Padova) LNL-PD T2-3 T3 23-Apr-2010 1 / 13 Situazione
RISORSE E MODELLI DI CALCOLO
RISORSE E MODELLI DI CALCOLO Roberto Alfieri - CSN4 del 13.04.2007 13/04/2007 Risorse e modelli di calcolo- CSN4 page 1 Sommario ATTIVITA' DELLA CCR Bilancio della CCR Contratti Centralizzati (NAG e Mathematica)
ARGO-YBJ: il modello di calcolo. CSNII 29 Novembre 2012 Stefano Mari
ARGO-YBJ: il modello di calcolo CSNII 29 Novembre 2012 Stefano Mari L esperimento Argo-YBJ } L apparato dell esperimento Argo YBJ è situato in Tibet (YangBajing), a 4300 s.l.m. } Apparato di sciami con
Stato e prospettive del calcolo nel gruppo IV
Stato e prospettive del calcolo nel gruppo IV Roberto Alfieri - Parma University & INFN Italy Riunione CSN4 14-15 Settembre 2011 1 Sommario Evoluzione delle risorse di calcolo in gr. IV CSN4cluster e altre
Esperienze in alcune sezioni su integrazione gestione sistemi storage per il calcolo e per i servizi. Alessandro Brunengo
Esperienze in alcune sezioni su integrazione gestione sistemi storage per il calcolo e per i servizi Alessandro Brunengo Monitoring Componenti di un sistema di storage Posix (local or parallel file system,
Realizzazione di containers docker per l uso interattivo del software di CMS e per la creazione di un nodo Grid on-demand su risorse opportunistiche
Stoa@CMS - Catania Realizzazione di containers docker per l uso interattivo del software di CMS e per la creazione di un nodo Grid on-demand su risorse opportunistiche Gigi Cappello, Diana Salemi (DFA-UniCT)
tecnologie di cloud computing per il calcolo scientifico Presentazione stage per studenti triennali Università di Torino Mar 6, 2013
tecnologie di cloud computing per il calcolo scientifico Università di Torino Mar 6, 2013 il centro di calcolo INFN Università di Torino Mar 6, 2013-2/417 Cosa facciamo a torino Ricerca tecnologica Core
Normalizzazione puntuale dei dati di accounting
Normalizzazione puntuale dei dati di accounting Proposta per uno strumento automatizzato Felice Rosso, CNAF Guido Guizzunti, CNAF Andrea Guarise, INFN Torino Sommario Sistema corrente Limiti, problemi
Attività su EOS Prime esperienze d implementazione della soluzione storage prodotta al CERN presso la Sezione di Trieste
Attività su EOS Prime esperienze d implementazione della soluzione storage prodotta al CERN presso la Sezione di Trieste Workshop della CCR - 16-20 maggio 2016 - La Biodola 1/16 Introduzione Il progetto
GRAN SASSO CLOUDS CLOUD
GRAN SASSO CLOUDS CLOUD COMPUTING @LNGS Genova May 27-31, 2013 Stefano Stalio - stefano.stalio@lngs.infn.it Gran Sasso Clouds Attività Cloud Computing @LNGS Integrazione di OpenStack e owncloud con una
Piano di calcolo dell esperimento HERA-B
Piano di calcolo dell esperimento HERA-B Domenico Galli Dipartimento di Fisica e INFN, Bologna Roma, 2-3 maggio 2000 Modello di calcolo di HERA-B La farm on-line del DESY è il centro di produzione dei
Griglie computazionali
Griglie computazionali Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno LEZIONE N. 6 Richiami sulla caratterizzazione dei sistemi GRID Il Concetto di Virtual
Stato risorse di calcolo CDF in Italia
Stato risorse di calcolo CDF in Italia - August 31, 2011 S. Amerio (INFN Padova) Stato risorse a Fermilab Portale CDFGRID per accedere alle risorse di calcolo locali a Fermilab. Job in corso 5k CDFGRID
Il Progetto TIER1 Status Report
Il Progetto TIER1 Status Report Federico Ruggieri Riunione della CSN I Catania 18 Settembre 2002 IT Division We have a very big job ahead of us as in the past, together we will make it. 1-100 GB/sec Detector
Sommario. Esempio di Modellazione mediante DASM: Grid OGSA. Grid secondo OGSA. Definizione Grid per OGSA. Stati di un Job e Requisiti DASM
Sommario Esempio di Modellazione mediante DASM: Grid Definizione Grid per OGSA Funzionalità JEMS Stati di un Job e Requisiti DASM DASM per Grid 1 DASM per Grid 2 OGSA Grid secondo OGSA OGSA = Open Grid
Flash talk: Wide Area Swift
Flash talk: Wide Area Swift Matteo Panella - matteopanella@lngsinfnit INFN - Laboratori Nazionali del Gran Sasso Miniworkshop CCR 2013 Sommario 1 Introduzione 2 Stato dell arte: Swift 3 Stato dell arte:
I Centri Regionali di LHC ed il TIER 1 unico. F. Ruggieri IV Incontro di GARR-B Bologna Giugno 2002
I Centri Regionali di LHC ed il TIER 1 unico F. Ruggieri IV Incontro di GARR-B Bologna 24-26 Giugno 2002 Esperimenti a LHC 3.5 PetaBytes / year ~4x109 events/year IT Division We have a very big job ahead
Servizio Calcolo. Alessandro Brunengo
Servizio Calcolo Alessandro Brunengo Personale (2017) Alessandro Brunengo (tecnologo, responsabile) 10% Mailing, 90% Calcolo Mirko Corosu (tecnologo) 30% Atlas, 70% Calcolo Francesco Saffioti (CTER) Enrico
Le Farm Grid a Pisa. Commissione Calcolo e Reti ROMA 5/10/2007. Silvia Arezzini INFN - Pisa
Le Farm Grid a Pisa Commissione Calcolo e Reti ROMA 5/10/2007 Silvia Arezzini INFN - Pisa Sala Calcolo e farm Caratteristiche Scirocco (Opteron 280 ) 300 processori opteron dual core 2.4 GHz (socket E)
Stato e prospettive del calcolo scientifico INFN. Antonio Zoccoli INFN & UniBO
Stato e prospettive del calcolo scientifico INFN Antonio Zoccoli INFN & UniBO 1 Outline v Introduzione v Stato del calcolo INFN v Evoluzione del calcolo INFN: v Conclusioni 2 Introduzione Il calcolo scientifico
Il nuovo cluster INFN per la fisica teorica
Il nuovo cluster INFN per la fisica teorica Incontro di lavoro della CCR Napoli, 26 Gennaio 2010 Roberto Alfieri 26/01/2010 Il nuovo cluster INFN per la fisica teorica page 1 Necessità di calcolo del Gr.
INFN-BOLOGNA-T3. L. Rinaldi
INFN-BOLOGNA-T3 L. Rinaldi I siti Tier-3 nel modello di calcolo di Atlas Configurazione del sito INFN-BOLOGNA-T3 Attività di Analisi e Produzione Attività di Ricerca Tecnologica Richieste e supporto Light
Quale Calcolo e Storage Per le applicazioni scientifiche ORA? Maggio 2015
Quale Calcolo e Storage Per le applicazioni scientifiche ORA? Maggio 2015 Testbed di correlazione @ IRA Flusso e dimensione dei dati Antenna Istituti/Centri /Cloud Personale / PC Acquis. Acquis. Acquis.
Gestione dei Processi
Gestione dei Processi Informatica B Che cosa è un processo per il SO? Processo programma! Rappresenta un istanza di un programma composta da: codice eseguibile (il programma stesso) dati del programma
Sistema di Monitoraggio. Paolo Mastroserio, Gennaro Tortone, Silvio Pardi Presenta per il gruppo Silvio Pardi
Sistema di Monitoraggio Integrato Paolo Mastroserio, Gennaro Tortone, Silvio Pardi Presenta per il gruppo Silvio Pardi ANALISI DEL PROBLEAMA INDIVIDUARE I PROTOCOLLI INDIVIDUARE I TOOLS INDIVIDUARE LA
Il middleware INFNGRID Certification Authority Virtual Organization Servizi core Servizi collective Servizi di supporto al deployment e per la
Architettura del middleware INFNGRID e piano di deployment sull'infrastruttura SCoPE Gennaro Tortone INFN Napoli 21 febbraio 2007 Indice Il middleware INFNGRID Certification Authority Virtual Organization
Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management
Il Progetto di Centro di Reprocessing di BaBar: Requisiti per il Monitoring e il Management Moreno Marzolla INFN Padova BaBar Collaboration & Dip. Informatica, Università di Venezia Workshop su Management
Referaggio SST. Carbone, Gianoli, Mezzadri
Referaggio SST Carbone, Gianoli, Mezzadri Linee guida Nulla di nuovo sulle linee guida che abbiamo seguito richieste di finanziamento che riguardano lavori (muratura, elettrici, condizionamento, ) dovrebbero
Remote file access sulla grid e metodi di interconnesione di rete
Remote file access sulla grid e metodi di interconnesione di rete M. Donatelli, A.Ghiselli e G.Mirabelli Infn-Grid network 24 maggio 2001 Remote file access sulla grid Studio, progettazione e implementazione
Argomenti. Architettura fisica di U-Lite Architettura software di U-Lite Comandi gestione job: NFS contro AFS Licenze software
U-Lite Argomenti Architettura fisica di U-Lite Architettura software di U-Lite Comandi gestione job: Sottomissione Controllo Cancellazione NFS contro AFS Licenze software U-Lite Architettura fisica U-Lite
Stato del cluster di Padova
Stato del cluster di Padova Disk server lxcmsedge01: 2.6.9-42.0.3.ELsmp (SL release 4.4 (Beryllium)) 64 (Disk Server) RAM: 4Gb CPU: 4X Intel(R) Xeon(R) CPU 5130 @ 2.00GHz 2 X raid 5 da 898.3 Gb lxcmsedge02:
ArcGIS 10 - Software Download
ArcGIS 10 - Software Download Premessa La nuova versione ArcGIS 10 costituisce una major release non solo per le funzionalità contenute ma anche per le innovative modalità di gestione delle licenze e di
Test e risultati sull uso di un file system GPFS condiviso su rete WAN
Test e risultati sull uso di un file system GPFS condiviso su rete WAN Antonio Budano (INFN Sezione di Roma 3) In collaborazione con: Vladimir Sapunenko (INFN - CNAF) Elisabetta Vilucchi (INFN LNF) Sommario
Setup di una cloud privata a Torino Un prototipo in produzione. S.Bagnasco, D.Berzano, R.Brunetti, S.Lusso
Setup di una cloud privata a Torino Un prototipo in produzione S.Bagnasco, D.Berzano, R.Brunetti, S.Lusso 1 Motivazione! Negli ultimi anni la quantita di risorse hardware eterogenee di fascia consumer
Workshop Congiunto INFN CCR e GRID. Acireale, Maggio INFN - Sezione di Trieste - C. Strizzolo - L. Strizzolo
Checkpoint e restore di job LSF Workshop Congiunto INFN CCR e GRID Acireale, 17-21 Maggio 2010 La farm di calcolo INFN-Trieste Farm di calcolo condivisa Possibilità di utilizzo con sottomissione di job
BACKUP MULTIPIATTAFORMA ON PREMISE, RIMOVIBILE, DECENTRALIZZATO E CLOUD IBRIDIO
STORAGE EVOLUTION BACKUP MULTIPIATTAFORMA ON PREMISE, RIMOVIBILE, DECENTRALIZZATO E CLOUD IBRIDIO Tutti i sistemi sono forniti di una serie di modalità di Backup che permettono di soddisfare ogni esigenza.
Servizio di Calcolo e Reti. F. Semeria 10 Luglio 2013
Servizio di Calcolo e Reti F. Semeria 10 Luglio 2013 Personale Antonio Bassi (tempo parziale: 1/3) Daniela Bortolotti Franco Brasolin (CERN, ATLAS Tdaq SysAdmins ) Patrizia Calligola Francesca Del Corso
Buildroot. Making Embedded Linux Easy. Luca Ceresoli Linux Day 2018 BgLUG
Buildroot Making Embedded Linux Easy Luca Ceresoli luca@lucaceresoli.net http://lucaceresoli.net Linux Day 2018 BgLUG Agenda Introduzione Buildroot Packages Conclusioni 1 Introduzione Che cosa è un sistema
Il calcolo distribuito in ATLAS
Il calcolo distribuito in ATLAS Alessandra Doria INFN Sezione di Napoli Workshop CCR2003 Paestum 12 Giugno 2003 Argomenti Modello di calcolo a Tier Il sw offline di ATLAS ATLAS Data Challenges Progetti
ReCaS Datacenter cluster HPC, guida al suo utilizzo Febbraio, 2016 Alessandro Italiano
ReCaS Datacenter cluster HPC, guida al suo utilizzo Febbraio, 2016 Alessandro Italiano Indice: 1. Caratteristiche del cluster HPC 2. Accesso alle risorse, nodi di frontend 3. Compilazione codice 4. FileSystem
Virtualizzazione con Microsoft Tecnologie e Licensing
Microsoft Virtualizzazione con Microsoft Tecnologie e Licensing Profile Redirezione dei documenti Offline files Server Presentation Management Desktop Windows Vista Enterprise Centralized Desktop Application
IT SERVICES & CLOUD VIRTUAL SERVER
IT SERVICES & CLOUD VIRTUAL SERVER SERVICE DESCRIPTION VIRTUAL SERVER COS È VIRTUAL SERVER è la soluzione ideale per le aziende che desiderano disporre di un server interamente in CLOUD. Attraverso rapidi
Sistema di monitoraggio per datacenter distribuiti geograficamente basati su OpenStack
Sistema di monitoraggio per datacenter distribuiti geograficamente basati su OpenStack Tutor: Dott. Domenico Elia Tutor: Dott. Giacinto Donvito Indice Descrizione del progetto Confronto con l attività
INDACO INfrastruttura di calcolo per il trattamento di DAti COmplessi
INDACO INfrastruttura di calcolo per il trattamento di DAti COmplessi SCOPO : mettere a disposizione di ogni docente/ricercatore in Ateneo ( e dei suoi Assegnisti, Dottorandi, Laureandi ) una infrastruttura
Web Server. Corso di Applicazioni Telematiche. A.A Lezione n.5 Prof. Roberto Canonico
Web Server Corso di Applicazioni Telematiche A.A. 2008-09 Lezione n.5 Prof. Roberto Canonico Università degli Studi di Napoli Federico II Facoltà di Ingegneria Web Server Per realizzare un sistema web
Massimo Sgaravatto INFN Padova. Cloud Area Padovana e CloudVeneto
Massimo Sgaravatto INFN Padova Cloud Area Padovana e CloudVeneto Progetto Cloud Area Padovana Progetto nato alla fine del 2013 per l implementazione di una infrastruttura Cloud a servizio dei diversi use
Requisiti di sistema per Qlik Sense. Qlik Sense June 2017 Copyright QlikTech International AB. Tutti i diritti riservati.
Requisiti di sistema per Qlik Sense Qlik Sense June 2017 Copyright 1993-2017 QlikTech International AB. Tutti i diritti riservati. Copyright 1993-2017 QlikTech International AB. Tutti i diritti riservati.
Data transfer. Paolo Veronesi INFN-CNAF. www.eu-egee.org. http://grid.infn.it. VII Workshop GARR network in progress: la rete evolve con I suoi utenti
Data transfer www.eu-egee.org Paolo Veronesi INFN-CNAF http://grid.infn.it VII Workshop GARR network in progress: la rete evolve con I suoi utenti Sommario La sfida di WLCG Modello di calcolo degli esperimenti
HNSciCloud e estensione del Tier- 1. Luca dell Agnello CCR, 16 Settembre 2015
HNSciCloud e estensione del Tier- 1 Luca dell Agnello CCR, 16 Settembre 2015 Evoluzione computing HEP Sostanziale incremento delle risorsenecessariedopo il Run2 di LHC Difficilmentesostenibile con risorsein-
Griglie computazionali LEZIONE N. 10. Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno
Griglie computazionali Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno LEZIONE N. 10 Gestione dei dati in GRID Storage Element Storage Resource Management
Requisiti di sistema per Qlik Sense. Qlik Sense February 2018 Copyright QlikTech International AB. Tutti i diritti riservati.
Requisiti di sistema per Qlik Sense Qlik Sense February 2018 Copyright 1993-2018 QlikTech International AB. Tutti i diritti riservati. Copyright 1993-2018 QlikTech International AB. Tutti i diritti riservati.
Architettura e caratteristiche dello storage in INFN-CC. Workshop CCR La Biodola 3-7/06/2019 Marica Antonacci, Stefano Stalio per INFN-CC
Architettura e caratteristiche dello storage in INFN-CC Workshop CCR La Biodola 3-7/06/2019 Marica Antonacci, Stefano Stalio per INFN-CC Storage affidabile ed a basso costo in INFN-CC Workshop CCR La Biodola
Indice degli argomenti
Introduzione alle griglie computazionali Università degli Studi di Napoli Federico II Corso di Laurea in Informatica III Anno LEZIONE N. 3 Distribuzione delle risorse Un precursore della Grid La rete e
BOOLE SERVER AGENT. - Installation guide- Aggiornato alla versione Boole Server
BOOLE SERVER AGENT - Installation guide- Aggiornato alla versione Boole Server 3.2.1.9 BOOLE SERVER AGENT INSTALLATION Sommario I prerequisiti di Sistema per l installazione di Boole Server Agent... 3
Sperimentazione del file-system distribuito HDFS in ambiente GRID. III Borsista Day, Roma, 06.12.2012
Sperimentazione del file-system distribuito HDFS in ambiente GRID Tutor: Domenico Diacono Outline Use cases Hadoop Distributed File System Test di funzionalità Sviluppo di politiche di replica dei dati
Cloud Storage class software on-premises
Cloud Storage class software on-premises Problema: Il nuovo regolamento europeo sulla privacy (GDPR) impone alle aziende e agli enti pubblici di adottare adeguate contromisure per la protezione dei dati
introduzione al corso di sistemi operativi a.a maurizio pizzonia
introduzione al corso di sistemi operativi a.a. 2008-2009 maurizio pizzonia contatti Maurizio Pizzonia pizzonia@dia.uniroma3.it ricevimento studenti mercoledì 17:30 Dip. Informatica e Automazione secondo
Sistema operativo. Utente. Il S.O. mostra offre all utente un ambiente di lavoro che nascondendo la complessità della macchina fisica (hardware). S.O.
Sistema operativo Il S.O. (sistema operativo) è un insieme di programmi che: gestisce le risorse hardware (CPU, RAM, memoria di massa, periferiche) e software (programmi applicativi) in modo ottimizzato
Tier1-CNAF. DC04 Activities and Status. TISB - Pisa - P. Capiluppi 23-01-04
Tier1-CNAF DC04 Activities and Status TISB - Pisa - P. Capiluppi 23-01-04 Tier1-CNAF 2003-04 Note: [obtained/requested] or [new req/old req] As of end November 2003 requests Dettaglio Netw Boxes CPUs eq.
ICT Progress Report OUTLINE
ICT Progress Report Universidade de São Paulo Fulvio Gianotti for the CTA ASTRI Project INAF/OAS-Bologna, Italy This work was conducted in the context of the CTA ASTRI Project ICT Progress Report OUTLINE
BaBar: stato ed utilizzo delle farms
BaBar: stato ed utilizzo delle farms presentato da Fulvio Galeazzi a nome del gruppo di Computing BaBar Italia BaBar: stato ed utilizzo delle farms, F. Galeazzi, Settembre 2004, pag. 1 Sommario Il gruppo
@CNAF Stefano Antonelli Stefano Longo Michele Pezzi Giovanni Zizzi (Maggio) Felice Rosso Ramon Orru (Agosto) Michele Tota (Novembre)
@CNAF Stefano Antonelli Stefano Longo Michele Pezzi Giovanni Zizzi (Maggio) Felice Rosso (Giugno) @LNF Ramon Orru (Agosto) Michele Tota (Novembre) 2/24 S. Longo WS CCR - 26 Maggio 2017 Servizi in Produzione
Bologna Batch System (BBS) Franco Semeria Seminario di Sezione
Bologna Batch System (BBS) Franco Semeria Seminario di Sezione 28-06-2004 Cosa e BBS BBS e un sistema batch basato su Condor. L utente sottomette i job da una macchina e il sistema li distribuisce sulle
Proposte assegnazioni server & storage. L. Carbone, A. Gianoli, M. Serra
Proposte assegnazioni server & storage L. Carbone, A. Gianoli, M. Serra Considerazioni generali richieste di finanziamento che secondo i referee riguardano lavori (muratura, elettrici, condizionamento,..)
Futuro del Calcolo in Sezione
Futuro del Calcolo in Sezione INFN Trieste 1 Perche questa presentazione Da tempo e in corso una discussione sul calcolo in sezione e.g. farm di sezione e gia stata argomento di questo consiglio (4 Maggio
Il calcolo LHC in Italia: commenti. Gruppo di referaggio Forti (chair), Belforte Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli
Il calcolo LHC in Italia: commenti Gruppo di referaggio Forti (chair), Belforte Bossi, Menasce, Simone, Taiuti, Ferrari, Morandin, Zoccoli Outline Contesto del calcolo LHC in Italia Computing models TDR,
HPC e Cloud 4 giugno 2018 Alberto Sabaini Anna Perina Piattaforma Computazionale
HPC e Cloud 4 giugno 2018 Alberto Sabaini Anna Perina Piattaforma Computazionale ARGOMENTI Struttura hw e sw della piattaforma HPC Cloud STRUTTURA HW 1 headnode 6 nodi di calcolo 1 nodo gpu storage di
Power Your Business with Windows Server + Intel Technologies
Power Your Business with Windows Server + Intel Technologies Il contesto attuale Trend di mercato Transizione verso il Cloud Mobility e BYOD Crescita elevata e sempre più rapida della quantità di dati
BOOLE SERVER - Installation guide-
BOOLE SERVER - Installation guide- Aggiornato alla versione Boole Server 3.2.1.9 BOOLE SERVER INSTALLATION Sommario I prerequisiti di Sistema per l installazione di Boole Server... 3 I prerequisiti Hardware...
Condor, Condor-G e la Griglia
Condor, Condor-G e la Griglia D. Talia - UNICAL Griglie e Sistemi di Elaborazione Ubiqui Cosa Fa Condor Job Risorsa Utente Feedback CONDOR Meccanismi di job management, politica di scheduling, schema con
Condor, Condor-G e la Griglia. Griglie e Sistemi di Elaborazione Ubiqui
Condor, Condor-G e la Griglia D. Talia - UNICAL Griglie e Sistemi di Elaborazione Ubiqui Cosa Fa Condor Job Risorsa Utente Feedback CONDOR Meccanismi di job management, politica di scheduling, schema con
Università degli Studi di Napoli Federico II Corso di Laurea in Informatica III Anno
Introduzione alle griglie computazionali Università degli Studi di Napoli Federico II Corso di Laurea in Informatica III Anno LEZIONE N. 7 WMS (Workload Management Service) Matchmaking JDL (Job Description
Griglie Computazionali: GRID
Griglie Computazionali: GRID Mettere a disposizione risorse di calcolo a livello globale Chi puo usare che cosa e come Stessi problemi per accedere a IBM360 negli anni 70 Come funziona? Soluzioni molto
Esperienze di gestione di OpenNebula, Openstack, VMWare
Workshop GARR Terabit Generation. Una comunità ad alte prestazioni Roma CNR 18-21 aprile 2016 Esperienze di gestione di Cloud @ENEA OpenNebula, Openstack, VMWare Tavolo tecnico Cloud e Storage Giovanni
La farm di ALICE a Trieste
La farm di ALICE a Trieste ALICE Trieste Presentazione per il Consiglio di Sezione INFN 4 maggio 2004 Utilizzo della farm a Trieste o Studio di eventi con charm nelle collisioni p-pb con ALICE ad LHC (Raffaele
owncloud (http://owncloud.org) e AjaXplorer (http://ajaxplorer.info)
La richiesta di una piattaforma dropbox-like è motivata principalmente dalla necessità di: Disporre di un ambiente «sicuro» dove memorizzare i dati degli utenti (backup e/o conservazione a lungo termine)
TIER2: Update. Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli. F. Bossi, CSN1 Trieste 7/7/05
TIER2: Update Gruppo di referaggio: Forti (chair), Bossi, Ferrari, Menasce, Morandin, Simone, Taiuti, Zoccoli F. Bossi, CSN1 Trieste 7/7/05 Cosa e avvenuto dal 17/5: Incontro referees-esperimenti a Roma
Comandi di Globus. Daniele D Agostino
Comandi di Globus Daniele D Agostino 1 Globus Toolkit Esistono varie versioni del Globus Toolkit GT2.4 e GT3.2.1 sono le ultime Verra trattato nello specifico GT2.4 si basa su quattro moduli Security Resource
OSOL-2 - ORACLE SOLARIS 11 SYSTEM ADMINISTRATION
OSOL-2 - ORACLE SOLARIS 11 SYSTEM ADMINISTRATION Categoria: Solaris INFORMAZIONI SUL CORSO Durata: Categoria: Qualifica Istruttore: Dedicato a: Produttore: 5 Giorni Solaris Oracle Certified Professionista
EX092IT VMware vcenter Configuration Manager: Install, Configure, Manage [V5.7]
Tel. +39 02 365738 info@overneteducation.it www.overneteducation.it EX092IT VMware vcenter Configuration Manager: Install, Configure, Manage [V5.7] Durata: 3 gg Descrizione Questo corso si concentra sull'installazione,
BaBar Computing in Italia: status report
BaBar Computing in Italia: status report Alexis Pompili - CNAF (per il gruppo italiano di computing) Contributi di D.Andreotti, A.Fella, A.Lusiani, P.Solagna MEETING BABAR-ITALIA Roma 6/7 aprile 2006 1.
Piano di calcolo dell esperimento HERA-B
Bologna, 27 aprile 2000 Piano di calcolo dell esperimento HERA-B Introduzione Questo piano di calcolo si propone di individuare le risorse di cui il gruppo italiano si deve dotare per l elaborazione dei
2. Strutture dei Sistemi Operativi. 2.2 Interfaccia col Sistema Operativo Interprete dei comandi
1 2. Strutture dei Sistemi Operativi Quali servizi un generico sistema operativo mette a disposizione degli utenti, e dei programmi che gli utenti vogliono eseguire? interfaccia col sistema operativo stesso
Server LDAP. File Server. Domain Controller. Installazione di una piattaforma Linux Alessandro Brusò 24/05/2012
791522 Alessandro Brusò Installazione di una piattaforma Linux Server LDAP File Server Domain Controller 2 1 1 2 3 Analisi Creazione del server virtuale Installazione e configurazione dei servizi 3 Analisi
L esperienza di calcolo nell esperimento ATLAS
Il primo anno di presa dati di LHC L esperienza di calcolo nell esperimento ATLAS Attività condotte nel 2010 e prospettive future Lorenzo Rinaldi (INFN-CNAF) Workshop CCR - Stato e Prospettive del Calcolo
Griglie computazionali LEZIONE N. 8. Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno
Griglie computazionali Università degli Studi di Napoli Federico II Corso di Laurea Magistrale in Informatica I Anno LEZIONE N. 8 Gestione dei dati in GRID Storage Element Storage Resource Management I
In rete. I computers si parlano in modalità: Peer to Peer (P2P) o... Client/server
Eccone uno... In rete I programmi si parlano... Come fanno a comunicare? Si deve stabilire una connessione (come per le chiamate telefoniche...) Un computer è identificato da un indirizzo (IP) es: 217.133.109.2
CORSO MOC20410: Installing and Configuring Windows Server CEGEKA Education corsi di formazione professionale
CORSO MOC20410: Installing and Configuring Windows Server 2012 CEGEKA Education corsi di formazione professionale Installing and Configuring Windows Server 2012 Questo corso è parte di una serie di tre
La e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS. Guido Russo WS GARR, Napoli 19 Giugno 2014
La e-infrastructure per il calcolo e le basi dati scientifiche nel Sud: l'esperienza ReCaS Guido Russo WS GARR, Napoli 19 Giugno 2014 Il PON ReCaS http://www.pon-recas.it Rete di Calcolo per SuperB e altre
MOC20745 Implementing a Software Defined DataCenter
Tel. +39 02 365738 info@overneteducation.it www.overneteducation.it MOC20745 Implementing a Software Defined DataCenter Durata: 4.5 gg Descrizione Questo corso insegna come implementare e gestire l'infrastruttura
NOTA: I prezzi disponibili non sono comprensivi di IVA né di costi di Setup* SERVIZI CLOUD. IntactMail - Posta Sicura. IntactMail Casella 20 GB
NOME E DESCRIZIONE PREZZO NOTA: I prezzi disponibili non sono comprensivi di IVA né di costi di Setup* SERVIZI CLOUD IntactMail - Posta Sicura IntactMail Casella 20 GB 9,00/mese Filtro Anti-Spam Avanzato
ALLEGATO E AL CONTRATTO QUADRO - LOTTO 1 DI CLOUD COMUPTING
DI CLOUD COMUPTING SERVIZI Infrastructure as a Service (IaaS) L1.S1.1 Periodicità del prezzo : Orario VM 1 - small 0,0740 VM 2 - medium 0,1529 Virtual Machine VM 3 - large 0,2908 VM 4 - X large 0,4597