Modulo Rappresentazione dell Informazione Prof. Carlo Batini

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Modulo Rappresentazione dell Informazione Prof. Carlo Batini"

Transcript

1 Università degli Studi di Milano-Bicocca Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Magistrale in Informatica Rappresentazione dell Informazione e della Conoscenza Modulo Rappresentazione dell Informazione Prof. Carlo Batini A cura di: Carmine Carella Anno Accademico P a g i n a

2 1 Sommario 1 SOMMARIO INDICE DELLE FIGURE INTRODUZIONE DEFINIZIONI Olson Definizione TDWI Definizione IBM Definizione DataFlux Definizione DATA PROFILING FONDAMENTALE PER IL PROACTIVE DATA QUALITY Reactive vs Proactive Data Quality Elementi per un Proactive Data Quality di Successo RUOLO NEI PROGETTI DATA MANAGEMENT CAMPI DI APPLICAZIONE APPROCCI TRADIZIONALI VS APPROCCI AUTOMATICI OLSON METODOLOGIA METODOLOGIA GENERALE Raccolta dei Metadati Documented Metadata Estrazione dei Metadati Discovered Metadata Analysis Validation Data Profiling Repository Mantenimento del Data Profiling Partecipanti al Processo di Data Profiling METODOLOGIA DI DETTAGLIO Column Property Analysis Definizioni Il Processo per il Profiling Columns Profiling Properties per i Campi Structure Analysis Il Processo di Structure Analysis Rules for Structure Output Structure Analysis: Inaccurate Data Facts Sviluppare un Data Model Simple Data Rules Analysis Definizioni Il Processo per Simple Data Rule Analysis Rules for Single Business Objects Complex Data Rule Analysis Definizioni Il Processo per il Profiling di Complex Data Rules Profiling Complex Data Rules Value Rule Analysis Definizioni Processo di Value Rule Analysis P a g i n a

3 5 ALTRE METODOLOGIE BUSINESS DATA QUALITY LTD (BDQ) METODOLOGIA Metodologia Generale Metodologia di Dettaglio THE DATA WAREHOUSING INSTITUTE (TDWI) METODOLOGIA Metodologia Generale Metodologia di Dettaglio Le 4 Aree del Data Profiling Best Practices per il Data Profiling IBM METODOLOGIA Metodologia Generale Metodologia di Dettaglio DATAFLUX METODOLOGIA Metodologia Generale Metodologia di Dettaglio INFORMATICA (THE DATA INTEGRATION COMPANY) METODOLOGIA Metodologia Generale Metodologia di Dettaglio CONFRONTO TRA LE METODOLOGIE TOOLS PER IL DATA PROFILING RIFERIMENTI PER I TOOLS: LINKS, DOCUMENTAZIONE E PAPERS BIBLIOGRAFIA P a g i n a

4 2 Indice delle Figure Figura 1 - Modi di utilizzo del data profiling Figura 2 - Vantaggi del profiling rispetto agli approcci tradizionali Figura 3 - Confronto approcci tradizionali VS approcci automatici Figura 4 - Approcci per determinare la qualità dei dati Figura 5 - Fasi della Metodologia Generale di Data Profiling Figura 6 - Architettura Generale Data Profiling Figura 7 - Passi della metodologia di dettaglio di data profiling Figura 8 - Tipi di analisi per il data profiling Figura 9 - Definizioni di column property analysis Figura 10 - Processo di profiling columns Figura 11 - Esempio di business object Figura 12 - Processo di structure analysis Figura 13 - Processo per analizzare le simple data rule Figura 14 - Processo per il profiling di complex data rules Figura 15 - Processo di value rule analysis Figura 16 - Processo di comprensione dei dati BDQ Figura 17 - Stakeholders del data profiling Figura 18 - Passi metodologia generale BDQ profiling Figura 19 - Tipi di analisi BDQ Figura 20 - Esempio di Join Testing Figura 21 - Esempio di analisi dei metadati con dfpower Profile della DataFlux Figura 22 - Metodologia DataFlux Figura 23 - Metodologia di dettaglio Informatica P a g i n a

5 3 Introduzione L attività di data quality (DQ) è supportata da molte tecnologie, tra cui data monitoring, data cleansing, data filtering e data profiling. Il data profiling (DP) è la principale tecnologia per la data accuracy. I dati all interno di un organizzazione supportano ogni genere di attività, dal più semplice processo di business alla decisione strategica più importante. Il loro valore è maggiore se essi sono accurati, completi e consistenti. La qualità della risorsa dati deve sempre essere tenuta sotto controllo in quanto ha un reale impatto sui profitti e sull attività aziendale di decision-making. Una recente inchiesta del Data Warehousing Institute ha stabilito che la scarsa qualità dei dati costa agli affari americani circa $600bn l anno dovuti a: investimenti persi in sistemi che non ritornano benefici concreti eccessivo overhead di processi basati su dati che non sono adatti allo scopo (not fit for purpose) decisioni di business sbagliate basate su dati inaccurati e incompleti La necessità di analizzare i dati è stato alla base di ogni efficiente strategia di data management sin dall alba dei moderni sistemi informativi. Il data profiling permette una profonda e ampia analisi in un tempo molto minore rispetto agli approcci tradizionali di analisi dati. 3.1 Definizioni Olson Definizione Il data profiling è definito come l applicazione di tecniche di analisi dei dati a data source esistenti con lo scopo di determinare il contenuto, la struttura e la qualità dei dati. Questa tecnologia è focalizzata su l estrazione di informazioni relative ai dati stessi, anziché di informazioni di business derivabili dai dati. Le informazioni in output sono utili per poter utilizzare i dati in modo corretto ed efficiente al di fuori del contesto delle applicazioni originali TDWI Definizione Il data profiling è il processo di esaminare i dati memorizzati in data source esistenti (ad esempio, un database o un file) e di raccogliere statistiche e informazioni relative ad essi. L utilità di queste statistiche è: scoprire se i dati esistenti possono essere facilmente utilizzati per altri scopi, fornire metriche relative alla qualità dei dati e gli standard, valutare la fattibilità per l'integrazione dei dati in nuove applicazioni, e valutare se i metadati descrivono con precisione i valori attuali presenti nel data source. Il profiling può essere eseguito sia con metodi manuali che con tool semplici o complessi che automatizzano l attività IBM Definizione Il data profiling è il processo analitico con il quale si esamina il contenuto di un database e si raccolgono statistiche e informazioni sui dati per scoprire la struttura, il contenuto e la qualità dei dati. 5 P a g i n a

6 3.1.4 DataFlux Definizione Il data profiling è il primo passo in un processo di DQ che permette di esaminare la struttura, le relazioni e il contenuto di data source esistenti per ottenere una descrizione precisa dello stato dei dati. Determinare lo stato corrente dei dati aiuta a pianificare le corrette azioni per migliorare la qualità delle informazioni aziendali. 3.2 Data Profiling fondamentale per il Proactive Data Quality Per assicurare la qualità dei dati che supportano le iniziative di business, le aziende stanno adottando sempre più processi per analizzare la qualità e mantenerla nel tempo. Un modo per comprendere e risolvere i problemi di DQ è il data profiling Reactive vs Proactive Data Quality Esistono due tipi di approcci con i quali le aziende effettuano DQ: Reactive DQ: questo tipo di approccio è caratterizzato dalla tendenza di reagire ai problemi di DQ dopo che sono stati scoperti. Non si ha una chiara idea di come è definita la qualità a causa delle mancanza di documentazione sulle DQ rules. Inoltre i problemi di DQ non sono sistematicamente registrati. Proactive DQ: questo tipo di approccio è caratterizzato dalla comprensione di cosa vuol dire qualità attraverso la definizione delle specifiche per determinare se un dato è di buona qualità (DQ rules) e come usare tali specifiche per analizzare i dati. Con questo approccio i problemi di DQ sono noti prima che abbiano un impatto disastroso sul business, aumentando così la fiducia nei dati da parte degli utenti e supportando meglio le decisioni di business Elementi per un Proactive Data Quality di Successo Elenchiamo alcune caratteristiche chiave di un buon progetto di proactive DQ: Collaborare con gli esperti di business: la forte collaborazione degli esperti di business in un progetto di DQ prende il nome di data stewardship. I data steward sono gruppi di esperti di business che conoscono il significato dei dati e li utilizzano quotidianamente. Appartengono alle diverse aree di business aziendale come finanza, marketing, ecc. e hanno la responsabilità per i data elements di interesse e forniscono informazioni su i propri dati (metadati) come definizioni (di data elements), derivazioni (come il dato è calcolato), DQ rules (quando è considerato di buona qualità) e il dove si trovano i dati originari (potrebbero essere in più posti). Supporto di esperti IT: il supporto degli esperti IT è necessario in quanto a volte capire i dati e capire come essi sono derivati implica studiare le applicazioni che li utilizzano, che sono mal documentate. Inoltre anche i tool di DP e i metadata repository necessitano del loro supporto Ottenere e utilizzare i DQ metadati: è importante definire i protocolli e i relativi tool di supporto per memorizzare i metadati. I metadati includono molte informazioni come definizioni, derivazioni, DQ rules ma anche i risultati dell analisi e i feedback degli esperti di business. Conoscere anche la storia dei dati è importante, ovvero sapere cosa è stato fatto ai dati durante il loro viaggio (lineage), se è stato manipolato, convertito può aiutare a definire più facilmente le DQ rule. I processi ETL possono combinare i metadati lineage da loro prodotti con i risultati del profiling e offrire molti vantaggi. È un dato di fatto che gli sviluppatori di tool ETL per assicurarsi che il loro codice funzioni, effettuano una forma semplificata di profiling (data inspection) ma i risultati del data inspection 6 P a g i n a

7 sono raramente condivisi o memorizzati formalmente per usi futuri. Una formale attività di data profiling può far risparmiare l attività preliminare di data inspection nei processi ETL. Memorizzare i metadati: tutti metadati, sia quelli relativi alla qualità, prodotti dal profiling sia quelli relativi al lineage dei dati prodotti dai tool ETL devono essere memorizzati in un metadata repository per essere condivisi dagli analisti e dagli altri utenti dei dati. DQ Rules: le data quality rule sono la risposta alla domanda: quando i dati diventano di scarsa qualità, come facciamo a saperlo? Gli utenti che lavorano con i dati quotidianamente e che riconoscono che qualcosa non va in essi, senza saperlo applicano le DQ rule. Alcuni esempi di rules sono: Il campo è obbligatorio e quindi deve per forza esserci un valore (identificatori), Il campo deve avere solo certi valori (campo sesso di una persona), Il valore nel campo deve essere conforme a un certo pattern di numeri e lettere (numero telefono), Il campo deve avere un certo data type e range Ci deve essere una relazione tra uno o più campi di record differenti nella stessa tabella o in tabelle diverse. Le DQ rule possono essere dettate dai data steward e validate sui dati e/o possono essere estratte dai dati utilizzando un tool e poi verificate da esperti di business. Entrambe sono attività tipiche della pratica del data profiling. 7 P a g i n a

8 3.3 Ruolo nei Progetti Data Management Nei progetti di reingegnerizzazione dei sistemi informativi aziendali, utili per renderli più efficienti e aperti all integrazione con altri sistemi, si ha la necessità di muovere le applicazioni su database più moderni o consolidare databases di diverse applicazioni. Tutto questo introduce la gestione di nuove e differenti interfacce e l interazione tra dati di differenti divisioni dell azienda o di sorgenti esterne. Le difficoltà nell eseguire tali progetti non sempre portano ai risultati desiderati, con un rilevante spreco di denaro e tempo. Sebbene ci siamo molte ragioni per questi risultati deludenti, il principale problema è la scarsa comprensione dei dati. Molti dei paper presi come riferimento parlano del data profiling come una tecnologia inserita in un contesto di più ampio respiro, come una importante fase di una metodologia data-driven come può esserlo un progetto di: data quality improvement data integration data warehousing master data management Il data profiling dovrebbe essere il primo passo in ogni progetto data-driven, per analizzare i data source con lo scopo di raccogliere le informazioni necessarie a scoprire i dati, le loro strutture e valutarne la qualità. Non effettuare il data profiling si traduce in probabili complicazioni nei passi successivi dei progetti o addirittura in un fallimento netto. Inoltre solo una completa e regolare analisi dei dati può identificare tutti i possibili problemi prima che essi diventino ingestibili e si rivelino quando ormai risolverli è troppo costoso. Ad esempio un articolo TDWI analizzato cita a sua volta un altro articolo del TDWI del 2002 intitolato data quality and the bottom line, descrive la metodologia di nove passi per assicurare dati di alta qualità. Il data profiling è uno di questi nove passi. I primi tre si focalizzano su tematiche di organizzazione come sviluppo di piani di progetto, pianificazione delle strategie di data quality e costruzione di data quality team. I successivi tre passi si occupano dell analisi di business practice, architetture dati, data sources con tenologie quali data profiling, data validation, data cleansing, data standardization, data matching, ecc. Il passo finale riguarda le decisioni da prendere in base alle informazioni acquisite dai passi precedenti: pulizia dei dati, monitoraggio data quality, ecc. Un progetto di DQ richiede una combinazione di processi, tecnologie ed esperti. I problemi di DQ non possono essere superati con una sola tecnologia. La gestione della data quality è un processo integrato e complesso, per questo esistono dei tool di automazione che assistono ogni fase del processo. Questi tool devono avere un alto grado di integrazione per garantire l obiettivo finale di un processo di data quality. Ad esempio un tool di data profiling deve rendere disponibili i propri metadati ad un tool di data cleansing in modo che possa applicare le regole senza ripetere la raccolta dei metadati per risolvere gli errori velocemente. Mentre è essenziale avere una tecnologia per supportare qualunque iniziativa di DQ, avere un appropriata metodologia per utilizzare la tecnologia è ancora più importante. 8 P a g i n a

9 Risolvere i problemi di qualità nella fasi iniziali di un processo data management Sembra che nel mondo dei dati le buone regole per mitigare i rischi nelle iniziative data-driven siano quasi sempre dimenticate, un lavoro di analisi dati a priori potrebbe durante i progetti evitare cattive sorprese nella conoscenza dei dati, eliminando problemi che devono essere risolti in corso d opera con meno facilità. Ad esempio ci si può trovare di fronte a campi carattere che contengono numeri, chiavi che si riferiscono a record inesistenti, campi che esprimono il sesso di una persona con 5 valori distinti, record di ordini con prezzi negativi, ecc. Una pratica comune denominata da un esperto di data warehousing code, load and esplode, descrive questa cattiva abitudine nel mondo dei dati: in corso d opera una volta scoperte le irregolarità, un pool di esperti applica le nuove regole per correggerle, si riesegue il processo e nuovamente si scoprono altri cattivi dati che necessitano di altre regole. Tutto questo porta ad un ciclo senza fine che aumenta i costi e i tempi dei progetti. Il fenomeno del code, load and explode influenza molti e diversi progetti e la prima causa di tutto questo e la poca comprensione dei dati e la sottovalutazione dei problemi di scarsa qualità che se non risolti in anticipo portano ritardi e fallimenti nei progetti. Lo strumento per l individuazione anticipata dei problemi di qualità è il data profiling che è più efficace se effettuato nelle fasi di requisiti e analisi di qualunque progetto. Infine, le informazioni accurate relative ai dati, ottenute dal processo di data profiling possono anche essere utilizzate per creare una knowledge base ed effetture il reasoning su di essa. Vantaggi del data profiling Alcuni vantaggi nell adottare la tecnologia di data profiling: migliora la pianificazione dei progetti data-driven mitiga il rischio di effettuare cambiamenti nelle fasi finali di un progetto si basa su un processo robusto e iterativo supportato da tool e metodologie la conoscenza in anticipo dei problemi di qualità, permette di scrivere casi di test migliori e risparmiare tempo nella comprensione del motivo per cui i test falliscono fornisce un completo insieme di informazioni valide sui dati (metadati) rileva gli errori nei dati prima che essi vengano integrati con altri (data warehouse) durante la fase di load permette di definire gli obiettivi di business come raggiungibili o non raggiungibili permette un migliore project planning di risorse (umane e di tempo) 9 P a g i n a

10 3.4 Campi di Applicazione Il profiling può essere utilizzato per migliorare l accuratezza a diversi livelli come mostrato in figura 1 Figura 1 - Modi di utilizzo del data profiling Il data profiling può mostrare le carenze dei dati presenti nel data source e consigliare un progetto di miglioramento della qualità per aumentarne l accuratezza. Può essere utilizzato per definire correttamente i processi di dati ETL (Extraction/Trasformation/Load) che muovono i dati su altri sistemi. Il profiling può aiutare nella costruzione corretta di EAI Systems (Enterprise Application Integration) risolvendo i problemi di traduzione e inconsistenza tra i sistemi partecipanti. Inoltre, può essere utilizzato nei progetti di migrazione per definire in modo corretto il sistema di destinazione. Quando questo è predefinito, ad esempio un ERP System (Enterprise Resource Planning), il data profiling è la base per il mapping accurato di attributi, strutture e valori sul nuovo sistema e permette di individuare tutte le differenze che non vengono risolte a livello dei dati e richiedono interventi esterni. Infine, il profiling è utilizzato per correggere l uso dei dati. Molto spesso i dati sono corretti e gli utenti non comprendono il contenuto e il significato e li utilizzano nel modo sbagliato. 10 P a g i n a

11 3.5 Approcci Tradizionali vs Approcci Automatici I metodi tradizionali (tecniche manuali o semi-automatiche) di analisi dati impiegano molto tempo anche su piccoli campioni e non permettono una completa comprensione dei data source. Le tecniche manuali o semi-automatiche non possono confrontare i milioni di attributi e valori. La risposta è una nuova categoria di software chiamata data profiling che offre una comprensione dei dati veloce, accurata e automatica. Inoltre permette ad un piccolo team di persone con capacità tecniche e di business di eseguire compiti complessi per ottenere una profonda comprensione dei dati. Craig Olson Data Management Review, March 2000 Il data profiling migliora l accuratezza dell analisi dati offrendo: automazione di tecniche di analisi tradizionali: riduzione del tempo di analisi del 90% con una comprensione maggiore dei dati capacità di applicare approcci brute force all analisi. Gli analisti non sono limitati nel lavorare solo con campioni di dati. Terabytes di dati possono essere sottoposti a profiling in modo efficiente e completo valutazione delle regole che governano i dati che non possono essere facilmente scoperte con tecniche manuali e ispezione La tecnologia del data profiling migliora le attività che vengono eseguite sui dati riducendo i rischi, i costi e le tempistiche. Figura 2 - Vantaggi del profiling rispetto agli approcci tradizionali Migliorare la qualità dei dati vuol dire ottenere una migliore comprensione dei dati e delle regole che li governano. Senza queste informazioni nessun data management plan può essere sviluppato. Il data profiling fornisce sia il framework e sia la roadmap per migliorare la data quality, per rendere i processi di business più efficienti e migliorare le performance dell azienda stessa. 11 P a g i n a

12 Figura 3 - Confronto approcci tradizionali VS approcci automatici Approcci Tradizionali Nessuna centralizzazione dell informazione Tools diversi applicati ad hoc per svolgere le attività di analisi Aumento overhead data management Aumento dei rischi e del carico di lavoro Approcci Automatici Singolo punto di accesso alle informazioni Tools definiti e integrati Riduzione overhead di data management Miglioramento affidabilità e riduzione dei rischi Limiti degli approcci tradizionali di profiling Esistono diversi approcci manuali per valutare la qualità dei dati, ma rispetto ai tool automatici di profiling hanno dei limiti: Scoprire gli errori troppo tardi: malgrado la crescente importanza di questo tema si tende sempre a identificare problemi di data quality troppo tardi, quando ormai sono evidenti nel nuovo sistema e provocano un perdita di fiducia nei dati da parte degli utenti o addirittura nei casi più estremi il malfunzionamento. Metadati non attendibili: per fornire una descrizione del contenuto dei data source, si utilizzano cataloghi (metadati) associati al sistema. Questi cataloghi sono notoriamente non affidabili: ad esempio gli sviluppatori del sistema potrebbero non aver creato cataloghi per documentare il contenuto e aver lasciato la compagnia e quindi la conoscenza è andata perduta. In generale i cataloghi anche se esistenti raramente sono aggiornati. L introduzione di errori nei sistemi è molto frequente e siccome non influenzano il processo operazionale giorno per giorno si pensa che tutto vada bene. Ma poi vengono a galla in progetti di integrazione in cui si scopre ad esempio che due campi apparentemente identici non combaciano in quanto un campo può al suo interno aver rappresentato più di un fatto, contrariamente alla descrizione presente nella documentazione. Poco accurati: Questi metodi tendono a non essere esaustivi e non rilevano tutti i possibili errori. Un tipico metodo manuale è la creazione di query SQL per analizzare i data source. Con una query SQL vengono analizzati i dati utilizzando i campi più importanti ma non è sufficiente a dare una comprensione completa. Inoltre dipende dalla capacità dell analista di scrivere buone query SQL e di capire bene il sistema per determinare in anticipo cosa cercare. 12 P a g i n a

13 Approcci Automatici di Data Profiling Figura 4 - Approcci per determinare la qualità dei dati I tool automatici di data profiling superano i limiti degli approcci manuali: Permettono una comprensione completa dei dati, l identificazione accurata dei problemi di qualità e minimizzano i rischi nei progetti di integrazione dovuti alla scarsa qualità rispettando il budget e i tempi. Analisi esaustiva. Permettono di analizzare ogni singolo campo di ogni record in ciascuna tabella del data source. Generano report completi e dettagliati di statistiche e diagrammi che permettono la rilevazione dei problemi in modo più immediato. Permettono una buona comprensione della struttura del sistema di destinazione, il range e la distribuzione dei valori in ciascuna campo e le relazioni tra i campi di una tabella o di diverse tabelle. Tecnologia Drill-Down per spostarsi da una vista sommaria dei dati ad una vista dettagliata dei valori che necessitano di attenzione. Accelerano il processo di analisi dei dati. Permettono di analizzare data source di grandi dimensioni e in modo accurato Una compagnia può utilizzare i tool non solo nell analisi a priori per i progetti di integrazione, ma anche per verificare periodicamente la qualità dei database esistenti e avere dei dati affidabili su cui basare il processo decisionale. Smascherano le inconsistenze nei processi di business; Eliminano le figure degli esperti IT come intermediari tra i dati e gli esperti di business, in quanto i tool sono progettati per essere facilmente utilizzabili da utenti che non hanno competenze tecniche. Quindi un esperto di business può in un solo task acquisire i risultati e analizzarli, al contrario di quello che succede con le tecniche manuali in cui un esperto IT genera ed esegue le query SQL e poi consegna i risultati al business analyst per la valutazione. Comunque gli esperti IT non vengono totalmente estromessi, poiché per analisi di molti data source con milioni di record c è bisogno di una squadra di esperti che generi i report identificando le aree di maggiore interesse e velocizzi il lavoro. 13 P a g i n a

14 4 Olson Metodologia 4.1 Metodologia Generale La figura 2 mostra le principali fasi della metodologia generale di data profiling. Figura 5 - Fasi della Metodologia Generale di Data Profiling La prima fase è l identificazione del data source (database, file o altro) che contiene i dati e delle procedure di accesso all informazione. La fase più difficile è quella di raccolta dei metadati e di estrazione dei dati. Sia i metadati sia i dati stessi costituiscono l input del profiling. Come mostra la Figura 6 - Architettura Generale Data Profiling il processo prende in input i metadati raccolti da tutta la documentazione esterna e i metadati ricavati analizzando i dati stessi. In output viene generato un insieme di metadati accurati frutto del confronto tra gli insiemi di metadati in ingresso e vengono rilevati i dati inaccurati attraverso le violazioni che occorrono nei dati rispetto ai metadati accurati calcolati precedentemente. Il data profiling non può trovare tutti i possibili dati inaccurati, ma soltanto le violazioni alle regole identificate. 14 P a g i n a

15 La figura 3, mostra l architettura generale di data profiling dal punto di vista dell input/output. Figura 6 - Architettura Generale Data Profiling Raccolta dei Metadati Documented Metadata Secondo una definizione molto generale, i metadati sono dati che descrivono le caratteristiche dei dati. I metadati rappresentano quella parte delle informazioni sui dati provenienti da fonti esterne quali dizionari dei dati, documentazione di progetti precedenti, interviste con sviluppatori e progettisti e altre sorgenti che mettono in luce il significato dei dati che devono essere analizzati. Chiamiamo questi metadati documented metadata. Tale termine è utilizzato nel seguito per riferirsi a queste informazioni. Tutte queste informazioni sono di solito non perfette (inaccurate e incomplete) e bisognerebbe approcciarsi ad esse con sospetto, in quanto nel tempo la loro correttezza potrebbe essersi deteriorata. I fattori che contribuiscono a questo sono la scarsa documentazione esistente su: i cambiamenti effettuati al sistema, sulla struttura dei dati, su particolari convenzioni per le codifiche e su informazioni di qualità. Se i documented metadata fossero accurati e completi, tutto quello che bisognerebbe fare è confrontare i dati con i metadati e qualunque violazione costituirebbe fatti di inaccuratezza. I documented metadata possono essere reperiti da tutte le forme di documentazione esistenti che siano diverse dai dati stessi: analizzando le interfacce di programmi che forniscono dati al data source, che possono aggiungere informazioni preziose sui dati che vengono persistiti. recuperando qualunque descrizione dei dati disponibile in dizionari, repositories di metadati e altre forme di documentazione. esplorando il codice sorgente di applicazioni che manipolano i dati. Il codice può rivelare molte informazioni sulla codifica, sulla gestione delle regole di business e su altre situazioni che dall esterno non sono ovvie. L estrazione di informazioni dal codice sorgente può essere sia manuale che automatica, con software appositamente dedicati. In entrambe le modalità raramente viene eseguita, per diversi motivi: 15 P a g i n a

16 il codice può essere scarsamente documentato la dimensione del codice sorgente può essere molto grande e l estrazione impiegare molto tempo lo staff tecnico che esegue l estrazione può non avere la conoscenza dei linguaggi di programmazione con cui sono scritti i programmi, ad esempio Cobol cercando regole all interno di processi esterni : alcune data rules possono essere inserite in processi aziendali più che in programmi o database Estrazione dei Metadati Discovered Metadata I dati rappresentano la più utile sorgente di informazione sui dati stessi. Mentre i documented metadata sono spesso poco accurati e poco completi per il fatto che provengono da fonti esterne poco documentate, i dati possono soltanto fornire informazioni accurate e complete che non possono essere trovare in altre sorgenti. Questo è particolarmente vero per le informazioni sulla qualità, che non è mai documentata al di fuori dei dati. L obiettivo di questa fase è estrarre i dati dal data source per analizzarli e produrre i metadati che descrivono le loro caratteristiche. Chiamiamo questi metadati discovered metadata. Tale termine è utilizzato nel seguito per riferirsi a queste informazioni. I discovered metadata possono essere estratti: analizzando i campi dei record nelle relazioni del database. Come questo viene fatto dipende dal tipo di data source, ad esempio in un database relazionale queste informazioni potrebbero essere estratte da un catalogo. estraendo informazioni strutturali disponibili nel DBMS, ad esempio nel caso relazionale, chiavi primarie, chiavi esterne e altri vincoli referenziali. Campionamento L estrazione può interessare tutti i dati presenti nel data source oppure un sottoinsieme. L estrazione di tutti i dati è chiaramente preferibile all estrazione di un sottoinsieme, in quanto viene definita meglio la realtà rappresentata nel data source e soprattutto è garantita la completezza dei discovered metadata. Ma, per molti data source misurati in centinaia di righe, usare tutti i dati rende proibitiva l esecuzione dell analisi, questo aggravato dal fatto che il data profiling di solito non è eseguito con supercomputer. Quando le dimensioni dei data sources sono considerevoli l utilizzo di sottoinsiemi è preferito purchè siano rappresentativi di tutti i dati. Questi sottoinsiemi prendono il nome di campioni di dati, che vengono estratti attraverso tecniche di campionamento studiate nel campo statistico. Il campionamento è un argomento complesso che influenza l accuratezza del processo di profiling. In questo contesto non descriviamo la vasta area del campionamento e delle sue tecniche. Diciamo solo che se non eseguito bene, il campionamento può portare all estrazione di record che rappresentano solo una parte della popolazione dei dati oppure di record che violano le regole strutturali. Il campionamento 16 P a g i n a

Relazione sul data warehouse e sul data mining

Relazione sul data warehouse e sul data mining Relazione sul data warehouse e sul data mining INTRODUZIONE Inquadrando il sistema informativo aziendale automatizzato come costituito dall insieme delle risorse messe a disposizione della tecnologia,

Dettagli

DBMS (Data Base Management System)

DBMS (Data Base Management System) Cos'è un Database I database o banche dati o base dati sono collezioni di dati, tra loro correlati, utilizzati per rappresentare una porzione del mondo reale. Sono strutturati in modo tale da consentire

Dettagli

Panoramica su ITIL V3 ed esempio di implementazione del Service Design

Panoramica su ITIL V3 ed esempio di implementazione del Service Design Master Universitario di II livello in Interoperabilità Per la Pubblica Amministrazione e Le Imprese Panoramica su ITIL V3 ed esempio di implementazione del Service Design Lavoro pratico II Periodo didattico

Dettagli

white paper La Process Intelligence migliora le prestazioni operative del settore assicurativo

white paper La Process Intelligence migliora le prestazioni operative del settore assicurativo white paper La Process Intelligence migliora le prestazioni operative del settore assicurativo White paper La Process Intelligence migliora le prestazioni operative del settore assicurativo Pagina 2 Sintesi

Dettagli

SOA GOVERNANCE: WHAT DOES IT MEAN? Giorgio Marras

SOA GOVERNANCE: WHAT DOES IT MEAN? Giorgio Marras SOA GOVERNANCE: WHAT DOES IT MEAN? Giorgio Marras 2 Introduzione Le architetture basate sui servizi (SOA) stanno rapidamente diventando lo standard de facto per lo sviluppo delle applicazioni aziendali.

Dettagli

Gestione delle Architetture e dei Servizi IT con ADOit. Un Prodotto della Suite BOC Management Office

Gestione delle Architetture e dei Servizi IT con ADOit. Un Prodotto della Suite BOC Management Office Gestione delle Architetture e dei Servizi IT con ADOit Un Prodotto della Suite BOC Management Office Controllo Globale e Permanente delle Architetture IT Aziendali e dei Processi IT: IT-Governance Definire

Dettagli

CAPITOLO CAPIT Tecnologie dell ecnologie dell info inf rmazione e controllo

CAPITOLO CAPIT Tecnologie dell ecnologie dell info inf rmazione e controllo CAPITOLO 8 Tecnologie dell informazione e controllo Agenda Evoluzione dell IT IT, processo decisionale e controllo Sistemi di supporto al processo decisionale Sistemi di controllo a feedback IT e coordinamento

Dettagli

I Valori del Manifesto Agile sono direttamente applicabili a Scrum:!

I Valori del Manifesto Agile sono direttamente applicabili a Scrum:! Scrum descrizione I Principi di Scrum I Valori dal Manifesto Agile Scrum è il framework Agile più noto. E la sorgente di molte delle idee che si trovano oggi nei Principi e nei Valori del Manifesto Agile,

Dettagli

Configuration Management

Configuration Management Configuration Management Obiettivi Obiettivo del Configuration Management è di fornire un modello logico dell infrastruttura informatica identificando, controllando, mantenendo e verificando le versioni

Dettagli

Convegno 6 giugno 2013 Federlazio Frosinone

Convegno 6 giugno 2013 Federlazio Frosinone Convegno 6 giugno 2013 Federlazio Frosinone pag. 1 6 giugno 2013 Federlazio Frosinone Introduzione alla Business Intelligence Un fattore critico per la competitività è trasformare la massa di dati prodotti

Dettagli

Il Business Process Management: nuova via verso la competitività aziendale

Il Business Process Management: nuova via verso la competitività aziendale Il Business Process Management: nuova via verso la competitività Renata Bortolin Che cosa significa Business Process Management? In che cosa si distingue dal Business Process Reingeneering? Cosa ha a che

Dettagli

COME FRODE. la possibilità propri dati. brevissimo. Reply www.reply.eu

COME FRODE. la possibilità propri dati. brevissimo. Reply www.reply.eu FRAUD MANAGEMENT. COME IDENTIFICARE E COMB BATTERE FRODI PRIMA CHE ACCADANO LE Con una visione sia sui processi di business, sia sui sistemi, Reply è pronta ad offrire soluzioni innovative di Fraud Management,

Dettagli

Basi di Dati prof. Letizia Tanca lucidi ispirati al libro Atzeni-Ceri-Paraboschi-Torlone. SQL: il DDL

Basi di Dati prof. Letizia Tanca lucidi ispirati al libro Atzeni-Ceri-Paraboschi-Torlone. SQL: il DDL Basi di Dati prof. Letizia Tanca lucidi ispirati al libro Atzeni-Ceri-Paraboschi-Torlone SQL: il DDL Parti del linguaggio SQL Definizione di basi di dati (Data Definition Language DDL) Linguaggio per modificare

Dettagli

Grandi dimensioni e dimensioni variabili

Grandi dimensioni e dimensioni variabili Grandi dimensioni e dimensioni variabili aprile 2012 1 Questo capitolo studia alcuni ulteriori aspetti importanti e caratteristici della gestione delle dimensioni in particolare, delle grandi dimensioni

Dettagli

ORACLE BUSINESS INTELLIGENCE STANDARD EDITION ONE A WORLD CLASS PERFORMANCE

ORACLE BUSINESS INTELLIGENCE STANDARD EDITION ONE A WORLD CLASS PERFORMANCE ORACLE BUSINESS INTELLIGENCE STANDARD EDITION ONE A WORLD CLASS PERFORMANCE Oracle Business Intelligence Standard Edition One è una soluzione BI completa, integrata destinata alle piccole e medie imprese.oracle

Dettagli

Energy Data Management System (EDMS): la soluzione software per una gestione efficiente dell energia secondo lo standard ISO 50001

Energy Data Management System (EDMS): la soluzione software per una gestione efficiente dell energia secondo lo standard ISO 50001 Energy Data Management System (EDMS): la soluzione software per una gestione efficiente dell energia secondo lo standard ISO 50001 Oggi più che mai, le aziende italiane sentono la necessità di raccogliere,

Dettagli

Milano, Settembre 2009 BIOSS Consulting

Milano, Settembre 2009 BIOSS Consulting Milano, Settembre 2009 BIOSS Consulting Presentazione della società Agenda Chi siamo 3 Cosa facciamo 4-13 San Donato Milanese, 26 maggio 2008 Come lo facciamo 14-20 Case Studies 21-28 Prodotti utilizzati

Dettagli

PLM Software. Answers for industry. Siemens PLM Software

PLM Software. Answers for industry. Siemens PLM Software Siemens PLM Software Monitoraggio e reporting delle prestazioni di prodotti e programmi Sfruttare le funzionalità di reporting e analisi delle soluzioni PLM per gestire in modo più efficace i complessi

Dettagli

Sistemi di supporto alle decisioni Ing. Valerio Lacagnina

Sistemi di supporto alle decisioni Ing. Valerio Lacagnina Cosa è il DSS L elevato sviluppo dei personal computer, delle reti di calcolatori, dei sistemi database di grandi dimensioni, e la forte espansione di modelli basati sui calcolatori rappresentano gli sviluppi

Dettagli

Rational Unified Process Introduzione

Rational Unified Process Introduzione Rational Unified Process Introduzione G.Raiss - A.Apolloni - 4 maggio 2001 1 Cosa è E un processo di sviluppo definito da Booch, Rumbaugh, Jacobson (autori dell Unified Modeling Language). Il RUP è un

Dettagli

Progettare, sviluppare e gestire seguendo la Think it easy philosophy

Progettare, sviluppare e gestire seguendo la Think it easy philosophy Progettare, sviluppare e gestire seguendo la Think it easy philosophy CST Consulting è una azienda di Consulenza IT, System Integration & Technology e Servizi alle Imprese di respiro internazionale. E

Dettagli

Processi (di sviluppo del) software. Fase di Analisi dei Requisiti. Esempi di Feature e Requisiti. Progettazione ed implementazione

Processi (di sviluppo del) software. Fase di Analisi dei Requisiti. Esempi di Feature e Requisiti. Progettazione ed implementazione Processi (di sviluppo del) software Fase di Analisi dei Requisiti Un processo software descrive le attività (o task) necessarie allo sviluppo di un prodotto software e come queste attività sono collegate

Dettagli

Analisi dei requisiti e casi d uso

Analisi dei requisiti e casi d uso Analisi dei requisiti e casi d uso Indice 1 Introduzione 2 1.1 Terminologia........................... 2 2 Modello del sistema 4 2.1 Requisiti hardware........................ 4 2.2 Requisiti software.........................

Dettagli

REALIZZARE UN MODELLO DI IMPRESA

REALIZZARE UN MODELLO DI IMPRESA REALIZZARE UN MODELLO DI IMPRESA - organizzare e gestire l insieme delle attività, utilizzando una piattaforma per la gestione aziendale: integrata, completa, flessibile, coerente e con un grado di complessità

Dettagli

Problem Management. Obiettivi. Definizioni. Responsabilità. Attività. Input

Problem Management. Obiettivi. Definizioni. Responsabilità. Attività. Input Problem Management Obiettivi Obiettivo del Problem Management e di minimizzare l effetto negativo sull organizzazione degli Incidenti e dei Problemi causati da errori nell infrastruttura e prevenire gli

Dettagli

White Paper. Operational DashBoard. per una Business Intelligence. in real-time

White Paper. Operational DashBoard. per una Business Intelligence. in real-time White Paper Operational DashBoard per una Business Intelligence in real-time Settembre 2011 www.axiante.com A Paper Published by Axiante CAMBIARE LE TRADIZIONI C'è stato un tempo in cui la Business Intelligence

Dettagli

Introduzione ad Access

Introduzione ad Access Introduzione ad Access Luca Bortolussi Dipartimento di Matematica e Informatica Università degli studi di Trieste Access E un programma di gestione di database (DBMS) Access offre: un supporto transazionale

Dettagli

Import Dati Release 4.0

Import Dati Release 4.0 Piattaforma Applicativa Gestionale Import Dati Release 4.0 COPYRIGHT 2000-2005 by ZUCCHETTI S.p.A. Tutti i diritti sono riservati.questa pubblicazione contiene informazioni protette da copyright. Nessuna

Dettagli

Corso Base ITIL V3 2008

Corso Base ITIL V3 2008 Corso Base ITIL V3 2008 PROXYMA Contrà San Silvestro, 14 36100 Vicenza Tel. 0444 544522 Fax 0444 234400 Email: proxyma@proxyma.it L informazione come risorsa strategica Nelle aziende moderne l informazione

Dettagli

www.bistrategy.it In un momento di crisi perché scegliere di investire sulla Business Intelligence?

www.bistrategy.it In un momento di crisi perché scegliere di investire sulla Business Intelligence? In un momento di crisi perché scegliere di investire sulla Business Intelligence? Cos è? Per definizione, la Business Intelligence è: la trasformazione dei dati in INFORMAZIONI messe a supporto delle decisioni

Dettagli

Intalio. Leader nei Sistemi Open Source per il Business Process Management. Andrea Calcagno Amministratore Delegato

Intalio. Leader nei Sistemi Open Source per il Business Process Management. Andrea Calcagno Amministratore Delegato Intalio Convegno Open Source per la Pubblica Amministrazione Leader nei Sistemi Open Source per il Business Process Management Navacchio 4 Dicembre 2008 Andrea Calcagno Amministratore Delegato 20081129-1

Dettagli

più del mercato applicazioni dei processi modificato. Reply www.reply.eu

più del mercato applicazioni dei processi modificato. Reply www.reply.eu SOA IN AMBITO TELCO Al fine di ottimizzare i costi e di migliorare la gestione dell'it, le aziende guardano, sempre più con maggiore interesse, alle problematiche di gestionee ed ottimizzazione dei processi

Dettagli

Business Intelligence

Business Intelligence aggregazione dati Business Intelligence analytic applications query d a t a w a r e h o u s e aggregazione budget sales inquiry data mining Decision Support Systems MIS ERP data management Data Modeling

Dettagli

Realizzare un architettura integrata di Business Intelligence

Realizzare un architettura integrata di Business Intelligence Realizzare un architettura integrata di Business Intelligence Un sistema integrato di Business Intelligence consente all azienda customer oriented una gestione efficace ed efficiente della conoscenza del

Dettagli

Dati importati/esportati

Dati importati/esportati Dati importati/esportati Dati importati Al workspace MATLAB script Dati esportati file 1 File di testo (.txt) Spreadsheet Database Altro Elaborazione dati Grafici File di testo Relazioni Codice Database

Dettagli

Business Process Management

Business Process Management Business Process Management Comprendere, gestire, organizzare e migliorare i processi di business Caso di studio a cura della dott. Danzi Francesca e della prof. Cecilia Rossignoli 1 Business process Un

Dettagli

Pagine romane (I-XVIII) OK.qxd:romane.qxd 7-09-2009 16:23 Pagina VI. Indice

Pagine romane (I-XVIII) OK.qxd:romane.qxd 7-09-2009 16:23 Pagina VI. Indice Pagine romane (I-XVIII) OK.qxd:romane.qxd 7-09-2009 16:23 Pagina VI Prefazione Autori XIII XVII Capitolo 1 Sistemi informativi aziendali 1 1.1 Introduzione 1 1.2 Modello organizzativo 3 1.2.1 Sistemi informativi

Dettagli

Introduzione al GIS (Geographic Information System)

Introduzione al GIS (Geographic Information System) Introduzione al GIS (Geographic Information System) Sommario 1. COS E IL GIS?... 3 2. CARATTERISTICHE DI UN GIS... 3 3. COMPONENTI DI UN GIS... 4 4. CONTENUTI DI UN GIS... 5 5. FASI OPERATIVE CARATTERIZZANTI

Dettagli

IBM Cognos 8 BI Midmarket Reporting Packages Per soddisfare tutte le vostre esigenze di reporting restando nel budget

IBM Cognos 8 BI Midmarket Reporting Packages Per soddisfare tutte le vostre esigenze di reporting restando nel budget Data Sheet IBM Cognos 8 BI Midmarket Reporting Packages Per soddisfare tutte le vostre esigenze di reporting restando nel budget Panoramica Le medie aziende devono migliorare nettamente le loro capacità

Dettagli

Sistemi di gestione dei dati e dei processi aziendali. Information Technology General Controls

Sistemi di gestione dei dati e dei processi aziendali. Information Technology General Controls Information Technology General Controls Indice degli argomenti Introduzione agli ITGC ITGC e altre componenti del COSO Framework Sviluppo e manutenzione degli applicativi Gestione operativa delle infrastrutture

Dettagli

Studio di retribuzione 2014

Studio di retribuzione 2014 Studio di retribuzione 2014 TECHNOLOGY Temporary & permanent recruitment www.pagepersonnel.it EDITORIALE Grazie ad una struttura costituita da 100 consulenti e 4 uffici in Italia, Page Personnel offre

Dettagli

Text mining ed analisi di dati codificati in linguaggio naturale. Analisi esplorative di dati testualilezione

Text mining ed analisi di dati codificati in linguaggio naturale. Analisi esplorative di dati testualilezione Text mining ed analisi di dati codificati in linguaggio naturale Analisi esplorative di dati testualilezione 2 Le principali tecniche di analisi testuale Facendo riferimento alle tecniche di data mining,

Dettagli

un occhio al passato per il tuo business futuro

un occhio al passato per il tuo business futuro 2 3 5 7 11 13 17 19 23 29 31 37 41 43 47 53 59 61 un occhio al passato per il tuo business futuro BUSINESS DISCOVERY Processi ed analisi per aziende virtuose Che cos è La Business Discovery è un insieme

Dettagli

BRM. Tutte le soluzioni. per la gestione delle informazioni aziendali. BusinessRelationshipManagement

BRM. Tutte le soluzioni. per la gestione delle informazioni aziendali. BusinessRelationshipManagement BRM BusinessRelationshipManagement Tutte le soluzioni per la gestione delle informazioni aziendali - Business Intelligence - Office Automation - Sistemi C.R.M. I benefici di BRM Garantisce la sicurezza

Dettagli

F O R M A T O E U R O P E O

F O R M A T O E U R O P E O F O R M A T O E U R O P E O P E R I L C U R R I C U L U M V I T A E INFORMAZIONI PERSONALI Nome Indirizzo Laura Bacci, PMP Via Tezze, 36 46100 MANTOVA Telefono (+39) 348 6947997 Fax (+39) 0376 1810801

Dettagli

IT FINANCIAL MANAGEMENT

IT FINANCIAL MANAGEMENT IT FINANCIAL MANAGEMENT L IT Financial Management è una disciplina per la pianificazione e il controllo economico-finanziario, di carattere sia strategico sia operativo, basata su un ampio insieme di metodologie

Dettagli

Corso di Amministrazione di Sistema Parte I ITIL 3

Corso di Amministrazione di Sistema Parte I ITIL 3 Corso di Amministrazione di Sistema Parte I ITIL 3 Francesco Clabot Responsabile erogazione servizi tecnici 1 francesco.clabot@netcom-srl.it Fondamenti di ITIL per la Gestione dei Servizi Informatici Il

Dettagli

Problem Management proattivo di sicurezza secondo ITIL: attività di Etichal Hacking

Problem Management proattivo di sicurezza secondo ITIL: attività di Etichal Hacking Seminario associazioni: Seminario a cura di itsmf Italia Problem Management proattivo di sicurezza secondo ITIL: attività di Etichal Hacking Andrea Praitano Agenda Struttura dei processi ITIL v3; Il Problem

Dettagli

RUP (Rational Unified Process)

RUP (Rational Unified Process) RUP (Rational Unified Process) Caratteristiche, Punti di forza, Limiti versione del tutorial: 3.3 (febbraio 2007) Pag. 1 Unified Process Booch, Rumbaugh, Jacobson UML (Unified Modeling Language) notazione

Dettagli

Supporto alle decisioni e strategie commerciali/mercati/prodotti/forza vendita;

Supporto alle decisioni e strategie commerciali/mercati/prodotti/forza vendita; .netbin. è un potentissimo strumento SVILUPPATO DA GIEMME INFORMATICA di analisi dei dati con esposizione dei dati in forma numerica e grafica con un interfaccia visuale di facile utilizzo, organizzata

Dettagli

t.fabrica wanna be smarter? smart, simple, cost effectiveness solutions for manufactoring operational excellence.

t.fabrica wanna be smarter? smart, simple, cost effectiveness solutions for manufactoring operational excellence. t.fabrica wanna be smarter? smart, simple, cost effectiveness solutions for manufactoring operational excellence. Per le aziende manifatturiere, oggi e sempre più nel futuro individuare ed eliminare gli

Dettagli

DataFix. La soluzione innovativa per l'help Desk aziendale

DataFix. La soluzione innovativa per l'help Desk aziendale DataFix D A T A N O S T O P La soluzione innovativa per l'help Desk aziendale La soluzione innovativa per l'help Desk aziendale L a necessità di fornire un adeguato supporto agli utenti di sistemi informatici

Dettagli

Le funzionalità di un DBMS

Le funzionalità di un DBMS Le funzionalità di un DBMS Sistemi Informativi L-A Home Page del corso: http://www-db.deis.unibo.it/courses/sil-a/ Versione elettronica: DBMS.pdf Sistemi Informativi L-A DBMS: principali funzionalità Le

Dettagli

Università di Venezia Corso di Laurea in Informatica. Marco Fusaro KPMG S.p.A.

Università di Venezia Corso di Laurea in Informatica. Marco Fusaro KPMG S.p.A. Università di Venezia Corso di Laurea in Informatica Laboratorio di Informatica Applicata Introduzione all IT Governance Lezione 5 Marco Fusaro KPMG S.p.A. 1 CobiT: strumento per la comprensione di una

Dettagli

Estensione di un servizo di messaggistica per telefonia mobile (per una società di agenti TuCSoN)

Estensione di un servizo di messaggistica per telefonia mobile (per una società di agenti TuCSoN) Estensione di un servizo di messaggistica per telefonia mobile (per una società di agenti TuCSoN) System Overview di Mattia Bargellini 1 CAPITOLO 1 1.1 Introduzione Il seguente progetto intende estendere

Dettagli

UNIVERSITÀ DEGLI STUDI DI GENOVA

UNIVERSITÀ DEGLI STUDI DI GENOVA UNIVERSITÀ DEGLI STUDI DI GENOVA FACOLTÀ DI SCIENZE MATEMATICHE FISICHE E NATURALI CORSO DI LAUREA IN INFORMATICA Prova Finale GESTIONE DELLA TRANSIZIONE SECONDO LO STANDARD ITIL ITIL SERVICE TRANSITION

Dettagli

Il ciclo di vita del software

Il ciclo di vita del software Il ciclo di vita del software Il ciclo di vita del software Definisce un modello per il software, dalla sua concezione iniziale fino al suo sviluppo completo, al suo rilascio, alla sua successiva evoluzione,

Dettagli

Profilo Aziendale ISO 9001: 2008. METISOFT spa - p.iva 00702470675 - www.metisoft.it - info@metisoft.it

Profilo Aziendale ISO 9001: 2008. METISOFT spa - p.iva 00702470675 - www.metisoft.it - info@metisoft.it ISO 9001: 2008 Profilo Aziendale METISOFT spa - p.iva 00702470675 - www.metisoft.it - info@metisoft.it Sede legale: * Viale Brodolini, 117-60044 - Fabriano (AN) - Tel. 0732.251856 Sede amministrativa:

Dettagli

Il Data Quality, un problema di Business!

Il Data Quality, un problema di Business! Knowledge Intelligence: metodologia, modelli gestionali e strumenti tecnologici per la governance e lo sviluppo del business Il Data Quality, un problema di Business! Pietro Berrettoni, IT Manager Acraf

Dettagli

Cos è la Businèss Intèlligèncè

Cos è la Businèss Intèlligèncè Cos è la Businèss Intèlligèncè di Alessandro Rezzani Il sistema informativo aziendale... 2 Definizione di Business Intelligence... 6 Il valore della Business Intelligence... 7 La percezione della Business

Dettagli

Sistemi di supporto alle decisioni

Sistemi di supporto alle decisioni Sistemi di supporto alle decisioni Introduzione I sistemi di supporto alle decisioni, DSS (decision support system), sono strumenti informatici che utilizzano dati e modelli matematici a supporto del decision

Dettagli

dal Controllo di Gestione alla Business Intelligence

dal Controllo di Gestione alla Business Intelligence dal Controllo di Gestione alla strumenti strategici per la gestione delle imprese Giovanni Esposito Bergamo, 29 Ottobre 2012 dal Controllo di Gestione alla 25/10/2012 1 Agenda 14:00 Benvenuto Il Sistema

Dettagli

PROFILI ALLEGATO A. Profili professionali

PROFILI ALLEGATO A. Profili professionali ALLEGATO A Profili professionali Nei profili di seguito descritti vengono sintetizzate le caratteristiche di delle figure professionali che verranno coinvolte nell erogazione dei servizi oggetto della

Dettagli

CA RC/Update for DB2 for z/os

CA RC/Update for DB2 for z/os SCHEDA PRODOTTO CA RC/Update for DB2 for z/os CA RC/Update for DB2 for z/os CA RC/Update for DB2 for z/os (CA RC/Update) è uno strumento di gestione di dati e oggetti DB2 che consente agli amministratori

Dettagli

LA TEMATICA. Questa situazione si traduce facilmente:

LA TEMATICA. Questa situazione si traduce facilmente: IDENTITY AND ACCESS MANAGEMENT: LA DEFINIZIONE DI UN MODELLO PROCEDURALE ED ORGANIZZATIVO CHE, SUPPORTATO DALLE INFRASTRUTTURE, SIA IN GRADO DI CREARE, GESTIRE ED UTILIZZARE LE IDENTITÀ DIGITALI SECONDO

Dettagli

AOT Lab Dipartimento di Ingegneria dell Informazione Università degli Studi di Parma. Unified Process. Prof. Agostino Poggi

AOT Lab Dipartimento di Ingegneria dell Informazione Università degli Studi di Parma. Unified Process. Prof. Agostino Poggi AOT Lab Dipartimento di Ingegneria dell Informazione Università degli Studi di Parma Unified Process Prof. Agostino Poggi Unified Process Unified Software Development Process (USDP), comunemente chiamato

Dettagli

Neomobile incentra l infrastruttura IT su Microsoft ALM, arrivando a 40 nuovi rilasci a settimana

Neomobile incentra l infrastruttura IT su Microsoft ALM, arrivando a 40 nuovi rilasci a settimana Storie di successo Microsoft per le Imprese Scenario: Software e Development Settore: Servizi In collaborazione con Neomobile incentra l infrastruttura IT su Microsoft ALM, arrivando a 40 nuovi rilasci

Dettagli

Il business risk reporting: lo. gestione continua dei rischi

Il business risk reporting: lo. gestione continua dei rischi 18 ottobre 2012 Il business risk reporting: lo strumento essenziale per la gestione continua dei rischi Stefano Oddone, EPM Sales Consulting Senior Manager di Oracle 1 AGENDA L importanza di misurare Business

Dettagli

Dalla Mappatura dei Processi al Business Process Management

Dalla Mappatura dei Processi al Business Process Management Dalla Mappatura dei Processi al Business Process Management Romano Stasi Responsabile Segreteria Tecnica ABI Lab Roma, 4 dicembre 2007 Agenda Il percorso metodologico Analizzare per conoscere: la mappatura

Dettagli

6. Le ricerche di marketing

6. Le ricerche di marketing Università degli Studi di Urbino Carlo Bo Facoltà di Lingue e Letterature Straniere Corso di Laurea in Lingue e Cultura per l Impresa 6. Le ricerche di marketing Prof. Fabio Forlani Urbino, 29/III/2011

Dettagli

Business Intelligence RENDE STRATEGICHE LE INFORMAZIONI

Business Intelligence RENDE STRATEGICHE LE INFORMAZIONI Business Intelligence RENDE STRATEGICHE LE INFORMAZIONI Business Intelligence RENDE STRATEGICHE LE INFORMAZIONI CSC ritiene che la Business Intelligence sia un elemento strategico e fondamentale che, seguendo

Dettagli

Applicazione: Share - Sistema per la gestione strutturata di documenti

Applicazione: Share - Sistema per la gestione strutturata di documenti Riusabilità del software - Catalogo delle applicazioni: Gestione Documentale Applicazione: Share - Sistema per la gestione strutturata di documenti Amministrazione: Regione Piemonte - Direzione Innovazione,

Dettagli

CMMI-Dev V1.3. Capability Maturity Model Integration for Software Development, Version 1.3. Roma, 2012 Ercole Colonese

CMMI-Dev V1.3. Capability Maturity Model Integration for Software Development, Version 1.3. Roma, 2012 Ercole Colonese CMMI-Dev V1.3 Capability Maturity Model Integration for Software Development, Version 1.3 Roma, 2012 Agenda Che cos è il CMMI Costellazione di modelli Approccio staged e continuous Aree di processo Goals

Dettagli

Le Dashboard di cui non si può fare a meno

Le Dashboard di cui non si può fare a meno Le Dashboard di cui non si può fare a meno Le aziende più sensibili ai cambiamenti stanno facendo di tutto per cogliere qualsiasi opportunità che consenta loro di incrementare il business e di battere

Dettagli

Sistemi ERP e i sistemi di BI

Sistemi ERP e i sistemi di BI Sistemi ERP e i sistemi di BI 1 Concetti Preliminari Cos è un ERP: In prima approssimazione: la strumento, rappresentato da uno o più applicazioni SW in grado di raccogliere e organizzare le informazioni

Dettagli

Università degli Studi di Parma. Facoltà di Scienze MM. FF. NN. Corso di Laurea in Informatica

Università degli Studi di Parma. Facoltà di Scienze MM. FF. NN. Corso di Laurea in Informatica Università degli Studi di Parma Facoltà di Scienze MM. FF. NN. Corso di Laurea in Informatica A.A. 2007-08 CORSO DI INGEGNERIA DEL SOFTWARE Prof. Giulio Destri http://www.areasp.com (C) 2007 AreaSP for

Dettagli

Copyright Università degli Studi di Torino, Progetto Atlante delle Professioni 2009 IT PROCESS EXPERT

Copyright Università degli Studi di Torino, Progetto Atlante delle Professioni 2009 IT PROCESS EXPERT IT PROCESS EXPERT 1. CARTA D IDENTITÀ... 2 2. CHE COSA FA... 3 3. DOVE LAVORA... 4 4. CONDIZIONI DI LAVORO... 5 5. COMPETENZE... 6 Quali competenze sono necessarie... 6 Conoscenze... 8 Abilità... 9 Comportamenti

Dettagli

RAPPRESENTAZIONE BINARIA DEI NUMERI. Andrea Bobbio Anno Accademico 1996-1997

RAPPRESENTAZIONE BINARIA DEI NUMERI. Andrea Bobbio Anno Accademico 1996-1997 1 RAPPRESENTAZIONE BINARIA DEI NUMERI Andrea Bobbio Anno Accademico 1996-1997 Numeri Binari 2 Sistemi di Numerazione Il valore di un numero può essere espresso con diverse rappresentazioni. non posizionali:

Dettagli

Ricognizione di alcune Best Practice

Ricognizione di alcune Best Practice Linee guida sulla qualità dei beni e dei servizi ICT per la definizione ed il governo dei contratti della Pubblica Amministrazione Manuale di riferimento Ricognizione di alcune Best Practice applicabili

Dettagli

La Business Intelligence

La Business Intelligence Parte 1 La Business Intelligence Capitolo 1 Cos è la Business Intelligence 1.1 Il sistema informativo aziendale Sempre la pratica dev essere edificata sopra la buona teorica. Leonardo da Vinci Le attività,

Dettagli

Processi ITIL. In collaborazione con il nostro partner:

Processi ITIL. In collaborazione con il nostro partner: Processi ITIL In collaborazione con il nostro partner: NetEye e OTRS: la piattaforma WÜRTHPHOENIX NetEye è un pacchetto di applicazioni Open Source volto al monitoraggio delle infrastrutture informatiche.

Dettagli

Business Process Modeling and Notation e WebML

Business Process Modeling and Notation e WebML Business Process Modeling and Notation e WebML 24 Introduzione I Web Service e BPMN sono standard de facto per l interoperabilità in rete a servizio delle imprese moderne I Web Service sono utilizzati

Dettagli

Metadati e Modellazione. standard P_META

Metadati e Modellazione. standard P_META Metadati e Modellazione Lo standard Parte I ing. Laurent Boch, ing. Roberto Del Pero Rai Centro Ricerche e Innovazione Tecnologica Torino 1. Introduzione 1.1 Scopo dell articolo Questo articolo prosegue

Dettagli

LA TECHNOLOGY TRANSFER PRESENTA SUZANNE ROBERTSON MASTERING THE REQUIREMENTS PROCESS COME COSTRUIRE IL SISTEMA CHE IL VOSTRO UTENTE DESIDERA

LA TECHNOLOGY TRANSFER PRESENTA SUZANNE ROBERTSON MASTERING THE REQUIREMENTS PROCESS COME COSTRUIRE IL SISTEMA CHE IL VOSTRO UTENTE DESIDERA LA TECHNOLOGY TRANSFER PRESENTA SUZANNE ROBERTSON MASTERING THE REQUIREMENTS PROCESS COME COSTRUIRE IL SISTEMA CHE IL VOSTRO UTENTE DESIDERA ROMA 20-22 OTTOBRE 2014 RESIDENZA DI RIPETTA - VIA DI RIPETTA,

Dettagli

LE NOVITÀ DELL EDIZIONE 2011 DELLO STANDARD ISO/IEC 20000-1 E LE CORRELAZIONI CON IL FRAMEWORK ITIL

LE NOVITÀ DELL EDIZIONE 2011 DELLO STANDARD ISO/IEC 20000-1 E LE CORRELAZIONI CON IL FRAMEWORK ITIL Care Colleghe, Cari Colleghi, prosegue la nuova serie di Newsletter legata agli Schemi di Certificazione di AICQ SICEV. Questa volta la pillola formativa si riferisce alle novità dell edizione 2011 dello

Dettagli

IT FOR BUSINESS AND FINANCE

IT FOR BUSINESS AND FINANCE IT FOR BUSINESS AND FINANCE Business Intelligence Siena 14 aprile 2011 AGENDA Cos è la Business Intelligence Terminologia Perché la Business Intelligence La Piramide Informativa Macro Architettura Obiettivi

Dettagli

Istituto Tecnico Commerciale Indirizzo AFM articolazione SIA PERCHE???

Istituto Tecnico Commerciale Indirizzo AFM articolazione SIA PERCHE??? Istituto Tecnico Commerciale Indirizzo AFM articolazione SIA PERCHE??? Opportunità di lavoro: ICT - Information and Communication Technology in Azienda Vendite Acquisti Produzione Logistica AFM SIA ICT

Dettagli

Razionalità organizzativa e struttura

Razionalità organizzativa e struttura Un organizzazione è sempre compresa in sistemi più ampi Alcune parti dell organizzazione inevitabilmente sono interdipendenti con altre organizzazioni non subordinate e fuori dalle possibilità di controllo

Dettagli

CONSIGLIO NAZIONALE DEI DOTTORI COMMERCIALISTI E CONSIGLIO NAZIONALE DEI RAGIONIERI

CONSIGLIO NAZIONALE DEI DOTTORI COMMERCIALISTI E CONSIGLIO NAZIONALE DEI RAGIONIERI CONSIGLIO NAZIONALE DEI DOTTORI COMMERCIALISTI E CONSIGLIO NAZIONALE DEI RAGIONIERI COMMISSIONE PARITETICA PER I PRINCIPI DI REVISIONE LA COMPRENSIONE DELL IMPRESA E DEL SUO CONTESTO E LA VALUTAZIONE DEI

Dettagli

Integrazione. Ecad. Mcad. Ecad - MENTOR GRAPHICS

Integrazione. Ecad. Mcad. Ecad - MENTOR GRAPHICS Integrazione Ecad Mcad Ecad - MENTOR GRAPHICS MENTOR GRAPHICS - PADS La crescente complessità del mercato della progettazione elettronica impone l esigenza di realizzare prodotti di dimensioni sempre più

Dettagli

La gestione documentale con il programma Filenet ed il suo utilizzo tramite la tecnologia.net. di Emanuele Mattei (emanuele.mattei[at]email.

La gestione documentale con il programma Filenet ed il suo utilizzo tramite la tecnologia.net. di Emanuele Mattei (emanuele.mattei[at]email. La gestione documentale con il programma Filenet ed il suo utilizzo tramite la tecnologia.net di Emanuele Mattei (emanuele.mattei[at]email.it) Introduzione In questa serie di articoli, vedremo come utilizzare

Dettagli

Panoramica delle richieste

Panoramica delle richieste Panoramica delle richieste 1,293 richieste in procinto di essere approvate, il 40% delle quali é previsto aperto alle registrazioni Breakdown dei nuovi gtld per tipo 1,930 1,293 1,293 1,930 453 100% 90%

Dettagli

Introduzione a MySQL

Introduzione a MySQL Introduzione a MySQL Cinzia Cappiello Alessandro Raffio Politecnico di Milano Prima di iniziare qualche dettaglio su MySQL MySQL è un sistema di gestione di basi di dati relazionali (RDBMS) composto da

Dettagli

IT Service Management, le best practice per la gestione dei servizi

IT Service Management, le best practice per la gestione dei servizi Il Framework ITIL e gli Standard di PMI : : possibili sinergie Milano, Venerdì, 11 Luglio 2008 IT Service Management, le best practice per la gestione dei servizi Maxime Sottini Slide 1 Agenda Introduzione

Dettagli

I.Stat Guida utente Versione 1.7 Dicembre 2010

I.Stat Guida utente Versione 1.7 Dicembre 2010 I.Stat Guida utente Versione 1.7 Dicembre 2010 1 Sommario INTRODUZIONE 3 I concetti principali di I.Stat 4 Organizzazione dei dati 4 Ricerca 5 GUIDA UTENTE 6 Per iniziare 6 Selezione della lingua 7 Individuazione

Dettagli

Gli Standard hanno lo scopo di:

Gli Standard hanno lo scopo di: STANDARD INTERNAZIONALI PER LA PRATICA PROFESSIONALE DELL INTERNAL AUDITING (STANDARD) Introduzione agli Standard L attività di Internal audit è svolta in contesti giuridici e culturali diversi, all interno

Dettagli

Rischio impresa. Rischio di revisione

Rischio impresa. Rischio di revisione Guida alla revisione legale PIANIFICAZIONE del LAVORO di REVISIONE LEGALE dei CONTI Formalizzazione delle attività da svolgere nelle carte di lavoro: determinazione del rischio di revisione, calcolo della

Dettagli

BPEL: Business Process Execution Language

BPEL: Business Process Execution Language Ingegneria dei processi aziendali BPEL: Business Process Execution Language Ghilardi Dario 753708 Manenti Andrea 755454 Docente: Prof. Ernesto Damiani BPEL - definizione Business Process Execution Language

Dettagli