IMAGE PROCESSING INFORMATICA APPLICATA MODULO 1 (SEDE DI GROSSETO) INFORMATICA APPLICATA MODULO AVANZATO LABORATORIO DI INFORMATICA 2



Documenti analoghi
Il campionamento. La digitalizzazione. Teoria e pratica. La rappresentazione digitale delle immagini. La rappresentazione digitale delle immagini

Il colore. IGEA febbraio 2007

Capitolo V : Il colore nelle immagini digitali

Le immagini digitali. Le immagini digitali. Caterina Balletti. Caterina Balletti. Immagini grafiche. Trattamento di immagini digitali.

INFORMATICA E GRAFICA PER IL WEB

gestione e modifica di immagini fotografiche digitali

INFORMATICA. Elaborazione delle immagini digitali. Università degli Studi di Foggia Dipartimento di Medicina Clinica e Sperimentale

Le immagini digitali: introduzione

All interno dei colori primari e secondari, abbiamo tre coppie di colori detti COMPLEMENTARI.

C M A P M IONAM A E M NT N O

La Visione Artificiale. La vis ione delle macchine La vis ione umana Acquis izione di immag ine

Immagini digitali Appunti per la classe 3 R a cura del prof. ing. Mario Catalano

I COLORI DEL CIELO: COME SI FORMANO LE IMMAGINI ASTRONOMICHE

Librerie digitali. Video. Gestione di video. Caratteristiche dei video. Video. Metadati associati ai video. Metadati associati ai video

Analisi sensitività. Strumenti per il supporto alle decisioni nel processo di Valutazione d azienda

Introduzione all analisi dei segnali digitali.

Informatica pratica. L'immagine digitale

Test percettivi per la valutazione del contrasto di immagini digitali

Nuovi toner HP ColorSphere

Corso di Visione Artificiale. Immagini digitali. Samuel Rota Bulò

Corso integrato di Disegno e Rilievo dell'architettura B (12 cfu)

I metodi colore in Photoshop e il significato dei canali

Corso di. Dott.ssa Donatella Cocca

Immagini vettoriali. Immagini raster

Sistemi Informativi Territoriali. Vari tipi di immagini

Modelli di colore. Un tocco di blu non guasta

Capitolo 6 ELABORAZIONE DI IMMAGINI A COLORI

4 3 4 = 4 x x x 10 0 aaa

ELETTRONICA DIGITALE

Corso di Grafica Computazionale

Tipi di colore. Informazioni sul colore. Durante la stampa. Uso del colore. Gestione della carta. Manutenzione. Risoluzione dei problemi

Appunti sulla Macchina di Turing. Macchina di Turing

Correzione di immagini da camera Vexcel UltraCam utilizzando Geomatica OrthoEngine

La codifica delle immagini

I ricavi ed i costi di produzione

Capitolo II. La forma del valore. 7. La duplice forma in cui si presenta la merce: naturale e di valore.

VALORE DELLE MERCI SEQUESTRATE

L informazione grafica. Le immagini digitali. Esempi. Due grandi categorie. Introduzione

ColorSplitter. La separazione automatica dei colori di Colibri.. Perché ColorSplitter? Come opera ColorSplitter?

Sistema di ripresa con fotocamera digitale fissa Calibrazione

Immagini binarie. Binarizzazione di immagini a livelli di grigio

Sistemi Informativi Territoriali. Map Algebra

Analisi e diagramma di Pareto

Raccomandazione del Parlamento europeo 18/12/2006 CLASSE PRIMA COMPETENZE ABILITÀ CONOSCENZE. Operare con i numeri

Dimensione di uno Spazio vettoriale

Lezione 2: Immagini digitali (1)

Abbiamo costruito il grafico delle sst in funzione del tempo (dal 1880 al 1995).

COMUNE DI RAVENNA GUIDA ALLA VALUTAZIONE DELLE POSIZIONI (FAMIGLIE, FATTORI, LIVELLI)


CAPACITÀ DI PROCESSO (PROCESS CAPABILITY)

Le strumentazioni laser scanning oriented per i processi di censimento anagrafico dei patrimoni

Il concetto di valore medio in generale

Sistema Informativo Geografico:

Gestione dei segnali analogici nei sistemi di automazione industriale con PLC.

Corso pratico di Informatica LA SCANSIONE DELL IMMAGINE. Autore. Prof. Renato Avato. Faenza, ottobre Scansione dell immagine. R.

EMISSIONE E ASSORBIMENTO DI LUCE DA PARTE DELLA MATERIA

LE SUCCESSIONI 1. COS E UNA SUCCESSIONE

EXCEL PER WINDOWS95. sfruttare le potenzialità di calcolo dei personal computer. Essi si basano su un area di lavoro, detta foglio di lavoro,

Gestione dei risultati di stampa 1

TECNICO SUPERIORE PER I RILEVAMENTI TERRITORIALI INFORMATIZZATI

SISTEMI DI NUMERAZIONE E CODICI

Corso di Visione Artificiale. Filtri parte I. Samuel Rota Bulò

GUIDA RAPIDA PER LA COMPILAZIONE DELLA SCHEDA CCNL GUIDA RAPIDA PER LA COMPILAZIONE DELLA SCHEDA CCNL

Lunghezza ocale. Donato Di Bello

la scienza della rappresentazione e della elaborazione dell informazione

Alessandro Pellegrini

LA TRASMISSIONE DELLE INFORMAZIONI QUARTA PARTE 1

matematica probabilmente

Guida alla qualità del colore

Come valutare le caratteristiche aerobiche di ogni singolo atleta sul campo

TERMOGRAFIA. Sono state effettuate ispezioni termografiche in un unica giornata (04/02/2008), gli edifici ispezionati sono:

La distribuzione Normale. La distribuzione Normale

Metodi statistici per le ricerche di mercato

13. Campi vettoriali

Noi vediamo gli oggetti, perché la luce emessa dalla sorgente arriva all oggetto e si diffonde in tutte le direzioni poi la luce che l oggetto

Sommario. Definizione di informatica. Definizione di un calcolatore come esecutore. Gli algoritmi.

LE FUNZIONI A DUE VARIABILI

Uso di base delle funzioni in Microsoft Excel

Calcolo del Valore Attuale Netto (VAN)

Capitolo 13: L offerta dell impresa e il surplus del produttore

SENSORI E TRASDUTTORI

Un po di statistica. Christian Ferrari. Laboratorio di Matematica

Descrizione dettagliata delle attività

Relazioni statistiche: regressione e correlazione

Siamo così arrivati all aritmetica modulare, ma anche a individuare alcuni aspetti di come funziona l aritmetica del calcolatore come vedremo.

7.2 Indagine di Customer Satisfaction

APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI

ANALISI DELLE FREQUENZE: IL TEST CHI 2

Fotografia corso base. Educazione Permanente Treviso. Specifiche digitali. Federico Covre.

Un ripasso di aritmetica: Rappresentazione binaria - operazioni. riporti

INDAGINI TERMOGRAFICHE

Sistema operativo. Sommario. Sistema operativo...1 Browser...1. Convenzioni adottate

3DE Modeling Color. E il modulo che si occupa della costruzione di modelli 3D con tessitura a colori.

SISTEMI di PERSONAL COMPUTER

L osservazione in luce bianca è, per così dire, l osservazione del Sole al naturale ovviamente dopo averne attenuato la fortissima emissione di luce.

CORSO DI FORMAZIONE Dall ottico al radar. Ministero dell Ambiente e della Tutela del Territorio e del Mare Direzione Generale per la Difesa del Suolo

ISTITUTO COMPRENSIVO MONTEGROTTO TERME SCUOLA PRIMARIA DISCIPLINA: MATEMATICA - CLASSE PRIMA OBIETTIVI DI APPRENDIMENTO

Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B. Evento prodotto: Evento in cui si verifica sia A che B ; p(a&b) = p(a) x p(b/a)

Excel. A cura di Luigi Labonia. luigi.lab@libero.it

Elementi di teoria dei segnali /b

Transcript:

Anno Accademico 2002-2003 Prof. StefanoCampana IMAGE PROCESSING INFORMATICA APPLICATA MODULO 1 (SEDE DI GROSSETO) INFORMATICA APPLICATA MODULO AVANZATO LABORATORIO DI INFORMATICA 2

INDICE 1. BREVE STORIA DELLE TECNICHE DI PROCESSAMENTO DELLE IMMAGINI INTRODUZIONE LE IMMAGINI DIGITALI L ELABORAZIONE DIGITALE DELLE IMMAGINI 2. CONCETTI ESSENZIALI COLORIMETRIA IL SISTEMA RGB SPAZI COLORIMETRICI DIVERSI DA RGB LA PERCEZIONE VISIVA 3. LE IMMAGINI DIGITALI INTRODUZIONE ALLA STRUTTURA E AL CONTENUTO DELLE IMMAGINI DIGITALI MONODIMENSIONALI E MULTISPETTRALI IL PROCESSO DI DIGITALIZZAZIONE CAMPIONAMENTO QUANTIZZAZIONE 4. TECNICHE BASE DI ELABORAZIONE DELLE IMMAGINI PRE-ELABORAZIONE CORREZIONE RADIOMETRICA CORREZIONE GEOMETRICA: GEOREFERENZIAZIONE MIGLIORAMENTO DELL IMMAGINE STIRAMENTO LINEARE DELL ISTOGRAMMA STIRAMENTO NON LINEARE DELL ISTOGRAMMA STIRAMENTO GAUSSIANO EQUALIZZAZIONE EQUIDENSITA TECNICHE DI FILTRAGGIO NUMERICO FILTRI PASSA ALTO FILTRI PASSA BASSO FILTRI DIREZIONALI 5. LA STAMPA DELLE IMMAGINI LA TECNICA DELLA MEZZATINTA LE TECNICHE NUMERICHE LA STAMPA DELLE IMMAGINI A COLORI A.A. 2002-2003. IMAGE P ROCESSING 2

APPENDICE: DISPOSITIVI PER L ELABORAZIONE NUMERICA DELLE IMMAGINI DISPOSITIVI DI DIGITALIZZAZIONE STRUMENTI HARDWARE DI VISUALIZZAZIONE ED ELABORAZIONE STRUMENTI SOFTWARE PRINCIPALI FORMATI GRAFICI A.A. 2002-2003. IMAGE P ROCESSING 3

1. BREVE STORIA DELLE TECNICHE DI PROCESSAMENTO DELLE IMMAGINI 1. INTRODUZIONE La definizione che i dizionari riportano per il termine immagine è più o meno la seguente: rappresentazione, imitazione di un oggetto o di una cosa; descrizione grafica o visiva di oggetti o di cose; qualcosa introdotta a rappresentare qualcosa d altro. Ad esempio, la figura alla vostra sinistra è costituita dalla rappresentazione di un particolare di un edificio ottenuto mediante una macchina fotografica. E del tutto banale ed evidente osservare che questa immagine contiene un informazione descrittiva dell oggetto rappresentato. Sin dai graffiti di età preistorica l uomo ha cercato di fissare immagini della realtà o della sua fantasia utilizzando varie tecniche e materiali. I processi di produzione di immagini, almeno in occidente, sono stati quasi esclusivamente manuali, con la sola eccezione della xilografia e della litografia, tecniche semiautomatiche sviluppatesi come conseguenza dell invenzione della stampa. Nella prima metà del secolo scorso la rivoluzionaria tecnica fotografica costituisce la prima vera forma di realizzazione automatica di immagini. L automatismo introdotto dalla fotografia, lo sviluppo parallelo delle tecniche di trasmissione (telegrafo, telefono) e i progressi della tecnologia industriale conducono alla possibilità e alla necessità di elaborare le immagini. Con il termine elaborazione delle immagini ci si riferisce a tutte le operazioni eseguite su un immagine per trasformarla, in modo ad esempio di rendere più agevole l estrazione di informazioni riguardanti gli oggetti in essa contenuti, riprodurla o trasmetterla. Intorno agli anni 20 compaiono semplici forme di elaborazione come la trasmissione di immagini via cavo sottomarino tra Europa e Stati Uniti utilizzando tecnologie di tipo telefonico. I decenni successivi sono contrassegnati, com è noto, da uno sviluppo prodigioso delle tecniche analogiche con sostanziali miglioramenti qualitativi fino alla realizzazione, fra le altre cose, delle tecniche di trasmissione televisiva. Intorno alla metà del XX secolo vengono sviluppate e cominciano a diffondersi le altre due forme automatiche di elaborazione delle immagini: ottica e digitale. A.A. 2002-2003. IMAGE P ROCESSING 4

2. LE IMMAGINI DIGITALI Le immagini sono calssificabili a seconda del metodo con cui esse vengono generate. Si hanno così fotografie, disegni, documenti, dipinti, immagini televisive, ecc. Da tutti i tipi di immagini si possono ottenere le corrispondenti immagini numeriche o digitali generando funzioni f(x,y) che misurano l intensità luminosa nei punti di coordinate x,y dell immagine stessa. Accanto all informazione pittorica, codificata in termini di intensità luminosa nella funzione f(x,y) le immagini posseggono un altro tipo di informazione, estremamente importante e immediatamente percepibile all osservatore umano, le qualità descrittive degli oggetti in esse rappresentati. Il termine qualità descrittive può assumere significati differenti a seconda del tipo di immagine su cui si lavora, infatti con il termine immagine possiamo indicare piani informativi molto diversi tra loro: testi manoscritti carte geografiche disegni radiografie fotografie immagini telerilevate livelli isotermici livelli altimetrici ecc. 3. L ELABORAZIONE DIGITALE DELLE IMMAGINI Il primo vero sviluppo è riferibile agli anni 60 con la diffusione degli elaboratori elettronici. Le prime applicazioni sono relative all analisi delle immagini della terra e dei corpi celesti fornite dai satelliti artificiali (ad esempio, celebre è il caso relativo all individuazione dell area in cui effettuare l allunaggio nel 1969). Negli anni di poco successivi l elaborazione delle immagini si è estesa sostanzialmente a tutti i settori della scienza e delle tecniche: astronomia, medicina, fisica, robotica, biologia, scienze della terra e scienze sociali. In quasi tutti i gli ambienti scientifici si è operato inizialmente con immagini monocromatiche per poi passare successivamente al colore o al multispettrale. La ragione del crescente favore che le tecniche di elaborazione digitale delle immagini hanno incontrato nelle più disparate applicazioni sta nella loro intrinseca flessibilità, precisione e - con particolare riferimento all ultimo decennio - economicità. Se è vero ad esempio che è perfettamente possibile ottenere l ingrandimento di un immagine per via analogica, i sistemi digitali consentono risultati in tempo reale e a costi molto contenuti. Il medesimo principio, come vedremo, è valido per modifiche dell intensità luminosa, combinazioni, variazioni di parametri dell immagine, ecc. A.A. 2002-2003. IMAGE P ROCESSING 5

2. CONCETTI ESSENZIALI 1. COLORIMETRIA La teoria del colore affonda le radici negli esperimenti di Newton, che mise in evidenza che l energia luminosa appare all occhio umano con colori diversi a seconda della lunghezza d onda sulla quale essa viene emessa e diede la possibilità di ottenere i colori dell arcobaleno. Indagini successive portarono altri ricercatori a sostenere che tutti i colori potevano essere ottenuti mediante la sovrapposizioni di tre opportuni colori di base. La prima formulazione coerente di tale teoria è attribuita a Young nel 1820 ma bisognerà attendere fino al 1920 per la dimostrazione quantitativa della teoria (Guild; Wrigth). Nel 1960 viene dimostrata l esistenza di tre diversi ricettori nell occhio umano. Oggi la teoria del tristimolo è ampiamente accettata e il sistema RGB, che ne costituisce la formalizzazione quantitativa, costituisce la base di calcolo per il progetto di terminali video, televisori e telecamere, cioè di tutte le apparecchiature nelle quali si fa uso della sintesi additiva del colore. IL SISTEMA RGB Abbiamo anticipato che il sistema per creare i colori a video si basa sulle stesse proprietà fondamentali della luce che si osservano in natura: è possibile creare tutti i colori utilizzando combinazioni di rosso, verde e blu. Il monitor a colori crea i colori emettendo tre fasci di luce con intensità diverse, illuminando le sostanze fluorescenti rosse, verdi e blu che ricoprono l interno dello schermo del monitor. Quando un rosso appare sullo schermo, il monitor ha acceso il proprio raggio rosso, che eccita i fosfori rossi, illuminando un pixel rosso dello schermo. SPAZI COLORIMETRICI DIVERSI DA RGB Lo spazio RGB è stato sviluppato sulla base delle necessità specifiche della sintesi additiva su terminali grafici e schermi televisivi. Si tratta di un modello di colore e cioè di uno dei modi possibili per tradurre i colori in dati numerici. Degli altri numerosi spazi definiti sulla base di esigenze diverse dalla precedente si ricorderanno qui quelli basati sulla sintesi sottrattiva (CMYK) e sulle proprietà dei colori legati direttamente alla loro percezione da parte dell uomo (l intensità, la saturazione e la tonalità). CMYK Il modello di colore CMYK non si basa sull'aggiunta di luce, ma sulla sua sottrazione. Nel modello RGB, i colori vengono creati aggiungendo luce: il monitor (o un televisore) è la fonte luminosa in grado di creare i colori. Ma una pagina stampata non emette luce: la pagina assorbe e riflette la luce e quindi, quando si vogliono trasferire i colori del monitor su carta, è necessario utilizzare un altro modello di colore, il modello CMYK. Il modello di colore CMYK è la base della stampa in quadricromia ed è utilizzato principalmente per stampare immagini a tono continuo (come le fotografie digitalizzate) su una fotounità. Nella stampa in quadricromia i colori vengono riprodotti su una fotounità usando quattro diverse lastre di stampa: C (cyan), M (magenta), Y (giallo, dall'inglese yellow) e K (nero; il nero è indicato dalla lettera K - in inglese black - in quanto la lettera B potrebbe creare confusione con il blu). A.A. 2002-2003. IMAGE P ROCESSING 6

HSI Anche se i modelli di colore RGB e CMYK sono modelli fondamentali per la grafica computerizzata e la stampa, molti designer e grafici trovano che il dover miscelare i colori utilizzando valori o percentuali di altri colori sia inutilmente complicato. Usare una ruota del colore aiuta, ma né il modello RGB, né il modello CMYK sono molto intuitivi. La mente umana non divide i colori in modelli di rosso/verde/blu o cyan/magenta/giallo/nero; per semplificare quindi questa scelta è stato creato un terzo modello di colore, il modello HSI (Hue/Saturation/Intensity, ovvero tonalità, saturazione e luminosità). L idea di classificare i colori secondo questi concetti appare per la prima volta nel 1810 nel Farbenlehre di Goethe, che la trasse dal mondo degli artisti, abituati appunto a considerare i colori dal punto di vista percettivo. Attraverso varie vicissitudini questa idea porto nel secolo scorso alla definizione di migliaia di colori raccolti nell atlante di Munsell, tuttora molto diffuso in ambienti artistici. Il modello HSI si basa sulla percezione umana dei colori e non tanto sui valori del computer del modello RGB o sulle percentuali di stampa del modello CMYK. L'occhio umano percepisce i colori come componenti di tonalità, saturazione e intensità. Si pensi alla tonalità come ai colori che possono essere visualizzati sulla ruota del colore. Tecnicamente, la tonalità si basa sulla lunghezza d'onda della luce riflessa da un oggetto oppure trasmessa attraverso l'oggetto stesso. La saturazione, detta anche crominanza, è la quantità di grigio presente in un colore: maggiore è la saturazione, minore è il contenuto di grigio e maggiore l'intensità del colore. L intensità luminosa è invece la misura dell'intensità della luce in un colore. Principi analoghi sono alla base di spazi di colori adottati da parte di studiosi di Computer Graphics quali ad esempio HSV (Hue, Saturation, Value) e HLS (Hue, Lightness, Saturation). LAB Il modello di colore Lab nasce dal lavoro della Commission Interationale de l'eclairage, costituita all'inizio del 1900, per cercare di standardizzare la misurazione del colore. La commissione propose un modello di colore basato sulla percezione dell'occhio. Nel 1976, il modello di colore originale è stato perfezionato e rinominato CIE Lab; la sua funzione è quella di fornire colori coerenti, indipendentemente dallo schermo o dalla stampante utilizzati, ovvero di fornire un colore indipendente dalla periferica. Il colore indipendente dalla periferica non risente delle caratteristiche o delle idiosincrasie delle parti hardware. 2. LA PERCEZIONE VISIVA La percezione visiva è il processo che permette al sistema visivo di ottenere informazioni sulla forma, il movimento e il colore del mondo circostante. Il processo visivo inizia con la conversione di pacchetti di energia elettromagnetica, chiamati fotoni o quanti di luce, in segnali nervosi che il cervello è in grado di analizzare. L'occhio contiene due tipi di fotorecettori: i coni e i bastoncelli. Questi ultimi consentono la visione in luce debole, ma sono tanto sensibili che alla normale luce diurna superano la soglia di saturazione, diventando incapaci di trasmettere segnali. I coni consentono la visione alla luce del giorno, in quanto operano efficacemente a elevate intensità luminose, fornendo una visione più ricca di dettagli temporali e spaziali e permettendo una percezione dei colori estremamente precisa. Le lunghezze d'onda elettromagnetiche della luce visibile si collocano approssimativamente tra i 400 e i 750 nanometri (un miliardesimo di metro). Luce di lunghezza d'onda maggiore (prossima all'infrarosso) è scarsamente assorbita dai pigmenti visivi; luce di lunghezza d'onda inferiore (prossima all'ultravioletto) può essere assorbita dai pigmenti visivi, ma non raggiunge la retina perché viene assorbita dalla cornea e dal cristallino. Il picco di maggiore sensibilità spettrale misurata in esperimenti psicofisici nella visione umana è intorno a 560 nanometri regione del colore giallo-verde. A.A. 2002-2003. IMAGE P ROCESSING 7

3. LE IMMAGINI DIGITALI 1. INTRODUZIONE ALLA STRUTTURA E AL CONTENUTO DELLE IMMAGINI DIGITALI MONODIMENSIONALI E MULTISPETTRALI Un immagine digitale consiste nella distribuzione bidimensionale di elementi discreti organizzati per linee e per colonne. L equivalente numerico di una immagine è una matrice nella quale ad ogni elemento, detto pixel (Picture Element), è associato un numero intero positivo, numero digitale o Digital Number (DN), che rappresenta la radianza media misurata sulla cella elementare di risoluzione. I pixel sono in genere quadrati (ma possono essere anche rettangolari o di altre forme) ed ognuno ha una propria posizione definita nel sistema di coordinate dell immagine da una coppia di valori x, y. Con i termini risoluzione spaziale, risoluzione geometrica, risoluzione al suolo, si intende la dimensione dell area rappresentata da un singolo pixel o la capacità di un sistema di distinguere come separati due punti adiacenti. Ad una risoluzione di 1 m x 1 m (relativa ad esempio a un sensore istallato su un satellite) corrisponde un immagine costituita da una griglia che possiamo immaginare sovrapposta alla superficie terrestre interessata i cui pixel misurano l intensità luminosa media della superficie terrestre di 1 m 2. Il medesimo principio vale per un immagine digitale che ritrae in questo caso un soggetto al suolo; la risoluzione sarà però espressa con un unità di superficie più piccola in genere pixel per pollice. La dimensione geometrica dei pixel influisce direttamente sulla riproduzione dei dettagli della scena e costituisce uno dei principali parametri di valutazione di un immagine. A risoluzioni diverse corrispondono potenzialità e obiettivi differenti. La risoluzione è determinata da due fattori, la distanza del sistema di ripresa e le caratteristiche di funzionamento. Oltre che dalla risoluzione geometrica, il segnale digitale è caratterizzato da altri tipi di risoluzione, in particolare radiometrica e spettrale. Con il termine risoluzione radiometrica si intende l energia minima in grado di stimolare l elemento sensibile affinché produca un segnale elettrico rilevabile dall apparecchiatura. Il DN è una grandezza di tipo discreto, ad esempio se per misurare l intensità del segnale elettromagnetico si utilizza un solo bit, è possibile rappresentare solo due livelli di radianza, 0 e 1. In generale le immagini x 0 1 2 3 4 0 15 75 165 183 231 Numero digitale (DN), [222] 1 16 176 65 183 222 y 2 35 16 17 68 211 Colonne 3 87 40 16 12 78 4 156 11 48 15 16 Righe Coordinate del pixel nell immagine (2,3) sono caratterizzate da risoluzione radiometrica di 8 bit che consente di rappresentare 256 livelli di intensità (2 8 = 256), da 0 a 255. Si consideri che ad esempio l ultima generazione di immagini da satellite ad alta risoluzione, Ikonos-2 e Quickbird-2, è caratterizzata da risoluzione radiometrica di 11 bit che corrisponde a 2048 variazioni tonali mentre le immagini MIVIS (scanner aviotrasportato) sono indirizzate a 12 bit cioè 4096 variazioni. A.A. 2002-2003. IMAGE P ROCESSING 8

I vantaggi derivanti dalla maggiore risoluzione radiometrica sono particolarmente evidenti nelle composizioni a colori delle immagini dove l occhio umano è in grado di percepire le più piccole differenze di intensità. Abbiamo visto che i sensori sono costruiti per rispondere in modo lineare alle variazioni di intensità luminosa entro una gamma definita di valori, è però difficile che in una scena siano presenti contemporaneamente tutti i valori. Per conoscere la distribuzione dei valori di radianza di un insieme di dati si utilizza una rappresentazione grafica detta, istogramma di frequenza. Per ogni immagine l istogramma è una funzione che fornisce per ogni numero digitale il numero di pixel aventi un dato valore. Sull asse x sono riportati i DNs e sull asse y la percentuale di ogni valore. L istogramma qualifica l immagine solo in termini statistici senza fornire alcun tipo di informazioni sulla disposizione spaziale dei DNs. Ad un determinato istogramma possono corrispondere più immagini completamente diverse tra loro. La risoluzione spettrale con la quale si intende l intervallo di lunghezze d onda a cui è sensibile un sensore introduce il concetto di multispettralità. La multispettralità consiste nella capacità dei sistemi di ripresa di acquisire la radiazione proveniente dalla scena contemporaneamente su piani informativi diversi definiti bande. La radiazione, utilizzando un sistema di filtri o sensori diversi, viene suddivisa in intervalli più o meno ampi dello spettro elettromagnetico centrati su lunghezze d onda che possono estendersi dall ultravioletto alle microonde. La struttura delle immagini multispettrali è del tutto simile a quanto osservato per le immagini monodimensionali con la differenza che invece di un unica immagine (e quindi un unica matrice) abbiamo n immagini i cui pixel hanno DN differenti registrati nell intervallo energetico predefinito e coordinate comuni. In relazione all istogramma ogni banda di un immagine multispettrale ne ha uno proprio. E però possibile osservare la distribuzione dei DNs di più bande contemporaneamente tramite lo 0 15 x 0 1 2 3 4 Banda 1 1 43 Banda 2 y 2 76 Banda 3 3 4 80 Banda n 255 Numeri digitali DN 0 0 1 2 3 n 4 Bande A.A. 2002-2003. IMAGE P ROCESSING 9

scatterogramma nel quale gli assi x e y rappresentano i DNs delle due immagini considerate mentre l asse z rappresenta la percentuale di pixel cui è associato in una banda il DN 1 e nella seconda il DN 2. 2. IL PROCESSO DI DIGITALIZZAZIONE Con il termine digitalizzazione si intende il processo di conversione attraverso il quale si ottiene un immagine numerica o digitale. Questa operazione in termini di principi generali consiste di due passi consecutivi: il campionamento e la quantizzazione. CAMPIONAMENTO Consiste nel misurare, mediante un opportuno strumento, l intensità luminosa media in ciascuno dei quadratini di una griglia sovrapposta all immagine da digitalizzare. Come abbiamo visto l insieme di tali valori medi, posti come valori medi, rappresentativi della luminosità nel baricentro dei quadratini stessi, rappresenta a tutti gli effetti l equivalente numerico dell immagine digitale. La scelta della griglia di campionamento è in relazione alle dimensioni dei più piccoli dettagli di oggetti di cui si intende conservare traccia nell immagine digitale. La relazione tra dettagli e pixel è che i passi di campionamento dovranno essere in ciascuna direzione uguali alla metà delle corrispondenti dimensioni dei più piccoli oggetti presenti. QUANTIZZAZIONE L operazione consiste nella scelta di un numero di livelli o variazioni di luminosità entro cui rappresentare la matrice numerica dell immagine. Negli elaboratori le immagini vengono rappresentate mediante numeri interi compresi fra 0 e un opportuna potenza di 2 (in genere 28 = 256 livelli). Il numero di livelli di luminosità di una immagine determinano quella proprietà dell immagine che abbiamo già definito come risoluzione radiometrica. A.A. 2002-2003. IMAGE P ROCESSING 10

4. TECNICHE BASE DI ELABORAZIONE DELLE IMMAGINI 1. PRE-ELABORAZIONE I dati acquisiti tramite i diversi sensori utilizzati necessitano prima, di procedere all interpretazione, di una fase detta pre-elaborazione o cosmetica. Le immagini acquisite da satellite, scanner aviotrasportati, camere fotogrammetriche e camere reflex tradizionali sono affette da distorsioni e rumori di varia natura che possono essere rimossi per mezzo di specifiche elaborazioni. Gli errori che rivestono particolare importanza sono quelli geometrici e radiometrici. CORREZIONE RADIOMETRICA Gli errori radiometrici sono causati principalmente dal cattivo funzionamento dei sensori e nel caso delle immagini telerilevate dall influenza dello strato di atmosfera interposto tra il sensore e la scena. Gli effetti connessi a problemi di funzionamento del sensore sono diversi: stripping consiste nella presenza di un effetto regolare di rigatura, dovuto a cause otticomeccaniche del sensore. Questo effetto può essere ridotto mediante l uso dei dati di calibrazione di bordo o con tecniche statistiche; drop line Significa riga saltata, talvolta alcune immagini si presentano con una o più righe di scansione completamente nere dovute di norma a cadute di tensione o perdita del segnale del sistema. Le tecniche utilizzate sono piuttosto semplici, sostituzione delle righe con la precedente, la successiva oppure dalla media dei pixel vicini. I numeri digitali così ottenuti sono del tutto artificiali; diffusione atmosferica Questo fenomeno avviene quando la radiazione interagisce con particelle che hanno dimensioni confrontabili con le lunghezze d onda interessate. In particolare la diffusione di Rayleigh è una delle principali cause dell effetto di foschia rilevabile nelle immagini da satellite, influenzando in modo particolare l intervallo spettrale del blu mentre nel rosso e vicino infrarosso è quasi irrilevante. Tra i metodi che non prevedono misurazioni al suolo vi è la possibilità di far riferimento all istogramma del vicino infrarosso (approssimando il fenomeno di diffusione come trascurabile) e correggere su questo gli istogrammi delle altre bande. Effetto dell angolo del sole Se si intende procedere ad analisi multitemporali o semplicemente mosaicare aree acquisite in momenti diversi è necessario normalizzare tramite un algoritmo disponibile in ogni software GIP i dati rispetto all angolo di illuminazione del sole. Infine si ricorda che in condizioni ideali la risposta dello strumento può essere diversa in presenza di uguali livelli di riflettanza. Ciò comporta la necessità di calibrare i dati ad ogni ciclo di rilevazione. CORREZIONE GEOMETRICA: GEOREFERENZIAZIONE L esigenza di correggere la geometria di un immagine è un problema che riguarda in particolar modo i dati telerilevati. L operazione consiste del passaggio da immagini (ritenute perfette prospettive) a proiezioni ortogonali o altre rappresentazioni piane, confrontabili con i supporti cartografici. Tradizionalmente si distinguono due tipi di aberrazioni, sistematiche e non-sistematiche. Le prime sono facilmente eliminabili utilizzando modelli matematici appositamente sviluppati. Le seconde, casuali, sono sostanzialmente riconducibili a due fattori: L asse di presa del sensore non risulta essere mai perfettamente ortogonale al piano di proiezione corrispondente al piano cartografico. Nell immagine è quindi presente un effetto prospettico deformante; Il territorio e gli oggetti in esso contenuti non sono mai perfettamente piani. A.A. 2002-2003. IMAGE P ROCESSING 11

Questi errori possono essere corretti in modo del tutto soddisfacente con le tecniche sviluppate dalla fotogrammetria. Riducendo le esigenze di precisione, ai fini interpretativi è possibile ottenere risultati di accettabile qualità metrica limitando le operazioni all introduzione di punti di appoggio al suolo ben distribuiti (generalmente detti ground control points GCPs). In questo modo si ottengono dati geometricamente attendibili per determinare la posizione assoluta degli oggetti in essi identificabili e per essere confrontati con altri dati cartografici o telerilevati. L operazione che consente di associare alle coordinate interne dell immagine coppie di coordinate geografiche e correggerne le distorsioni non sistematiche è detta Input - Matrice geometricamente distorta Output - Matrice geometricamente corretta georeferenziazione. Nella pratica per realizzare la trasformazione è necessario associare almeno tre pixel dell'immagine deformata ai corrispondenti sulla matrice di riferimento (cartografia, ortofotocarta, ecc.). In questo modo l immagine assume, mediate dalla base cartografica, le coordinate geografiche di tre punti a terra. I pixel selezionati dovranno appartenere ad oggetti ben identificabili sia sull immagine distorta sia sulla matrice di riferimento. Buoni punti di riferimento sono costituiti soprattutto da incroci di strade, ponti, piccoli corpi idrici, linee di costa stabili, elementi morfologici non modificabili nel tempo. In assenza di migliori soluzioni gli edifici possono costituire punti utili se ad essere presi in considerazione sono gli spigoli al suolo e non tetti o altri elementi sospesi. Dopo aver identificato i GCPs, tutta l'immagine viene deformata in modo da ridistribuire in maniera ottimale i pixel presenti fra quelli di coordinate note. Per fare ciò si costruisce una nuova matrice, ricampionando la precedente e assegnando a ciascun nuovo pixel il valore del pixel più vicino della matrice originaria (nearest neighbour). Così facendo, non si cambia il valore dei pixels, evitando di creare dei valori nuovi che potrebbero rappresentare superfici diverse. Per effettuare questa trasformazione sono stati sviluppati diversi modelli matematici (polinomiale, triangolazione, ecc.) disponibili in gran parte dei pacchetti software presenti sul mercato. Ciò che in realtà ci preme ricordare in questo breve paragrafo, non è tanto il procedimento in se stesso, bensì il sostanziale contributo che la georeferenziazione offre all analisi del dato immagine e alla costruzione e all aggiornamento di sistemi GIS. E noto che i sistemi GIS e GIP permettono di combinare dati telerilevati, sovrapporre cartografie tecniche, tematiche e storiche, rilievi con GPS differenziale, comparare modelli digitali del terreno con livelli di riflettanza, scomporre insomma l intero palinsesto informativo per poi riassemblarlo, sintetizzando le singole informazioni contenute in ogni livello in nuovi dati. Nell analisi del dato, la condizione dell immagine georeferenziata permette la comparazione con n immagini, piani vettoriali, grid, tin o altri dati di qualsivoglia natura. Il presupposto fondamentale per procedere a tutte le operazioni indicate risiede nella corretta georeferenziazione del dato. Le applicazioni più significative sono: correlazione tra immagini analisi multitemporali tra riprese verticali storiche con voli recenti zenitali o obliqui acquisiti a scale diverse e scomposizione delle immagini multispettrali nelle bande che la compongono e osservazione del contenuto su più livelli di informazione. Georeferenziare le immagini è paragonabile alla composizione di un puzzle nel quale mentre si definiscono progressivamente i profili di un singolo oggetto è possibile osservare l intero contesto comprendendone sempre meglio la struttura e il significato generale. E forse questo, tra i sistemi elementari di analisi, il più efficace in archeologia; misurazione misurare gli oggetti consente di passare dal consueto livello di analisi micro di tipo esclusivamente qualitativo a scale territoriali semi-micro e macro ipotizzando relazioni sia A.A. 2002-2003. IMAGE P ROCESSING 12

a c b quantitative sia qualitative tra i features mappati; data fusion sovrapposizione di due o più immagini della stessa area da derivare un unica immagine. mosaicatura unione di più scene di immagini da satellite ad alta risoluzione pertinenti ad un unica area di interesse, realizzazione di ortofotocarte e unione fotogrammi; aggiornamento di sistemi GIS la possibilità di correlare informazioni di vario tipo attraverso logiche flessibili e adattabili a differenti esigenze rappresenta una delle potenzialità principali che si richiede ad un sistema GIS; draping di DEM vestire modelli digitali del terreno risulta utile in fase sia di lettura ed analisi dell immagine sia di divulgazione. 2. MIGLIORAMENTO DELL IMMAGINE Per ottenere risultati soddisfacenti è necessario fare una diagnosi dell immagine, riconoscere gli elementi di disturbo e gli elementi di cui si a b c intende enfatizzare la risposta. Per procedere è indispensabile conoscere l effetto che l applicazione di una tecnica sull immagine produce. Ad esempio se nell immagine siamo interessati ad enfatizzare la visualizzazione di una labile traccia obliqua (a), dopo aver opportunamente agito sull istogramma per enfatizzare il contrasto (b), un ulteriore intervento può essere rappresentato dall applicazione di un filtro direzionale obliquo (c). Sappiamo che questo filtro agisce modificando il valore del pixel in funzione di un intorno da stabilire esaltando solo le variazioni di tono degli elementi con andamento diagonale. L uso di filtri trasforma l immagine fino in alcuni casi a renderla irriconoscibile rispetto all originale. E quindi indispensabile capire ciò che si sta facendo e non procedere solo in base a ciò che l immagine di volta in volta mostra. Bisogna pianificare una strategia di intervento, osservare i risultati e domandarsi perché siamo giunti a questa risposta. Un uso empirico ed affrettato di procedure di elaborazione è azzardato e comporta oltre ad un inutile dispendio di tempo, il rischio concreto di non raggiungere gli obiettivi iniziali. TECNICHE DI MIGLIORAMENTO DEL CONTRASTO Sensori fotografici, scanner e camere digitali, registrano i valori di radianza provenienti da oggetti molto diversi tra loro. Questi dispositivi sono progettati per essere soggetti il meno possibile a effetti di saturazione. Accade però molto spesso che le immagini presentano in fase di visualizzazione una scarsa qualità visiva che da un impressione di piattezza. Ciò trae origine dalla mancanza di contrasto fra le zone a diversa luminosità. I valori effettivi dell intensità luminosa dell immagine occupano un intervallo troppo ristretto rispetto all intera gamma dei valori possibili. A.A. 2002-2003. IMAGE P ROCESSING 13

a c a c b b a c Strech lineare: a) Immagine originale; b) immagine successiva alla trasformazione dell istogramma; c) istogramma: la campitura nera indica la distribuzione originale dei pixels, la linea grigia mostra l avvenuta ridistribuzione dei pixels tra DN 0 e 255. a c Strech lineare: a) Immagine della Figura 6b; b) immagine successiva all eliminazione delle code dell istogramma; c) istogramma: la campitura nera indica la distribuzione dei pixels dell immagine a, la linea grigia mostra il nuovo istogramma. L immagine risulta maggiormente contrastata (a) e l anomalia è ora ben distinguibile b b Dato che il nostro occhio è capace di apprezzare solo da 20 a 30 livelli di grigio se ben separati, è evidente che non riesce a distinguere tutte le sottili variazioni tonali di un immagine soprattutto se distribuite entro un intervallo ristretto. Ciò determina che due superfici con riflettività simile possono venire confuse, mentre non possiamo sfruttare le nostre capacità di riconoscimento di livelli di grigio non presenti nell'immagine. Procedendo ad una opportuna ridistribuzione dei valori dell intensità luminosa è possibile aumentare il contrasto e migliorare sensibilmente la qualità visiva delle immagini. Esistono diverse forme per migliorare il contrasto e la più opportuna può essere determinata solo in funzione dei numeri digitali dell immagine originale e dagli obiettivi da perseguire. La ridistribuzione dei livelli di grigio può essere di tipo lineare nel caso in cui sia condotta secondo un principio di uniformità o di tipo non lineare e quindi non uniforme lungo l intero intervallo. La ridistribuzione dei valori dell istogramma è un operazione alquanto comune e dopo la preelaborazione rappresenta spesso il primo intervento sull immagine. La più semplice elaborazione consiste nell'assegnare il valore 0 al minimo valore presente nella matrice e il valore di 255 a quello massimo; i valori intermedi vengono distribuiti in modo lineare fra questi estremi. Tecnicamente l operazione è definita stiramento lineare dell'istogramma o linear stretching. In alcuni casi è possibile ipotizzare che le superfici a cui siamo interessati siano rappresentate da un più stretto range di valori rispetto a quello che corrisponde all'intera immagine e siano quindi compresse in una ben determinata parte dell'istogramma. Per renderle più facilmente identificabili possiamo stirare solo quella parte, assegnando i valori di 0 e 255 agli estremi del range identificato. I vari livelli di grigio, dal nero al bianco, A.A. 2002-2003. IMAGE P ROCESSING 14

a c a c b b sono utilizzati per rappresentare la superficie di nostro interesse, consentendo di identificare particolari altrimenti confusi in grigi che ai nostri occhi appaiono del tutto simili. Tutto ciò che viene rappresentato dai pixel con valori digitali esterni al a b range selezionato appare ora nero (quelli inferiori) o bianco (quelli superiori). Un'altra strategia è ipotizzare che la distribuzione dei valori sia gaussiana (con un istogramma a campana) e decidere di non utilizzare livelli di grigio per rappresentare parti dell'istogramma corrispondenti a percentuali piuttosto basse di pixel. In questo caso possiamo tagliare le code a c Strech gaussiano (2 deviazioni standard): a) Immagine della Figura 6b; b) si nota un miglioramento nelle porzioni estreme (zona boschiva) a detrimento dei valori di grigio intermedi; c) nell istogramma risultante (linea grigia) la frequenza dei valori mostra una maggiore espansione nelle code. a c Equalizzazione: a) Immagine della Figura precedente; b) si ottiene una migliore leggibilità dell'immagine nei grigi medi a detrimento dei valori di luminosità nelle due code; c) nell istogramma risultante (linea grigia) la frequenza dei valori tende ad essere costante con picchi isolati nelle code. b dell'istogramma, escludendo percentuali ben definite di pixel. In questa operazione si fa spesso ricorso al calcolo della deviazione standard e si tagliano le code esterne a range definiti da: media ± 1, 2 o 3 deviazioni standard. In queste operazioni non tutti i 256 livelli di grigio verranno utilizzati, ma si creeranno dei buchi nell'istogramma che solo gli stretch esasperati consentiranno di apprezzare. A volte può essere conveniente stirare l'istogramma in modo non lineare, dedicando più livelli di grigio a quella parte dell'istogramma nella quale si addensano la maggior parte dei pixel e un numero ridotto di livelli di grigio a quelle parti (code o tratti centrali in distribuzioni con due o più picchi) in cui si addensano pochi pixel. In genere si giunge ad una rappresentazione in cui ogni livello di grigio viene ugualmente rappresentato detta appunto equalizzazione. In questo caso si continueranno ad utilizzare tutti e 256 i livelli disponibili. Un ulteriore possibilità di agire sull istogramma consiste nell equidensità (density slicing). In questo caso l istogramma viene diviso in fette e lo stesso valore digitale viene attribuito a tutti i pixel compresi in uno stesso range di luminosità. In genere le fette hanno dimensioni omogenee, ma casi specifici possono suggerire divisioni diverse. La scelta degli intervalli è condizionata dalla forma dell istogramma o da altri elementi determinati dall operatore. A.A. 2002-2003. IMAGE P ROCESSING 15

Questa tecnica, utilizzata ampiamente per la suddivisione in livelli isotermici delle immagini termiche, può risultare interessante se applicata ad immagini pancromatiche o multispettrali, per mettere in evidenza forti differenze di grigio, riducendo il rumore causato dalle variazioni intermedie. 2 4 8 16 64 128 Esempio di slicing su 2, 4, 8, 16, 64, 128 livelli a partire da una immagine alla quale è stato stirato l istogramma su 256 livelli. Risulta evidente come il nostro occhio è in grado di distinguere non più di una ventina di livelli di grigio. Già a partire da 16 livelli le differenze con l immagine a 128 o a 256 livelli (si vedano le precedenti immagini origini) risultano impercettibili. A.A. 2002-2003. IMAGE P ROCESSING 16

3.TECNICHE DI FILTRAGGIO NUMERICO I filtri digitali sono operatori locali di convoluzione che permettono di estrarre dalle immagini elementi caratteristici di interesse. Per operatore locale si intende quando il risultato della sua applicazione ad un pixel dipende solamente dal valore di pixel appartenenti ad un suo intorno ed eventualmente dal valore del pixel stesso. In una operazione di convoluzione si sostituisce il valore del pixel con il risultato di una o più operazioni elementari eseguite sull elemento stesso e sugli elementi del suo intorno. Tutti gli elementi considerati vengono moltiplicati per dei coefficienti dipendenti dal tipo di operazione che si vuole svolgere. Gli intorni che saranno discussi sono di tipo quadrato 3x3. I coefficienti dell operazione eseguita sul generico pixel P e sul suo intorno sono organizzati in forma di matrice che prende il nome di nucleo della convoluzione. Questo viene centrato su ciascun elemento dell immagine ed ognuno dei pixel vicini viene moltiplicato per il coefficiente corrispondente. Il nuovo valore del pixel P è calcolato sulla base del suo nuovo intorno tramite l operazione definita allo scopo della convoluzione. Il risultato è una nuova immagine con le stesse dimensioni dell immagine di partenza. -1-1 -1-1 20-1 -1-1 -1 18 25 58 190 100 18 25 58 190 100 19 80 55 78 92 32 22 42 65 56 38 10 33 20 41 25 5 18 16 15 19 111 55 78 92 32 22 42 65 56 38 10 33 20 41 25 5 18 16 15 P = (-1*18)+(-1*25)+(-1*58)+(-1*19)+ (20*80)+(-1*55)+(-1*32)+(-1*22) +(-1*42) 20 + (-1*8) Esemplificazione della convoluzione digitale (filtro passa alto con valore centrale 20). Ciascun pixel dell immagine filtrata è ottenuto come media normalizzata dei pixel di un intorno dato, con i pesi forniti dalla somma dei valori della matrice. I filtri discussi possono essere ricondotti a due tipi fondamentali: passa alto, passa basso. In una immagine è possibile riconoscere variazioni di luminosità a bassa e ad alta frequenza. Le prime sono associate al passaggio fra elementi di grandi dimensioni (ad esempio un terreno arato), mentre le seconde derivano spesso da variazioni presenti all'interno di ciascun elemento (fra i singoli alberi o fra i solchi dell'aratura). In una linea di scansione le variazioni ad alta frequenza si sommano a quelle a bassa frequenze e lo stesso avviene in ogni direzione della matrice. Può essere a volte utile separare l'informazione associata a ciascuna frequenza, per meglio evidenziare elementi presenti nella scena. La variazione ad alta frequenza può ad esempio distogliere l'attenzione dell'osservatore e non consentirgli di riconoscere grandi variazioni tonali presenti nella scena, associabili ad elementi di interesse. Oppure, in aree con livelli di grigio più o meno simili è difficile distinguere piccole variazioni di luminosità, che potrebbero consentire l'identificazione di forme interessanti. A.A. 2002-2003. IMAGE P ROCESSING 17

Vi sono delle elaborazioni, applicazione di filtri passa basso e passa alto, che consentono di estrarre dall'immagine le componenti a bassa e ad alta frequenza, producendo poi delle nuove immagini. Nel primo caso si procede sostituendo a ciascun pixel dell'immagine un nuovo valore dato dalla media -1-1 -1-1 9-1 -1-1 -1-1 -1-1 -1 14-1 -1-1 -1-1 -1-1 -1 1-1 -1-1 -1 1 1 1 0 0 0-1 -1-1 1 0-1 1 0-1 1 0-1 Esempi di filtri 3x3: a) immagine originale stretcciata; b) filtro passa alto con valore centrale 9 e c) con valore centrale 14 (aumentando il valore centrale si riduce l'effetto del filtro); d) filtro passa basso; e) direzionale x; f) direzionale y calcolata. Tutti i nuovi valori formeranno l'immagine della componente a bassa frequenza che di fatto sarà una immagine sfocata (tanto più quanto più grande sarà la finestra), nella quale l'occhio percepirà meglio le forme di grandi dimensioni che verranno ad avere livelli di grigio più uniformi. Sottraendo all'immagine A.A. 2002-2003. IMAGE P ROCESSING 18

originale quella ottenuta applicando il filtro passa basso si ottiene la componente ad alta frequenza. Altrimenti si può attribuire a ciascun pixel un nuovo valore che deriverà dalla differenza fra il pixel centrale moltiplicato per il numero dei pixel della finestra meno 1 e la somma di tutti gli altri pixel. I filtri passa alto si prestano ad un esigenza che si presenta molto spesso nell analisi di immagini, l identificazione di bordi delle regioni di confine tra oggetti differenti rappresentatati nelle immagini. Questi operatori detti direzionali o edge detection quando incontrano una zona con lo stesso livello di grigio, indipendentemente dal suo valore, restituiscono come risultato dell'operazione 0, mentre nelle zone di transizione, in genere i bordi degli oggetti, risulteranno dei valori non nulli. Applicando poi un stretch lineare è possibile mettere in evidenza i pixel di margine. Costruendo dei filtri in cui vi sia una linea di zero, disposta in qualsiasi direzione, con da un lato valori positivi e dall'altro valori negativi (spesso ma non necessariamente + 1 e -1) si ottiene il risultato di esaltare solo le variazioni tonali parallele alla linea degli zero. A.A. 2002-2003. IMAGE P ROCESSING 19

5. LA STAMPA DELLE IMMAGINI 1. LA TECNICA DELLE MEZZETINTE Le immagini create o modificate con le tecniche di elaborazione digitale possono anche essere splendide, tuttavia l'intera opera di progettazione e di perfezionamento dell'immagine potrebbe rivelarsi inutile se il risultato finale stampato (o prodotto in maniera diversa) non corrispondesse a quanto visualizzato sullo schermo. Per ottenere immagini stampate nitide e vive, è necessario capire a fondo come queste vengono prodotte e come la calibrazione del sistema influenza la qualità dell'output. Quando l'immagine viene inviata a una macchina a stampa, è composta da molti puntini chiamati mezzetinte. Le dimensioni e la forma di questi puntini nonché l'angolo con cui vengono stampati creano l'illusione visiva di grigi o colori continui. Nella stampa tradizionale, le mezzetinte vengono create collocando un vetro o un retino contenente una griglia di punti tra l'immagine e la pellicola o la carta negativa su cui viene stampata l'immagine. Questo processo fotomeccanico ricrea l'immagine sotto forma di un pattern di punti. Le aree scure presentano punti più grandi, mentre quelle chiare hanno punti più piccoli. Nell'editoria a colori, il processo tradizionale a mezzetinte utilizza retini cyan, magenta, gialli e neri. Nel processo di stampa, la carta viene stampata con pattern di punti cyan, magenta, giallo e nero di diverse dimensioni per creare l'illusione di un'infinità di colori. Osservando con attenzione un'immagine a colori stampata attraverso una lente di ingrandimento, sarà possibile notare i pattern di punti di diversi colori e dimensioni. Come nella stampa tradizionale, anche le immagini digitali inviate a una stampante o a una fotounità vengono separate in punti di retino. Il dispositivo di output crea i punti di retino attivando o disattivando gruppi di puntini, i pixel. Se il dispositivo di output è una fotounità, questo dispositivo potrà produrre l'immagine sia su carta, sia su pellicola. Una fotounità che produca un output con una risoluzione di 2.450 dpi crea oltre sei milioni di punti per pollice quadrato. A 300 dpi, una normale stampante laser crea immagini a 90.000 punti per pollice quadrato. Maggiore è il numero di punti presenti in un'immagine, più alta è la risoluzione e migliore è la qualità di stampa. E importante ricordare che questi pixel non sono i punti di retino. Nel processo di stampa, i pixel sono organizzati in un sistema di celle ed è proprio entro queste celle che vengono creati i punti di retino. Per esempio, i punti creati a partire da una fotounità da 1.200 dpi possono essere divisi in 100 celle per pollice. Attivando e disattivando i pixel all'interno di ciascuna cella, la stampante o la fotounità creano un punto di retino. Il numero di punti di retino per pollice viene definito frequenza del retino, retinatura o retino e viene misurato in righe per pollice (lpi). Un retino ad alta frequenza, come 150 lpi, pone i punti gli uni molto vicino agli altri, producendo immagini più nitide e colori distinti. Quando la frequenza del retino è bassa, i punti di retino vengono sparpagliati e si ottengono immagini meno raffinate con colori meno distinti. 2. LE TECNICHE NUMERICHE Lo sviluppo delle stampanti collegate agli elaboratori elettronici ha portato allo studio di diverse tecniche che riproducono in ambito digitale l'operazione di retinatura ottica descritta nel paragrafo precedente. Per analogia con tale procedimento le tecniche suddette vengono denominate retinatura numerica e possono essere divise in due grandi gruppi a seconda che generino tessiture regolari o irregolari nell'immagine a mezzatinta. Le tecniche di retinatura numerica consistono nel confrontare ciascun pixel dell'immagine in esame con il corrispondente pixel di un'immagine di riferimento delle stesse dimensioni, che, sempre per analogia con quanto sopra esposto, si chiama retino numerico e la cui costruzione verrà specificata nel seguito. Il risultato di tale confronto è costituito da un'immagine binaria a valori zero o uno a seconda che il livello di A.A. 2002-2003. IMAGE P ROCESSING 20

grigio dell'immagine in esame sia superiore o inferiore a quello dei retino. L'immagine binaria viene inviata alle stampanti sopra menzionate, che pongono un punto elementare in corrispondenza di ciascun pixel con valore uno. Le tecniche di retinatura numerica non vengono adoperate soltanto per preparare le immagini da stampare, ma anche per visualizzare le immagini digitali sui terminali monocromatici e a colori in tutti quei casi in cui il terminale stesso possiede un numero estremamente limitato di livelli. L'interesse in questo secondo caso è tuttavia sempre minore dal momento che grazie allo sviluppo tecnologico sono ormai disponibili a costi molto bassi terminali a colori dotati di un elevato numero di tonalità. 3. LA STAMPA DELLE IMMAGINI A COLORI Lo sviluppo di stampanti digitali affidabili e di costo ragionevole costituisce una realtà degli ultimi anni. Ciò è stato reso possibile dall'attenzione che gli specialisti di informatica hanno dedicato negli ultimi vent anni ai problemi della stampa a colori, familiari all'ambiente editoriale dove sono stati risolti combinando esperienza pratica, tecnologia, gusto e controlli quantitativi. L obiettivo era di razionalizzare tutto questo patrimonio allo scopo di portare a una produzione automatica o semiautomatica di immagini a colori stampate sotto il controllo dell'elaboratore. A differenza di quel che succede per la restituzione sui terminali, la stampa delle immagini a colori è basata sulla sintesi sottrattiva. La ragione di tale termine sta nel fatto che, utilizzando inchiostri colorati, si effettua una sottrazione di radiazione dal mezzo adoperato, il foglio di carta bianca, il quale, per sua natura, riflette tutta la radiazione incidente. Come la sintesi additiva veniva realizzata utilizzando i tre colori primari RGB, così la sintesi sottrattiva è basata sull'uso dei tre primari CMY, ossia ciano, magenta e giallo. Se nella realtà tutto funzionasse secondo questo modello ideale, la stampa di un'immagine a colori di cui si possedessero le bande RGB non presenterebbe grandi problemi: occorrerebbe infatti determinare nella semplice maniera sopra descritta le tre bande CMY retinarle separatamente e quindi stampare le tre immagini binarie ottenute utilizzando i tre diversi inchiostri. Purtroppo gli inchiostri disponibili in pratica non si comportano affatto come i tre primari ideali. Per esempio, l'inchiostro giallo non rimuove soltanto la radiazione blu ma anche parte di quella verde e di quella rossa; la stessa circostanza si ripete per gli inchiostri ciano e magenta. Di conseguenza lo spazio di colori della sintesi sottrattiva viene a essere rappresentato da un complicato poliedro contenuto all'interno del cubo RGB, e non è possibile stampare i colori che si trovano all'esterno del poliedro stesso. La conseguenza più importante resta comunque quella concernente le relazioni fra le bande CMY e quelle RGB che risultano essere ben più complesse della semplice relazione di complementarietà sopra ipotizzata. Tali relazioni risultano essere non lineari e vanno determinate mediante un laborioso procedimento sperimentale molto simile a quello sopra ricordato per la determinazione della curva di trasferimento delle stampanti reali monocromatiche. La prima operazione da effettuare è quella di preparare sulla stampante una scala di colori ottenuti mescolando in quantità variabile i tre primari. Si procede quindi a digitalizzare tale scala mediante uno strumento di acquisizione, che fornisce le coordinate dei singoli colori della scala nello spazio RGB; si inverte quindi la tabella così ottenuta calcolando una nuova tabella che permette di passare dallo spazio RGB a quello CMY. E tuttavia ben noto dall'esperienza sviluppata nell'industria editoriale che le immagini a colori stampate a partire dalle tre bande CMY non presentano una qualità del tutto soddisfacente essendo caratterizzate da un basso contrasto. L'esperienza ha inoltre dimostrato che tale circostanza è in relazione al fatto che la miscela dei tre inchiostri non dà il colore nero, ma una tinta grigiastra. La logica conclusione cui queste osservazioni portano è che si rende necessaria una quarta banda: quella nera, il che realizza quella che è definita stampa in quadricromia. La banda nera, che viene indicata con l'espressione contenuto acromatico dell'immagine, può essere determinata in vari modi il più semplice dei quali consiste nell'assegnarle il valore minimo fra quelli delle coordinate RGB. Ciò fatto si calcolano delle nuove bande RGB sottraendo dalle originarie tale valore minimo: dalle bande così ottenute si possono finalmente determinare le bande CMY. A.A. 2002-2003. IMAGE P ROCESSING 21