UNIVERSITÀ DEGLI STUDI DI NAPOLI“PARTHENOPE”FACOLTÀ DI SCIENZE E TECNOLOGIECorso di laurea inSCIENZE NAUTICHETESI DI LAURE...
IndiceINTRODUZIONE 1CAPITOLO 1TELERILEVAMENTO: PRINCIPI BASE1.1 - CENNI STORICI 31.2 - PRINCIPI FISICI 51.2.1 - GRANDEZZE ...
Indice2.3.2.1 - MODELLO GEOMETRICO ORBITALE 512.3.2.2 - GEOREFERENZIAZIONE 522.3.2.3 - ORTORETTIFICA DI UN’IMMAGINE DIGITA...
Indice4.2 - DATI UTILIZZATI 944.3 - APPLICAZIONE DI ECOGNITION®964.3.1 - 1aFASE: SEGMENTAZIONE 964.3.2 - 2aFASE: SCELTA DE...
IntroduzioneNel telerilevamento si fa uso di strumenti, o sensori, in grado di “catturare” le relazionispaziali e spettral...
IntroduzioneLo scopo di questo lavoro è quello di sperimentare una tecnica di estrazione semi-automatica di oggetti (fonda...
Capitolo 1TELERILEVAMENTO: PRINCIPI BASE1.1 - CENNI STORICIIl termine telerilevamento deriva dall’unione della parola grec...
Capitolo 1 Telerilevamento: principi basestoria ad avere la capacità di “raccogliere” su di un supporto sensibile le infor...
Capitolo 1 Telerilevamento: principi baseprese dallo spazio la circumnavigazione del globo. I sensori che acquisivano imma...
Capitolo 1 Telerilevamento: principi basestanza e successivamente invia un segnale ad un processore (il cervello) che lo e...
Capitolo 1 Telerilevamento: principi baseLa radiazione EM è un fenomeno ondulatorio dovuto alla contemporanea propagazione...
Capitolo 1 Telerilevamento: principi base• L = Radianza (radiance) [(Watt/m2)/sr]: è il flusso radiante emesso da una sorg...
Capitolo 1 Telerilevamento: principi basedetto “campo dell’invisibile”. Le singole parti dello spettro visibile sono perce...
Capitolo 1 Telerilevamento: principi base• Et = Energia trasmessa dalla superficie SFigura 1.2.4 - Composizione dell’energ...
Capitolo 1 Telerilevamento: principi baseluce rossa e blu: in questo caso la superficie illuminata con luce bianca, appari...
Capitolo 1 Telerilevamento: principi basederà sicuramente tipologie differenti di materiali (nel caso della foresta divers...
Capitolo 1 Telerilevamento: principi baseanalizzare mediante calcolatori. Un’immagine così registrata è in effetti un insi...
Capitolo 1 Telerilevamento: principi baseFigura 1.3.2 - Immagine a 8 bit con un ingrandimento chene mostra la struttura in...
Capitolo 1 Telerilevamento: principi basePer ogni immagine in formato digitale si può estrapolare un istogramma che rappre...
Capitolo 1 Telerilevamento: principi baseUn’immagine digitale è sempre monocromatica; difatti anche le usuali immagini a c...
Capitolo 1 Telerilevamento: principi base1 23 4Figura 1.3.5 - Le quattro bande di una scenamultispettrale IKONOS (1 = Blu;...
Capitolo 1 Telerilevamento: principi base1. Band Sequential (BSQ): le bande sono memorizzate in sequenza nel loro ordine n...
Capitolo 1 Telerilevamento: principi base3. Band Interleaved by Line (BIL): è simile al formato BSQ ma la priorità di sequ...
Capitolo 1 Telerilevamento: principi basetegia di missione e può essere semplicemente ridotta ad un sottosistema TTC confu...
Capitolo 1 Telerilevamento: principi base• Risoluzione geometrica (o spaziale): è la distanza minima entro la quale il sen...
Capitolo 1 Telerilevamento: principi baseDefiniamo allora l’IFOV (Instantaneous Field of View - Campo di Vista Istantaneo)...
Capitolo 1 Telerilevamento: principi base• Risoluzione spettrale: è data dalla larghezza della banda (intervallo di lunghe...
Capitolo 1 Telerilevamento: principi baseFigura 1.3.9 - Struttura del Segmento TerrestreCi sono fondamentalmente tre manie...
Capitolo 1 Telerilevamento: principi baseB. Se A non è verificato, i dati possono essere registrati a bordo del satellite ...
Capitolo 1 Telerilevamento: principi base- Multispettrale, costituito da un numero limitato di rivelatori, ognuno dei qual...
Capitolo 1 Telerilevamento: principi baseFigura 1.3.10 - Schema dimostrativo di una camera fotograficaI sensori fotografic...
Capitolo 1 Telerilevamento: principi base• costi contenuti;• potenze impegnate relativamente basse.La camera di gran lunga...
Capitolo 1 Telerilevamento: principi baseLa maggior parte di queste camere montano obiettivi con focale 150 mm (in alcune ...
Capitolo 1 Telerilevamento: principi base- SENSORI A SCANSIONESono sensori d’immagine di tipo ottico. La modalità di scans...
Capitolo 1 Telerilevamento: principi baseLa radiazione intercettata viene inviata ad un sistema ottico che la focalizza su...
Capitolo 1 Telerilevamento: principi baseFigura 1.3.15 - Sistema di scansione multispettrale pushbroom1.3.4 - PRINCIPALI P...
Capitolo 1 Telerilevamento: principi baseMSS (MultiSpectral Scanner) Landsat 1, 2, 3, 4, 5Risoluzione spettraleBanda Lungh...
Capitolo 1 Telerilevamento: principi baseTM (Thematic Mapper) Landsat 4, 5Risoluzione spettraleBanda lunghezza donda (μm)1...
Capitolo 1 Telerilevamento: principi base1.3.4.2 - MISSIONI SPOTSatellite in orbita dal al sensori22 febbraio1986 31 dicem...
Capitolo 1 Telerilevamento: principi baseHRVIR (High Risoluzione Visible Infrared) (S) SPOT 4Risoluzione spettraleBanda lu...
Capitolo 1 Telerilevamento: principi base1.3.4.3 - MISSIONI IKONOSSatellite in orbita dal al sensori---pianificato 1999: l...
Capitolo 1 Telerilevamento: principi base1.3.4.5 - MISSIONI EROSSatellite in orbita dal al sensoriS5 Dicembre 2000 Operati...
Capitolo 2ELABORAZIONE ED INTERPRETAZIONE DELLE IMMAGINI2.1 - INTRODUZIONESe è vero che le tecniche di acquisizione d’imma...
Capitolo 2 Elaborazione ed interpretazione delle immaginiterpretazione di tipo agrario identificando anche su un singolo f...
Capitolo 2 Elaborazione ed interpretazione delle immaginipossibile la conoscenza dei parametri orbitali e di assetto dello...
Capitolo 2 Elaborazione ed interpretazione delle immaginitrattamento che precede sempre la cessione dell’immagine all’acqu...
Capitolo 2 Elaborazione ed interpretazione delle immaginire con il valore effettivo della grandezza acquisita in quella po...
Capitolo 2 Elaborazione ed interpretazione delle immagini- sostituire l’intera linea con quella precedente o con quella su...
Capitolo 2 Elaborazione ed interpretazione delle immaginiL’effetto può essere ridotto rielaborando a posteriori i dati acq...
Capitolo 2 Elaborazione ed interpretazione delle immagini9ta nei parametri di pre-lancio, tali valori variano col tempo ( ...
Capitolo 2 Elaborazione ed interpretazione delle immaginie. Correzione atmosfericaLa radianza viene attribuita in prima ap...
Capitolo 2 Elaborazione ed interpretazione delle immagini2.3.2 - CORREZIONI GEOMETRICHEI dati acquisiti sono affetti anche...
Capitolo 2 Elaborazione ed interpretazione delle immaginimeccanici a specchio oscillante che possono presentare più rileva...
Capitolo 2 Elaborazione ed interpretazione delle immaginiFigura 2.3.7 - In alto una scena satellitare corretta dall’effett...
Capitolo 2 Elaborazione ed interpretazione delle immagini2.3.2.1 - MODELLO GEOMETRICO ORBITALEFigura 2.3.8b - Angoli di as...
Capitolo 2 Elaborazione ed interpretazione delle immaginiSui satelliti di nuova generazione si utilizzano equipaggiamenti ...
Capitolo 2 Elaborazione ed interpretazione delle immagini( )( )cos sinsin cosx xy yx ax by c xλ ρ yλ ρ γ ty dx ey f xλ ρ y...
Capitolo 2 Elaborazione ed interpretazione delle immaginiIn fotogrammetria classica si procede per ortofotoproiezione: l’i...
Capitolo 2 Elaborazione ed interpretazione delle immagininell’ambito della fotogrammetria e più in generale della rapprese...
Capitolo 2 Elaborazione ed interpretazione delle immaginina satellitare sono più complesse delle equazioni di collinearità...
Capitolo 2 Elaborazione ed interpretazione delle immagini- BilinearIl valore DN assegnato al nuovo pixel viene calcolato m...
Capitolo 2 Elaborazione ed interpretazione delle immaginiFigura 2.4.2 - Ricampionamento Cubic Convolution: A = Ma-trice de...
Capitolo 2 Elaborazione ed interpretazione delle immaginil’interpretazione dei dati. L’attuazione di tali procedure è poss...
Capitolo 2 Elaborazione ed interpretazione delle immaginirio alla ricerca per esempio di sostanze o di scarichi sottomarin...
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate
Upcoming SlideShare
Loading in...5
×

S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

624

Published on

Published in: Education
0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total Views
624
On Slideshare
0
From Embeds
0
Number of Embeds
0
Actions
Shares
0
Downloads
13
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

  1. 1. UNIVERSITÀ DEGLI STUDI DI NAPOLI“PARTHENOPE”FACOLTÀ DI SCIENZE E TECNOLOGIECorso di laurea inSCIENZE NAUTICHETESI DI LAUREAESTRAZIONE AUTOMATICA DI ELEMENTI PERL’AGGIORNAMENTO CARTOGRAFICO DAIMMAGINI TELERILEVATERelatori CandidatoChiar. Prof. Raffaele Santamaria Sebastiano AckermannMatr. SN/599Chiar. Prof. Salvatore TroisiAnno Accademico 2005/2006
  2. 2. IndiceINTRODUZIONE 1CAPITOLO 1TELERILEVAMENTO: PRINCIPI BASE1.1 - CENNI STORICI 31.2 - PRINCIPI FISICI 51.2.1 - GRANDEZZE RADIOMETRICHE 51.2.2 - LO SPETTRO ELETTROMAGNETICO 81.2.3 - FIRMA SPETTRALE 91.3 - SATELLITI PER IL TELERILEVAMENTO, SENSORI E DATI 121.3.1 - MEMORIZZAZIONE E VISUALIZZAZIONE DI IMMAGINI DIGITALI 121.3.2 - TELERILEVAMENTO SATELLITARE: IL SISTEMA DI OSSERVAZIONEDELLA TERRA 191.3.2.1 - IL BUS 191.3.2.2 - IL PAYLOAD 201.3.2.3 - SEGMENTO TERRESTRE 231.3.3 - CLASSIFICAZIONE TECNOLOGICA DEI SENSORI 251.3.3.1 - SENSORI OTTICI D’IMMAGINE 261.3.4 - PRINCIPALI PIATTAFORME IN USO PER IL TELERILEVAMENTO 321.3.4.1 - MISSIONI LANDSAT 321.3.4.2 - MISSIONI SPOT 351.3.4.3 - MISSIONI IKONOS 371.3.4.4 - MISSIONI QUICKBIRD 371.3.4.5 - MISSIONI EROS 38CAPITOLO 2ELABORAZIONE ED INTERPRETAZIONE DELLE IMMAGINI2.1 - INTRODUZIONE 392.2 - L’IMMAGINE RASTER (IL DATO) 392.3 - PROCEDURE POST-ACQUISIZIONE 412.3.1 - CORREZIONI RADIOMETRICHE 422.3.2 - CORREZIONI GEOMETRICHE 48I
  3. 3. Indice2.3.2.1 - MODELLO GEOMETRICO ORBITALE 512.3.2.2 - GEOREFERENZIAZIONE 522.3.2.3 - ORTORETTIFICA DI UN’IMMAGINE DIGITALE 532.4 - IL RICAMPIONAMENTO 562.5 - ELABORAZIONE ED INTERPRETAZIONE DELLE IMMAGINI 582.5.1 - POSSIBILI VISUALIZZAZIONI DELL’IMMAGINE SU SCHERMO 592.5.2 - MIGLIORAMENTO DEI CONTRASTI MEDIANTE ELABORAZIONI SULLEBANDE 612.5.2.1 - IL CONCETTO DI CONTRASTO 612.5.2.2 - CONTRAST STRETCHING 612.5.2.3 - I FILTRI MEDIANTE FINESTRE MOBILI 632.5.2.4 - OPERAZIONI ALGEBRICHE TRA BANDE 662.5.2.5 - ANALISI DELLE COMPONENTI PRINCIPALI 67CAPITOLO 3SEGMENTAZIONE OBJECT-ORIENTED: IL SOFTWAREECOGNITION®3.1 - INTRODUZIONE 723.2 - LA SEGMENTAZIONE 733.3 - IL SOFTWARE ECOGNITION®753.3.1 - PRINCIPI BASE DI FUNZIONAMENTO 753.3.2 - CARICAMENTO DELLE IMMAGINI 773.3.3 - MULTIRESOLUTION SEGMENTATION 793.3.3.1 - LIVELLI DI SEGMENTAZIONE CORRELATI 813.3.4 - CLASSIFICAZIONE 833.3.4.1 - NEAREST NEIGHBOR E STANDARD NEAREST NEIGHBOR 843.3.4.2 - LA LOGICA FUZZY 853.3.4.3 - CREAZIONE DELLE CLASSI 883.3.5 - LA VETTORIALIZZAZIONE DEGLI OGGETTI IMMAGINE 91CAPITOLO 4APPLICAZIONE DI ECOGNITION®PER AGGIORNAMENTOCARTOGRAFICO: METODOLOGIE A CONFRONTO4.1 - INTRODUZIONE 94II
  4. 4. Indice4.2 - DATI UTILIZZATI 944.3 - APPLICAZIONE DI ECOGNITION®964.3.1 - 1aFASE: SEGMENTAZIONE 964.3.2 - 2aFASE: SCELTA DELLE FEATURES E CLASSIFICAZIONE 974.3.3 - 3aFASE: CONFRONTO CON CARTOGRAFIE PRECEDENTI E SEGNALA-ZIONE AUTOMATICA DI “MAN-MADE OBJECTS” 1034.4 - UN METODO ALTERNATIVO DI CHANGE DETECTIONMEDIANTE CONFRONTO TRA IMMAGINI DI EPOCHEDIFFERENTI 1104.5 - CONCLUSIONI FINALI ED IPOTESI DI MIGLIORAMENTO 111BIBLIOGRAFIA 113RINGRAZIAMENTI 117III
  5. 5. IntroduzioneNel telerilevamento si fa uso di strumenti, o sensori, in grado di “catturare” le relazionispaziali e spettrali di elementi osservabili tipicamente dall’alto. Tutti noi siamo abituati aguardare e ad esplorare il nostro pianeta, o meglio ciò che ci circonda, da un punto di vistapiù o meno orizzontale vivendo sulla superficie del pianeta stesso: la limitazione dovuta allalinea dell’orizzonte e ancor di più alla presenza di oggetti “ostacoli” quali edifici, alberi e lastessa morfologia variabile del pianeta, fa si che la nostra vista sia ristretta a piccole aree. Ta-le limite tende a diminuire nel momento in cui il punto di vista di un osservatore si eleva inquota: osservando a 360° dalla cima di un grattacielo o di una montagna, la nostra visualeaumenta si ampia notevolmente. Ma se prima il telerilevamento veniva inteso come un insie-me di tecniche capaci di estendere e migliorare le capacità percettive dell’occhio umano, oggitale definizione sarebbe quasi inaccettabile: le moderne tecniche di tale disciplina, grazie an-che all’immissione graduale nello spazio di satelliti artificiali orbitanti attorno alla Terra, avu-tasi a partire dalla seconda metà del secolo scorso (fu l’avvento dello Sputnik nel 1957 difattia rendere possibile il montaggio delle prime macchine da presa su navicelle spaziali), hannoampliato il campo di indagine ben oltre le informazioni legate allo spettro elettromagnetico.Oggi il telerilevamento, grazie all’esistenza di una grande quantità di strumenti, che si diffe-renziano a seconda del loro utilizzo, ha rivoluzionato tutte quelle discipline che fanno partedelle scienze della Terra, comprendendo tecniche di analisi della radiazione elettromagneticae dei campi di forze finalizzate ad acquisire ed interpretare dati geospaziali presenti sulla su-perficie terrestre, negli oceani e nell’atmosfera [www.geotecnologie.unisi.it].L’applicazione del satellite al telerilevamento del territorio in particolare, e il progressoche ha portato al perfezionamento di sensori a più alte risoluzioni e di diverse tipologie, statrovando spazio anche per alcune applicazioni di competenza della fotogrammetria dei lonta-ni, fino ad ora limitate all’utilizzo di riprese con sensori aerotrasportati. Così anche il campodella cartografia, e di tutte quelle discipline atte alla rappresentazione del territorio, sta a-prendo i propri orizzonti al telerilevamento satellitare, tecnica che sta profondamente cam-biando i metodi di acquisizione di informazioni metriche e tematiche sull’ambiente e sul ter-ritorio rendendo possibile l’utilizzo di tali informazioni anche per rappresentazioni cartogra-fiche a media e grande scala.1
  6. 6. IntroduzioneLo scopo di questo lavoro è quello di sperimentare una tecnica di estrazione semi-automatica di oggetti (fondamentalmente strutture ad opera dell’uomo), tramite una nuovametodologia di segmentazione ad oggetti (detta anche object-oriented o object-based), e suc-cessiva classificazione, applicata ad un’immagine telerilevata ed ortorettificata, al fine di po-ter ottenere un aggiornamento di una cartografia a scala nominale 1:5000.A tal proposito, si è fatto uso di una particolare tecnica di classificazione, la logica fuzzy(o logica sfumata), un’estensione della logica booleana che si basa sul concetto di “grado diappartenenza”: secondo tale logica, non si ha più a che fare con proprietà assolutamente vere(= al valore 1) o assolutamente false (= al valore 0) come nella logica classica appunto, ma sivanno a considerare anche valori intermedi di appartenenza, che quindi vanno ad identificarein che percentuale una proprietà possa o meno essere vera.Il software Ecognition®, realizzato dalla DEFINIENS-IMAGING®, utilizzato per questasperimentazione, mette a disposizione dell’utente numerosi strumenti, oltre alla già citata lo-gica Fuzzy, che verranno via via descritti: l’algoritmo base che si cela dietro questo softwarepone le sue fondamenta sull’idea che l’informazione semantica, necessaria all’interpretazionedell’immagine, non venga più data dal singolo pixel che compone l’immagine bensì da ogget-ti che compongono l’immagine e dalla loro mutua connessione. Ciò è possibile grazie al fattoche Ecognition®non classifica mediante la teoria del pixel-based, ma piuttosto, come già ac-cennato prima, classifica oggetti basandosi anche sulla loro omogeneità.Dopo una breve trattazione sui principi base del telerilevamento e della fotogrammetria,ed una esplicativa sezione riguardante la logica fuzzy ed il funzionamento del software, sipresenterà un’applicazione effettuata con l’ausilio di tale software che consentirà di verificarei risultati, i pro e i contro delle procedure utilizzate e di fare un quadro delle situazioni ottima-li che possano in qualche modo rendere più efficiente tale tecnica.2
  7. 7. Capitolo 1TELERILEVAMENTO: PRINCIPI BASE1.1 - CENNI STORICIIl termine telerilevamento deriva dall’unione della parola greca têle, ovvero “da lontano”,e dal termine rilevamento, che di norma indica un processo di acquisizione di informazioni[Dermanis et al., 2002]. Da un punto di vista puramente etimologico, tale definizione, cheappare abbastanza generica, porta ad una naturale associazione del telerilevamento ad unaqualsivoglia metodologia di indagine scientifica; nella sua accezione più usuale però, il ter-mine viene usato per indicare tutti i metodi che riguardano l’osservazione della Terra, metodiche si rendono attuabili grazie alla radiazione elettromagnetica, principio fisico basilare gra-zie al quale viaggiano le informazioni dall’oggetto di indagine al sensore.Figura 1.1.1 - Immagine d’epoca di una mongolfiera equipaggiata con una camera fotograficaSi può dire che il telerilevamento ha inizio nel 1840, quando le mongolfiere acquisirono leprime immagini del territorio con la camera fotografica appena inventata, primo sensore nella3
  8. 8. Capitolo 1 Telerilevamento: principi basestoria ad avere la capacità di “raccogliere” su di un supporto sensibile le informazioni sullecaratteristiche del terreno per mezzo della radiazione elettromagnetica (nella parte visibiledello spettro elettromagnetico). Probabilmente alla fine dell’ultimo secolo la piattaforma piùnuova era la rinomata flotta di piccioni che operava come novità in Europa (vedi Figura1.1.2).Figura 1.1.2 - Piccioni adoperati per riprese aeree con camere fotograficheLa fotografia aerea diventò uno strumento riconosciuto durante la Prima Guerra Mondialee lo fu a pieno durante la Seconda: allo scopo di facilitare la produzione di carte tematiche,furono introdotte, negli anni a seguire, le pellicole sensibili all’infrarosso (la Kodak commer-cializzò questo tipo di pellicola a partire dal 1953) oppure si applicavano filtri davantiall’obiettivo della camera da presa per poter osservare le singole bande dello spettro visibile.L’entrata ufficiale dei sensori nello spazio cominciò con l’inclusione di una macchina fo-tografica automatica a bordo dei missili tedeschi V-2 lanciati dalle White Sands (New Mexi-co). Il 4 Ottobre 1957 e il 12 Aprile 1961 due eventi nella storia della conquista dello spaziohanno indirettamente rivoluzionato anche il telerilevamento: il lancio dello SPUTNIK, il pri-mo satellite nello spazio, e di Jurij Gagarin, il primo uomo nello spazio; gli esiti positivi diqueste due missioni resero successivamente possibile il montaggio di macchine da ripresa sunavicelle in orbita, ma furono proprio i primi cosmonauti ed astronauti a documentare con ri-4
  9. 9. Capitolo 1 Telerilevamento: principi baseprese dallo spazio la circumnavigazione del globo. I sensori che acquisivano immagini inbianco e nero sulla Terra furono montati su satelliti meteorologici a partire dal 1960. Altrisensori sugli stessi satelliti potevano poi eseguire sondaggi o misure atmosferiche su una ca-tena di rilievi.Ma fu il lancio del primo dei sette satelliti LANDSAT (LAND SATellite) di proprietà dellastatunitense NASA (National Aeronautic and Space Administration) che segnò la nascita del tele-rilevamento moderno così come oggi lo intendiamo: lanciato il 23 Luglio 1972, fu il primosatellite espressamente dedicato al monitoraggio di terre e oceani allo scopo di mappare risor-se culturali e naturali. Dal 1986 anche la Francia, con la famiglia di satelliti SPOT (SatelliteProbatoire d’Observation de la Terre), entra appieno nel telerilevamento satellitare, ed oggi,come una fitta ragnatela invisibile, circa un centinaio di satelliti orbitano intorno alla Terra,parte dei quali espressamente dedicati al rilievo ed allo studio del nostro pianeta, ovvero altelerilevamento.Per “osservazione della Terra”, in questo contesto andremo ad indicare l’osservazione el’interpretazione delle diverse coperture della superficie terrestre; tale osservazione contieneintrinsecamente due tipi di informazione: una di tipo qualitativa, che riguarda la tipologia dicopertura, ed una di tipo geometrica, che riguarda la posizione, la forma e i contorni delle di-verse entità della copertura. L’analisi di quest’ultima informazione è propria della disciplinadella Fotogrammetria.1.2 - PRINCIPI FISICI1.2.1 - GRANDEZZE RADIOMETRICHEIn telerilevamento le informazioni riguardanti oggetti distanti vengono ricostruite median-te la misura della radiazione elettromagnetica, riflessa o emessa dagli oggetti stessi, per mez-zo di appropriati sensori, i quali registrano l’energia incidente convertendola in un segnaleelettrico: i sensori possono trovarsi ad una distanza che va da pochi metri dall’oggetto osser-vato (Proximal Sensing) fino a migliaia di chilometri (Remote Sensing), come nel caso di os-servazioni effettuate da satelliti geostazionari (circa 36˙000 Km di quota).Nell’esempio esplicativo di figura 1.2.1, si nota come qualcosa di fisico (la luce) vieneemesso dallo schermo (che in tal caso è una “sorgente di radiazioni”), e attraversa lo spaziofino a quando non incontra un sensore (gli occhi) che cattura tale radiazione da una certa di-5
  10. 10. Capitolo 1 Telerilevamento: principi basestanza e successivamente invia un segnale ad un processore (il cervello) che lo elabora e lointerpreta.In effetti, tutte le sensazioni che non sono indotte da contatto diretto (non solo la vistaquindi) sono frutto di un rilevamento a distanza (telerilevamento appunto).Figura 1.2.1 - L’occhio umano che osserva uno schermo di un computer o di unatelevisione è un esempio molto comune di telerilevamento [www.planetek.it].INSERIRE FIGURA RADIAZIONE EMFigura 1.2.2 - Propagazione della radiazione elettromagnetica6
  11. 11. Capitolo 1 Telerilevamento: principi baseLa radiazione EM è un fenomeno ondulatorio dovuto alla contemporanea propagazione diun campo elettrico e di un campo magnetico, oscillanti in piani mutuamente ortogonali, che sipropagano attraverso lo spazio con velocità pari alla velocità della luce c(8 m= 299,73 10 sc ⋅ ) (vedi Figura 1.2.2).Definire un’onda significa definire i parametri caratteristici della stessa, che sono:• ν = frequenza [Hz]: numero di oscillazioni dell’onda effettuate in un secondo;• λ = Lunghezza d’onda [m]: distanza percorsa dall’onda durante un tempo di oscilla-zione, che corrisponde alla distanza tra due massimi o due minimi dell’onda;• T = Periodo [s]: tempo necessario affinché un ciclo completo di oscillazione vengacompletato.La lunghezza d’onda è legata alla frequenza dalla relazione:λc λνT= =In ultimo vengono proposte, in breve, quelle che vengono chiamate grandezze radiome-triche, cioè grandezze base che servono a ben definire la radiazione elettromagnetica (EM):• Q = Energia radiante (radiant energy) [Joule]: è l’energia trasportata da un qualun-que campo di radiazione elettromagnetica;• P = Flusso radiante (radiant flux) [Watt]: è lenergia radiante nellunità di tempo; èconsiderata la grandezza radiometrica fondamentale, sulla base della quale sono defi-nite tutte le grandezze successive;• M = Emettenza radiante (radiant exitance) [Watt/m2]: è il flusso radiante emesso dauna sorgente estesa per unità di area;• E = Irradianza (irradiance) [Watt/m2]: è il flusso radiante incidente su una superficieper unità di area;• I = Intensità radiante (radiant intensity) [Watt/sr] (1): è il flusso radiante emesso dauna sorgente puntiforme in una certa direzione per unità di angolo solido;(1) - La sigla sr sta per “steradiante”. Tale unità di misura sta ad indicare l’“angolo solido”, cioè l’angolo tridimensionale.L’angolo solido è definito come la porzione di spazio compresa tra tre o più piani che convergono in un punto. Se si hannoinfiniti piani si crea un cono, un altro semplice esempio è fornito dal vertice della piramide. L’area della superficie dellasfera compresa tra i piani è l’angolo solido. Lo steradiante in definitiva rappresenta un’area.7
  12. 12. Capitolo 1 Telerilevamento: principi base• L = Radianza (radiance) [(Watt/m2)/sr]: è il flusso radiante emesso da una sorgenteestesa per unità di angolo solido e per unità di area proiettata su un piano normale al-la direzione considerata.1.2.2 - LO SPETTRO ELETTROMAGNETICOL’insieme di tutte le possibili lunghezze d’onda costituisce lo spettro della radiazione e-lettromagnetica o spettro elettromagnetico: come si può notare dalla figura 1.2.3 tale spettroviene suddiviso in più regioni spettrali distinte, il cui nome deriva da ragioni fisiche o da ra-gioni legate alla percezione umana.Figura 1.2.3 - Spettro elettromagnetico [http://kingfish.coastal.edu]È interessante notare come la regione dello spettro visibile (VIS), limitata tra 0,35 μm e0,75 μm, sia una zona relativamente piccola rispetto a tutto lo spettro elettromagnetico, ed an-che l’unica regione percepibile dall’occhio umano senza ausilio di strumenti specifici: sullabase di tale considerazione viene naturale pensare che ciò che ci appare sia relativamente po-co rispetto a ciò che esiste ed è invisibile al nostro occhio; i sensori in uso nel telerilevamentopermettono invece di ampliare le nostre capacità percettive, estendendole a quello che viene8
  13. 13. Capitolo 1 Telerilevamento: principi basedetto “campo dell’invisibile”. Le singole parti dello spettro visibile sono percepite dall’uomoin termini dei diversi colori dell’arcobaleno, che variano dalle lunghezze d’onda più piccole(violetto), alle lunghezze d’onda maggiori (rosso).In tabella 1.2.1 sono riportate le diverse bande in cui è suddivisa la regione del visibile.NOME BANDA Limiti banda [μm]VIOLETTO 350 - 455BLU 455 - 492VERDE 492 - 577GIALLO 577 - 597ARANCIO 597 - 622ROSSO 622 - 750Tabella 1.2.1 - Suddivisione dello spettro visibileLa regione di lunghezza d’onda inferiore al violetto, compresa tra 0,01 μm e 0,35 μm, èchiamata ultravioletto (UV), quella a lunghezza d’onda superiore al rosso, compresa tra0,75 μm e 1000 μm, è chiamata infrarosso (IR): la componente dell’infrarosso a maggior lun-ghezza d’onda utilizzata in telerilevamento, che varia tra 7 μm e 15 μm, è dovutaall’emissione termica di corpi “caldi” (2) ed appartiene a quello che si chiama all’infrarossotermico. Procedendo nel senso crescente della lunghezza d’onda abbiamo quindi in sequenza:raggi gamma, raggi X, ultravioletto, visibile (violetto, blu, verde, giallo, arancio, rosso), in-frarosso (vicino, medio, lontano), microonde, onde radio.1.2.3 - FIRMA SPETTRALEPrima di definire questo nuovo concetto, di rilevante importanza nel campo del telerile-vamento, è bene fare una premessa sulle interazioni tra una superficie S e le radiazioni elet-tromagnetiche su di essa incidenti.Siano quindi:• Ei = Energia incidente sulla superficie S• Er = Energia riflessa dalla superficie S• Ea = Energia assorbita dalla superficie S(2) - Per corpi “caldi” si intendono tutti quei corpi che abbiano una temperatura superiore allo zero assoluto( ): un tale corpo emette radiazioni elettromagnetiche proprie che dipendono dalla temperatura delcorpo stesso, seguendo la legge di “Stefan - Boltzmann”.0 K 273,14 C° = − °9
  14. 14. Capitolo 1 Telerilevamento: principi base• Et = Energia trasmessa dalla superficie SFigura 1.2.4 - Composizione dell’energiaL’energia incidente Ei sarà quindi in parte riflessa, in parte assorbita e in parte trasmessasecondo lo schema in figura 1.2.4 e in funzione di tre coefficienti (o parametri) che dipendo-no strettamente dalla natura fisica delle superfici e dal loro grado di rugosità o di lucidatura:1. Coefficiente di riflessione (riflettività): riEρE= 0 1ρ≤ ≤2. Coefficiente di trasmissione (trasmittività): tiEτE= 0 1τ≤ ≤3. Coefficiente di assorbimento (assorbività): aiEαE= 0 1α≤ ≤Si tenga presente che per la conservazione dell’energia in condizioni di equilibrio, si hai r aE E E Et= + +e di conseguenza1ρ α τ+ + =Una generica superficie può riflettere, ad esempio, molto nella luce verde e poco nella10
  15. 15. Capitolo 1 Telerilevamento: principi baseluce rossa e blu: in questo caso la superficie illuminata con luce bianca, apparirà come essen-zialmente verde.Dalla composizione delle varie percentuali con cui una superficie riflette le luci blu, verde,rossa nasce il cosiddetto colore della medesima: una superficie bianca rifletterà bene sia ilrosso che il verde e blu. Per ogni superficie si può perciò costruire un grafico bidimensionaleche da informazioni sulle sue capacità di riflessione in funzione della lunghezza d’onda dellaradiazione incidente: questo grafico, caratteristico di ogni superficie, viene chiamato firmaspettrale (o curva spettrale).Figura 1.2.5 - Firma spettrale di alcuni materiali determinata medianti analisi in laboratorioQuesta importante proprietà della materia consente l’identificazione e la separazione didiverse sostanze o classi proprio attraverso le loro firme spettrali (curve spettrali) come mo-strato in figura 1.2.5: per esempio la sabbia rossa riflette meglio alle lunghezze d’onda del vi-sibile rispetto alle lunghezze che occupano l’infrarosso, mentre un terreno erboso riflette mol-to di più alle lunghezze d’onda dell’infrarosso.È bene tener presente comunque, che una firma spettrale non può essere determinata intermini “assoluti”, e questo è dovuto a due ragioni:1. Una tipologia di copertura del terreno (ad esempio una classe “foresta”) non può es-sere univocamente definita da una firma spettrale: a sua volta difatti tale classe inclu-11
  16. 16. Capitolo 1 Telerilevamento: principi basederà sicuramente tipologie differenti di materiali (nel caso della foresta diverse tipo-logie di alberi) che a loro volta saranno differenziati in base al loro stadio e stato (al-beri più giovani o più vecchi, alberi incendiati, presenza di malattie, ecc.) nonché inbase alla situazione del terreno (per esempio presenza di terreno umido); questo si-gnifica che saranno caratterizzati da firma spettrale simile ma non identica. In ognicaso una classificazione assoluta, ovvero basata sul confronto tra le funzioni di riflet-tività osservate e una libreria nota a priori di firme spettrali, eventualmente moltoampia, potrebbe essere un obiettivo realizzabile solo su un pianeta senza atmosfera.Nel caso della Terra si devono considerare gli effetti atmosferici sulla propagazionedel segnale elettromagnetico: questi, differenti e mutevoli da luogo a luogo e da epo-ca ad epoca, mascherano le osservazioni di riflettività, e di conseguenza la funzionedi riflettività non può essere ricavata dalle osservazioni del sensore neppure per mez-zo di ipotetiche correzioni ideali (correzioni radiometriche).2. Si deve considerare che della funzione ρ(λ) può essere osservata solo una parte inquanto il sensore preposto a catturare le radiazioni elettromagnetiche a quella bandadi lunghezze d’onda registrerà un dato medio della riflettività in quella banda. A talescopo sono stati sviluppati strumenti atti a compiere misure in porzioni molto strette econtigue dello spettro magnetico (sensori iperspettrali di cui si parlerà in seguito).L’aumento del numero delle bande comporta un conseguente aumento dei dati da re-gistrare e del tempo di elaborazione, con inevitabile aumento dei costi, senza dimen-ticare che il rapporto segnale/rumore diminuisce proporzionalmente con l’ampiezzadella banda: si deve quindi trovare un compromesso opportuno tra larghezza di ban-da, numero di bande, costo dello strumento e risultati desiderati [Caprioli, 2005].La classificazione assoluta quindi risulta estremamente difficile, perciò viene in genereadottata una strategia di classificazione relativa: i pixel caratterizzati da valori osservati diρ(λ) simili per le diverse bande dei sensori, vengono raggruppati nella stessa classe.1.3 - SATELLITI PER IL TELERILEVAMENTO, SENSORI E DATI1.3.1 - MEMORIZZAZIONE E VISUALIZZAZIONE DI IMMAGINI DIGITALILe immagini della superficie terrestre costituiscono il dato fondamentale utilizzato in tele-rilevamento: esse vengono registrate in formato digitale in modo da poterle memorizzare ed12
  17. 17. Capitolo 1 Telerilevamento: principi baseanalizzare mediante calcolatori. Un’immagine così registrata è in effetti un insieme di numeriche rappresentano una registrazione rettangolare: la registrazione avviene dividendo la scenarappresentata in piccoli elementi quadrati di area uguale, chiamati pixel (contrazione di Pictu-re Element), disposti per righe e colonne.Figura 1.3.1 - Matrice ImmagineIl modello matematico che descrive un’immagine digitale è una matrice di R righe e C co-lonne, contenente N R C= × elementi, esattamente quanti sono i pixel (vedi Figura 1.3.1). Ilgenerico elemento xij della i-esima riga e j-esima colonna contiene il valore del pixel corri-spondente ed esprime un livello di intensità luminosa o tono di grigio per mezzo di un nume-ro reale (chiamato Digital Number, o più semplicemente DN) appartenente ad un intervallopredefinito: il valore più piccolo corrisponde ad assenza di luce, o colore nero, mentre il valo-re massimo corrisponde a intensità piena o colore bianco.Per garantire un risparmio di memoria del calcolatore, che adotta il sistema binario, ven-gono utilizzati solo valori interi: disponendo di k bit per ciascun pixel i valori ammissibili so-no 2k, dunque l’intervallo di definizione è compreso fra 0 e ( 2 1k− ). Per esempio nel caso diuna memorizzazione a 8 bit, la più comune, i valori interi possibili sono e vanno da0 (nero) a 255 (bianco), memorizzati rispettivamente come 00000000 (0) e 11111111 (255).82 256=13
  18. 18. Capitolo 1 Telerilevamento: principi baseFigura 1.3.2 - Immagine a 8 bit con un ingrandimento chene mostra la struttura in celle quadrate (pixel) e relativi DN14
  19. 19. Capitolo 1 Telerilevamento: principi basePer ogni immagine in formato digitale si può estrapolare un istogramma che rappresenta ladistribuzione dei valori DN per l’intera immagine: per ogni valore di intensità dell’interabanda, sono riportate delle barrette verticali che rappresentano la frequenza, ovvero il numerodi pixel dell’intera immagine che hanno quel valore di intensità (vedi Figura 1.3.3).L’istogramma di un’immagine sarà ripreso in seguito quando si parlerà di elaborazione diimmagini, e più precisamente di enhancement.Figura 1.3.3 - Istogramma dell’immagine in Figura 1.3.2Un file per la memorizzazione di un’immagine digitale contiene tutti i valori dei pixel checompongono l’immagine, ma a seconda dell’estensione (la maggior parte di quelle usate inquest’ambito), può avere alcune informazioni addizionali (metadati) memorizzate in una se-zione iniziale del file detta intestazione (o header). L’intestazione riporta tutte le in-formazioni necessarie per ricostruire l’immagine dal file, come il numero di bit utilizzati perciascun valore, l’ordine di memorizzazione dei valori, il numero di colonne presenti e talvoltai parametri orbitali del satellite; essa può inoltre contenere altre informazioni utili per inter-pretare il contenuto dell’immagine.15
  20. 20. Capitolo 1 Telerilevamento: principi baseUn’immagine digitale è sempre monocromatica; difatti anche le usuali immagini a colori(ad esempio in colore RGB), sono ottenute mediante combinazione di tre immagini della stes-sa scena. In ciascuna di esse è registrata l’intensità luminosa corrispondente a uno dei colorifondamentali (rosso, verde e blu), i quali possono essere combinati per riprodurre tutti gli altricolori.A tale riguardo si noti che, poiché rosso, verde e blu corrispondono a differenti regionidello spettro elettromagnetico, in senso lato un’immagine a colori è già un’immagine multi-spettrale (o multibanda).Figura 1.3.4 - Struttura di un’immagine multispettraleCon tale termine si indica un insieme di immagini riferite tutte alla stessa scena e con lamedesima ripartizione in pixel (vedi Figura 1.3.4): ciascuna di esse registra l’intensità dellaradiazione solo entro una specifica regione dello spettro o banda spettrale, non necessaria-mente appartenente a una regione del visibile. Se con B indichiamo il numero totale di bandeche il sensore può percepire, la matrice che identifica l’immagine con tutte le sue bande avràdimensioni N R C B= × × con N numero totale di pixel dell’immagine. Nel telerilevamento,nella maggior parte dei casi, vengono utilizzante le bande nel visibile e nell’infrarosso.16
  21. 21. Capitolo 1 Telerilevamento: principi base1 23 4Figura 1.3.5 - Le quattro bande di una scenamultispettrale IKONOS (1 = Blu; 2 = Verde;3 = Rosso; 4 = Infrarosso) e la composizionedelle prime 3 bande che danno un’immaginea colori naturali con la sequenza 3,2,1. [Der-manis et al., 2002]RGBIl file di un’immagine multispettrale contiene quindi valori kijx per tutte le righe i, per tuttele colonne j e per tutte le bande k. A seconda dell’ordine di memorizzazione dei pixel si di-stinguono tre formati:17
  22. 22. Capitolo 1 Telerilevamento: principi base1. Band Sequential (BSQ): le bande sono memorizzate in sequenza nel loro ordine natu-rale (lunghezza d’onda crescente) ed ogni banda è memorizzata riga per riga da sini-stra a destra con lo stesso ordine di lettura di una pagina (vedi Figura 1.3.6a).Figura 1.3.6a - Ordine di memorizzazione Band Sequential (BSQ)2. Band Interleaved by Pixel (BIP): per ciascun pixel sono memorizzati in sequenza ivalori corrispondenti a tutte le bande; anche per questo formato, l’ordinamento deipixel segue l’ordine di lettura di una pagina (vedi Figura 1.3.6b).Figura 1.3.6b - Ordine di memorizzazione Band Interleaved by Pixel (BIP)18
  23. 23. Capitolo 1 Telerilevamento: principi base3. Band Interleaved by Line (BIL): è simile al formato BSQ ma la priorità di sequenza èdata alle righe, che sono memorizzate banda per banda; una volta terminata la memo-rizzazione di una riga, segue la riga successiva (vedi Figura 1.3.6c)Figura 1.3.6c - Ordine di memorizzazione Band Interleaved by Line (BIL)1.3.2 - TELERILEVAMENTO SATELLITARE: IL SISTEMA DI OSSERVAZIONE DELLA TERRAUn sistema di telerilevamento può essere scomposto schematicamente come segue:1. Segmento Spaziale1.1 Bus (o piattaforma)1.2 Payload (o sensore)2. Segmento Terrestre (stazione per ricevimento, elaborazione ed archiviazione dati).1.3.2.1 - IL BUSÈ la parte principale del satellite: tutti i satelliti necessitano di una piattaforma per soprav-vivere e svolgere con efficienza le missioni per le quali sono stati progettati. Una piattaformaè normalmente composta da una serie di sottosistemi che svolgono diverse funzioni e suppor-tano il carico specifico.I principali sottosistemi sono:- TTC (Telecommunication, Tracking and Control Subsystem): fornisce il collegamen-to radio tra il satellite e la stazione a terra. Questa componente è vitale per scaricare idati acquisiti dal satellite, trasmettere i comandi alle altre componenti del satellite econtrollare parametri come temperature, tensione, carburante, stato del carico, ecc.- OBDH (On Board Data Handling): è lunità di calcolo di bordo principale.L’importanza del sottosistema dipende dai requisiti di design del sistema e dalla stra-19
  24. 24. Capitolo 1 Telerilevamento: principi basetegia di missione e può essere semplicemente ridotta ad un sottosistema TTC confunzioni sofisticate come navigazione autonoma ed elaborazione a bordo dei dati- AOCS (Attitude Overall Control System): è l’insieme di dispositivi che assicuranostabilità e puntamento al satellite. È composto da componenti per la messa in moto,ossia ruote inerziali, e sensori, come sensori stellari (Star Tracker) e GPS. Questosottosistema è critico per la missione poiché il corretto puntamento determina unacorretta geometria dei dati.- POWER ASSEMBLY: fornisce l’energia elettrica alla piattaforma e al carico (pa-yload): in genere, è costituito da un set di pannelli solari, supportati da batterie cheforniscono energia elettrica durante il lato in ombra dell’orbita.1.3.2.2 - IL PAYLOADLetteralmente tradotto payload significa “carico pagante”: in effetti, questo termine è u-sato ogni qualvolta si vuole indicare l’utilizzo finale di un certo mezzo di trasporto. Così co-me una nave da crociera, ad esempio, ha come carico pagante i passeggeri, così un satelliteha i suoi sensori, costruiti con caratteristiche tali da adempiere alla missione per la quale ilsatellite è stato progettato e messo in orbita.Il sensore è uno strumento capace di trasformare le onde elettromagnetiche, riflesse o e-messe da una superficie, in un segnale elettrico, sia che costruisca delle immagini (immaginiaeree o terrestri, scene satellitari, ecc.), sia che compia solo delle misure (fotometri, laser ae-rei o terrestri, ecc.). Tali sensori possono quindi essere divisi in due classi a seconda del pro-dotto finale che forniranno: sensori d’immagine e sensori misuratori.Così come abbiamo suddiviso i sensori in base al prodotto finale, possiamo fare un’altrasuddivisione, questa volta data dalla sorgente di energia, che permette di distinguere:• Sensori attivi: la sorgente è emessa dal sensore stesso e viene rilevata una volta chel’energia ha colpito l’oggetto da rilevare;• Sensori passivi: la sorgente è esterna al sensore (energia solare riflessa dal corpo oenergia emessa direttamente dal corpo).Scegliere il sensore più adatto all’osservazione di un determinato fenomeno significa i-dentificare i suoi requisiti operativi e funzionali in modo ottimizzato nei confronti degli og-getti da rilevare. I parametri che stabiliscono tali requisiti per un sensore sono notevoli, matra essi assumono rilievo particolare i seguenti:20
  25. 25. Capitolo 1 Telerilevamento: principi base• Risoluzione geometrica (o spaziale): è la distanza minima entro la quale il sensoreriesce a distinguere due oggetti. Trattandosi di un sensore d’immagine, tale risoluzio-ne è rappresentata dall’area minima vista dal sensore ad una data quota e corrispondealle dimensioni dell’elemento di superficie minima riconoscibile nell’immagine (os-sia il pixel). In realtà parlare di risoluzione in termini di “area minima” non è del tuttocorretto, proprio perché tale valore può variare in funzione della quota relativa delsensore dall’oggetto osservato e in funzione della distanza angolare di osservazionedalla direzione della verticale del sensore: è bene allora definire la risoluzione me-diante un parametro che sia indipendente dalla quota relativa del satellite.bFigura 1.3.7 - Schema del sistema di acquisizione dati da satellite. La cella di risoluzione a terra,determinata dall’IFOV, inquadra una piccola zona riportata nel riquadro a: le radiazioni emesse oriflesse vengono catturate dal sensore producendo il dato finale che è una media delle risposteprovenienti da tale area e che si traduce in un pixel dell’immagine finale riportato nel riquadro ba21
  26. 26. Capitolo 1 Telerilevamento: principi baseDefiniamo allora l’IFOV (Instantaneous Field of View - Campo di Vista Istantaneo):rappresenta l’angolo diedro di visibilità del sensore al di sotto del quale il rivelatoredel sensore (3) non riesce a distinguere due oggetti distinti e separati. Quest’angolo,come si può notare dalla figura 1.3.7, dipende esclusivamente da come è costruito ilsensore, ragion per cui è indipendente dalla quota alla quale esso è posto. La zona dicopertura sottesa dall’IFOV viene chiamata GSD (Ground Simple Distance - areacampionata) o anche cella di risoluzione ed è pari al prodotto tra IFOV e quota relati-va al suolo. L’utilità di definire l’IFOV piuttosto che parlare di “area minima” puòessere notata più facilmente quando si parla di sensori posti su aerei o elicotteri in cuila quota relativa al suolo varia sensibilmente e di continuo. Un oggetto che sia piùpiccolo della cella di risoluzione quindi non potrà essere identificato (vedi Figura1.3.7). La larghezza al suolo dell’immagine, nella dimensione trasversale alla dire-zione di volo, viene detta swath: anche per definire questa grandezza si preferisce u-sare una dimensione angolare indipendente dalla quota di volo, che si chiama FOV(Field of View - Campo di Vista) (4). Per quanto detto, viene naturale pensare chediminuendo l’IFOV si aumenta la risoluzione geometrica, il che è vero, ma ci sonocomunque dei limiti a questa tendenza: un IFOV troppo piccolo comporta un’energia,raccolta dal sensore, troppo bassa, che induce ad una diminuzione del rapporto segna-le/rumore.• Risoluzione radiometrica: esprime la minima differenza di intensità che un sensore ècapace di rilevare e misurare tra due valori di energia raggiante: migliore è tale riso-luzione, più è sensibile nel registrare piccole differenze nell’energia riflessa o emes-sa. Un qualsivoglia oggetto radiometricamente uniforme presente su un’immagine ri-presa con supporto tradizionale (pellicola) appare a toni continui, mentre la stessa ri-presa, fatta con un sensore digitale, essendo composta da pixel, presenta discontinui-tà: l’aumento di tale risoluzione riduce notevolmente (ma non elimina) tale disconti-nuità. Per immagini digitali, tale risoluzione è definita attraverso i bit dell’immaginestessa: maggiori sono i bit di una banda, maggiori saranno i valori di intensità lumi-nosa che un pixel può assumere.(3) - Si tenga presente che il sensore è tutto l’apparato che permette la raccolta e la registrazione dell’energia elettromagneticaincidente, ma ciò che realmente “registra” l’energia incidente, cioè l’elemento sensibile, è il rivelatore. Un sensore può a-vere uno o più rivelatori al suo interno a seconda della tecnica di ripresa che lo caratterizza.(4) - In alcuni testi e/o pubblicazione è d’uso trovare sia FOV sia AFOV (Angular Field Of View).22
  27. 27. Capitolo 1 Telerilevamento: principi base• Risoluzione spettrale: è data dalla larghezza della banda (intervallo di lunghezzad’onda) dei canali impiegati. Un’alta risoluzione spettrale significa, quindi, una con-figurazione strumentale a bande molto strette. Avere bande troppo strette però com-porta anche una quantità di energia raccolta inferiore, cioè un rapporto segna-le/rumore generalmente basso, ragion per cui si riduce la risoluzione radiometrica. Alcontrario, i sensori che operano con larga banda hanno una buona risoluzione radio-metrica e, per quanto detto in precedenza, anche una buona risoluzione geometrica. Èquesta, infatti, la ragione per cui si predilige una ripresa con un sensore pancromaticopiuttosto che con uno multispettrale quando si richiedono elevate qualità metriche diun’immagine, ad esempio per usi attinenti la fotogrammetria.• Risoluzione temporale: questa caratteristica riguarda i sensori montati su piattaformesatellitari, e sta ad indicare il tempo intercorso tra due riprese successive della stessaarea. Questo parametro essenzialmente è dovuto ai parametri orbitali del satellite.1.3.2.3 - SEGMENTO TERRESTREI dati ottenuti durante una missione spaziale devono essere trasmessi alla Terra dal mo-mento che il satellite continua a stare in orbita e ad acquisire dati.Figura 1.3.8 - Possibili sistemi di trasmissione dati satellite-Terra23
  28. 28. Capitolo 1 Telerilevamento: principi baseFigura 1.3.9 - Struttura del Segmento TerrestreCi sono fondamentalmente tre maniere per trasmettere i dati acquisiti dal satellite a terra(vedi Figura 1.3.8):A. I dati possono essere trasmessi direttamente alla Terra se esiste una stazione ricevente(GRS - Ground Receiving Station) all’interno del footprint visivo del satellite.24
  29. 29. Capitolo 1 Telerilevamento: principi baseB. Se A non è verificato, i dati possono essere registrati a bordo del satellite e trasmessialla GRS in un momento successivo.C. I dati possono essere trasmessi alla GRS attraverso i Tracking and Data Relay Satelli-te System (TDRSS) che consistono in una serie di satelliti per le telecomunicazioni inorbita geosincrona. I dati sono trasmessi da un satellite ad un altro fino a che non rag-giungono la giusta GRS.I dati sono inviati alla stazione ricevente (GRS) in formato digitale grezzo, non elaborato.Su richiesta, possono essere poi processati per correggere tutte le distorsioni sistematiche, ge-ometriche ed atmosferiche e convertiti in un formato standard.Tipicamente i dati sono archiviati nelle stazioni di ricezione e processamento: gli archivicompleti di dati sono gestiti dalle agenzie governative, ma anche dalle compagnie commer-ciali responsabili degli archivi dei diversi sensori.Immagini “quick-look” a bassa risoluzione sono usate per visionare le immagini archiviateprima che vengano acquistate. La qualità spaziale e radiometrica di questi tipi di dati è degra-data, ma risultano comunque molto utili per verificare se la qualità dellimmagine e l’even-tuale copertura nuvolosa è appropriata ai fini della applicazione.Il segmento Terrestre provvede inoltre al monitoraggio di tutti i parametri di funzionamen-to del satellite (controllo dell’orbita, eventuali correzioni da apportare all’assetto del satellite,controllo guasti, ecc.).1.3.3 - CLASSIFICAZIONE TECNOLOGICA DEI SENSORIIl tipo di radiazione che un sensore può rilevare dà modo di discriminare due grosse classidi sensori:• Sensori ottici (d’immagine e misuratori), che operano nel campo del visibile (VIS) edell’infrarosso (IR) sfruttando, come sistema di messa a fuoco, un’ottica a rifrazioneo a riflessione che convoglia l’energia verso l’elemento sensibile. Si suddividono intre categorie:- Pancromatico, costituito da un solo rivelatore che fornisce un segnale elettricoproporzionale alla radiazione complessiva, in un intervallo dello spettro elettro-magnetico comprendente tutto o una parte del visibile; in alcuni casi comprendeanche parte dell’infrarosso fotografico;25
  30. 30. Capitolo 1 Telerilevamento: principi base- Multispettrale, costituito da un numero limitato di rivelatori, ognuno dei qualifornisce un segnale elettrico proporzionale all’energia elettromagnetica relativaad una porzione relativamente ampia del visibile (VIS) e dell’infrarosso (IR). Larisoluzione spettrale è normalmente bassa (0,1 - 0,2 μm);- Iperspettrale, costituito da un elevato numero di rivelatori che raccolgono la ra-diazione in un gran numero di canali spettrali di piccolissima larghezza di banda.La risoluzione spettrale è generalmente alta (0,01 - 0,001 μm) e permette di iden-tificare direttamente le componenti delle coperture superficiali della Terra (vediparagrafo 1.2.3 sulla firma spettrale)• Sensori a microonde, che operano a lunghezze d’onda dell’ordine del millimetro(normalmente da 1 a 10 mm): sono prevalentemente usati per l’individuazione di so-stanze inquinanti, per l’analisi della composizione dell’atmosfera e per lo studio dellecaratteristiche della superficie terrestre.In questo contesto focalizzeremo l’attenzione prevalentemente sui sensori otticid’immagine.1.3.3.1 - SENSORI OTTICI D’IMMAGINETali sensori sono in grado di generare un insieme di dati bidimensionali (l’immagine) cor-rispondente alla porzione di superficie terrestre osservata, suddivisa idealmente in celle ele-mentari (pixel). Le direzioni di riferimento dell’immagine sono generalmente costituite dalladirezione del moto del satellite e dalla direzione ortogonale ad essa. L’immagine, essendo informato numerico, ha il vantaggio di poter essere elaborata da un calcolatore, migliorandonela qualità visiva ed eliminando le imperfezioni, consentendo anche confronti quantitativi equalitativi con immagini precedenti della stessa zona.- SENSORI FOTOGRAFICISono sensori ottico-meccanici o digitali che forniscono rispettivamente fotografie o im-magini in cui le variazioni di energia elettromagnetica riflessa (nel visibile e nellinfraros-so fotografico) vengono tradotte in variazioni di densità fotografica o di livelli radiometri-ci.26
  31. 31. Capitolo 1 Telerilevamento: principi baseFigura 1.3.10 - Schema dimostrativo di una camera fotograficaI sensori fotografici ottico-meccanici, detti anche camere, sono utilizzati tanto per scopicartografici quanto per osservazioni di natura tematica e vengono indifferentemente posi-zionati su piattaforme terrestri, aeree e spaziali. In questi sensori il sistema di raccolta emessa a fuoco dell’energia è un obiettivo a rifrazione che convoglia la radiazione suun’emulsione fotografica stesa su un supporto semirigido che è la pellicola. In tal caso lapellicola funge sia da trasduttore che da sistema di registrazione.I risultati forniti da questi sensori dipendono, oltre che dalle caratteristiche del soggetto,dalla posizione del sole, dalle condizioni dell’atmosfera e dal tipo di pellicola: questa puòessere in bianco e nero (b/n), detta anche pancromatica, e a colori, detta anche ortocroma-tica. In entrambi i casi l’immagine viene restituita con densità fotografica proporzionaleall’energia incidente. Nel caso della pellicola pancromatica la restituzione avviene attra-verso una scala dei grigi che varia in modo continuo dal bianco al nero; nel caso della pel-licola ortocromatica, invece, le variazioni dell’energia riflessa sono fissate con un codicedi colori a vario cromatismo e saturazione. La risoluzione geometrica di questi sistemi èmolto alta essendo limitata soltanto dalla qualità dell’ottica e dalla grana della pellicola.Altri vantaggi di tali camere sono:• facilità di analisi delle fotografie;27
  32. 32. Capitolo 1 Telerilevamento: principi base• costi contenuti;• potenze impegnate relativamente basse.La camera di gran lunga più usata nel telerilevamento terrestre è certamente la macchina afotogrammi, detta anche camera metrica, utilizzata per il rilievo aereo. Ricorda una nor-male macchina fotografica ma se ne differenzia per le distorsioni delle ottiche (molto piùridotte per la camera metrica) e per l’aggiunta di alcune parti necessarie alla sua funzionequali:• speciali supporti antivibrazione e antirollio;• sistema di orientazione nella direzione voluta, tenendo presente che un assedell’apparato deve mantenersi quanto più possibile parallelo alla linea di volo;• contenitore della pellicola di maggiore dimensioni;• meccanismo automatico di chiusura ed apertura dell’otturatore che deve esseretarato in funzione dei parametri di volo.Figura 1.3.11 - Schema esemplificativo di una camera metrica analogica28
  33. 33. Capitolo 1 Telerilevamento: principi baseLa maggior parte di queste camere montano obiettivi con focale 150 mm (in alcune ripresein zone urbane si fa uso anche del 300 mm per ridurre l’effetto prospettico), con un angoloFOV che varia da 90° a 120°, fornendo fotogrammi quadrati di misura standard 23 cm.Da un decennio circa è in atto una propensione all’utilizzo, nel telerilevamento, di cameremetriche digitali che non fanno più uso di una pellicola sensibile alla luce (o allinfraros-so) bensì di particolari rivelatori detti CCD (Charge-Coupled Device). Realizzando unamatrice di questi elementi rivelatori, la scena ripresa dal sistema ottico del sensore può es-sere letta elettronicamente (praticamente tutti i rivelatori vengono letti nello stesso istante)e registrata pixel per pixel, ognuno corrispondente al singolo elemento rivelatore. I van-taggi sono notevoli in quanto, con il dato che nasce digitale, si evitano le fasi di sviluppo escansione. Per quanto le tecniche analogiche e digitali in tale campo al momento coesisto-no, la continua espansione ed evoluzione del digitale lascia ipotizzare che in un prossimofuturo le ditte produttrici di pellicole possano cessarne la produzione, comportando quindiun totale passaggio degli addetti al settore al digitale, rendendo così definitivamente “su-perata” la tecnica analogica almeno per quanto riguarda il settore delle riprese.Figura 1.3.12 - Due moderne camere fotogrammetriche digitali: a sinistrauna LEICA ADS40, a destra una Z/I (ZEISS/INTERGRAPH) DMC29
  34. 34. Capitolo 1 Telerilevamento: principi base- SENSORI A SCANSIONESono sensori d’immagine di tipo ottico. La modalità di scansione può essere di duetipi:• whiskbroom (detti anche across-track o sensori a scansione meccanica)• pushbroom (detti anche along-track)Relativamente semplici dal punto di vista costruttivo ed operativo, i sensori whiskbroomsono sistemi passivi, sensibili alla radiazione visibile e/o infrarossa e vengono utilizzati abordo di aerei o di satelliti per acquisire immagini di zone della superficie terrestre anchemolto ampie. Questi scanner sono normalmente a scansione lineare, riprendendo migliaiadi pixel di una striscia di terreno ortogonale alla direzione de1volo; tale risultato si ottieneeffettuando una scansione del terreno mediante uno specchietto piano oscillante o rotanteattorno ad un asse parallelo al moto del veicolo. Il moto della piattaforma genera l’altroasse dell’immagine.Figura 1.3.13 - Sistema di scansione multispettrale whiskbroom a specchietto rotante30
  35. 35. Capitolo 1 Telerilevamento: principi baseLa radiazione intercettata viene inviata ad un sistema ottico che la focalizza su rivelatorisensibili a prestabilite bande spettrali che trasformano l’energia elettromagnetica in un se-gnale elettrico. L’IFOV determina l’estensione dell’area di campionamento dello scannernell’unità di tempo. C’è una differenza importante da sottolineare distinguendo “specchiorotante” e specchio oscillante”: nel primo si ha un unico rivelatore sul quale si focalizza laradianza elettromagnetica riflessa dallo specchio, mentre nel secondo si possono avere piùrivelatori per banda che acquisiscono contemporaneamente diverse linee di scansione(come sul Multi Spectral Scanner); la seconda opzione è utile per aumentare il tempo dipermanenza su ogni singolo rivelatore e quindi avere anche risoluzioni migliori. Guardan-do le figure 1.3.14a e 1.3.14b si può notare come la differenza di funzionamento si traducain due tracce differenti.Figura 1.3.14a - Traccia di un sensorewhiskbroom a specchietto oscillanteFigura 1.3.14b - Traccia di un sensorewhiskbroom a specchietto rotanteI sensori pushbroom, invece, impiegano array lineari di elementi CCD. La configura-zione per questi sistemi prevede generalmente un array lineare per ciascuna banda spettra-le in cui opera lo strumento, disposti perpendicolarmente alla direzione del moto dellapiattaforma. Un singolo elemento rivelatore corrisponde ad una cella di risoluzione al suo-lo. Ciascun array è collocato nel piano focale delle ottiche dello strumento: in tal modoun’intera striscia al suolo perpendicolare alla direzione della traccia viene messa a fuocosugli elementi rivelatori CCD in un determinato istante. Il movimento progressivo dellapiattaforma, infine, consente agli array di rivelare le successive strisce della scena: una ve-locità opportuna di campionamento elettronico garantisce così un corretto rilievo delle li-nee contigue dell’immagine.31
  36. 36. Capitolo 1 Telerilevamento: principi baseFigura 1.3.15 - Sistema di scansione multispettrale pushbroom1.3.4 - PRINCIPALI PIATTAFORME IN USO PER IL TELERILEVAMENTO1.3.4.1 - MISSIONI LANDSATSatellite in orbita dal al sensoriLandsat 1 23 luglio1972 6 gennaio 1978 MSS, RBVLandsat 2 22 gennaio 1975 25 febbraio 1982 MSS, RBVLandsat 3 5 marzo 1978 31 marzo 1983 MSS, RBV(×2)Landsat 4 16 luglio1982 luglio 1995 MSS, TMLandsat 5 1 marzo 1984 Operativo MSS, TMLandsat 6 lanciato 5 ottobre 1993: perso in lancio ETM15 aprile 1999 Operativo ETM+Landsat 7Tabella 1.3.1 - Missioni Landsat e rispettivi sensori32
  37. 37. Capitolo 1 Telerilevamento: principi baseMSS (MultiSpectral Scanner) Landsat 1, 2, 3, 4, 5Risoluzione spettraleBanda Lunghezza d’onda(μm)Landsat 1, 2, 3 Landsat 4, 54 1 0,5 - 0,6 verde5 2 0,6 - 0,7 rosso6 3 0,7 - 0,8 infrarosso vicino7 4 0,8 - 1,1 infrarosso vicino8 (Landsat 3) 10,4 - 12,6 infrarosso termicoRisoluzione geometricaLandsat 1, 2, 3 79 × 79 mLandsat 4 81,5 × 81,5 mLandsat 5 82,5 × 82,5 mBanda 8 (Lansat 3) 237 × 237 m5 185 kmSwath ( )Risoluzione radiometrica7 bit (Banda 8: 6 bit)Risoluzione temporale18 giorniLandsat 1, 2, 316 giorniLandsat 4, 5RBV (Return Beam Vidicon) Landsat 1, 2, 3Risoluzione spettraleBanda lunghezza donda (μm)1 (Landsat 1, 2) 0,475 - 0,575 blu2 (Landsat 1, 2) 0,580 - 0,680 rosso3 (Landsat 1, 2) 0,689 - 0,830 infrarosso vicinoPan (Landsat 3) 0,505 - 0,750 pancromaticoRisoluzione geometricaLandsat 1, 2 79 × 79 mLandsat 3 40 × 40 m (Pan)185 kmLandsat 1, 2Swath98 kmLandsat 3Risoluzione temporale18 giorniTabella 1.3.2 - Caratteristiche del sensore Multispectral ScannerTabella 1.3.3 - Caratteristiche del sensore Return Beam Vidicon(5) - Lo swath è riferito al singolo sensore. Quando sono presenti due sensori identici (come nel caso del Landsat 3), questi ven-gono utilizzati, nella maggior parte dei casi, in coppia durante una scansione, per cui lo swath totale, in genere, è quasi ildoppio (non è proprio il doppio perché c’è sempre una lieve sovrapposizione tra i due swath, per evitare di lasciare zonescoperte).33
  38. 38. Capitolo 1 Telerilevamento: principi baseTM (Thematic Mapper) Landsat 4, 5Risoluzione spettraleBanda lunghezza donda (μm)1 0,45 - 0,52 blu2 0,52 - 0,60 verde3 0,63 - 0,69 rosso4 0,76 - 0,90 infrarosso vicino5 1,55 - 1,75 infrarosso medio7 2,08 - 2,35 infrarosso medio6 10,4 - 12,5 infrarosso termicoRisoluzione geometricaBanda 1, 2, 3, 4, 5, 7 30 × 30 mBanda 6 120 × 120 m185 kmSwathRisoluzione radiometrica8 bitRisoluzione temporale16 giorniTabella 1.3.4 - Caratteristiche del sensore Thematic MapperETM+ (Enhanced Thematic Mapper) Landsat 7Risoluzione spettraleBanda lunghezza d’onda (μm)1 0,45 - 0,515 blu2 0,525 - 0,605 verde3 0,63 - 0,690 rosso4 0,75 - 0,90 infrarosso vicino5 1,55 - 1,75 infrarosso medio7 2,09 - 2,35 infrarosso medio6 10,40 - 12,50 infrarosso termicoPan 0,52 - 0,90 pancromaticoRisoluzione geometricaBanda 1, 2, 3, 4, 5, 7 30 × 30 mBanda 6 60 × 60 mPan 15 × 15 m185 kmSwathRisoluzione radiometrica8 bitRisoluzione temporale16 giorniTabella 1.3.5 - Caratteristiche del sensore Enhanced Thematic Mapper34
  39. 39. Capitolo 1 Telerilevamento: principi base1.3.4.2 - MISSIONI SPOTSatellite in orbita dal al sensori22 febbraio1986 31 dicembre 1990SPOT 1 HRV (× 2)22 gennaio 1990 OperativoSPOT 2 HRV (× 2)26 settembre 1993 14 novembre 1997SPOT 3 HRV (× 2)24 marzo 1998 OperativoSPOT 4 HRVIR (× 2), VGT4 maggio 2002 OperativoSPOT 5a HRG (× 2), VGTprevisto nel 2007 ---SPOT 5b HRG (× 3)Tabella 1.3.6 - Missioni SPOT e rispettivi sensoriHRV (High Resolution Visible) ( ) SPOT 1, 2, 3SRisoluzione spettraleBanda lunghezza d’onda (μm)1 0,50 - 0,59 verde2 0,61 - 0,68 rosso3 0,79 - 0,89 infrarosso vicinoPan 0,51 - 0,73 pancromaticoRisoluzione geometricaBanda 1, 2, 3 20 × 20 mPan 10 × 10 m60 kmSwathRisoluzione radiometrica8 bitRisoluzione temporale26 giorniTabella 1.3.7 - Caratteristiche del sensore High Resolution VisibleVGT (Vegetation) SPOT 4, 5Risoluzione spettraleBanda lunghezza donda (μm)1 0,43 - 0,47 blu2 0,61 - 0,68 rosso3 0,79 - 0,89 infrarosso vicino4 1,58 - 1,75 infrarosso medioRisoluzione geometrica1 × 1 km2250 kmSwathRisoluzione radiometrica8 bitRisoluzione temporale1 giornoTabella 1.3.8 - Caratteristiche del sensore Vegetation(S) - Possibilità di effettuare riprese stereoscopiche35
  40. 40. Capitolo 1 Telerilevamento: principi baseHRVIR (High Risoluzione Visible Infrared) (S) SPOT 4Risoluzione spettraleBanda lunghezza donda (μm)1 0,50 - 0,59 verde2 0,61 - 0,68 rosso3 0,79 - 0,89 infrarosso vicino4 1,58 - 1,75 infrarosso medioPan 0,51 - 0,68 pancromaticoRisoluzione geometricaBanda 1, 2, 3 20 × 20 m (Banda 2 anche 10 × 10 m)Pan 10 × 10 m60 kmSwathRisoluzione radiometrica8 bitRisoluzione temporale26 giorniHRG (High Resolution Geometric) ( ) SPOT 5SRisoluzione spettraleBanda lunghezza donda (μm)1 0,50 - 0,59 verde2 0,61 - 0,68 rosso3 0,79 - 0,89 infrarosso vicino4 1,58 - 1,75 infrarosso medioPan 0,51 - 0,73 pancromaticoRisoluzione geometricaBanda 1, 2, 3 10 × 10 mBanda 4 20 × 20 mPan 5 × 5 m (Supermode Panchromatic: 2,5 × 2,5 m)60 kmSwathRisoluzione radiometrica8 bitRisoluzione temporale26 giorniTabella 1.3.9 - Caratteristiche del sensore High Resolution Visible InfraredTabella 1.3.10 - Caratteristiche del sensore High Resolution Geometric(S) - Possibilità di effettuare riprese stereoscopiche36
  41. 41. Capitolo 1 Telerilevamento: principi base1.3.4.3 - MISSIONI IKONOSSatellite in orbita dal al sensori---pianificato 1999: lancio fallitoIKONOS-1IKONOS-2 (IKONOS) 24 settembre 1999 Operativo )IKONOS (SRisoluzione spettraleBanda lunghezza donda (μm)1 0,445 - 0,516 blu2 0,506 - 0,595 verde3 0,632 - 0,698 rosso4 0,757 - 0,853 infrarosso vicinoPan 0,526 - 0,929 pancromaticoRisoluzione geometricaBanda 1, 2, 3, 4 3,2 × 3,2 m (Nadir); 4 × 4 m (26° Off-Nadir)Pan 0,82 × 0,82 m (Nadir); 1 × 1 m (26° Off-Nadir)11,3 km (Nadir); 13,8 km (26° Off-Nadir)SwathRisoluzione radiometrica8 bit / 11 bitRisoluzione temporaleRisoluzione geometrica 4 × 4 m: 1,5 giorniRisoluzione geometrica 1 × 1 m: 2,9 giorniTabella 1.3.11 - Caratteristiche del sensore Ikonos1.3.4.4 - MISSIONI QUICKBIRDSatellite in orbita dal al sensoripianificato Novembre 2000: lancio fallito ---QUICKBIRD-118 Ottobre 2001 Operativo QUICKBIRD (S)QUICKBIRD-2Risoluzione spettraleBanda lunghezza donda (μm)1 0,450 - 0,520 blu2 0,520 - 0,600 verde3 0,630 - 0,690 rosso4 0,760 - 0,900 infrarosso vicinoPan 0,445 - 0,900 pancromaticoRisoluzione geometricaBanda 1, 2, 3, 4 2,4 × 2,4 m (Nadir)Pan 0,60 × 0,60 m (Nadir)16,5 km (Nadir)SwathRisoluzione radiometrica11 bitRisoluzione temporale3-7 giorni (dipendente dalla latitudine)Tabella 1.3.12 - Caratteristiche del sensore Quickbird(S) - Possibilità di effettuare riprese stereoscopiche37
  42. 42. Capitolo 1 Telerilevamento: principi base1.3.4.5 - MISSIONI EROSSatellite in orbita dal al sensoriS5 Dicembre 2000 OperativoEROS-A1 EROS-A ( )EROS-A (S)Missione cancellataEROS-A2EROS-B (S)25 Aprile 2006 OperativoEROS-B1Risoluzione spettraleBanda lunghezza d’onda (μm)1 (EROS-B) 0,480 - 0,520 blu2 (EROS-B) 0,540 - 0,580 verde3 (EROS-B) 0,640 - 0,680 rosso4 (EROS-B) 0,820 - 0,900 infrarosso vicinoPan (EROS-A, B) 0,450 - 0,900 pancromaticoRisoluzione geometricaBanda EROS-A EROS-B1, 2, 3, 4 --- 3,5 × 3,5 m1,8 × 1,8 m (Standard mode)Pan 0,87 × 0,87 m1 × 1 m (Hypersampled mode)12.5 km (Standard mode)13 kmSwath6,25 km (Hypersampled mode)Risoluzione radiometrica11 bit 10 bitRisoluzione temporale2 giorni ??Tabella 1.3.13 - Caratteristiche dei sensori EROS(S) - Possibilità di effettuare riprese stereoscopiche38
  43. 43. Capitolo 2ELABORAZIONE ED INTERPRETAZIONE DELLE IMMAGINI2.1 - INTRODUZIONESe è vero che le tecniche di acquisizione d’immagini si sono evolute negli anni, sia perquanto riguarda le piattaforme, sia per i sensori, è altrettanto vero che si sono evolute anche letecniche inerenti le applicazioni successive all’acquisizione dell’immagine, questo grazie acalcolatori sempre più moderni e veloci che si sono diffusi parallelamente alle nuove conqui-ste spaziali.Le immagini in formato numerico, la loro visualizzazione su uno schermo che sostituisce ilsupporto cartaceo, e l’implementazione di software con algoritmi sempre più sofisticati ecomputazionalmente sempre più rapidi, rendono oggi possibile l’uso di numerose applicazio-ni utili al trattamento ed al miglioramento delle immagini. Il solo modo di avere un’immaginequanto migliore possibile, prima che fossero rese attuabili le procedure digitali, ammesso diavere ottiche a bassissime distorsioni e pellicole ad alta risoluzione e di alta qualità cromati-ca, si basava su una buona selezione dei tempi di esposizione e dei diaframmi relativi al sin-golo scatto della camera, nonché sull’ottimizzazione delle procedure di sviluppo delle pelli-cole. Quanto si propone in questo capitolo riguarda le tecniche di filtraggio e di miglioramen-to delle immagini, al fine di implementarne i dettagli e rendere più accurata l’interpretazionedelle coperture del suolo da parte dell’operatore e, come vedremo, anche da parte di software.2.2 - L’IMMAGINE RASTER (IL DATO)I sensori a scansione montati a bordo delle piattaforme, aeree o satellitari che siano, ese-guono una scansione della superficie sottostante campionando per linee, trasversalmente almoto del vettore: tali linee, riordinate nella loro sequenza di presa, permettono la ricostruzio-ne dell’immagine, o meglio della scena. Sostanzialmente il funzionamento del sistema discansione in sé è identico passando da aereo a satellite, ma ci sono differenze per quanto ri-guarda il tracciamento della posizione del velivolo e del satellite, oltre che nelle procedure enei materiali utilizzati per la costruzione del satellite che però qui non tratteremo.Riesaminiamo per un momento i sensori ottici: un’immagine data da un fotogramma, sen-za intervenire con alcuna correzione post-acquisizione, fornisce già informazioni qualitativedel territorio: si potrebbe per esempio, su un’immagine a colori naturali, operare una fotoin-39
  44. 44. Capitolo 2 Elaborazione ed interpretazione delle immaginiterpretazione di tipo agrario identificando anche su un singolo fotogramma, che rappresentauna realtà inconfutabile, i tipi di coltura, ma non si possono avere informazioni metrico-geografiche di alcun tipo (non si sa né dove si trovano quei terreni coltivati né la loro esten-sione) se prima non si interviene tramite delle operazioni ben specifiche.In fotogrammetria l’operazione immediatamente successiva alla ripresa è l’appoggio deifotogrammi, si misurano cioè le coordinate immagine di un certo numero di punti ben ricono-scibili sull’immagine (detti punti fotografici di appoggio), punti le cui coordinate geografichesono note, per poi poter effettuare l’orientamento esterno (6) dei singoli fotogrammi, oppurel’orientamento relativo ed assoluto dei fotogrammi e poter effettuare o una restituzione (otte-nendo una carta topografica come prodotto finale) oppure un’ortorettifica (ottenendoun’ortofoto o un’ortofotocarta) grazie alle quali è possibile prendere misure. Tutto ciò è pos-sibile sia su sistemi ottico-meccanici che su ottico-digitali, ma è immaginabile che alcunetecniche siano cambiate: in effetti oggi, grazie al sistema di posizionamento GPS (GlobalPosition System) ed al sistema di navigazione inerziale IMU (Inertial Measurement Unit) (7)che affiancano l’equipaggiamento base per le riprese, “teoricamente” non sarebbe più neces-sario l’uso di punti fotografici d’appoggio. In pratica però si rendono comunque necessari talipunti, dato che il GPS potrebbe portare errori dovuti ad interferenze di segnali, o a brevi pe-riodi di “buio” del segnale, e comunque si tratta di un utilizzo in modalità cinematica delGPS, meno preciso della modalità statica. Tale sistema si rende molto utile laddove si ripren-dano zone in cui è difficile, o talvolta impossibile, l’accesso da terra per motivi logistici o mi-litari ad esempio, o laddove non ci siano punti distintamente individuabili sul fotogramma:ecco che il GPS/IMU diventa fondamentale.Se quindi per le immagini ottenute con sensore ottico-fotografico si può lavorare sfruttan-do le tecniche topografiche classiche, ciò non può accadere con i sensori scanner, per i qualisi rendono strettamente necessari i sistemi GPS/IMU, se si tratta di sensori aerotrasportati,oppure mediante il sistema di controllo a terra, se si tratta di sensori su satellite, che rende(6) - L’orientamento esterno è un’operazione mediante la quale si individuano sei parametri fondamentali: le tre coordinate delcentro di presa, e i tre angoli di assetto della camera secondo un sistema di riferimento geodetico globale, che permettonodi risalire all’esatta condizione spaziale della camera al momento della presa del fotogramma.(7) - Il sistema GPS permette di trovare le coordinate (Xo, Yo, Zo) del centro di presa (si deve conoscere l’offset tra il centro difase dell’antenna montata sul lato superiore della fusoliera del velivolo e il centro di presa della camera); il sistema IMU ècostituito da tre accelerometri e tre giroscopi che valutano i parametri (φ, ω, κ) dell’assetto del velivolo, rispettivamentebeccheggio, rollio ed imbardata, e di conseguenza permettono di trovare i parametri di orientamento della cameraall’istante della presa del fotogramma.40
  45. 45. Capitolo 2 Elaborazione ed interpretazione delle immaginipossibile la conoscenza dei parametri orbitali e di assetto dello stesso, istante per istante: ladifferenza di cui si accennava prima è proprio questa.Figura 2.2.1 - Distorsioni dovute alle variazioni degli angoli di assetto delvelivolo [University of Wisconsin Madison]Per le riprese con sensori scanner aerotrasportati, la mancanza di dati GPS potrebbe, nonsenza molte difficoltà, rendere comunque utilizzabile il dato finale: sarebbero necessari unnumero molto elevato di punti a terra presi con metodologie topografiche (GPS o, in mancan-za di segnale, con Total Station) sempre ammesso però che le immagini non siano distorte alpunto tale da non poter riconoscere sulla scena (vedi Figura 2.2.1). Tutto ciò però ha un limi-te, prevalentemente economico, superato il quale si ritiene più utile effettuare nuovamente unvolo: ecco quindi l’importanza di tali strumentazioni di bordo quando si fa uso di sensoriscanner. Immagini ottenute con tali sensori vanno quindi sempre trattate per correggere talierrori geometrici sviluppatisi durante l’acquisizione dei dati.2.3 - PROCEDURE POST-ACQUISIZIONEIl dato appena acquisito dal satellite non è certamente un dato finito, è anzi un dato “grez-zo”: come descritto nel paragrafo 1.3.2, è il segmento terrestre, e quindi l’ente stesso che ge-stisce la piattaforma, che si occupa dell’archiviazione e di un trattamento primario dei dati,41
  46. 46. Capitolo 2 Elaborazione ed interpretazione delle immaginitrattamento che precede sempre la cessione dell’immagine all’acquirente o all’ente che ne farichiesta.Soffermandoci sulle riprese satellitari, si devono distinguere due tipologie di correzioniche vengono inserite in quello che si chiama Image Preprocessing (8): le correzioni radiome-triche e geometriche.Durante tali fasi di correzione, il dato acquisito dal sensore, che rappresenta la radianzaincidente registrata in forma digitale come DN ad un certo numero di bit, viene trasformato inuna informazione relativa alla superficie indagata. In pratica, con le correzioni si passa da unsegnale registrato al sensore ad una caratteristica della superficie reale [Valentini et al., 2006].2.3.1 - CORREZIONI RADIOMETRICHETali correzioni servono a calibrare i sensori, ridurre o eliminare gli errori dovuti al lorocattivo funzionamento e ridurre l’influenza dello strato di atmosfera interposto tra sensore eoggetto osservato (la Terra). Essi includono [http://tlclab.unipv.it]:a. Ripristino di linee e pixel saltatib. Equalizzazione del sensorec. Calibrazione del sensored. Correzione degli effetti di terrenoe. Correzione atmosfericaAnalizziamo brevemente queste singole correzioni.a. Ripristino di linee e pixel saltatiPuò accadere che durante la scansione di una scena o la memorizzazione dei dati, per mal-funzionamenti temporanei o errori di trasmissione dovuti ad esempio a cadute di tensioneo a perdite di segnale, possa verificarsi un’alterazione o perdita di un singolo dato o di unasequenza di dati che si traducono in pixel con valori anomali o in righe di pixel nere o uni-formemente grigie (dette anche Drop Line): tali dati ovviamente non hanno nulla a che fa-(8) - Non sempre si sottolinea la differenza tra pre-elaborazione dell’immagine (Image Preprocessing) ed elaborazionedell’immagine (Image Processing), poiché tale differenza è molto sfumata: in realtà è rilevante poiché identifica due tipo-logie di trattamento del dato, una che viene effettuata comunque dalla ditta gestore della piattaforma una volta acquisito ildato e che permette all’utente di utilizzare in maniera proficua i dati [http://tlclab.unipv.it], e l’altra che viene effettuatadalla stessa ditta (su richiesta del committente) o dal committente stesso, ma che comunque non rappresenta una procedu-ra strettamente essenziale e che dipende dal fine ultimo per il quale si è richiesta la scena satellitare.42
  47. 47. Capitolo 2 Elaborazione ed interpretazione delle immaginire con il valore effettivo della grandezza acquisita in quella posizione (o posizioni se sitratta di una riga).Figura 2.3.1 - Immagine pancromatica in cui sono presenti tre Drop Line.Per correggere tale errore si applicano tecniche fondamentalmente semplici; nel caso di unpixel saltato si può:- sostituire il pixel con il valore del pixel precedente o successivo della riga, , 1 , , 1(precedente) (successivo)i j i j i j i jDN DN DN DN− += =- sostituire il pixel con la media dei vicini della stessa riga, 1 , 1,2i j i ji jDN DNDN− ++=- sostituire il pixel mediante la stima basata sulla media dei vicini e sulla correlazionetra bande qualora la ripresa fosse multispettrale;- sostituire il pixel ricavando un valore medio tra i valori dei pixel vicini, utilizzandofinestre mobili (normalmente chiamate finestre) di dimensioni 3 × 3 o 5 × 5;nel caso di una linea si può:43
  48. 48. Capitolo 2 Elaborazione ed interpretazione delle immagini- sostituire l’intera linea con quella precedente o con quella successiva;- sostituire l’intera linea con la media della precedente e della successiva;- operare con metodi più complessi che si basano, similmente al singolo pixel, alla cor-relazione tra bande nel caso di ripresa multispettrale.b. Equalizzazione del sensoreNei sistemi a scansione ottico-meccanica, ad ogni oscillazione dello specchio il singolorivelatore registra una linea di pixel. Per varie cause, può accadere che le funzioni di tra-sferimento dei dati dal sensore al registratore non siano identiche per tutti i rivelatori, oche uno dei rivelatori non sia ben calibrato rispetto agli altri. Ciò comporta un effetto distriatura regolare nell’immagine (striping) visibile soprattutto sulle superfici omogeneequali ad esempio la neve e l’acqua [http://tlclab.unipv.it]. In figura 2.3.2 si ha un esempiodi una scansione fatta con un sensore a 17 rivelatori, ed una riga corrispondente ad uno diessi è più chiara di circa 4-5 DN in una banda ad 8 bit.Figura 2.3.2 - Immagine pancromatica affetta da effetto striping [http://earth.esa.int]44
  49. 49. Capitolo 2 Elaborazione ed interpretazione delle immaginiL’effetto può essere ridotto rielaborando a posteriori i dati acquisiti in modo da conforma-re le risposte apparenti dei diversi rivelatori. A tal proposito sono possibili più tecniche:- Tecnica lineare: si basa sull’assunzione che mediamente tutti i rivelatori “vedono”una distribuzione simile di coperture del suolo all’istante di acquisizione t e quindiuna distribuzione simile di DN, e che i rivelatori siano lineari;- Tecnica basata sulla conformazione degli istogrammi: rimuove l’ipotesi di compor-tamento lineare dei sensori;- Altre tecniche basate ad esempio sul filtraggio spaziale.Figura 2.3.3 - Sulla sinistra l’immagine prima che venga trattata per l’effetto striping,sulla destra la stessa immagine dopo essere stata corretta [http://tlclab.unipv.it]c. Calibrazione del sensoreCon questa operazione si fa riferimento alle procedure che permettono di convertire i DNrilevati in valori fisici di radianza (Lλ) secondo l’equazioneλ λ λL rumore DN guadagnoλ= + ×In figura 2.3.4 è rappresentata la retta funzione di calibrazione: per conoscernel’andamento si devono quindi ricavarne i parametri (il coefficiente angolare m e il terminenoto q). Tale operazione non è semplice poiché, se pur noti dalla casa costruttrice che li ci-45
  50. 50. Capitolo 2 Elaborazione ed interpretazione delle immagini9ta nei parametri di pre-lancio, tali valori variano col tempo ( ): il calcolo si effettua in ge-nere con algoritmi che ne stimano l’entità, permettendo una valutazione accurata della ra-dianza L al rilevatore.Figura 2.3.4 - Funzione di calibrazioneLa calibrazione radiometrica è particolarmente importante quando si intende confrontaretra di loro i dati acquisiti da sensori differenti.d. Correzione degli effetti del terrenoSappiamo che la stima della riflettanza del bersaglio si fa sulla base della radiazione checolpisce il sensore: tale radiazione è però influenzata dalle condizioni di illuminazione delbersaglio e dalla sua posizione. L’allontanamento dalla situazione ideale è causato da:• Riflessione non lambertiana;• Superficie terrestre non piatta.Per quanto esistano vari modi per correggere tale problema, il più accreditato rimane laconoscenza di un modello numerico del terreno, ovvero di un DEM (Digital ElevationModel), che migliora la correzione in funzione della sua risoluzione.(9) - In fase di test a terra si fa il calcolo della curva di calibrazione mediante quelle che vengono chiamate sfere di calibrazione:si definiscono quantitativamente la risposta del radiometro ad un segnale di ingresso noto mediante diverse coppie(Lλ, DNλ), utilizzando poi la regione lineare di tale curva46
  51. 51. Capitolo 2 Elaborazione ed interpretazione delle immaginie. Correzione atmosfericaLa radianza viene attribuita in prima approssimazione integralmente all’oggetto osservato:ciò non è propriamente vero, poiché la radiazione elettromagnetica che viaggiadall’oggetto al sensore non attraversa il vuoto ma viaggia attraverso l’atmosfera che ne vaa modificare il valore effettivo. I gas atmosferici, gli aerosol ed i vapori contribuiscono adassorbire, diffondere e rifrangere la radiazione solare diretta e riflessa dalla superficie ter-restre.Una delle approssimazioni più utilizzate per mettere in relazione radianza al sensore e ri-flettanza al bersaglio è:S totL H pρ T L= ⋅ ⋅ +dove:- Ls è la radianza al sensore;- Htot è la radianza incidente totale;- ρ è la riflettanza del bersaglio (rapporto radianza riflessa/radianza incidente);- T è la trasmittanza dell’atmosfera;- Lp è la così detta “radianza del percorso”.Tali valori sono stimati mediante modelli atmosferici o mediante una tecnica detta del“pixel nero”, in cui sostanzialmente si suppone che i pixel cui si associa il valore minimodi riflettanza abbiano in effetti riflettanza zero [Caprioli, 2005].Figura 2.3.5 - Sulla sinistra l’immagine originale prima di essere trattata; sulla destra lastessa scena una volta applicata la correzione atmosferica [http://tlclab.unipv.it]47
  52. 52. Capitolo 2 Elaborazione ed interpretazione delle immagini2.3.2 - CORREZIONI GEOMETRICHEI dati acquisiti sono affetti anche da errori geometrici. La posizione di ogni pixel osservatodeve teoricamente essere individuata con esattezza geograficamente: ciò non accade, pro-prio per la presenza di tali errori.Gli errori geometrici, così come quelli radiometrici, vengono trattati dalla stazione rice-vente per ridurne quanto più possibile gli effetti, utilizzando opportuni programmi che ef-fettuano la compensazione di tali errori. Malgrado ciò restano degli errori residui che do-vranno poi essere eliminati o ridotti a cura dell’utente in fase di processamentodell’immagine.Le cause di questo tipo di errori si possono riassumere come segue:a. Errori strumentali;b. Distorsione prospettica;c. Rotazione della Terra e simultaneo spostamento della traccia a terra durante un ci-clo di osservazione;d. Variazioni di assetto del satellite.a. Errori strumentaliSono errori insiti nello strumento, prevalentemente distorsioni della parte ottica, velocitàdi campionamento non uniforme e non linearità del sistema di scansione: non si può certopretendere che strumenti del genere siano esenti da tali errori, come tutti gli strumenti diprecisione in genere, ma si può pretendere che la ditta costruttrice dello strumento si pon-ga delle tolleranze molto ristrette perché il prodotto sia efficiente e soprattutto sia preciso.b. Distorsione prospetticaGeometricamente è un fenomeno dovuto al punto di vista (sensore) a distanza finita, checomporta un effetto irreale sull’immagine specie quando si ha a che fare con strutture mol-to elevate dal terreno o con rilievi particolarmente irregolari. Le classiche linee che con-vergono verso il punto di fuga, e che non consentono misure dirette sulla scena, nel casodi sensori a scansione possono essere individuate lungo la direzione ortogonale al motodel satellite (quindi lungo lo swath), ma anche, sebbene in forma molto più contenuta,lungo la direzione dell’orbita. Ciò vale soprattutto se operiamo con sensori ottico-48
  53. 53. Capitolo 2 Elaborazione ed interpretazione delle immaginimeccanici a specchio oscillante che possono presentare più rilevatori per singola bandache effettuano il campionamento trasversalmente al moto del satellite.Figura 2.3.6 - La ripercussione dell’effetto prospettiva sul piano del sensoreIn figura 2.3.6 è riportato un esempio grafico: in verde un edificio che capita all’internodello swath del satellite, la linea rossa verticale tra a e b rappresenta la facciatadell’edificio, ed il tratto rosso sul piano della scansione across-track, delimitato dai puntiA e B, rappresenta il tratto ab proiettato sull’immagine. L’effetto prospettico comporterà,sulla scena finale, la presenza dell’edificio distorto nella direzione che va da B ad A. Comesi può dedurre sempre dalla figura 2.3.6, tale effetto aumenta con l’allontanarsi dal nadirdel sensore, e quindi maggiore sarà il FOV (Field Of View) più evidente sarà l’effetto dellaprospettiva ai margini dell’immagine.c. Rotazione terrestreDurante la scansione dell’immagine telerilevata da satellite, la Terra ruota verso Est, ra-gion per cui l’inizio della riga successiva si trova leggermente più ad Ovest rispetto aquanto previsto per prolungamento dalla posizione della riga scandita precedente.49
  54. 54. Capitolo 2 Elaborazione ed interpretazione delle immaginiFigura 2.3.7 - In alto una scena satellitare corretta dall’effetto della rotazione terrestre:le croci rosse indicano le nuove posizioni di tre punti (il satellite in questo caso percor-re la fase discendente dell’orbita mentre effettua la ripresa; in fase ascendentel’immagine sarebbe stata distorta verso sinistra)d. Variazioni di assetto del satelliteIl moto dei satelliti non è mai stabile e costante: il monitoraggio da terra permette di con-trollare di quanto si sta spostando il satellite dalla sua orbita e in caso di necessità si pos-sono eseguire delle manovre correttive che consistono nel dare degli impulsi, con i motoridella piattaforma, in determinate direzioni per modificare l’assetto e l’orbita del satellite.Accade quindi che durante una scansione si verificano delle variazioni dell’assetto del sa-tellite (angoli di beccheggio, rollio ed imbardata) (vedi Figura 2.2.1)Esistono vari metodi per correggere geometricamente l’immagine, qui ne proponiamo tretra i più accreditati:• Metodo basato sulla conoscenza dei parametri orbitali;• Georeferenziazione;• Ortorettifica.50
  55. 55. Capitolo 2 Elaborazione ed interpretazione delle immagini2.3.2.1 - MODELLO GEOMETRICO ORBITALEFigura 2.3.8b - Angoli di assettoFigura 2.3.8a - Principali parametri orbitaliSenza addentrarci troppo nel campo prettamente spaziale, vediamo in breve quali sono iparametri orbitali fondamentali che permettono di descrivere l’orbita (vedi Figura 2.3.8a):- Semiasse maggiore dell’orbita a- Eccentricità dell’orbita e- Inclinazione dell’orbita i sul piano dell’equatore- Ascensione retta del nodo ascendente Ω- Argomento del perigeo ω- Anomalia vera τ- Angoli di assetto del satellite (φ, ω, κ) (vedi Figura 2.3.8b).Con la conoscenza di questi parametri è possibile ricostruire la configurazione geometricapresente all’acquisizione del dato, per ogni istante t, utilizzandola per assegnare le coordinateai pixel acquisiti. Questo metodo può essere considerato valido se i parametri sono noti conuna buona precisione, ma non è sempre così: per esempio tale metodo non considera alcunifattori come le variazioni del puntamento della piattaforma, fattori che provocano distorsionigeometriche.51
  56. 56. Capitolo 2 Elaborazione ed interpretazione delle immaginiSui satelliti di nuova generazione si utilizzano equipaggiamenti con sensori di “puntamen-to” che rendono più accurata la conoscenza della situazione geometrica del satellite. Uno diquesti sensori è lo Star Tracker Stellar Compass (STSC), strumento che ha la capacità di ri-conoscere costellazioni mediante un’operazione di “matching” con un database di costella-zioni presenti nel software dello strumento. Mediante un sensore CCD e delle risoluzioni an-golari elevate (nell’ordine dei 150 micro-radianti [www.llnl.gov]) questo strumento è in gradodi aumentare la precisione nella conoscenza dei parametri orbitali del satellite.2.3.2.2 - GEOREFERENZIAZIONEIl secondo metodo consiste nell’operazione di georeferenziazione dell’immagine, cioèl’associazione dell’immagine ad un sistema globale, o locale, di coordinate cartografiche.La procedura consiste nell’individuare punti ben visibili (strade, incroci, spartitraffico,ecc.) e ben distribuiti sull’immagine da correggere geometricamente, ed allo stesso tempotrovare i corrispondenti punti su un immagine o su una carta di riferimento, ottenendo quindidei punti doppi (punti le cui coordinate sono note in entrambi i sistemi): tali punti vengonochiamati Punti di Controllo a terra (GCP - Ground Control Point) (10). Un numero elevato diGCP permette di impostare un sistema di equazioni sovrabbondante, e quindi di operare con iminimi quadrati per ricavare i residui sui vari punti di controllo: la quantità di GCP varia infunzione dell’ordine della trasformazione che si intende utilizzare e della precisione che sivuole ottenere. Ad esempio una trasformazione conforme, le cui equazioni sonocos sinsin cosxyx ax by c xλ ρ yλ ρ ty bx ay d xλ ρ yλ ρ t= + + = + += − + + = − + +dovetx = traslazione rigida dell’immagine secondo l’asse xty = traslazione rigida dell’immagine secondo l’asse yρ = rotazione rigida dell’immagineλ = fattore di scala secondo gli assi x ed ynecessita di almeno 2 punti doppi, mentre una trasformazione affine, le cui equazioni sono(10) - Le coordinate dei GCP possono essere ottenute anche da altre fonti, quali misure GPS, cartografie vettoriali, mappe topo-grafiche, monografie di punti fiduciali, ecc.52
  57. 57. Capitolo 2 Elaborazione ed interpretazione delle immagini( )( )cos sinsin cosx xy yx ax by c xλ ρ yλ ρ γ ty dx ey f xλ ρ yλ ρ γ t= + + = + + += + + = − + − +xydovetx = traslazione rigida dell’immagine secondo l’asse xty = traslazione rigida dell’immagine secondo l’asse yρ = rotazione rigida dell’immagineλx = fattore di scala secondo l’asse xλy = fattore di scala secondo l’asse yγ = angolo di scorrimentonecessita di almeno 3 punti doppi.La determinazione dei GCP consente la creazione di un grid, una “rete” a maglie quadrateregolari di cui si conoscono le coordinate planimetriche o planoaltimetriche e che rappresen-tano le coordinate che dovranno assumere i pixel dell’immagine secondo le funzioni di tra-sformazione determinate con i GCP.Per la georeferenziazione è d’uso fare anche dei controlli sul risultato finale: non inseren-do nelle equazioni tutti i GCP, ma lasciandone alcuni inutilizzati, alla fine della correzionedell’immagine si potranno verificare i residui sui punti inutilizzati, che in tal caso prendono ilnome di Punti di Verifica (CP - Check Point).Quando si effettua una georeferenziazione mediante una carta o un’immagine preesistente,si parla più di frequente di registrazione (o coregistrazione) “immagine su mappa” e di regi-strazione (o coregistrazione) “immagine su immagine”.2.3.2.3 - ORTORETTIFICA DI UN’IMMAGINE DIGITALEAffinché si possano utilizzare le immagini a scopi metrici è necessario che la scena ritrag-ga una zona piana o quantomeno ritenibile come tale. Le protuberanze della Terra creanoun’inevitabile variazione di quota relativa del satellite rispetto al terreno, comportando diconseguenza una scala che differisce da zona a zona nella scena. Zone pianeggianti non sonoperò in maggioranza sul nostro pianeta, e sul nostro paese ancora meno, si rende quindi ne-cessaria un’ulteriore correzione dell’immagine: l’ortorettifica; tale procedura consiste nel tra-sformare la proiezione centrale in una visione ortogonale, uniformando la scala dell’interascena [Tao, et al., 2004].53
  58. 58. Capitolo 2 Elaborazione ed interpretazione delle immaginiIn fotogrammetria classica si procede per ortofotoproiezione: l’intero fotogramma vieneproiettato su di un modello digitale del terreno (vedi Figura 2.3.9) seguendo le equazioni dicollinearità che si riportano qui di seguito [A.Selvini, F.Guzzetti, 2000]:( )( )11 12 130 031 32 3321 22 230 031 32 33r x r y r cX X Z Zr x r y r cr x r y r cY Y Z Zr x r y r c+ −− = −+ −+ −− = −+ −in cui:X,Y,Z = coordinate spaziali dell’oggettoX0,Y0,Z0 = coordinate spaziali del centro di proiezione.x, y = coordinate immagine dell’oggetto riferite al punto fiduciale sul fotogrammac = distanza principaleri,j = elementi della matrice di rotazione che legano gli assi del sistema di coordi-nate immagine con gli assi del sistema di coordinate oggetto.Figura 2.3.9 - Schema del processo di ortorettificaCome si può notare in tali equazioni è presente la coordinata Z dell’oggetto, il che spiegaperché l’utilizzo di un modello digitale del terreno, per l’esattezza un DEM (Digital ElevationModel). Il DEM è uno dei possibili modelli digitali del terreno con cui si ha a che fare54
  59. 59. Capitolo 2 Elaborazione ed interpretazione delle immagininell’ambito della fotogrammetria e più in generale della rappresentazione del territorio: esi-stono quindi anche altre superfici che si differenziano dal DEM, seppur di poco, e che vengo-no scelte in base all’utilizzo che si richiede, ma tutte sono accomunate dal poter fornire in-formazioni spaziali di superfici relativamente ad un sistema di riferimento arbitrario.Alcuni esempi di modelli digitali del terreno sono:- DEM - Digital Elevation Model: il modello si riferisce all’elevazione di punti rispettoad un determinato datum; viene in genere prodotto in formato raster associando aciascun pixel l’attributo relativo alla quota assoluta;- DTM - Digital Terrain Model: è l’insieme di punti appartenenti al terreno nudo, (tra-lascia quindi alberi, edifici, costruzioni, ecc.);- DSM - Digital Surface Model: è una superficie che include tutto ciò che è non è pre-sente nel DTM, quindi è la rappresentazione più prossima alla realtà geografica.Le modalità di generazione di un modello digitale sono varie:- Rilievo Laser: si sfruttano le coordinate dei punti ottenuti con il rilevo una volta chela nuvola di punti è stata georifierita;- Rilievo Topografico: generalmente si effettuano misure GPS in modalità cinematicacon punti registrati ad una frequenza di pochi secondi, in modo da poter ottenere undiscreto numero di punti;- Rilievo Fotogrammetrico: si può eseguire con tecniche manuali mediante restitutori,o automatiche mediante autocorrelazioni di immagini;- Vettorializzando cartografie raster: si vettorializzano carte topografiche in formatoraster georifierite. Si vettorializzano principalmente punti quotati o curve di livello;- Da cartografie vettoriali 3D: si utilizzano le coordinate planoaltimetriche delle entitàgeometriche presenti nella cartografia.Non si pensi soltanto ad un utilizzo dei modelli del terreno per correzioni geometriche diimmagini, ma anche per analisi spaziali per calcoli di vario genere (visibilità, volumetrie,pendenze, ecc.)La procedura di ortorettifica citata non è però applicabile quando parliamo di sensoriscanner: non siamo più in presenza di fotogrammi e quindi il concetto di coordinate immagi-ne riferite al singolo fotogramma svanisce. Per effettuare un’ortorettifica con scene satellitarisi devono considerare i parametri orbitali di cui abbiamo parlato nei paragrafi precedenti, male equazioni che mettono in relazione coordinate oggetto con coordinate immagine sulla sce-55
  60. 60. Capitolo 2 Elaborazione ed interpretazione delle immaginina satellitare sono più complesse delle equazioni di collinearità utilizzate con immagini “fra-me”. Anche in tali equazioni però è necessario introdurre le quote dei punti oggetto ben indi-viduati sull’immagine (GCP) che andremo ad utilizzare per l’ortorettifica, e di un grid per ilricampionamento le cui coordinate sono note sia planimetricamente che in quota (si sfrutta ilDEM per ricavare le quote).Perché l’immagine ortorettificata sia accurata, si devono tener in debito conto due requisi-ti: la buona distribuzione dei GCP e l’accuratezza del DEM; qualora uno di questi due requi-siti venisse meno si otterrebbe un’immagine ortorettificata affetta da errori non di poco conto.2.4 - IL RICAMPIONAMENTOLa correzione geometrica appena descritta comporta inevitabilmente una distorsione ra-diometrica dell’immagine: il guadagno geometrico è quindi a discapito della radiometriadell’immagine. Per ogni punto sul grid di output (ogni punto rappresenterà il nuovo pixel) siva allora a cercare l’intensità del pixel nell’immagine di input, determinandola mediante latecnica del ricampionamento (o resampling): i più comuni algoritmi di ricampionamento so-no tre:- Nearest Neighbor (prossimo più vicino)È il metodo più semplice di ricampionamento, un’approssimazione al primo ordine, maanche quello meno accurato: il valore DN assegnato al singolo pixel della nuova matricedi output è pari a quello del pixel della matrice di input che è posto alla minima distanza.Vantaggi: valori DN inalterati, algoritmo semplice da implementare, tempi di calcolocontenuti;Svantaggi: effetti di discontinuità, shift fino a ½ pixel.Figura 2.4.1 - Ricampionamento Nearest Neighbor: A = Ma-trice dei pixel in ingresso, B = Matrice dei pixel in uscita56
  61. 61. Capitolo 2 Elaborazione ed interpretazione delle immagini- BilinearIl valore DN assegnato al nuovo pixel viene calcolato mediante interpolazione che coin-volge i 4 pixel più vicini;Vantaggi: accuratezza geometrica migliorata rispetto al Nearest Neighbor, immaginedai contrasti più attenuati (smooth);Svantaggi: valori DN alterati, tempo di calcolo stimato pari a 10 volte quello impie-gato dal Nearest Neighbor.Figura 2.4.2 - Ricampionamento Bilinear: A = Matrice deipixel in ingresso, B = Matrice dei pixel in uscita- Cubic convolutionQuesto tipo di interpolazione calcola il valore DN del nuovo pixel sfruttando ben 16 pixelpiù prossimi. Tale approssimazione risulta certamente la più performante in termini di ac-curatezza rispetto alle due precedenti.Vantaggi: accuratezza geometrica migliorata rispetto al Nearest Neighbor e al Bili-near, più semplice riconoscere le piccole variazioni dei dettaglisull’immagine;Svantaggi: valori DN alterati, algoritmo complesso da implementare, tempo di calco-lo stimato pari a 20 volte quello impiegato dal Nearest Neighbor.57
  62. 62. Capitolo 2 Elaborazione ed interpretazione delle immaginiFigura 2.4.2 - Ricampionamento Cubic Convolution: A = Ma-trice dei pixel in ingresso, B = Matrice dei pixel in uscita2.5 - ELABORAZIONE ED INTERPRETAZIONE DELLE IMMAGINITerminate le operazioni di competenza del centro di elaborazione del segmento terrestre,sono terminati i trattamenti a cui il dato iniziale grezzo (raw data) è sottoposto: sono quindiconcluse le procedure che fanno parte dell’Image Preprocessing (vedi nota (8)). Ma perché idati telerilevati siano utili, dobbiamo essere in grado di estrarre informazioni significativedalle immagini. L’interpretazione e l’analisi delle immagini telerilevate implicanol’identificazione e quindi l’estrazione di utili informazioni sui diversi elementi presenti sullestesse [www.planetek.it].Molte delle interpretazioni e identificazioni di elementi presenti nelle immagini sono ef-fettuate manualmente o visivamente da un interprete umano, e in certi casi ciò viene messo inatto usando immagini visualizzate in un formato fotografico, specie se si analizzano immagi-ni provenienti da riprese aeree in formato analogico.Le immagini telerilevate possono essere visualizzate su uno schermo di un elaboratorecome una griglia di pixel, con ciascun pixel corrispondente ad un numero digitale che rappre-senta il livello di luminosità del pixel dell’immagine. In questo caso i dati sono in formato di-gitale.È a questo punto che l’utente interviene sulle immagini con metodi di Image Processingper cercare di migliorarne la qualità e consentire quindi una migliore interpretazione, manualeo automatica che sia, ed in questo contesto analizzeremo proprio un automatismo per58
  63. 63. Capitolo 2 Elaborazione ed interpretazione delle immaginil’interpretazione dei dati. L’attuazione di tali procedure è possibile grazie al digitale che, co-me vedremo in seguito, mostra numerosi altri vantaggi.Quando si parla di migliorare visivamente un’immagine si introduce il concetto di enfatiz-zazione (o enhancement) dell’immagine, cioè un insieme di tecniche volte al miglioramentodell’aspetto delle immagini al solo scopo di facilitarne l’interpretazione visiva, aumentando ledifferenze di tono tra vari oggetti di una scena, esaltando i contorni degli oggetti o combinan-do diverse bande tra loro [Dermanis et al., 2002].Queste tecniche possono essere divise in due gruppi: quelle che non modificano i valoridei pixel nell’immagine originale e quelle che invece agiscono sui DN, modificandone i valo-ri e inficiandone quindi il significato radiometrico.2.5.1 - POSSIBILI VISUALIZZAZIONI DELL’IMMAGINE SU SCHERMOTra le tecniche di enfatizzazione delle immagini si introducono anche le possibili differen-ti visualizzazioni di un’immagine su schermo, tanto più numerose quanto più bande si hannoa disposizione per quella scena. Su di uno schermo è possibile visualizzare immagini in duemodalità: o in toni di grigio o come immagini a colori combinando differenti bande usando itre colori primari (RGB) dello schermo, rappresentando i dati di ciascuna banda come uno deitre colori; in funzione della luminosità (DN) di ciascun pixel di ogni banda, i colori primari sicombinano in proporzioni diverse per formare nuovi colori (si parla in tal caso di sintesi addi-tiva, cioè della possibilità di sovrapporre i tre colori primari). Se tale metodo si usa per visua-lizzare una singola banda, quest’ultima viene visualizzata attraverso tutti e tre colori primari,ma i livelli di luminosità dei tre colori variano parallelamente, ottenendo così un’immagine intoni di grigio.Quando si assegnano ai tre colori RGB dello schermo rispettivamente le bande rosso, ver-de e blu di un’immagine multispettrale, si ottiene quella che si chiama rappresentazione incolori reali o naturali. Si parla di colori reali proprio perché questa è l’unica composizione dibande che permette di ottenere la stessa visualizzazione che si avrebbe osservando diretta-mente l’oggetto: siamo infatti nel campo del visibile, quindi percepibile dall’occhio umano.Se invece si assegnano ai tre colori primari altre composizioni di bande, o anche le stessebande di prima ma in ordine differente, si ottengono tante possibili visualizzazioni che ven-gono dette rappresentazioni in falso colore: le applicazioni di questa modalità di visualizza-zione sono molteplici specialmente in campo ambientale, laddove si vuole indagare il territo-59
  64. 64. Capitolo 2 Elaborazione ed interpretazione delle immaginirio alla ricerca per esempio di sostanze o di scarichi sottomarini abusivi, altrimenti impossibi-li da vedersi. Una delle più frequenti composizioni di bande è quella con le seguenti associa-zioni di colore:Rosso: Near Infrared (NIR)Verde: RossoBlu: VerdeTutte le tecniche di visualizzazione descritte rientrano nel primo gruppo delle tecniche dienfatizzazione, poiché non modificano i valori DN delle immagini.321 134341 413Figura 2.5.1 - Alcuni esempi di assegnazioni delle quattro bande IKONOS (1 = Blu; 2 = Verde;3 = Rosso; 4 = Infrarosso) ai colori principali RGB di uno schermo: la prima a sinistra è una rappresen-tazioni in colori naturali, le rimanenti sono rappresentazioni in falso colore. [Dermanis et al., 2002]60

×