Giornata Tecnica da Piave Servizi, 11 aprile 2024 | CADEI Giovanni
Sistema di acquisizione in banda multispettrale
1. Universita degli Studi di Trieste
DIPARTIMENTO DI
Corso di Laurea Magistrale in Ingegnerie e Architettura
Sistema di acquisizione in banda multispettrale
Candidato:
Schettino Giovanni Maria
Relatore:
prof. Marsi Stefano
Correlatore:
dott. Maris Michele
Anno Accademico 2018–2019
2. Ringrazio il professor Marsi che mi ha seguito pazientemente,
il dottor Maris Michele che mi ha aancato durante il tirocinio,
Federica Rossi per il grande aiuto che mi ha dato,
la mia famigia per il supporto,
e lo sta del FabLab per il supporto tecnico.
9. Capitolo 1
Introduzione
Con questa tesi si vuole andare a realizzare un sistema di acquisizione di
immagini in bande multispettrali al ne ultimo di essere utilizzato per la
realizzazione di un satellite ad opera di Picosat azienda che si occupa della
progettazione e dello studio di piccoli satelliti che sono facili da costruire,
leggeri, sostenibili e performanti.
La tecnica di acquisizione di immagini in banda multispettrale trova impiego
in ambito agronomico in quanto è utile per monitorare l'attività agricola e
aronta problemi specici non comuni in altri settori economici [1]. In primo
luogo, la produzione agricola subisce un forte andamento stagionale legato
al ciclo biologico delle piante. In secondo luogo essa dipende dalle caratteri-
sctiche sico chimiche del paesaggio (i.e. il tipo di terreno), dall'andamento
climatico e dalla gestione della pratica agricola. Tutte queste variabili sono
dipendenti dallo spazio e dal tempo. Inoltre, come la produttività può cam-
biare in brevi periodi di tempo, a causa di un cambiamento sfavorevole delle
condizioni, i sistemi di monitoraggio agricolo devono essere gestiti tempesti-
vamente. Questo è ancora più importante dal momento che molti prodotti
articoli sono deperibili. Quindi, come sottolineato dalla Food and Agricolture
Organization (FAO) [1], la necessità di una risposta tempestiva è un fattore
determinante alla base delle statistiche agricole e dei sistemi di monitoraggio
associati e vale poco se diventa disponibile in tempi troppo lunghi.
Questo sistema di acquisizione può portare un signicativo contributo nel
recuperare tempestivamente un'immagine accurata nel settore agricolo e può
rivelarsi veramente utile per acquisire informazioni su vaste aree e ad al-
ta frequenza. Il monitoraggio della produzione agricola diventa necessario
se si pensa all'incremento della domanda di prodotti agricoli causato dal-
l'incremento della popolazione. Questo traguardo è dicile se si pensa ai
cambiamenti climatici e all'uso del terreno non per scopi agricoli (i.e. espan-
sione urbanistica).
9
10. 10 CAPITOLO 1. INTRODUZIONE
L'avvento dei satelliti ha permesso di acquisire immagini su più bande per
acquisire informazioni sui pianeti (inclusa la terra) e sui loro sviluppi. I sen-
sori usati sui satelliti possono fornire molte informazioni sullo stato di salute
delle piante, sulla temperatura, sui movimenti delle nubi e sulle stagioni così
da permettere di avere un monitoraggio rapido e accurato di fenomeni e di
particolarità atrmosferiche e del terreno.
In uno studio fatto in precedenza [1] è stata analizzata una possibile costel-
lazione di satelliti da mandare in orbita per questo tipo di monitoraggio,
questa tesi vuole essere una prosecuzione della precedente e in particolare in
essa verrà analizzata una possible soluzione per quanto riguarda il sistema
di acquisizione dati.: un sensore lineare, che, per una questione pratica, è
stato sostituito con una fotocamera ad alta risoluzione. Si andrà dunque a
realizzare un prototipo del sistema di acquisizione con tale fotocamera e si
realizzerà un metodo di elaborazione dell'immagine acquisita per ottenere
delle panoramiche della porzione di terreno che si vorrà analizzare; in parti-
colare si cercherà di creare una panoramica per tipo di ltro utilizzato. Una
volta ottenute le informazioni ricavate dalle foto, queste verranno combinate
per ottenere nuovamente l'immagine iniziale e per ricavare dati sullo stato di
salute della porzione di vegetazione presa in considerzione.
11. Capitolo 2
Misura di vegetazione
2.1 La radiazione solare
Le reazioni termonucleari di fusione e ssione che hanno luogo sul sole emet-
tono nello spazio uno spettro di onde elettromagnetiche, tale insieme viene
denominato radiazione elettromagnetica.Queste onde si propagano alla velo-
cità nota di: 3 ∗ 108 m
s
F,inoltre si ha che la velocità della radiazione solare è
costante per ogni onda che la caratterizza e risulta che il prodotto della fre-
quenza per la velocità di una qualsiasi di queste onde è pari a tale costante.
Quindi identicando con c la velocità della luce, con λ la lnghezza d'onda e
con f la frequenza, vale la relazione:
c = λ ∗ f
La radiazione solare è distribuita su un ampio spettro di ampiezza in
maniera non uniforme. La forma che assume è più simile a quella di una
campana centrata nei 500 nm, come è visibile dalla gura 2.1.
La radiazione solare si può suddividere in 3 bande: la banda della ra-
diazione fotosintetica attiva, la banda della radiazione infrarossa e la banda
della radiazione ultravioletta.
La banda della radiazione fotosintetica attiva (PAR), indice di misura dell'e-
nergia della radiazione solare intercettata dalla clorolla di tipo a e b nelle
piante, va dai 400 nm ai 700 nm e corrisponde allo spettro della luce visibile.
La PAR è considerata pari al 41% dell'energia solare.
La banda degli infrarossi è quella la cui lunghezza d'onda va dai 700 nm a 1
mm e viene spesso associata alla radiazione termica poichè ogni oggetto con
temperatura superiore allo zero assoluto emette spontaneamente radiazioni
in questa banda.
11
12. 12 CAPITOLO 2. MISURA DI VEGETAZIONE
Figura 2.1: Spettro solare
Inne la banda degli ultravioletti è quella che sta appena al di sotto di quel-
la fotosintetca attiva e sopra a quella dei raggi X, quindi tra i 10-400 nm.
Questo tipo di radiazione può essere suddiviso in diverse bande a seconda dei
campi di studio. La dierenzazione più immediata è: UV vicino o prossimo
(200-380 nm) e UV estremo (10-200 nm). A causa dell'assorbimento dell'o-
zonosfera, la maggior parte dei raggi che raggiungono la supercie terrestre
vanno da 315-380 nm.
2.2 Relazione tra assorbimento e fotosintesi
Il principale fotorecettore responsabile dell'assorbimento della radiazione lu-
minosa è la clorolla, un pigmento isolato nel 1817 dal chimico francese Jose-
ph Bienaimè Caventou, presente nei grani dei cloroplasti delle cellule vegetali,
o negli organismi procarioti che realizzano la fotosintesi cloroliana.
In natura esistono cinque tipi diversi di clorolla (clorolla a, clorolla b,
clorolla c1, clorolla c2, clorolla d), che si dierenziano per la struttura
molecolare (principalmente per la quantità di atomi di ossigeno e di idrogeno
presenti nella molecola). Come si vede nell'immagine 2.2, la molecola della
clorolla, ha una struttura ad anello al centro del quale è presente un atomo
di magnesio che ha la funzone di mantenere la struttura rigida così da evitare
che l'energia assorbita dalla radiazione elettromagnetica, che la colpisce, si
13. 2.2. RELAZIONE TRA ASSORBIMENTO E FOTOSINTESI 13
disperda in calore prima che possa essere utilizzata per il processo fotosinte-
tico.
Dall'immagine 2.3 si può notare che la clorolla assorbe la radiazione elettro-
Figura 2.2: Molecola della clorolla
magnetica principalmente nella regione del blu e del rosso, riettendo quindi
tutta la porzione di spettro centrale, assumendo così il colore verde tipico
della vegetazione.
In particolare, la clorolla di tipo a ha due picchi di assorbimento: uno a 430
nm e l'altro a 663 nm; invece la clorolla di tipo b ha i massimi assorbimenti
a 434 nm e a 666 nm, analoghe zone di assorbimento le troviamo anche negli
altri tipi di clorolla.
La clorolla di tipo a è la maggior resposabile dell'assorbimento dell'energia
proveniente dalla radiazione solare e la troviamo in tutti gli organismi fotosin-
tetici; mentre la clorolla di tipo b ha la funione di trasmettere all'organismo
l'energia assorbita dalla clorolla a per la fotosintesi.
Figura 2.3: Assorbimento della clorolla
14. 14 CAPITOLO 2. MISURA DI VEGETAZIONE
2.3 Normalized Dierence Vegetation Index (ND-
VI)
Per determinare la densità di verde in una parte del terreno, il ricercatore
deve osservare i vari colori (lunghezza d'onda) del visibile e dell'infrarosso
riessi dalle piante. Un modo per studiare la ricezione del colore è quello
di ltrare il colore attraverso un prisma, poichè lo spettro della luce solare
riessa dalle piante è composto da molte lunghezze d'onda dierenti. Quando
la luce solare colpisce degli oggetti, alcune lunghezze d'onda di questo spettro
vengono assorbite, mentre altre vengono riesse. I pigmenti delle foglie delle
piante e la clorolla assorbono una grossa parte dello spettro del visibile
(dai 0.4 µm ai 0.7 µm) per esser usato nella fotosintesi. La struttura a celle
delle foglie, d'altro canto, possiede una forte proprietà di riessione della luce
infrarossa (dai 0.7 µm ai 1.1 µm). Più foglie ha una pianta, più lunghezze
d'onda vengono riesse.
Le gure 2.4 e 2.5 mettono a confronto due immagini della terra prese da un
satellite: nella prima si mostra un immagine presa nella banda del visibile la
seconda la stessa immagine ma acquisita nella banda dell'infrarosso.
Figura 2.4: Banda del visibile (AVHRR Channel 1, 0.58-0.68 µm)
Figura 2.5: Banda del dell'infrarosso (AVHRR Channel 2, 0.725-1.1 µm)
La vegetazione appare molto dierente tra la foto del visibile e quella
dell'infrarosso. Nello spettro del visibile, la vegetazione è veramente scura,
quasi nera, mentre le regioni desertiche (come il Sahara) sono molto chiare.
Nell'infrarosso, la vegetazione appare più luminosa mentre i deserti presen-
15. 2.3. NORMALIZED DIFFERENCE VEGETATION INDEX (NDVI) 15
tano quasi la stessa intensità luminosadei deserti nello spettro del visibile.
Se si confrontanole due immagini, si può misurare la quantità relativa di ve-
getazione.
La misura della vegetazione tramite satellite viene già eettuate mediante
l'uso del sistema di acquisizione NOAA AVHRR.
Il sistema di acquisizione NOAA AVHRR (Advance Very High Resolution
Radiomenter per maggiori informazioni consultare [3]) ha 5 sensori, due dei
quali sono sensibili alle lunghezze d'onda con range 0.55-0.7 e 0.73-1.0 µm
rispettivamente. Con i sensori del AVHRR, si possono misurare le intensità
luminose della luce che viene riessa dalla supercie terrestre nel visibile e
nell'infrarosso e quanticare la capacità fotosintetica della vegetazione acqui-
sita in ogni singolo pixel. In generale, se c'è una riessione maggiore della
radiazione infrarossa che di quella nel visibile, la vegetazione in quel pixel
potrebbe appartenere ad un determinato tipo di foresta. Se vi è una die-
renza molto piccola tra il visibile e l'infrarosso, la vegetazione relativa a quel
pixel può essere associata a quella della tundra, della steppa o del deserto.
Quasi tutti i satelliti che devono creare un indice di vegetazione impiegano
una formula di rapporto per quanticare la densità di piante che crescono
sulla terra - il rapporto tra la dierenza tra la radiazione infrarossa e la
radiazione del visibile e la somma tra la radiazione infrarossa e quella visibile.
Il risultato di questa formula è chiamato Normalized Dierence Veegetatione
Index (NDVI).
Scritta matematicamente la formula è:
NDV I =
NIR − V IS
NIR + V IS
(2.1)
Dove NIR rappresenta l'intensità della radiazione rilevata nella banda del-
l'infrarosso e VIS l'intensità nella banda del visibile
16. 16 CAPITOLO 2. MISURA DI VEGETAZIONE
Figura 2.6: Esempio rifessione
0.50 − 0.08
0.50 + 0.08
= 0.72
0.40 − 0.30
0.40 + 0.30
= 0.14
I valori riportati sotto la gura 2.6 sono rappresentativi del valore eettivo
dell'NDVI, tuttavia la vegetazione reale è molto più variabile, in quanto la
quantità di clorolla in una pianta non è mai la uniforme ne sulla pianta ne
se confrontata con altre piante.
L'NDVI è calcolato tra la luce visibile e infrarossa riessa dalla vegetazio-
ne. La vegetazione sana (sulla sinistra) asorbe la maggior parte del visibile.
La vegetazione che invece non è sana o è sparsa (sulla sinistra) riette molto
nel visibile e meno nell'infrarosso.
Il calcolo del NDVI per un dato pixel può assumere valori in un range
tra meno uno (-1) e più uno (+1); qualche volta, le foglie che non sono verdi
hanno un valore vicino allo zero. Infatti il valore zero signica assenza di
vegetazione, mentre l'uno e valori ad esso prossimi (0.8-0.9) indicano un'alta
densità di foglie verdi.
17. Capitolo 3
Elaborazione dell'immagine
In questo capitolo si darà visione teorica su ciò che verrà utilizzato per pro-
cessare l'immagine. Quindi, seguendo il percorso del segnale acquisito, per
prima cosa, si vedranno i ltri, dopodichè, come allineare le immagini acqui-
site in modo da avere un numero di immagini nali pari al numero di ltri e,
inne, queste immagini verranno allineate con lo scopo di poter ricostruire
la scena iniziale.
Questi ultimi due step sono necessari poichè, per ottenere una scena acquisita
su tre bande bisogna eettuare una spazzolata, essendo i tre ltri accostari.
Quindi per ottenere un unico panorama ripreso con un unico ltro, si devono
dividere le immagini acquisite e allinearle.
Lo scopo nale di questo studio sarà quello di acquisire un immagine
multispettrale, ma nelle prove che verranno fatte sono stati utilizzati tre
ltri, questa selta è stata presa per semplicare la realizzazione del sistema
di acquisizione.
3.1 Filtraggio
Un ltro è un dispositivo che serve a selezionare parti di un insieme con de-
terminate caratteristiche dettate dal ltro stesso. Nel caso delle immagini,
i ltri permettono il passaggio di radiazioni elettromagnetiche con una de-
terminata lunghezza d'onda. I ltri sono principalmente di quattro tipi: i
ltri passa basso, che fanno passare tutti i segnali sotto una certa lunghezza
d'onda, i ltri passa alto, che fanno passare tutti i segnali sopra una certa
lunghezza d'onda, i ltri passa banda, che fanno passare i segnali che rien-
trano in un determinato range e, inne, i ltri elimina banda, che invece
eliminano i segnali in un certo range.
17
18. 18 CAPITOLO 3. ELABORAZIONE DELL'IMMAGINE
Il ltro ideale è quello che fa passare tutta l'informazione nell'area di interes-
se eliminando il resto, ma nella realtà ciò non accade poichè i ltri smorzano
un minimo l'area interessata e lo smoramento aumenta man mano che ci si
allontana da questa regione.
Figura 3.1: Filtro reale
Figura 3.2: Filtro ideale
Nelle gure 3.1 e 3.2 si nota la dierenza tra un ltro passa basso ideale
e un ltro passa basso reale che tagliano entrambi a f0, con f0 la frequenza
di taglio del ltro. Nel caso di quello ideale si possono distinguere una banda
dove passa tutto (pass band) ben divisa da un'altra banda dove non passa
nulla (stop band). Nel tro reale, invece, si ha una frequeza di taglio dove
l'ampiezza del segnale è calata di 3dB rispetto alla frequenza di centro banda
e, dopo questo punto, l'ampiezza continua a calare in maniera dipendente
dalla funzione che caratterizza del ltro.
Nel nostro caso verranno utilizzati tre ltri passa banda che lavoreranno sullo
stesso segnale centrati in bande dierenti; i tre ltri lavoreranno in parallelo
mandando il segnale ltrato al sensore, il quale si comporterà anche lui da
passa banda.
In gura 3.3 è riportato lo schema a blocchi del sistema di ltraggio, in cui
si ha che x(t) è il segnale in entrata (o l'immagine) mentre i blocchi R,G,B e S
19. 3.2. TIPI DI CORRISPONDENZA 19
Figura 3.3: Schema a blocchi ltraggio
rappresentano i ltri relativi al rosso, verde, blu e al sensore e hanno tutti un
comportamento da passa banda con la dierenza che la banda passante del
rosso, verde e blu è più stretta e centrata su tre lunghezze d'onda dierenti
rispetto a quella del sensore che comprende tutto lo spettro del visibile e
anche un po' dello spettro del vicino infrarosso.
3.2 Tipi di corrispondenza
Per determinare le corrispondenze, cioè le similitudini tra immagini die-
renti, ci si può avvalere di strumenti che lavorano su variabili globali, come
può essere l'immagine nella sua interezza, oppure di strumenti che utilizzano
variabili locali, come singoli punti o regioni limitate dell'immagine.
I metodi di confronto che veranno presi in considerazione in questa tesi rien-
trano tra i metodi di ricerca locale che può essere suddivisa in tre categorie:
il block matching, il gradient matching e il feature matching.
3.2.1 Block matching
Il block matching cerca le disparità tra un punto p preso nell'immagine
di riferimento e vari punti presi sull'altra immagine. Questo processo viene
compiuto confrontando una regione presa intorno al punto p con diverse
aree della stessa dimensione della regione di riferimento, quindi una volta
determinata l'area di riferimento di centro p sulla prima immagine, sull'al-
tra immagine si partirà dal punto con le stesse coordinate di p (i , j).
Così si indivinduerà una nestra scorrevole e la si sposterà, incrementando o
decrementando la coordinata i, no ad ottenere un totale di Dmax nestre
di ricerca che andranno poi confrontate con l'area di riferimento. In questo
modo si potranno determinare spostamenti orizzontali dell'immagine, mentre
20. 20 CAPITOLO 3. ELABORAZIONE DELL'IMMAGINE
per quelli verticali basterà ripetere la ricerca incrementando o decrementando
la coordinata j.
Figura 3.4: block matching
3.2.2 Gradient method
Il gradient method è un insieme di metodi basati sul calcolo del gradiente,
formulando un'equazione diereniziale che va a mettere in relazione la di-
stanza e la dierenza di luminosità tra le immagini. La luminosità in un
punto, che rimanere costante nelle due immagini, permette di poter calcolare
la distanza risolvendo l'equazione dierenziale:
( xE)r + Et = 0.
Dove ( xE)r é la componente in x del gradiente dell'immagine moltiplicato
per lo spostamento (r) tra le due immagini, mentre Et è la derivata tem-
porale riferita alle due immagini prese in considerazione, derivata temporale
intesa come dierenza di luminosità media delle due immagini.
3.2.3 Future matching
I due metodi visti non operano alcuna distizione tra le diverse zone dell'im-
magine e pertanto possono essere critici in zone dove vi sia poca informazione
sulla quale eseguire la comparazione (anche se non sarà il nostro caso). I me-
doti basati invece sulla tecnica del future matching comparano aree dove il
calcolo delle disparità è molto attendibile. Questi zono sono i punti che pre-
sentano paerticolari strutture e per i quali il contenuto informativo risulta
particolarmente ricco, come per esempio i contorni delle gure presenti nella
scena. I problemi subentrano quando l'immagine è tta di disparità poichè
questo metodo prende in considerazione solo un'area limitata dell'immagine,
21. 3.3. TIPI DI CORRELAZIONE 21
e il numero di dettagli presi in considerazione farebbe aumentare notevol-
mente il tempo di calcolo.
Un metodo molto utilizzato del future matching è il metodo gerarchicho.
Questo tipo di elaborazione parte analizzando le superci e aumenta il det-
taglio no ad arrivare ad analizzare le linee.
3.3 Tipi di correlazione
In questa tesi si è preferito utilizzare il block matching poichè le immagini
considerate non sono molto grandi e la scena non presenta gran dieren-
za di profondità. Con questo paragrafo si vuole spiegare come funzionano
due metodi appartenenti al block matching per cercare le similitudini tra
due immagini: il Sum and Square Dierence (SSD) e la Normalized Cross
Correlation (NCC).
3.3.1 Sum and Square Dierence
Il Sum and Square Dierence è un algoritmo molto semplice che si basa su
un calcolo della distanza tra due picchi di valori. Ogni pixel dell'immagine
è caratterizzato da uno specico valore di intensità e quindi le regioni prese
in considerazione hanno una combinazione di valori che le rendono uniche
nell'immagine totale.
L'obbiettivo di questo algoritmo è trovare il punto in cui l'area circostante
ha dierenza minima. Se tale dierenza fosse pari a zero, in quest'area ci
sarebbe una similitudine perfetta, tuttavia ciò non è possibile nella realtà a
causa di guadagni e rumori presenti nella foto. Per questo motivo si cerca
un punto di minimo.
Questo algoritmo, come detto nel paragrafo precedente, è molto sensibile a
variazioni di guadagno e di rumore e a possibili aree di omogeneità. Per
risolvere le prime due problematiche è stata introdotta la Normalized Cross
Correlation, mentre per ovviare al problema che riguarda le aree molto omo-
genee si può prendere in considerazione un'area di riferimento ragionevol-
mente grande.
Nella formula 3.1 si mostra come viene calcolato il Sum and Square Dieren-
ce.
SSD = min
d∈[0,Dmax]
{ (I1(x, y) − I2(x, y − d))2
} (3.1)
Dove I1(x, y) indica l'area di riferimento centrata nel punto di coordinate
”x, y” nell'immagine di riferimento, mentre I2(x, y − d) indica l'area di ri-
cerca dell'immagine da confrontare centrata nel punto ”x, y − d”. Si otterrà
22. 22 CAPITOLO 3. ELABORAZIONE DELL'IMMAGINE
quindi un insieme, di misura Dmax, di valori ordinati secondo ”d” e la miglior
similitudine si avrà nel punto di minimo.
3.3.2 Normalized Cross Correlation
La Normalized Cross Correlation è un algoritmo che prende in considerazione
due aree di ugual misura, e può essere applicato a due immagini dierse così
da trovare porzioni simili oppure alla stessa immagine al ne di individuare
eventuali zone che si ripetono.
Il coeciente di Cross Correlazione Normalizzata viene calcolato sottraendo
ai valori della nestra di interesse la media della nestra stessa, così da ridur-
re le dissimilarità dovute a dierenze di guadagno, e si divide il risultato per
la varianza dell'area così da ridurre le variazioni dovute al rumore. Questa
operazione viene eettuata sia sull'area di riferimento che sull'area di ricerca
ottenedo così due valori che verranno moltiplicati tra loro. Il coeciente di
Cross Correlazione assume dei valori che variano nell'intervallo compreso tra
0 e 1, il punto di maggior similitudine corrisponde al punto dove il risultato
è massimo e quindi più vicino a uno; infatti, nel caso in cui il risultato fosse
1, si avrebbe una correlazione perfetta.
Nella formula 3.2 si mostra come viene calcolato il Normalized Cross Corre-
lation nel caso in cui la ricerca del punto di massima verosimiglianza venga
fatto solo sull'asse y.
NCC = max
d∈[0,Dmax]
{
(I1(x, y) − I1(x, y))(I2(x, y − d) − I2(x, y − d))
σI1(x,y)σI2(x,y−d)
}
(3.2)
Dove I1(x, y) indica l'area di riferimento centrata nel punto x, y, I1(x, y)
indica la media dell'area di riferimento centrata nel punto ”x, y”, I2(x, y −d)
indica l'area di ricerca centrata nel punto ”x, y − d”, I2(x, y − d) indica la
media dell'area di ricerca centrata nel punto ”x, y−d”, inne σI1(x,y)σI2(x,y−d)
sono rispettivamente le varianze dell'area di ricerca e dell'area di riferimento.
Nel caso in cui si volesse estendere la ricerca anche all'asse y, basterebbe
sottrarre a x un valore c che varierà in un intervallo che può estendere la
ricerca a tutta la gura oppure a soli pochi pixel, ottenendo così la seguente
relazione:
NCC = max
d∈[0,Dmax]
max
c∈[0,Cmax]
{
(I1(x, y) − I1(x, y))(I2(x − c, y − d) − I2(x − c, y − d))
σI1(x,y)σI2(x−c,y−d)
}
(3.3)
23. 3.4. IL COLORE 23
3.4 Il colore
3.4.1 La percezione del colore
Il colore è la percezione che un essere vivente ha dello spettro elettromagne-
tico riesso da un oggetto; esso non è dunque una caratteristica intrinseca
dell'oggetto stesso. La percezione dipende dalle proprietà della sorgente lu-
minosa (o illuminante), delle caratteristiche d'assorbimento e di riessione
dell'oggetto e dal sistema percettivo dell'osservatore nale.
Partendo da quest'ultimo, prendendo come esempio l'essere umano, il colore
viene percepito attraverso i coni e i bastoncelli del suo occhio, quest'ultimi
non si occupano di percepire i colori, ma la luce nel caso in cui il soggetto sia
in un ambiente scuro. I coni sono invece dei ricettori che si trovano sul fondo
della retina e che trasmettono un segnale al cervello quando percepiscono una
determinata lunghezza d'onda. Si possono trovare 3 tipi di coni nell'occhio
umano distinti in base alla lunghezza d'onda percepita.
In gura 3.5 si mostrano la risposta in frequenza dei coni in un soggetto
Figura 3.5: Spettro Coni
medio. I nomi dati alle curve dipendono dalla lunghezza d'onda, per cui si ha
che la curva S(=short) ha il picco intorno ai 440 nm, la curva M(=medium) ,
e la curva L(=long) . La distanza dei picchi delle tre curve varia di soggetto
in soggetto, inoltre si può notare che i picchi non sono distribuiti in maniera
uniforme. A causa del fatto che l'occhio divide lo spettro solo su tre bande,
lascia spazio al fenomeno del metamerismo, cioè a quell'eetto per il quale
un soggetto può percepire due spettri diversi come lo stesso colore. Il me-
tamerismo si nota, ad esempio, quando due oggetti appaiono simili con un
illuminante e diversi con un illuminante diverso.
Similmente all'occhio umano lavora anche il sistema di acquisizione, e di con-
seguenza il sistema di acquisizione può non accorgersi di segnali con spettro
24. 24 CAPITOLO 3. ELABORAZIONE DELL'IMMAGINE
diverso e percepirli come lo stesso spettro. Per ovviare a tale problema, si
può utilizzare un numero di ltri maggiore, introducendo quindi il concetto
di acquisizione in banda multispettrale. In questo modo si può ridurre al mi-
nimo la possibilità che il sistema di acquisizione abbia delle carenze, dato che
si aumenta la quantità di informazioni acquisite, per quanto il 95% dei colori
naturali possono essere approssimati bene anche solo con le tre primarie.
La gura 3.4.1 mostra un esempio di metamerismo, sopra viene riportato lo
Figura 3.6: Metamerismo nelle 3 componenti (sx) e in un sistema
multispettrale (dx)
spettro dei ltri di acquisizione mentre sotto c'è un esempio di due segnali
che vengono percepiti come lo stesso segnale. Si può notare che nel caso di
un'acquisizione con più spettri i metameri sono quasi identici, mentre nell'al-
tro caso i metameri possono in certi casi presentare anche grandi dierenze
assai diversi.
3.4.2 La ricostruzione del colore
Così come il segnale viene scomposto dai ltri nel sistema di acquisizione
o dai coni nell'occhio, allo stesso modo si può far percepire all'osservatore
un colore riproducendolo con tre sorgenti luminose il cui spettro piò essere
centranto ovunque. Normalente si utilizzano il rosso, il verde, e il blu poichè
permettono di poter riprodutte un ampia gamma di colori.
Matematicamente, si identica lo stimolo percepito come y(t) e lo stimolo in
ingresso come x(t), allora vale la relazione:
y(t) = [y1, y2, y3]T
= ST
x(t)
dove ST
è la risposta data dallo spettro dei ltri.
Ricordando la denizione di metamero si ha che due stimoli sono metameri
25. 3.4. IL COLORE 25
quando viene percepito come lo stesso stimolo, quindi varrà l'uguaglianza:
ya(t) = yb(t) ⇐⇒ ST
a xa(t) = ST
b xb(t)
Dunque, se P rappresenta lo spettro delle primarie (matrice di dimensioni
nx3) e ei lo stimolo elementare, composto da soli 0 eccetto un 1, allora si ha
che:
ST
ei = ST
P[bi1, bi2, bi3]
dove [bi1, bi2, bi3] sono le porzioni delle primarie che fanno percepire lo stesso
colore. Si può estendere questo ragionamento a tutto lo spettro del visibile ,
ottenendo così che lo stimolo elementare ei è la matrice identica I e il vettore
[bi1, bi2, bi3] diventa una matrice di 3xn che rappresneta le Color Matching
Function ovvero le porzioni di RGB che relizzano il metamero di qualsiasi
stimolo monocromatico. chiamata B. Quindi si avrà che:
ST
I = ST
= ST
PBT
= MBT
(3.4)
Si nota perciò che l'uguaglianza ST
P = M è una matrice quadrata matrice
che mette in relazione S con B, mentre B è la matrice che identica le Color
Matching Functions.
A questo punto è doveroso spendere due parole su cosa siano le Color Mat-
ching Functions appena nominate. Nei primi anni dello scorso secolo vennero
eseguiti due esperimenti scentici, condotti rispettivamente da due ricercato-
ri americani William David Wright e John Guild [13]. Il primo esperimento,
eseguito nel 1928, consistette nel prendere tre luci dierenti (ciascuna luce
corrispondeva a uno dei tre colori primari) e mostrare ad un soggetto umano
un'onda monocromatica. Nel secondo invece, eseguito nel 1931, si scompose
la luce bianca (policromatica) attraverso un prisma e si proiettarono tutte
le sue componenti. In entrambi i casi venne chiesto all'uomo di regolare le
luci in modo da ricosruire la sorgente luminosa mostratagli dai ricercatori.
Attravarso questi esprimenti,nel 1931, la CIE (commision internationale de
l'eclairage, o commissione internazionale per l'illuminazione), standardizzò
denitivamente i colori primari, costituiti dal rosso a 700 nm dal verde a
546.1 nm e dal blu a 435.8 nm. Ad ognuna delle primarie venne associato
anche uno spettro come si vede in gura 3.7, individuando così lo spazio
colorimetrico CIE RGB, nella quale si piò inoltre notare che la curva ine-
rente alla primaria del rosso assume valori negativi. Un'intensità luminosa
negativa implicherebbe la sottrazione dello stimolo da parte della sorgente,
in altre parole, bisognerebbe aggiungere luce rossa al target per poter vedere
un colore in quella zona. Questo tipo di costrutto ha senso solo dal punto di
26. 26 CAPITOLO 3. ELABORAZIONE DELL'IMMAGINE
vista matematico, tuttavia esso resta necessario poichè in quella porzione di
banda lo stimolo sarebbe troppo saturo per le primarie a nostra disposizione.
Figura 3.7: Color Matching Functions CEI RGB
Sempre nel 1931 lo spazio delle CEI RGB è stato rimpiazzato dal CEI
XYZ, un nuovo spazio di più facile riproduzione, ottenuto partendo dallo
spazio CEI RGB tramite una trasformata algebrica. Si può notare dalla gura
3.8 che uno dei vantaggi principali è l'eliminazione della banda negativa.
Figura 3.8: Color Matching Function CEI XYZ
Quindi, riprendendo la formula 3.4 e avendo visto che la matrice B è nota,
si ha che
ST
x(t) = ST
PBT
x(t)
27. 3.4. IL COLORE 27
Siccome il soggetto vede l'immagine scomposta nelle tre primarie, le quali
costituiscono la matrice S, si ha che
y(t) = ST
x(t)
Raccogliendo Bt
x(t) = t che rappresenta il segnale scomposto dal sistema di
acquisizione secondo le Color Matching functions, si può ricavare la formula
nel seguente modo:
y(t) = ST
Pt
Quindi ricordando il raccoglimento fatto sopra per cui M = ST
P:
y(t) = Mt
A questo punto per costruire la matrice M che deve moltiplicare il segnale
uscito dal sistema di acquisizione per creare un metamero che mostri il segnale
iniziale, si va a sostituire M nell'equazione inizale ottenendo così:
ST
= MBT
⇐⇒ M = ST
B
In gura 3.9 è stato schematizzato un sistema di acquisizione, in cui x(t)
rappresenta l'immagine che si vuole riprodurre, t è il segnale scomposto nelle
sue tre componenti e m è il metamero che viene riprodotto per esser illustrato
al soggetto.
Figura 3.9: Sistema visivo
29. Capitolo 4
Speciche costruttive
In questo capitolo si illustreranno due aspetti molto importanti del progetto
realizzato: quali sono le particolarità del satellite e quali sono le caratteristi-
che del sensore. Il ne ultimo di questo lavoro è creare un'applicazione da
montare su un smallsat, che verrà illustrato nel paragrafo successivo eviden-
ziandone anche le sue peculiarità.
Il fulcro del progetto è mettere in luce le cartteristiche del sistema di acqui-
sizione e in particolar modo il sensore che permette di acquisire le immagini.
4.1 CubeSats
I piccoli satelliti, chiamati anche SmallSats, sono una categoria di satelliti
che vantano dimensioni molto compatte e peso ridotto. Società di piccole di-
mensioni con capitale ridotto possono facilmente accedere a questa tipologia
di satelliti, in quanto essi hanno un costo ridotto. La loro progettazione può
essere tuttavia complessa, a causa soprattutto delle dimensioni ridotte e delle
particolari condizioni alle quali il sistema deve operare. I CubeSats, apparte-
nenti a questa categori, sono stati inizialmente utilizzati a scopo educativo,
ma si prestano molto bene a essere impiegati anche in ambito scentico.
I CubeSats appartengono alla tipologia dei nano satelliti; guardando la
tabella 4.1 si puòdedutte che essi sono caratterizzati da una massa che varia
tra 1 e 10 kg.
I CubeSats sono satelliti composti da moduli, ciascuno dei quali è un cubo
di alluminio di lato 10 cm che può essere assamblato assieme ad altri moduli
al ne di creare una struttura più complessa. La dimensione del CubeSats
viene misurata in funzione del numero di unità (U) che la compongono, nor-
malmente un CubeSats ha dimensione 1 U, 1.5 U, 2 U o 6 U (in gura 4.3
29
30. 30 CAPITOLO 4. SPECIFICHE COSTRUTTIVE
Denominazione Massa(kg)
Large Satellite 1000
Medium Satellite 500 to 1000
Mini Satellite 100 to 500
Micro Satellite 10 to 100
Nano Satellite 1 to 10
Pico Satellite 0.1 to 1
Femto Satellite 0.1
Tabella 4.1: Taglie satelliti
si puossono notare le proporzioni di un CubeSat) e ogni unità ha una massa
di circa 1 kg [8].
Il CubeSat inizialmente venne creato dalla California Polytecnic Institute per
realizzare un veicolo che potesse essere lanciato nello spazio insieme a terze
parti, così da poter costruire un satellite a basso costo per le missioni scenti-
che. Comparato con altri satelliti, il CubeSat è sicuramente un'applicazione
di più semplice realizzazione.
Di particolare interesse è l'utilizzo di questo tipo di satellite. Esso viene spes-
so utilizzato per l'osservazione della Terra e per il telerilevamento, campi di
studio che possono avere potenziali applicazioni per la risoluzione di problemi
legati alla sicurezza e sopratutto per il monitoraggio delle pratiche agricole.
Figura 4.1: Proporzioni di un Cubesat
31. 4.2. SENSORE 31
4.2 Sensore
Il sensore, utilizzato durante lo studio eseguito nell'osservatorio sccentico di
Basovizza, è il CCD PYTHON 500 della ON Semiconductor.
Il CCD, che monta la camera (acA800-510um - Basler ace) è un componen-
te elettronico molto recente. Infatti il primo prototipo funzionante è stato
messo appunto nel 1970 e grazie a questa invenzione, gli ideatori ricedettero
il premio Nobel per la sica nel 2009. Nell'anno successivo alla creazione del
prototipo, nel 1971, si montò pe rla prima volta un sensore ad una videoca-
mera. Al giorno d'oggi quasi ogni dispositivo elettronico che deve acquisire
un'immagine monta un sensore CCD.
Un CCD è composto da due elementi: una matrice di ricettori e un ltro
cromato (il sensore utilizzato per questo studio non ha quest'ultima compo-
nente poichè rileva l'immagine in bianco e nero).
La griglia di ricettori è composta da dei condensatori MOS (metallo ossido
semiconduttore), i quali accumulano carica elettrica quando vengono irraditi
da una radiazione luminosa.
Tornando alle caratteristiche del sensore utilizzato in questa tesi, esso ha
una dimensione di 800x600 pixel e riesce a scattare no ad un massimo di
400 frames per secondo. Particolarità di questo sensore, come scritto sopra,
è l'essere monocromatico, quindi tuttti i pixel sono impegnati nella cattura
dell'intensità luminosa. Altra peculiarità, che ha portato a scegliere una fo-
tocamera che montasse questo sensore, è riuscire a percepire informazioni nel
vicino infrarosso.
Nel graco riportato in gura 4.2 viene rappresentata l'ecienza di due
tipologie di sensore in funzione alle lunghezze d'onda. Si può notare che fuori
dal visibile i sensori attenua molto il segnale percepito, la curva del sensore
NIR inzia a scendere a valori di lunghezza d'onda più elevati, questo grazie
ad una sensibilità maggiore all'infarosso. La camera utilizzata per questo
studio monta il CCD corrispondente alla curva mono.
La fotocamera acA800-510um - Basler ace è una fotocamera appartenente
alla serie di prodotti dell'azienda Basler che montano sensori simili a quello
descritto sopra. Si tratta di prodotti caratterizzati da un'alta risoluzione,
dalle dimensioni ridotte e da un costo relativamente basso (si parte da 199
euro); questo tipo di camere sono ottime se si necessita di acquisizioni ad
alta frequenza.
32. 32 CAPITOLO 4. SPECIFICHE COSTRUTTIVE
Figura 4.2: Curva di ecienza del sensore
Figura 4.3: Sensore PYTHON 500 (sx) e acA800-510um - Basler (dx)
33. Capitolo 5
Realizzazione del supporto e ltri
In questo capitolo si discuterà di come si è svolta la realizzazione del supporto
e lo studio dei ltri da utilizzare. La realizzazione del supporto è stata
permessa grazie all'aiuto del laboratorio fabLab che ha fornito i mezzi e il
materiale per costruire un sostegno per il sistema di acquisizione. Per la parte
riguardante i ltri, si vedranno le varie speciche e si analizzerà la capacità
di ltraggio di tutto il sistema.
5.1 Il supporto della camera
Il supporto per la camera è stato realizato con openSCAD [17], un software
gratuito scaricabile da internet. Il supporto, che è stato progettato, è ca-
ratterizzato non solo dalla funzione di sorreggere la camera, ma anche dalla
capacità di farla ruotare per permettere una più corretta acquisizione della
scena desiderata.
Per sorreggere la struttura è stato utilizzato un cavalletto di un vecchio tele-
scopio che ha svolto quindi la funzione di un solido e robusto sostegno per il
sistema di acquisizione usato. Sulla sommità del cavalletto è stata posiziona-
ta una scodella in ghisa che, come si può notare in gura 5.1, è caratterizzata
dal colore grigio e da viti zincate, pezzi che permettono di distinguere tale
elemento dal resto del supporto. E' impostante sottolineare che le viti zincate
sono state utilizzare per vincolare solidamente la scodella al cavalletto e la
gura 5.1 mostra inoltre il supporto nito con il dispositivo di acquisiszione
già montato sulla sua cima.
La gura 5.2 presenta invece il disegno in 3D del supporto, realizzato con
il programma CAD. Esso è composto da 7 parti che paetendo dal basso sono:
lo scodellino, la angia, la ghiera angia-motore, la ghiera motore-base, la
33
34. 34 CAPITOLO 5. REALIZZAZIONE DEL SUPPORTO E FILTRI
Figura 5.1: Foto del sistema di acquisizione
base per la camera, la squadretta, il distanziale e il tappo portaltri (pezzo
in rosso in testa all'obbiettivo).
Come detto sopra, il supporto ha la funzione di consentire la rotazione della
base su cui poggia la camera. Questo movimento è permesso da un motorino,
che viene utilizzato come un cuscinetto. Esso è stato ricavato da un vecchio
hard disk e tale scelta è dovuta alle sue particolari caratteristiche: il basso
attrito oerto e l'ingombro ridotto.
Di seguito verranno illustrati i vari pezzi che compongono il ristema di
acquisizione.
Figura 5.2: Disegno del supporto creato
35. 5.1. IL SUPPORTO DELLA CAMERA 35
5.1.1 Lo scodellino e la angia
Lo scodellino è stato realizzarto tramite stampaggio, mentre per la angia si
è preferito procedere con il taglio tramite macchina a taglio laser.
Lo scodellino ha il compito di legare tutta la struttura alla base metallica del
suporto e ha una forma conica, dovuta al fatto che si adatta meglio a even-
tuali imprecisioni della struttura. Questo elemento presenta un foro centrale,
sito alla sua base che serve a far passare una vite da 8 mm, responsabile del
dell'ancoraggio alla base in ghisa. Lo scodellino presenta inoltre tre fori posti
nella sua cima destinati a permettere il passaggio di viti da 3 mm che servono
ad accoppiare tale pezzo con la angia. La scelta di fare questi ultimi 3 fori
ovali è stata presa per facilitare la fase di montaggio.
La angia invece è un elemento un po' più complesso poichè in esso sono
presenti diversi fori, tra cui uno centrale che serve per basamento per il
motorino che farà girare tutto il pezzo sopra, tre fori ovali che servono per
accoppiare la angia con lo scodellino e, sulla stessa circonferenza dei tre fori
di accoppiamento, ci sono altri fori che hanno la funzione di agganciare alla
angia il motorino dell'hard disck.
All'esterno della angia sono stati creati molti fori ognuno dei quali è posto
ogni cinque gradi. Essi sono utili qualora si volesse accoppiare altri dispositivi
alla struttura poichè permettono di avere un riferimento sulla posizione in
cui si trova la camera. anche le due le di tacchette, fatte all'interno, sono
state progettate con lo scopo di creare un riferimento sulla posizione della
camera e su eventuali spostamenti e, per avere un buon grado di precisione,
esse sono poste una ogni grado.
Si può notare che in cima alla angia è stato fatto un taglio largo e profondo
senza il quale il basamento in ghisa caratterizzato da una punta non sarebbe
potuto essere montato sul supporto né ci sarebbe stata la ghiera. Il taglio
impedisce inoltre al sistema di ruotare involontariamente e permette di tenere
ben salda la angia al supporto sottostante.
In gura 5.3 si possono notare gli oggetti sopra descritti.
5.1.2 Le ghiere
Le due ghiere sono state create allo scopo di distanzieare il motore dalla
angia e la base della camera dal motore. Senza tali elementi e senza dunque
lo spazio creatosi, il motore, che per motivi di ingombro è stato costruito
con i piedini sotto e il la punta del rotore sporgente, avrebbe rischiato di
rovinarsi. Inoltre si è scelto di creare delle ghiere piuttosto che utilizare dei
distanziali perchè in questo modo si da maggior rigidità al sistema.
36. 36 CAPITOLO 5. REALIZZAZIONE DEL SUPPORTO E FILTRI
Figura 5.3: Scodellino (sx) e angia (dx)
In gura 5.4 si possono osservare le ghiere e notare che nella ghiera che
distanzia la angia dal motore è stato tolto un pezzo (in cima), ciò è stato
necessario a causa della struttura sottostante in ghisa che presentava uno
speroncino.
Figura 5.4: La ghiera angia motore(sx) e ghiera motore base (dx)
5.1.3 Supporto camera
Osservando l'immagine in basso della gura 5.5, si può notare il basamento,
elemento che permette il movimento alla camera e al motore. per accoppiare
comodamente la base al motorino, sono stati eseguiti 6 fori svasati nel pri-
mo pezzo che combaciano con i 6 fori lettati nel secondo, anchè possano
ospitare viti da 2 mm. La svasatura è stata pensata per fare in modo che le
viti scompaiano completamente e non grattino sull'obbiettivo della camera.
37. 5.1. IL SUPPORTO DELLA CAMERA 37
Nel mezzo di questi fori c'è un foro di diametro maggiore, realizzato con lo
scopo di evitare di avere problemi durante la fase di montaggio del motorino.
Sono stati inoltre posizionati altri fori: quelli centrali sono necessari per ac-
coppiare la camera alla base, mentre i due esterni più piccoli vengono usati
per accoppiare la squadretta al basamento.
Il distanziale (immagine in alto a sinistra della gura 5.5) è stato realizza-
to con lo scopo di sorreggere la camera. Per evitare che l'obbiettivo, essendo
questo più largo della camera, venisse schiacciato sulla base, il distanziale è
stato progettato con un altezza pari a 2 cm permettendo anche alle ghiere
dell'obbiettivo un più agevole movimento rotatorio. Inoltre per facilitare il
montaggio è stato allargato il foro centrale, ciò permette di avvitare la vite
centrale della camera comodamente.
La squadretta (immagine in alto a destra della gura 5.5) invece è stata
costruita in modo che essa passi rasente alla scala graduata posta sulla angia
così da permettere la lettura semplice dello spostamento e della posizione
della camera. In questo pezzo non ci sono fori isolati, ma un unico taglio
che percorre tutto il lato lungo, ciò consente una regolazione più comoda
dell'oggetto e ne facilita la lettura in fase di misurazione.
Figura 5.5: Il distanziale(sx), la squadretta(dx) e la base(in basso)
38. 38 CAPITOLO 5. REALIZZAZIONE DEL SUPPORTO E FILTRI
5.1.4 Il tappo portaltri
Inne si illustra il tappo portaltri, stampato anch'esso tramite stampante
3D, è stato creato per essere porto davanti alla lente dell'obbiettivo su cui si
ssa in modo saldo e, per maggior sicurezza è stato anche scavato un inca-
vo su uno dei piedini del tappo dove alloggerà un dado per una vite M3 la
quale passerà e andrà in battuta sull'obbiettivo. Per evitare di danneggiare
l'obbiettivo, la vite da usare sarà fatta di nylon.
I ltri, che possono essere usati per acquisire determinate immagini, vengo-
no posti davanti al tappo, in corrispondenza del buco quadrato che si può
osservare in gura 5.6. Tale buco è stato progettato per avere determinate
dimensioni anchè nessuna parte dell'area di ripresa del sensore sia orcurata.
Figura 5.6: Il tappo portaltri montato alla ne dell'obbiettivo
5.2 I ltri
In questo capitoli si vedranno nel dettaglio i ltri usati, le loro caratteristiche
e le varie risposte. Per ltrare l'immagine presa dalla camera si utilizzeranno
delle gelatine colorate di colore rosso, verde e blù.
Per determinare la risposta dei ltri in funzione della lunghezza d'onda, fa-
cendo riferimento alla gura 3.3 si possono ricavare tre diverse funzioni di
frasferimento, una per ogni colore dei ltri:
FdTrosso = RS (5.1)
FdTverde = V S (5.2)
FdTBlu = BS (5.3)
39. 5.2. I FILTRI 39
Dove R, V, B, S sono rispettivamente le risposte in frequenza dei tre ltri
(rosso, verde e blu) e del sensore.
La misura delle varie funzioni di trasferimento dei tre ltri sopra descritte
è stata ottenuta tramite l'utilizzo dello spettrofotometro, strumento che per-
mette lo studio degli spettri elettromagnetici della luce visibile, ultravioletta
e infrarossa, mentre la misura della risposta in frequenza è stata ricavata dal-
la curva di ecienza del sensore fornita dai costruttori, come si può vedere
in gura 4.2.
Lo spettrofotometro è uno strumento utile per la lettura dello spettro che vie-
ne riesso da un oggetto o trasmesso da una sorgente luminosa. La misura
può essere eseguita inotre modi diversi: per riessione, che va a calcolare la
riessione di radiazione elettromagnetica di un determinato oggetto data una
sorgete nota interna allo strumento, per traspaenza, che, data una sorgente
nota, va a misurare la quantità di radiazione elettromagnetica che trasmet-
te l'oggetto studiato, e inne per emissione, che permette di determinare lo
spettro di emissione di una sorgente luminosa.
La gura 5.7 mostra uno schema di come è stato rilevato lo spettro del'in-
tero sistema. Come si può notare lo spettro ottenuto non è semplicemente
quello trasmesso dal ltro, ma è quello pari al quadrato del ltro a cui viene
moltiplicata lo spettro riesso dal tavolo. Quindi in primo luogo, si è pro-
ceduto con la misura della radiazione elettromagnetica riessa del tavolo e
successivamente con la valutazione dello spettro del sistema.
Figura 5.7: Schema della misura del ltro
Per determinare lo spettro di trasmissione del ltro, si procede nel se-
40. 40 CAPITOLO 5. REALIZZAZIONE DEL SUPPORTO E FILTRI
guente modo:
H =
y(t)
x(t)
= F2
T ⇒ F =
H
T
(5.4)
Identicando con y(t) il segnale letto dal sensore, risulta che y(t) = F2
T.
Figura 5.8: Spettri dei ltri acquisiti dallo spettrofotometro
In gura 5.8 si può osservare lo spettro acquisito dal sensore tramite
spettroscopia, in cui si nota facilmente che la curva inerente al ltro verde
ha un picco massimo molto inferiore rispetto le altre curve degli altri colori.
Tale dierenza viene tuttavia attenuata dopo l'elaborazione di questi risultati
tramite la relazione dell'equazione 5.4.In gura 5.9 vengono riportati i valori
ottenuti di trasmittanza dei ltri e del sensore; e si può notare che il picco
del ltro verde resta comunque inferiore rispetto a quello del ltro blu, anche
se la loro dierenza si è ridotta a circa un terzo.
In gura 5.10 si sono mostrano gli andamenti delle tre componenti dello
spettro dei colori in uscita dal sistema di acquisizione. Queste tre curve sono
state ricavate usando le formule 5.1, 5.2 e 5.3 e utilizzando i dati presentati
in gura 5.9 dove R, G, B rappresentano i vettori composti dai valori delle
curve inerenti ai ltri del rosso, verde e blu, mentre S è il vettore dei valori
del sensore. L'operazione compiuta è del tipo:
V (i) = X(i)Y (i), ∀i ∈ (1, n)
Dove V, X, Y sono tre generici vettori di ugual lunghezza e n è la loro lun-
ghezza
E' di particolare interesse sottolineare che dopo quest'ultima elaborazione il
41. 5.2. I FILTRI 41
Figura 5.9: Spettri dei ltri e del sensore
valore di picco dei ltri viene praticamente dimezzato, inoltre il ltro verde
ha un valore massimo che è circa un terzo del massimo del ltro azzurro e
tra la curva del ltro verde e quella del ltro rosso c'è una banda dove non
passa alcun segnale.
Figura 5.10: Filtraggio di tutto il sistema di acquisizione diviso nelle sue 3
bande
Nei graci mostrati in gura 5.8, 5.9 e 5.10 viene ragurata sull'asse
delle ascisse il valore di lamda, che rappresenta la lunghezza d'onda, mentra
sull'asse delle ordinate viene riportato il valore dell'ecienza percentuale
42. 42 CAPITOLO 5. REALIZZAZIONE DEL SUPPORTO E FILTRI
delle varie parti del sistema nel primo graco, e unitaria nel secondo e nel
terzo.
43. Capitolo 6
L'elaborazione dell'immagine
Questo capitolo è dedicato ad illustrare come si è elaborata l'immagine, com-
prendendo tutte le sue fasi, dalla divisione dell'immagine nelle tre bande l-
trate alla ricostruzione del colore.
L'acquisizione della scena è stata eseguita mediante l'uso del software chia-
mato ptylon Viewer, fornito dallla ditta costruttrice Basler che si basa su
linguaggio Python. Questo software permette di salavare le immagini nel
formato desiderato e si è scelto di utilizzare il formato .ts, molto usato in
astronomia, perchè permette di impacchettare più immagini in un unico le
così da agevolare la trasmissione contemporanera di più pacchetti. Un'altra
caratteristica dei le .ts è che non applicano nessuna compressione dei dati,
operazione compiuta invece da altri formati di uso più comune (i.e. JPG),
così da evitare la perdita di informazioni e di qualità dell'immagine. I le
salvati con questo tipo di formato sono costituiti da due parti: un header,
sezione introduttiva dove chi ha creato il le può inserire una descrizione in
modo da agevolare la lettura del le da parte di terzi, e un corpo, cioè una
sezione centrale dove vengono immagazzinati i dati.
6.1 La divisione per bande
Al ne di ricostruire una porzione del paesaggio, sono state acquisite dieci
immagini, ognuna delle quali attraverso una rotazione della camera di 1 gra-
do, movimento permesso dalla scala graduata applicata sulla angia (gura
5.3).
Dopo aver acquisito i dati proveniente da ognuna delle dieci scene diverse, si
è proceduto con la divisione delle immagini nelle tre bande acquisite tramite
i tre ltri colorati. In gura 6.1 si può vedere una delle dieci immagini ac-
43
44. 44 CAPITOLO 6. L'ELABORAZIONE DELL'IMMAGINE
quisite, essa è divisa principalmente in tre bande, una in sinistra, riferita al
ltro verde, una al centro, riferita al ltro blu e una a destra riferita al tro
rosso.
Tra la banda verde e la banda blu c'è una zona in cui i lri non coprono
il sensore, caratterizzata da una luminostà maggiore, mentre tra la banda
centrale e la banda rossa vi è una zona in cui i due ltri si sovrappongono,
formando un ltro magenta. Osservando il graco in gura 5.10 si può notare
che tale sovrapposizione corrisponde a quella piccola porzione di spazio in cui
la curva del ltro blu e la curva del ltro rosso si accavallano formando una
banda più scura formata dalla dierenza delle due.
Figura 6.1: Immagine acquisita
Nell'immagine 6.1 si osserva che c'è una forte disparità di luminosità tra
le bande. Si è ritenuto opportuno, avvalendosi di un'acquisizione eettuata
su un foglio bianco, di tracciare la media delle colonne di pixel per tutta
la lunghezza della scena così da eettuare la divisione delle varie bande, ot-
tenendo una funzione il cui andamento è riportato in gura 6.2. La media
dell'immagine acquisita viene utilizzata per dividere le diverse bande e si ha
il passaggio da un colore all'altro là dove il valore medio della media delle
colonne inizia a variare entro un certo range.
Nel graco 6.2 si nota una forte inuenza del rumore, ma si distinguono chia-
45. 6.1. LA DIVISIONE PER BANDE 45
ramente le tre bande e, in particolare, la zona dove manca il ltro e quella
in cui si accavallano il rosso e il blu.
Prima di procedere con il calcolo della media della curva descritta dalla
media delle intensità luminose delle immagini, è stato necessario rendere
la scena più uniforme, andando ad eliminare l'inuenza del rumore. per
realizzare tale correzione, si è deciso di applicare un ltro in media mobile
alla media delle colonne, ottenendo così una nuova funzione il cui andamento
è mostrato in 6.4.
Il ltro a media mobile è un ltro che si rientra nella tipologia dei ltri passa
basso. Esso funziona calcolando la media di un numero nito di campioni
addiacenti ad un punto iniziale e iterando questo ragionamento per tutta la
lunghezza del segnale. La frequenza di taglio di questo ltro è determinata dal
numero di campioni presi in considerazione, quindi se il numero di campioni è
molto grande il risultato nale è caratterizzato dalle sue componenti a bassa
frequenza, ma a mano a mano che il numero si rimpicciolisce la frequenza di
taglio si sposta verso le alte frequenze.
Figura 6.2: Media dell'immagine
In gura 6.3 sono riportati due esempi di ltraggi in media mobile, pren-
dendo come segnale quello rappresentato in gura 6.2 nel graco in sinistra
viene riportato il segnale ltrato con un numero di campioni preso pari a 4
pixel, mentre in dastra viene ripostato il ltraggio con un numero di campio-
ni pari a 64 pixel.
46. 46 CAPITOLO 6. L'ELABORAZIONE DELL'IMMAGINE
Figura 6.3: Esempi ltraggi in media mobile
Per ltrare il segnale acquisito dalla camera si è deciso di non prendere
in considerazione ne un segnale troppo smorzato, ne uno che presenti forti
variazioni, ma dopo avere eseguito diverse prove, si è ritenuto più opportuno
esaminare un segnale che presentasse buone approssimazioni con un numero
di campioni pari a 32 pixel.
Figura 6.4: Media dell'immagine
I graci riportati in gura 6.2, 6.3 e 6.4 mettono in relazione il valore
della media delle colonne, nell'asse delle ordinate e il numero delle colonne
nell'asse nelle ascisse.
Ricapitolando, per ottenere le tre bande, una per ognuno dei tre colori, è
stata calcolata la media delle colonne dell'immagine; successivamente tale
risultato è stato elaborato con un ltro in media mobile, che ha permesso di
ricavare la variazione della media. Con tale variazione è possibile ottenere la
divisione per bande li dove il guadagno cali o aumenti di un 7%.
In gura 6.5 si mostra l'esito di tale procedimento.
47. 6.2. IL MATCHING E L'ALLINEAMENTO 47
Figura 6.5: Divisione in bande
6.2 Il matching e l'allineamento
Dopo aver suddiviso le diverse immagini nelle tre bande si è proceduto an-
dando ad incollare tra loro le bande, caratterizzate dallo stesso ltro, con
lo scopo di ottenere tre diverse immagini panoramiche, una per ciascun co-
lore. Per prima cosa si illustrerà come comporre un'immagine di sole bande
verdi. Successivamente si prenderà l'immagine composta dagli spezzoni di
scena ltrati sotto il ltro verde come riferimento e si andrà ad allineare le
bande blu e le bande rosse così da comporre i tre canali.
Quello appena descritto non è l'unico modo con cui si può alineare un'imma-
gine, infatti si può usare anche l'informazione della posizione di diversi punti
per determinare lo spostamento della camera. Tuttavia per applicare questo
approccio è necessario avere una misura molto precisa dello spostamento che
non è sempre disponibile, ma che può essere implementata in diversi modi.
Ad esempio, per aumentare la precisione del valore letto, si può sfuttare un
encoder oppure si può utilizzare un motore passo a passo che premette di
controllare i movimenti della camera e, sapendo il numero di passi e sapendo
a quale valore equivale ogni passo in termini di gradi rotazionali, si può anche
ricavare un'ottima stima della posizione.
48. 48 CAPITOLO 6. L'ELABORAZIONE DELL'IMMAGINE
Per lo studio analizzato in questa tesi si è preferito usare il primo procedimen-
to, quello che utilizza i diversi ltri, poichè nel laboratorio non si disponeva di
strumenti capaci di un elevato grado di precisione nella lettura della posizione
della camera.
6.2.1 Il matching
Per eettuare il matching delle varie bande si sono cercate le similitudini
tra di esse, come illustrato precedentemente sei capitoli 3.3.1 e 3.3.2 si può
procedere applicando due approcci dierenti: il Sum and Square Dierence
oppure il Normalized Cross Correlation.
A seguito di diverse prove eseguite, si è notato che se l'immagine di rife-
rimento presenta colori in forte contrasto tra loro,o se si stanno cercando
similitudini nella stessa immagine, entrambi i metodi di matching ottengono
risultati validi e dunque si può tranquillamente optare per l'applicazione del
procedimento più veloce, il SSD. Tuttavia nel caso preso in esame in questa
tesi, la scena di studio è caratterizzata da molti elementi con basso contrasto
e aetti da un alto rumore, perciò l'utilizzo dell'SSD può creare dei proble-
mi. Per determinare quale dei due algoritmi applicare si è deciso quindi di
calcolar lo scarto quadratico medio di diversi punti presi sulle immagini.
In tabella 6.1 vengono riportati i valori dello spostamento orizzontale che bi-
sogna compiere per allineare le due immagini mostrate in 6.6. Le prove sono
state eseguite prendendo in considerazione sempre punti in comune tra le
due immagini e si può notare, i valori rilevati attraverso l'NNC siano hanno
uno scarto quadratico medio (σ) molto inferiore rispetto a quello ottenuto
attraverso l'SSD, rendendo così il primmo approccio più adabile.
Questa adabilità è associata all'elaborazione che viene compiuta sulle aree
prima di esser confrontate. Si ricoda che l'NCC sottrae al valore del pixel
la media dell'area presa in considerazione e la divide per la varianza così da
eliminare dierenze di guadagno e ridurre le variazioni dovute al rumore.
Date le considerzioni appena fatte si è deciso di applicare l'algoritmo NCC
per trovare la porzione della banda verde della seconda immagine da accoda-
re a quella verde della prima immagine. Se si itera lo stesso ragionamento a
tutte le scene, si ottiene un mosaico di porzioni di immagini che rappresenta
la foto iniziale il più fedelmente possibile.
Il movimento a cui la camera è stata soggetta, è una traslazione rigida che
avrebbe dovuto portare a soli spostamenti orizzontali, tuttavia nella realtà
tale movimento presenta delle oscillazioni e quindi possibili traslazioni ver-
ticali dell'immagine acquisita. Per compensare queste oscillazioni è stato
applicato l'algoritmo di correlazione su tutta l'immagine, quindi non è stata
seguita solo la linea equatoriale descritta dal punto di partenza, ma anche
49. 6.2. IL MATCHING E L'ALLINEAMENTO 49
Prova SSD NCC
1 166 109
2 41 108
3 100 109
4 108 109
5 109 109
6 67 109
7 112 112
µ 100.42 109.28
σ 39.18 1.25
Tabella 6.1: Spostameti SSD e NCC
quella verticale e il processo di ricostruzione non si è limitato solo ad aan-
care orizzontalmente le varie bande, ma anche a muoverle verticalmente così
che il paesaggio ricostruito non presentasse discontinuità.
In gura 6.7, si vede l'immagine ricostruita, in cui i bordi neri in alto
sono causati dalla traslazione verticale necessaria per allineare le scene. Se
si presta attenzione ai contorni di alcuni dettagli, si possono notare delle di-
scontinuità, che sono causate dall'omogeneità del paesaggio ripreso.
6.2.2 L'allineamento
Una volta ricostruita la scena verde (ciò porebbe essere anche fatto se si rico-
struisse la scena ripresa con il ltro rosso oppure con quello blu), si procede
ad allineare le altre due scene riprese con gli altri due ltri.
In questo caso non si procede con il matching tra bande come si è fatto prece-
dentemente, poichè tale approccio comporterebbe fare delle operazioni in più
che allungherebbero inutilmente i tempi di elaborazione, quindi si è ritenuto
opportuno andare a cercare i punti di massima verosomiglianza tra le singole
acquisizioni divise per bande e l'immagine verde ricostruita.
Presa in considerazione una banda di una delle acquisizioni, per trovare il
punto di massima verosimiglianza tra essa e l'immagine ricostruita, si utiliz-
zano di nuovo ancora i coecienti di Cross Correlazione Normalizzata. Tale
algoritmo si basa sulla sotrazione dei valori medi delle due scene prese in
considerazione così da poter eseguire un confronto a guadagno nullo e da
compensare la dierenza di ampiezza che i ltri hanno nelle varie bande di
50. 50 CAPITOLO 6. L'ELABORAZIONE DELL'IMMAGINE
Figura 6.6: Immagini di riferimento tab. 6.1
interesse, sopratutto nella banda verde che è quella di riessione della cloro-
lla.
Data la posizione dei ltri è naturale che delle porzioni di paesaggio riprese
dalla banda verde non compaiano nella banda rossa e blu e vicecersa; se si
cercasse di trovare un punto di massima verosimiglianza tra una scena scena
che cade fuori dalla banda verde, l'algoritmo di Cross Correlazione Norma-
lizzata troverebbe ugualmente un punto di similitudine, che tuttavia avrebbe
poco senso ai ni della ricostruzione dell'immagine, come si può vedere in
gura 6.8.
Per evitare di allineare campioni errati, è suciente eseguire una verica
sul punto trovato: se lo spostamento lungo l'asse verticale per ottenere l'al-
lineamento delle diverse bande è troppo grande (basta che superi i 10 pixel)
allora si ha un campione da gettare in quantoo esso cadrebbe fuori dalla scena
di riferimento. Nel caso preso in esame in questa tesi, non è stato necessario
implementare questa verica poichè i campioni totali sono pochi.
Nell'immagine 6.9 si ha l'allineamento di tutte e tre le bande acquisite con
i tre diversi ltri e si nota subito che la parte in comune è molto ridotta
rispetto alla scena acquisita inizialmete. Inoltre nella porzione di immagine
inerente alla scena ottenuta con il ltro rosso, è presente un elemento non
ben allineato, facendo si che tale parte ricada fuori dall'immagine ripresa
attraverso il ltro verde. Tuttavia si è deciso di mantenere questa frazione di
scena poichè è interessante vedere cosa succederà nel momento in cui verrà
ricostruito il colore.
51. 6.2. IL MATCHING E L'ALLINEAMENTO 51
Figura 6.7: Banda verde ricostruita dalle 10 acquisizioni
Figura 6.8: Allinealmento errato
52. 52 CAPITOLO 6. L'ELABORAZIONE DELL'IMMAGINE
Figura 6.9: Allineamento di tutte le tre immagini ltrate.
53. 6.3. IL COLORE 53
6.3 Il colore
In quest'utima sezione si mostra come sono stati ricomposti i colori. Il proce-
dimento prevede diversi passi: inizialmente si prenderà in esame un'immagine
suddivisa nelle sue componenti e poi ricostruita, successivamente si appliche-
rà un algoritmo realizzato in MATLAB ad un'immagine di prova in bianco
e nero ottenuta attraverso una macchinetta fotograca a cui sono stati ap-
plicati i ltri davanti l'obbiettivo e, inne, si eseguirà l'algoritmo alla scena
ricostruita in gura 6.9.
La prima immagine presa in considerazione è quella di una bimba acqui-
sita in banda multispettrale cogliendo 71 spettri che vanno dai 400 nm ai 700
nm. Il fatto di aver un'immagine divisa in 71 lunghezze d'onda dierenti,
premette di avere lo spettro completo per ogni pixel. Per prima cosa si è
provato a scomporre l'immagine, convolvendo l'intero spettro di ogni pixel
con la risposta in funzione della lunghezza d'onda dei tre ltri, prima teorici
e poi reali.
Si ricorda che la convoluzione è un'operazione che integra due funzioni dove
la seconda viene traslata di un certo valore. Nel caso di funzioni continue si
ha che: +∞
−∞
f(y)g(x − y)dy ∀x ∈ R
Mentre nel caso in cui le funzioni non sono reali, ma discete:
+∞
n=−∞
f[n]g[x − n] ∀x ∈ N
Da ciò si può dedurre che il ltraggio di un segnale è pari alla convoluzione
del segnale con la funzione caratteristica del ltro.
Scomposta l'immagine di partenza nelle tre componenti si è proceduto a cal-
colare la matrice M, ricavata tramite il prodotto righe per colonne tra ST
,
cioè la matrice dei valori che asssumono i ltri nelle lunghezze d'onda cam-
pionate, e B, matrice dei valori che assumono le primarie.
Dato che ogni pixel dell'immagine ha 71 campioni che ricostruiscono lo spet-
tro posizionati uno ogni 5 nm, mentre i ltri di riferimento sono stati cam-
pionati ogni 10 nm, in un range più ampio, è risutato necessario interpolare il
ltro di riferimento in maniera da raddoppiare i campioni. L'interpolazione
usata è una semplice media aritmetrica tra due campioni addiacenti:
f[n] =
f[n − 1] + f[n + 1]
2
∀n pari
Dove f è la funzione caratteristica del ltro del sistema.
Dopo che il ltro è stato applicato all'immagine, si è ricavata la matrice
54. 54 CAPITOLO 6. L'ELABORAZIONE DELL'IMMAGINE
M, la cui inversa è stata succesivamente moltiplicata per la matrice compo-
sta dalle tre componenti ltrate dell'immagine, così ottenendo un metamero
dell'immagine di partenza. in questo modo si è ottenuto un metamenro
dell'immagine di partenza.
Figura 6.10: Immagine ltrata con i 3 ltri (sx) e con 3 gaussiane (dx)
In gura 6.10 sono stati riportati i risultati di due ricostruzioni eseguite
la prima attraverso la funzione caratteristica dei ltri del sistema e la secon-
da attraverso funzioni gaussiane centrate nelle lunghezze d'onda del rosso,
del verde e del blu. Le due immagini sono molto simili tra loro, le dieren-
ze sono date soprattutto dal tipo di ltri usati che implicano guadagni diversi.
Avendo vericato che l'algoritmo realizzato in MATLAB funziona, si è
deciso di fare un test su un pattern di colori fotografato in bianco e nero e
ltrato con i tre ltri applicati al sistema riproducendolo inne a monitor a
monitor.
In questo caso si è voluto provare a normalizzare le curve delle 3 funzioni ca-
ratteristiche dei ltri, ottenendo così le tre funzioni caratteristiche con picco
massimo uguale, poichè senza tale articio si sarebbe ricavato un risultato
apparentemente errato.
In gura 6.12 è stato riportato l'esito dell'algoritmo utilizzato sul pattern di
colori, in questo caso il risultato ottenuto ricostruisce bene la scena fotogra-
fata, anche se l'articio adottato per ottenere l'immagine è errato in qanto il
metamero riprodotto è un metamero per la fotocamera ma non per l'occhio
umano.
55. 6.3. IL COLORE 55
Figura 6.11: Pattern di colori ottenuto con algoritmo errato
Figura 6.12: Pattern di colori ottenuto con algoritmo corretto
Come si vede dalla gura 6.14 sia nel caso della scena ottenuta con l'al-
goritmo alla quale è stata applicata la normalizzazzione di ogni curva ca-
ratteristica dei ltri, che in quella dove non è stata portata alcuna modica
all'algoritmo, il risultato appare inverosimile all'occhio, non rappresetando
perciò un paesaggio naturale. Tuttavia la camera con cui sono state scattate
entrambe le immagini, le visualizzerà entrambe come se fossero la medesima
scena.
Si è ottenuto quindi un metamero per la fotocamera.
56. 56 CAPITOLO 6. L'ELABORAZIONE DELL'IMMAGINE
Figura 6.13: Scena ottenuta con algoritmo errato
Figura 6.14: Scena ottenuto con algoritmo corretto
57. Capitolo 7
Conclusioni
In conclusione il risultato ottenuto da questo studio è stato parzialmente rag-
giunto. Il sistema riesce a ricostruire la scena ripresa quasi correttamente,
ma se si fa la media pesate per ottenere i punti in alcune bande di sovrap-
posizione, si ottiene una scena molto sfocata.
Se invece si vuole creare un metamero per l'occhio umano della scena acqui-
sita dalla camera il sistema studiato fallisce.
Guardando l'immagine 5.9, riferita alle funzioni caratteristiche dei ltri uti-
lizzati per il sistema studiato, si vede che a ridosso dei 720 nm i ltri hanno
un andamento crescente permettendo così di far passare la radiazione infra-
rossa. Per evitare che questo eetto fosse causato da un errore di misura del
ltro, si è provato a fare una misura per trasparenza; questa verica ha però
riportato una caratterizzazione del ltro molto simile a quella già eseguita
e anch'essa presenta un andamento crescente ai 720 nm, eliminando perciò
l'ipotesi di una misura errata.
La causa del fallimento del sistema studiato la si può attribuire a questo di-
fetto del ltro, oltre che alle situazioni ambientali. Infatti le acquisizioni sono
state fatte a metà di una giornata molto soleggiata, per cui la componente
infrarossa della radiazione solare che può incidere sul sistema di acquisizione
è molto intensa, provocando un aumento dell'intensità luminosa percepita
dai sensori.
Un eventuale sviluppo di questa tesi potrebbe essere una tecnica per ottene-
re dei ltri più selettivi che non sarebbero dunque aetti da questo difetto.
Una possibile soluzione potrebbe essere la realizzazione di un ltro che po-
trebbe essere ottenuto posizionando semplicemente un altro ltro che vada
ad eliminare la componente infrarossa prima o dopo i ltri utilizzati. Un'al-
tra soluzione sarebbe quella di creare dei ltri per vaporizzazione di agenti
chimici così da avere dei ltri dallo spettro ben noto e in base alla scelta
dell'agente si potrebbero ottenere più combinazioni di ltri.
57
58. 58 CAPITOLO 7. CONCLUSIONI
Oltre a ciò si potrebbe sviluppare un sistema di movimento della camera più
preciso e, volendo, automatizzato così da poter confrontare l'allineamento
delle immagini ottenuto dai due sistemi di acquisizione dierenti.
59. Bibliograa
[1] Global Strategy to ImproveAgricultural and Rural Statistics. The World
Bank, FAO, and United Nations. Tech. rep. 56719-GLB. 2011
[2] Tecniche di Correlazione per la Stereo Visione Tesi di Domenico Blosi,
a.a.2002/2003
[3] Informazioni sul satellite http://noaasis.noaa.gov/NOAASIS/ml/avhrr.htm
[4] Fast Normalized Cross-Correlation J. P. Lewis Industrial Light
Magic
[5] PicoAgri. Realization of a low-cost, remote sensing enviroment for mo-
nitoring agricultural elds through small satellites and drones S. Marsi,
A. Gregorio, M. Maris and M. Puligheddu
[6] Wikipedia https://en.wikipedia.org/wiki/Main_Page
[7] Light and Color CS148, Summer 2010 Siddhartha
Chaudhuri, http://graphics.stanford.edu/courses/cs148-10-
summer/docs/02_light_color.pdf
[8] Cubesat design specication Design Specication Review. California
Polytechnic State University, 2009
[9] NOIP1SN1300A Semiconductor Components Industries, LLC, 2016
November, 2017 Rev. 4
[10] Sensori d'immagine CCD e CMOS Tesi di Carlo dall'Alba, a.a.
2011/2012
[11] Multisensor Image Fusion Mining: From Neural Systems to COTS
Software with Application to Remote Sensing AFE Marianne Chiarella,
David A. Fay, Allen M. Waxman, Richard T. Ivey, and Neil Bomberger
59
60. 60 BIBLIOGRAFIA
[12] Dictionary Learning-Based Hough Transform for Road Detection in
Multispectral Image Weifeng Liu , Senior Member, IEEE, Zhenqing
Zhang, Xinghua Chen, Shuying Li , and Yicong Zhou , Senior Member,
IEEE
[13] CHAPTER 8 Image Registration J. Michael Fitzpatrick Vanderbilt
University, Derek L. G. Hill King's College London, Calvin R. Maurer,
Jr. University of Rochester
[14] Extension of Phase Correlation to Subpixel Registration Hassan Fo-
roosh (Shekarforoush), Josiane B. Zerubia, Senior Member, IEEE, and
Marc Berthod.
[15] Colorimetria tristimolo e misurazione strumentale del colore della carta
cap.3.2.3 di Rosso Gabriele
[16] FabLab http://scifablab.ictp.it
[17] openSCAD http://www.openscad.org