SlideShare a Scribd company logo
1 of 51
Download to read offline
L’occhio del biologo
Elementi di fotografia
Dr Marco Benini
marco.benini@uninsubria.it
Università degli Studi dell’Insubria
2015
Argomenti
Struttura di una macchina fotografica digitale
Sensore: dimensione, risoluzione, tecnologia, sensibilità, rumore, range
dinamico
Otturatore: tempi di esposizione
Diaframma: apertura
Tecnica fotografica di base
Messa a fuoco: distanza iperfocale
Profondità di campo
Colore
Acquisizione: filtro Bayer, filtri sul sensore
Emissioni: spazio RGB
Stampa: spazio CMYK
Formati: RAW, JPG
Distorsioni: lettura degli istogrammi
Gestione di base: canali colore
Filtri: UV, filtri colorati
(2 of 51)
Argomenti
Post-produzione di base
Luminosità
Contrasto
Bilanciamento dei canali colore
Istogrammi e curve
Acquisizione multipla: compressione del rumore
(3 of 51)
Diagramma di una fotocamera digitale
'
&
$
%
- -
c c c
T T T
CPU
lente lente filtro
diaframma otturatore sensore
(4 of 51)
Diagramma di una fotocamera digitale
le lenti servono per convogliare la luce sul sensore
il diaframma regola la quantità di luce che arriva al sensore
l’otturatore regola il tempo per cui il sensore è esposto alla luce
il filtro elimina o riduce una porzione dello spettro luminoso
il sensore registra l’immagine trasformando il segnale luminoso in un
segnale elettronico
la CPU trasforma il segnale elettronico del sensore in una immagine
digitale
(5 of 51)
Il sensore
In prima approssimazione, un sensore è una griglia di elementi, detti pixel, in
grado di registrare la quantità di luce che li colpisce.
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m
m T
c
E' x
y
"CCD Image sensor" di Sphl—Opera propria. Con licenza CC BY:
C
3.0 tramite Wikimedia Commons
http://commons.wikimedia.org/wiki/File:CCD_Image_sensor.jpg
(6 of 51)
Il sensore
Le principali caratteristiche di un sensore sono:
il formato: la sua dimensione (x,y) in millimetri e la proporzione x/y,
tipicamente 4 : 3, 3 : 2 o 1 : 1
la risoluzione: la quantità di pixel presenti sul sensore
il range dinamico: essenzialmente, la quantità di valori che un pixel può
assumere
la sensibilità: sostanzialmente, la quantità di luce che serve per
modificare il valore di un pixel
l’architettura: la tecnologia impiegata nella costruzione del sensore e il
modo in cui questo viene letto
(7 of 51)
Il sensore
La combinazione di formato e risoluzione determina la dimensione massima
di un pixel. Questa, a sua volta, determina la qualità dell’immagine.
Tuttavia, non è vero che, a parità di formato, una risoluzione maggiore
restituisca una immagine più precisa: più i pixel sono piccoli, più si
influenzano l’un l’altro.
Inoltre, ogni lente soffre di diffrazione: al di sotto di un certo valore di
dimensione, che dipende dalle caratteristiche della lente, le componenti dello
stesso raggio di luce potranno essere, erroneamente, convogliate su pixel
differenti.
(8 of 51)
Il sensore
Ogni pixel è dotato di una sensibilità intrinseca che dipende dalla sua
costruzione.
Ovvero, un pixel registra allo stesso modo due raggi di luce la cui intensità
differisca per una quantità inferiore ad una soglia chiamata sensibilità.
Ogni sensore ha una sensibilità naturale, che dipende dalle sue caratteristiche
strutturali. Ma la CPU o il sensore stesso può variare la propria sensibilità
apparente, agendo con un opportuno fattore di moltiplicazione nella
conversione del valore analogico di un pixel ad un valore digitale.
La sensibilità si misura, come per le pellicole fotografiche, in gradi ISO.
Valori usuali per la sensibilità naturale di un sensore sono 50, 100 o 200 ISO.
L’ampiezza dei valori digitali possibili costituisce il range dinamico del
sensore, e, assieme alla sensibilità, stabilisce la gamma di toni, dal nero al
bianco, che il sensore è in grado di registrare.
(9 of 51)
Il sensore
Esistono, ad oggi, due principali tecnologie per la costruzione di sensori:
CMOS e CCD.
La tecnologia complementary metal oxide semiconductor (CMOS) è più
recente e offre il vantaggio che ogni pixel provvede autonomamente a
raccogliere la luce e a trasformarne l’intensità in un valore numerico digitale.
La tecnologia charge-coupled device (CCD), precedente alla CMOS,
consente di costruire pixel più semplici elettronicamente e, seppur il processo
di formazione dell’immagine digitale avviene a valle del sensore, complicando
la relativa circuiteria, i pixel sono, generalmente, più piccoli, permettendo
maggior risoluzione.
In linea di massima, i sensori CMOS sono più economici, ma meno precisi.
Occorre comunque tener conto che gli avanzamenti tecnologici sono stati
notevoli, e oggi esistono sensori CMOS su fotocamere professionali, e sensori
CCD montati su fotocamere compatte.
(10 of 51)
Il sensore
Nessun sensore è in grado di osservare passivamente la luce e di registrarla
fedelmente. I limiti strutturali e tecnici introducono inevitabilmente dei
disturbi di cui occorre esser consci: collettivamente, questi vanno sotto il
nome di rumore.
Con notevole semplificazione, ad uso di questo corso, possiamo classificare il
rumore associabile al sensore in
rumore termico: dovuto alla generazione di calore da parte dell’elettronica
rumore da osservazione: leggere il valore analogico di un pixel richiede
un’azione che necessariamente modifica il valore stesso
rumore da quantizzazione: dovuto alla conversione da analogico a digitale
rumore ottico: dovuto al fatto che una lente non trasporta fedelmente un
raggio di luce sul sensore in tutte le sue componenti
rumore strutturale: dovuto alla tecnologia adottata. Tipicamente, un
pixel non copre tutta l’area possibile, ma solo una sottoparte,
effettivamente sprecando una parte dell’informazione
(11 of 51)
L’otturatore
L’otturatore ha lo scopo di esporre il sensore alla luce per un tempo
prefissato. È uno dei principali elementi che determinano l’esposizione.
Accenniamo al fatto che un sensore CCD può avere un otturatore
elettronico, pur con una sensibile riduzione della superficie fotosensibile di
ogni pixel. Questo è utile per ridurre le vibrazioni che il comune otturatore
meccanico necessariamente induce, specialmente negli scatti ad alta velocità.
Anche, rammentiamo che l’uso di un flash richiede una precisa, e non
banale, sincronizzazione con l’otturatore al fine di ottenere una illuminazione
uniforme del soggetto.
"Focal-plane shutter" di Hustvedt—Opera propria. Con licenza CC BY:
C
3.0 tramite Wikimedia Commons
http://commons.wikimedia.org/wiki/File:Focal-plane_shutter.jpg
(12 of 51)
Il diaframma
Il diaframma regola la quantità di luce che può arrivare al sensore. Con
l’otturatore è il principale elemento che determina l’esposizione.
Quando il diaframma è completamente aperto, la lente opera alla sua
massima luminosità, che dipende dalle sue caratteristiche ottiche. Tuttavia,
ogni lente ha un’apertura del diaframma ottimale nella quale la nitidezza è
massima.
La caratteristica più importante di una esposizione, che viene controllata dal
diaframma, è la profondità di campo.
(13 of 51)
Lenti
Non è scopo di questo corso illustrare le molte caratteristiche strutturali
delle varie lenti e degli obiettivi. Ci limiteremo brevemente a illustrare il
significato della messa a fuoco.
Allontanando o avvicinando la lente al piano del sensore, la luce viene
convogliata sulla sua superficie in modo tale che un punto nello spazio
appaia come un disco di diametro variabile. Questo diametro, dipende,
fissata la posizione della lente e quindi la messa a fuoco, dalla distanza del
punto dalla lente.
L’occhio umano percepisce questo disco, detto circolo di confusione, come
un punto se il suo diametro nell’immagine finale è sufficientemente piccolo.
Fotograficamente, diciamo che quel punto è a fuoco.

€€€€€€€€
d
d
d
 
 
 
(14 of 51)
Fuoco
Quindi, l’insieme dei punti a fuoco è determinato dalla distanza di questi
dalla lente, e questo insieme forma un volume la cui sezione è
d
d
d
d
d
d
 
 
 
 
 
  campo visivo
zona a fuoco
lente
'
'
'
Ogni obiettivo ha una distanza minima di messa a fuoco, determinata dalle
sue caratteristiche ottiche, e una distanza massima, spesso infinito o oltre.
(15 of 51)
Iperfocale
Uno degli effetti desiderabili è massimizzare il volume di spazio a fuoco.
La distanza iperfocale è la distanza minima che consente di mettere a fuoco
un soggetto mantenendo gli oggetti all’infinito accettabilmente nitidi.
Quando la lente mette a fuoco a questa distanza, tutti gli oggetti che si
trovano tra metà della distanza iperfocale e l’infinito saranno
accettabilmente a fuoco.
La distanza iperfocale si calcola come
H =
f 2
Nc
,
con H la distanza iperfocale in millimetri, f la focale dell’obiettivo, N il
valore di apertura del diaframma, e c il diametro del circolo di confusione.
Si noti come il circolo di confusione dipende dalla dimensione a cui sarà
osservata l’immagine finale e, in modo più sottile, dal formato del sensore e
dalla sua risoluzione.
(16 of 51)
Profondità di campo
La profondità di campo indica l’ampiezza della zona a fuoco. Essa dipende
dalla focale dell’obiettivo, dall’apertura del diaframma, e dalla distanza del
soggetto dalla fotocamera.
Precisamente, fissata la lente, la profondità di campo aumenta:
con la distanza del soggetto dall’obiettivo
con la chiusura del diaframma
A destra, lo scatto è stato fatto con apertura f/2.8, a sinistra con apertura
f/16, regolando l’otturatore per mantenere la stessa esposizione.
(17 of 51)
Profondità di campo
In realtà, la zona perfettamente a fuoco è sempre estremamente sottile: la
sua profondità corrisponde al valore per cui i raggi di luce formano circoli di
confusione di diametro inferiore al pixel sul piano del sensore.
Tuttavia, come nella presentazione della distanza iperfocale, l’occhio umano
percepisce circoli di confusione sufficientemente piccoli come punti. Sapendo
quale sia la dimensione desiderata dell’immagine, è possibile calcolare la
dimensione del massimo circolo di confusione che generi un punto, e quindi,
la profondità di campo che è necessaria per avere il soggetto completamente
a fuoco.
(18 of 51)
Profondità di campo
Chiamando piano di fuoco la zona perfettamente a fuoco, la profondità di
campo si estende davanti e dietro di esso in modo differente:
d
d
d
d
d
d
 
 
 
 
 
 6
?
profondità di campo
piano di fuoco'



k
È importante notare come il piano di fuoco sia, in realtà, curvo.
(19 of 51)
Profondità di campo
Fissato un piano di fuoco, è possibile calcolare la profondità di campo con le
seguenti formule:
DN =
HS
H +S
(1)
DF =
HS
H −S
,per S  H (2)
dove H è la distanza iperfocale, S la distanza del soggetto, e la profondità di
campo di estende dalla distanza DN (più vicino) a DF (più lontano).
Queste formule sono approssimazioni valide quando S è decisamente
maggiore della lunghezza focale dell’obiettivo.
(20 of 51)
Profondità di campo
Nel caso in cui la distanza S sia prossima alla lunghezza focale della lente,
conviene usare la seguente formula
D = 2Nc
1+m/P
m
(3)
con N l’apertura di diaframma (f-number), c il diametro del cerchio di
confusione massimo che si accetti come punto, m il fattore di ingrandimento
dell’immagine, e P il fattore di ingrandimento della pupilla dell’obiettivo.
Allora D misura l’ampiezza della profondità di campo e, ragionevolmente, il
piano di fuoco è al suo centro.
Si tenga conto che anche questa formula è una approssimazione valida solo
se S è molto minore di H, la distanza iperfocale.
(21 of 51)
Filtri sul sensore
Usualmente, un sensore è idealmente provvisto di tre filtri che ne proteggono
la superficie e ne influenzano il funzionamento:
un filtro Bayer per la resa del colore
un filtro UV (ultravioletto) per ridurre/eliminare la componente invisibile
ad alta energia della luce
un filtro IR (infrarosso) per ridurre/eliminare la componente a bassa
energia della luce
Occorre tenere presente che il silicio, che è l’elemento chimico di base dei
componenti elettronici, è particolarmente sensibile alla luce infrarossa, quindi
il filtro IR è solitamente un attenuatore. Al contrario, il filtro UV è
usualmente quasi bloccante, anche per l’effetto combinato di assorbimento
da parte della lente.
Generalmente, il filtro UV e il filtro IR sono integrati in un filtro AA
(antialiasing), che viene applicato al sensore su due strati, il primo deputato
al taglio della luce infrarossa, e il secondo al mantenimento della luce visibile
e alla protezione del sensore dalla polvere.
(22 of 51)
Filtri sul sensore
Il nome del filtro deriva dall’effetto di aliasing (scalettatura) che, insieme
all’effetto Moivre, dipende dal campionamento che il sensore effettua e
dall’interazione con il filtro di Bayer.
È opportuno rammentare anche che un sensore fotografico normale è tarato
per registrare la luce nello spettro del visibile e, senza i filtri AA la
fotocamera non sarà in grado di usare le funzioni di pulizia del sensore e,
soprattutto, i meccanismi di autofocus.
Inoltre, il software che trasforma i segnali del sensore in immagini assume la
presenza dei filtri AA, e la loro rimozione o alterazione, necessaria in
particolari campi della fotografia, andrà ad alterare il funzionamento del
software, in particolare si perderà un corretto bilanciamento del bianco.
(23 of 51)
Costruzione del colore
Sebbene vi siano numerosi metodi per catturare il colore in un sensore, il
meccanismo più diffuso consiste nell’usare un sensore monocromatico a cui
sia applicato un filtro di Bayer
Esso usa una quadrato di quattro pixel come base, in cui due siano di colore
verde, uno rosso e uno blu, come in figura. Questa distribuzione approssima
bene la visione dei colori da parte degli esseri umani.
(24 of 51)
Colore e range dinamico
Il range dinamico misura quanti toni differenti un pixel del sensore è in grado
di rappresentare. Solitamente, questo valore è dato in numero di bit: 10, 12
14 sono valori tipici, che corrispondono a 210 = 1024, 212 = 4096,
214 = 16384 valori.
Questo significa che, presente un filtro Bayer, l’immagine finale registrata
dal sensore avrà tre valori per ogni pixel, rispettivamente il tono di rosso,
verde e blu, ottenuti interpolando i toni effettivamente letti dai pixel.
Il processo di interpolazione quindi preserva il range dinamico dell’immagine
a discapito della risoluzione.
Purtroppo, il range dinamico in ogni singolo colore non può essere pari al
livello registrato da ogni pixel. La conversione analogico/digitale, l’eventuale
amplificazione del segnale, la correzione di gamma, l’adattamento della
curva colore, e molte altre manipolazioni effettuate dall’hardware o dal
software della fotocamera aumentano il rumore e riducono il range dinamico
a valori compresi tra 5 e 9 bit, tipicamente, ovvero tra 32 e 512 toni
effettivamente rilevati.
(25 of 51)
Spazi colore
Un colore può essere descritto in molti modi: è al di fuori degli obiettivi di
questo corso una trattazione dettagliata.
Un fatto semplice è che un colore può essere utilmente separato in
componenti primarie, la cui composizione genera il colore desiderato. Questo
processo avviene in tre casi importanti:
nell’acquisizione di un’immagine
nella generazione di un’immagine su di un video
nella stampa di un’immagine
(26 of 51)
Spazio RGB
Come abbiamo detto, il filtro Bayer consente di associare ad ogni pixel tre
valori che rappresentano assieme il colore di quel pixel: la componente rossa,
verde, e blu.
Parimenti, un’immagine sullo schermo di un computer è un insieme di punti
ciascuno dei quali assume un colore che è descritto dalle tre componenti
rosso, verde, e blu.
Lo spazio RGB (Red–Green–Blue) descrive i possibili colori come
combinazione di queste tre componenti base. È uno spazio addittivo: un
colore viene generato sommando le tre componenti, quindi, ad esempio,
aumentare il valore di una componente accresce il suo apporto.
(27 of 51)
Spazio CMYK
Al contrario, la stampa viene effettuata in uno spazio sottrattivo: i pigmenti
di colore primario vengono depositati su un punto del foglio, e ognuno di essi
assorbe la componente di luce in una quantità proporzionale alla quantità di
pigmento. Il colore del punto diverrà pertanto il colore della luce riflessa,
esattamente quella che non viene assorbita dai pigmenti sul punto.
Per questo motivo, in stampa, si usa uno spazio colore differente, a
composizione sottrattiva: lo spazio CMYK (Ciano–Magenta–Yellow–blacK).
(28 of 51)
Relazione tra gli spazi colore
I colori primari nello spazio CMYK si ottengono da quelli nello spazio RGB
per complemento:
Ciano = Blu + Verde, complementare a Rosso
Magenta = Blu + Rosso, complementare a Verde
Giallo = Verde + Rosso, complementare a Blu
Per aumentare il range dinamico della stampa, e ridurre la quantità di
pigmenti colorati da utilizzare, è consuetudine aggiungere il nero alla
descrizione del colore da riprodurre.
(29 of 51)
Immagine digitale
Il risultato del processo di acquisizione di un’immagine è un documento
elettronico. Questo viene normalmente generato dalla fotocamera in due
formati: un file RAW, e/o un file JPEG.
I due formati non sono equivalenti: non si tratta di due rappresentazioni
della medesima informazione, ma di due informazioni diverse, seppur
correlate.
Il file RAW è la rappresentazione più vicina a quanto acquisito dal sensore.
Esso rappresenta l’analogo digitale di un negativo fotografico.
Un file JPEG è, a tutti gli effetti, l’analogo digitale di una fotografia: è un
formato largamente usabile in ogni software che tratti immagini, è
direttamente stampabile, è direttamente trasmissibile via Internet.
(30 of 51)
Formato RAW
Un sistema fotografico registra i dati acquisiti da uno scatto in un file RAW
che corrisponde a quanto registrato dal sensore e pre-elaborato. In linea di
massima, un file RAW contiene una descrizione dell’immagine pixel per pixel,
riportando per ogni pixel i valori dei tre canali colore, oltre a vari metadati
come, ad esempio, l’apertura del diaframma e il tempo di esposizione.
Il formato RAW, generalmente, contiene dati che non sono stati elaborati,
ad esempio, il bilanciamento del bianco, o la regolazione del contrasto, o la
nitidezza dell’immagine.
Il formato RAW è proprietario: esso dipende dalla casa produttrice della
fotocamera e, talora, dal modello. Le case maggiori hanno reso disponibile
metodi per decodificare questi file da parte di software di terze parti.
(31 of 51)
Formato JPEG
Il formato jpeg è lo standard de facto per l’archiviazione delle immagini
fotografiche, così come è il normale formato per l’interscambio di questo
tipo di immagini
La rappresentazione dei dati al suo interno è stata concepita come un
compromesso tra il mantenere la qualità apparente dell’immagine e la
necessità di ridurre le dimensioni del file. Questo viene ottenuto,
semplificando, con una compressione che si basa sulla riduzione delle
variazioni di tono in aree di colore omogeneo.
Per la pubblicazione, la stampa, e la trasmissione un file jpeg può essere
considerato il prodotto finale del processo fotografico digitale, l’analogo del
positivo sviluppato della fotografia tradizionale.
(32 of 51)
Formato TIFF
Il formato TIFF è un formato molto usato per l’archiviazione di immagini
scientifiche. A differenza del formato RAW esso è libero e non
specificatamente legato al marchio della fotocamera. A differenza del
formato jpeg esso non usa una compressione lossy.
Il formato TIFF, nella sua versione più utilizzata, ha due caratteristiche
interessanti per la fotografia scientifica:
l’immagine viene compressa usando un algoritmo generico per dati,
solitamente LZW. Questo significa una minore capacità di compressione
rispetto a jpeg, ma anche che i dati decompressi sono esattamente i
dati originali, senza alcuna perdita di informazione;
l’immagine può essere a 8 o a 16 bit, ovvero il formato TIFF consente di
memorizzare immagini con un range dinamico superiore al formato jpeg,
che è limitato a 8 bit. Tuttavia, occorre sottolineare che non tutti i
software fotografici sono in grado di usare questa caratteristica di TIFF.
(33 of 51)
Istogrammi
Molte moderne fotocamere e tutti i software fotografici mettono a
disposizione uno strumento importante per descrivere sinteticamente
un’immagine: il suo istogramma.
L’istogramma è un grafico che riporta in ascissa i valori dei toni, dal nero al
bianco, e in ordinata, il numero di pixel di quel tono.
Oltre ad un istogramma che riporta il valore di intensità di ogni pixel, ci
sono istogrammi che, in modo analogo, si riferiscono all’intensità di un pixel
in un singolo canale di uno spazio colore.
(34 of 51)
Istogrammi
Essendo una informazione sintetica, un istogramma deve essere interpretato
con giudizio. Un’immagine con uno sviluppo tonale ben distribuito, risulterà
in un istogramma come il seguente, quando correttamente esposta
Una concentrazione dell’istogramma a sinistra o a destra, indica una
sottoesposizione (prevalenza di toni verso il nero), o una sovraesposizione
(prevalenza di toni verso il bianco).
(35 of 51)
Istogrammi
Un istogramma che sia particolarmente concentrato indica un limitato uso
del range dinamico
In un canale colore, un istogramma concentrato a destra o a sinistra indica
una (de)saturazione di quel colore, ovvero la potenziale presenza di una
predominanza tonale.
(36 of 51)
Istogrammi
Una avvertenza importante: sebbene gli istogrammi siano uno strumento
estremamente utile, essi richiedono una corretta interpretazione che non
prescinda dal soggetto. Ad esempio
l’istogramma della foto sopra non indica una sovraesposizione, in quanto la
foto è generalmente bianca, ritraendo gli effetti di una nevicata!
(37 of 51)
Filtri
Nella fotografia tradizionale si usano numerosi filtri da applicare all’obiettivo.
Essi trovano impiego anche nella fotografia scientifica, ma con enfasi
differenti. In particolare, i filtri a densità neutra, i filtri graduali, i
polarizzatori, e i filtri a infrarosso hanno un utilizzo proprio molto limitato o
nullo.
I filtri utilizzati sono
i filtri UV (Ultra-Violetto)
i filtri colorati
(38 of 51)
Filtri UV
Lo scopo primario di un filtro UV è quello di eliminare o ridurre la
componente ultravioletta dalla luce che dovrà attraversare l’obiettivo.
Sebbene questo effetto sia utile, esso ha una influenza estremamente
limitata nella fotografia digitale poiché
il vetro, di cui le lenti sono fatte, agisce naturalmente da filtro UV
esiste un filtro UV sul sensore
Di fatto, nella fotografia digitale contemporanea, il principale uso del filtro
UV è quello di fare da schermo all’obiettivo, proteggendolo da polvere,
sporco ed eventuali contaminazioni che possano depositarsi sulle lenti o
entrare nel corpo.
(39 of 51)
Filtri colorati
I filtri colorati vengono applicati ad un obiettivo con due scopi:
conferire una tonalità dominante precisa all’immagine
aumentare o diminuire il contrasto tra alcune zone dell’immagine
Mentre il primo utilizzo è ovvio, il secondo prende origine dalla fotografia in
bianco e nero. Ad esempio, un filtro blu farà in modo che gli oggetti blu
saranno resi con una sfumatura più chiara di grigio, mentre gli oggetti del
colore complementare, il rosso, saranno resi da una tonalità più scura.
In generale, in uno scatto monocromatico, un filtro colorato schiarirà i toni
degli oggetti del proprio colore, mentre scurirà i toni degli oggetti di colore
complementare. Naturalmente, questo effetto è graduale nei canali colore, e
si applica anche a foto a colori, con l’aggiunta di una dominante cromatica.
(40 of 51)
Luminosità
Nei programmi di fotoritocco, la luminosità di un punto è definita come la
media aritmetica dei valori dei tre canali colore rosso, verde, e blu.
Un controllo permette di aumentare o diminuire la luminosità di tutti i
punti, incrementando o decrementando i valori dei tre canali per ogni punto.
È importante rilevare come questa trasformazione porti ad una effettiva e
irrimediabile perdita di informazione, rendendo completamenti bianchi i
punti molto chiari, o completamente neri i punti molto scuri.
(41 of 51)
Contrasto
Il contrasto è definito come la differenza di luminosità tra due punti.
Chiaramente, punti contigui che abbiano un accentuato contrasto sono,
solitamente, l’indicazione che l’immagine presenta un bordo in quella zona.
Volendo evidenziare le diverse entità presenti nell’immagine quando esse
presentano una luminosità differente, i programmi di fotoritocco permettono
di variare il contrasto complessivo, aumentando la luminosità dei punti più
chiari e diminuendo quella dei punti più scuri, proporzionalmente.
È, nuovamente, importante sottolineare come la modifica del contrasto porti
necessariamente alla perdita di informazione.
(42 of 51)
Bilanciamento dei canali colore
I canali colore sono composti tra loro per conferire un colore ad ogni punto
dell’immagine, come già illustrato. Una trasformazione utile in
post-produzione consiste nel modificare il modo in cui questa composizione
viene calcolata.
(43 of 51)
Bilanciamento dei canali colore
Questo tipo di trasformazione è utile quando
si vuole eliminare o aggiungere una tonalità cromatica complessiva
all’immagine
si vuole che una specifica parte dell’immagine abbia un colore preciso, ad
esempio, che la neve sia bianca, oppure il cielo azzurro
si vuole isolare o enfatizzare una zona dell’immagine in modo che risulti
maggiormente in contrasto con quanto la circonda
(44 of 51)
Istogrammi e curve
Uno strumento più raffinato per la gestione della luminosità, del contrasto, e
del bilanciamento dei colori, permette l’applicazione di una curva
all’istogramma di un singolo canale colore o, uniformemente, all’intensità di
tutti i punti dell’immagine.
(45 of 51)
Istogrammi e curve
Dato l’istogramma dell’immagine, questo viene interpretato linearmente: al
valore x sull’asse delle ascisse corrisponde il valore x di intensità del pixel, e
l’ordinata riporta il numero di pixel con quel valore.
Graficamente, questo corrisponde a usare la retta f (x) = x come curva dei
valori di riferimento: i punti di valore x sono resi graficamente con il valore
f (x).
Una curva differente modifica questa interpretazione, ad esempio
una curva a S corrisponde ad una alterazione del contrasto
una curva monotona che azzeri i valori più bassi o massimizzi i valori più
alti, corrisponderà ad una variazione di luminosità
una curva applicata ad un singolo canale colore modificherà in modo più
fine il bilanciamento dei colori
(46 of 51)
Acquisizioni multiple
Scattare più foto di uno stesso soggetto mantenendo costante la posizione è
una tecnica che viene usata per molteplici scopi: ad esempio, aumentare il
range dinamico delle immagini oltre le capacità del sensore, aumentare la
profondità di campo mantenendo una nitidezza elevata, rendere i dettagli
delle ombre e delle alte luci.
Di nostro interesse è mostrare come questa tecnica possa essere usata per
ridurre in modo significativo il rumore in una immagine.
Consideriamo un punto della scena: essa è descritto da una tripla di valori
per ogni scatto che effettuiamo
rosso verde blu
1 100 47 220
2 102 41 219
3 104 42 218
4 97 45 217
5 95 38 215
(47 of 51)
Acquisizioni multiple
Prendendo il valore mediano (100,42,218) oppure il valore medio per ogni
componente (99.6,42.6,217.8), otterremo una tripla che presenta un
rapporto segnale/rumore ridotto, ipotizzando il rumore come puramente
casuale e quindi con distribuzione gaussiana.
Ad esempio, il seguente scatto è stato effettuato con ISO = 12800,
ottenendo un’immagine che presenta molto rumore, come si vede
dall’ingrandimento
(48 of 51)
Acquisizioni multiple
Andando a sovrapporre cinque acquisizioni esattamente con le stesse
impostazioni della fotocamera secondo il metodo della mediana, si ottiene
(49 of 51)
Acquisizioni multiple
Confrontando gli ingrandimenti, si vede come il rumore sia stato ridotto
(50 of 51)
Riferimenti
Elizabeth Allen, Sophie Triantaphillidou, The Manual of Photography,
10th edition, Focal Press (2009)
Bryan Peterson, Understanding Exposure, 3rd edition, Amphoto Books
(2010)
CC BY: $

C
Dr Marco Benini 2015
Tutte le foto di cui non sia specificata l’attribuzione,
sono state scattate dall’autore di queste slides
e sono protette da copyright.
(51 of 51)

More Related Content

What's hot

Applicazioni Open Source per il rilievo tridimensionale. Il caso studio dell...
Applicazioni Open Source per il rilievo tridimensionale.  Il caso studio dell...Applicazioni Open Source per il rilievo tridimensionale.  Il caso studio dell...
Applicazioni Open Source per il rilievo tridimensionale. Il caso studio dell...Giulio Bigliardi
 
Classificazione non supervisionata di immagini digitali per applicazioni di i...
Classificazione non supervisionata di immagini digitali per applicazioni di i...Classificazione non supervisionata di immagini digitali per applicazioni di i...
Classificazione non supervisionata di immagini digitali per applicazioni di i...ICL - Image Communication Laboratory
 
Studio e confronto di filtri per il denoising di immagini in relazione all’id...
Studio e confronto di filtri per il denoising di immagini in relazione all’id...Studio e confronto di filtri per il denoising di immagini in relazione all’id...
Studio e confronto di filtri per il denoising di immagini in relazione all’id...ICL - Image Communication Laboratory
 
Marco lembo
Marco lemboMarco lembo
Marco lemboDrMarlem
 
Resa non simulativa di fenomeni ottici in real-time su architetture sprovvist...
Resa non simulativa di fenomeni ottici in real-time su architetture sprovvist...Resa non simulativa di fenomeni ottici in real-time su architetture sprovvist...
Resa non simulativa di fenomeni ottici in real-time su architetture sprovvist...Angelo Theodorou
 
3D ArcheoLab, 7 aprile 2014 @ On/Off (Parma)
3D ArcheoLab, 7 aprile 2014 @ On/Off (Parma)3D ArcheoLab, 7 aprile 2014 @ On/Off (Parma)
3D ArcheoLab, 7 aprile 2014 @ On/Off (Parma)Giulio Bigliardi
 
Prima parte - Formazione delle immagini
Prima parte -  Formazione delle immaginiPrima parte -  Formazione delle immagini
Prima parte - Formazione delle immaginiEugenio Rustico
 
Vsnc b5399 p-ok
Vsnc b5399 p-okVsnc b5399 p-ok
Vsnc b5399 p-okGpsLazio
 
3D graphics for cultural heritage
3D graphics for cultural heritage3D graphics for cultural heritage
3D graphics for cultural heritageMarina Belli
 
Laser scanner 3d beni culturali e naturali
Laser scanner 3d beni culturali e naturaliLaser scanner 3d beni culturali e naturali
Laser scanner 3d beni culturali e naturaligpandiscia
 
Open source e archeologia: casi di studio
Open source e archeologia: casi di studioOpen source e archeologia: casi di studio
Open source e archeologia: casi di studioGiulio Bigliardi
 
Megapixel camera definizione ed utilizzo
Megapixel camera definizione ed utilizzoMegapixel camera definizione ed utilizzo
Megapixel camera definizione ed utilizzoer0n
 
3D SCANNING di Barbetta Marco mat. 269445
3D SCANNING di Barbetta Marco mat. 2694453D SCANNING di Barbetta Marco mat. 269445
3D SCANNING di Barbetta Marco mat. 269445guest5e80c0
 
Terranova M. S., Dalla fotogrammetria al Kinect: approcci di rilievo a confronto
Terranova M. S., Dalla fotogrammetria al Kinect: approcci di rilievo a confrontoTerranova M. S., Dalla fotogrammetria al Kinect: approcci di rilievo a confronto
Terranova M. S., Dalla fotogrammetria al Kinect: approcci di rilievo a confrontoProgetto Open Téchne
 
Lezione2
Lezione2Lezione2
Lezione2irea
 
Qualità del servizio in una uo di bioimmagini digitale
Qualità del servizio in una uo di bioimmagini digitaleQualità del servizio in una uo di bioimmagini digitale
Qualità del servizio in una uo di bioimmagini digitaleGiuseppe Walter Antonucci
 

What's hot (20)

Applicazioni Open Source per il rilievo tridimensionale. Il caso studio dell...
Applicazioni Open Source per il rilievo tridimensionale.  Il caso studio dell...Applicazioni Open Source per il rilievo tridimensionale.  Il caso studio dell...
Applicazioni Open Source per il rilievo tridimensionale. Il caso studio dell...
 
Lezione2
Lezione2Lezione2
Lezione2
 
Classificazione non supervisionata di immagini digitali per applicazioni di i...
Classificazione non supervisionata di immagini digitali per applicazioni di i...Classificazione non supervisionata di immagini digitali per applicazioni di i...
Classificazione non supervisionata di immagini digitali per applicazioni di i...
 
Studio e confronto di filtri per il denoising di immagini in relazione all’id...
Studio e confronto di filtri per il denoising di immagini in relazione all’id...Studio e confronto di filtri per il denoising di immagini in relazione all’id...
Studio e confronto di filtri per il denoising di immagini in relazione all’id...
 
Marco lembo
Marco lemboMarco lembo
Marco lembo
 
Corso base 01
Corso base 01Corso base 01
Corso base 01
 
Resa non simulativa di fenomeni ottici in real-time su architetture sprovvist...
Resa non simulativa di fenomeni ottici in real-time su architetture sprovvist...Resa non simulativa di fenomeni ottici in real-time su architetture sprovvist...
Resa non simulativa di fenomeni ottici in real-time su architetture sprovvist...
 
3D ArcheoLab, 7 aprile 2014 @ On/Off (Parma)
3D ArcheoLab, 7 aprile 2014 @ On/Off (Parma)3D ArcheoLab, 7 aprile 2014 @ On/Off (Parma)
3D ArcheoLab, 7 aprile 2014 @ On/Off (Parma)
 
Prima parte - Formazione delle immagini
Prima parte -  Formazione delle immaginiPrima parte -  Formazione delle immagini
Prima parte - Formazione delle immagini
 
Vsnc b5399 p-ok
Vsnc b5399 p-okVsnc b5399 p-ok
Vsnc b5399 p-ok
 
3D graphics for cultural heritage
3D graphics for cultural heritage3D graphics for cultural heritage
3D graphics for cultural heritage
 
Laser scanner 3d beni culturali e naturali
Laser scanner 3d beni culturali e naturaliLaser scanner 3d beni culturali e naturali
Laser scanner 3d beni culturali e naturali
 
Open source e archeologia: casi di studio
Open source e archeologia: casi di studioOpen source e archeologia: casi di studio
Open source e archeologia: casi di studio
 
Megapixel camera definizione ed utilizzo
Megapixel camera definizione ed utilizzoMegapixel camera definizione ed utilizzo
Megapixel camera definizione ed utilizzo
 
3D SCANNING di Barbetta Marco mat. 269445
3D SCANNING di Barbetta Marco mat. 2694453D SCANNING di Barbetta Marco mat. 269445
3D SCANNING di Barbetta Marco mat. 269445
 
Terranova M. S., Dalla fotogrammetria al Kinect: approcci di rilievo a confronto
Terranova M. S., Dalla fotogrammetria al Kinect: approcci di rilievo a confrontoTerranova M. S., Dalla fotogrammetria al Kinect: approcci di rilievo a confronto
Terranova M. S., Dalla fotogrammetria al Kinect: approcci di rilievo a confronto
 
La Prestampa Digitale
La Prestampa DigitaleLa Prestampa Digitale
La Prestampa Digitale
 
Lezione2
Lezione2Lezione2
Lezione2
 
Qualità del servizio in una uo di bioimmagini digitale
Qualità del servizio in una uo di bioimmagini digitaleQualità del servizio in una uo di bioimmagini digitale
Qualità del servizio in una uo di bioimmagini digitale
 
Lenti
LentiLenti
Lenti
 

Similar to L'occhio del biologo: elementi di fotografia

Caratterizzazione di sensori di immagineCMOS
Caratterizzazione di sensori di immagineCMOSCaratterizzazione di sensori di immagineCMOS
Caratterizzazione di sensori di immagineCMOSErlis Hasa
 
Cone beam - Modulo C
Cone beam - Modulo CCone beam - Modulo C
Cone beam - Modulo Caccademiatn
 
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...DanieleMarchese6
 
Fotografia_vademecuum.03.pdf
Fotografia_vademecuum.03.pdfFotografia_vademecuum.03.pdf
Fotografia_vademecuum.03.pdfStefanoBrenna3
 
Barcamp - tema proposto -
Barcamp - tema proposto -Barcamp - tema proposto -
Barcamp - tema proposto -iuav
 
Barcamp -
Barcamp - Barcamp -
Barcamp - iuav
 
BARCAMP '10
BARCAMP '10BARCAMP '10
BARCAMP '10iuav
 
L’Obiettivo E La Macchina Fotografica
L’Obiettivo E La Macchina FotograficaL’Obiettivo E La Macchina Fotografica
L’Obiettivo E La Macchina Fotograficaguestad8ff39
 
tecnologia in ambito della senologia
tecnologia in ambito della senologiatecnologia in ambito della senologia
tecnologia in ambito della senologiaAntonio Mangiardi
 
Archeologia e l'utilizzo di Sistemi APR
Archeologia e l'utilizzo di Sistemi APRArcheologia e l'utilizzo di Sistemi APR
Archeologia e l'utilizzo di Sistemi APRAntonio Feliziani
 
Tesi laurea triennale giovanni sferrazza
Tesi laurea triennale giovanni sferrazzaTesi laurea triennale giovanni sferrazza
Tesi laurea triennale giovanni sferrazzaGiovanni Sferrazza
 
Presentazione Sviluppo e confronto di tecniche di stima della traiettoria di ...
Presentazione Sviluppo e confronto di tecniche di stima della traiettoria di ...Presentazione Sviluppo e confronto di tecniche di stima della traiettoria di ...
Presentazione Sviluppo e confronto di tecniche di stima della traiettoria di ...Andrea Bidinost
 
Scanner 3D e Reverse Engineering
Scanner 3D e Reverse EngineeringScanner 3D e Reverse Engineering
Scanner 3D e Reverse EngineeringPaolo Aliverti
 
Evoluzione rendering
Evoluzione renderingEvoluzione rendering
Evoluzione renderingYuma Noise
 
Direct volume rendering pres
Direct volume rendering presDirect volume rendering pres
Direct volume rendering presGiuseppe Frattura
 
Scanner 3D e reverse Engineering
Scanner 3D e reverse EngineeringScanner 3D e reverse Engineering
Scanner 3D e reverse EngineeringPaolo Aliverti
 

Similar to L'occhio del biologo: elementi di fotografia (20)

Videosorveglianza
VideosorveglianzaVideosorveglianza
Videosorveglianza
 
Caratterizzazione di sensori di immagineCMOS
Caratterizzazione di sensori di immagineCMOSCaratterizzazione di sensori di immagineCMOS
Caratterizzazione di sensori di immagineCMOS
 
Cone beam - Modulo C
Cone beam - Modulo CCone beam - Modulo C
Cone beam - Modulo C
 
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...
 
Fotografia_vademecuum.03.pdf
Fotografia_vademecuum.03.pdfFotografia_vademecuum.03.pdf
Fotografia_vademecuum.03.pdf
 
Barcamp - tema proposto -
Barcamp - tema proposto -Barcamp - tema proposto -
Barcamp - tema proposto -
 
Barcamp -
Barcamp - Barcamp -
Barcamp -
 
BARCAMP '10
BARCAMP '10BARCAMP '10
BARCAMP '10
 
L’Obiettivo E La Macchina Fotografica
L’Obiettivo E La Macchina FotograficaL’Obiettivo E La Macchina Fotografica
L’Obiettivo E La Macchina Fotografica
 
tecnologia in ambito della senologia
tecnologia in ambito della senologiatecnologia in ambito della senologia
tecnologia in ambito della senologia
 
Archeologia e l'utilizzo di Sistemi APR
Archeologia e l'utilizzo di Sistemi APRArcheologia e l'utilizzo di Sistemi APR
Archeologia e l'utilizzo di Sistemi APR
 
Tesi laurea triennale giovanni sferrazza
Tesi laurea triennale giovanni sferrazzaTesi laurea triennale giovanni sferrazza
Tesi laurea triennale giovanni sferrazza
 
Presentazione Sviluppo e confronto di tecniche di stima della traiettoria di ...
Presentazione Sviluppo e confronto di tecniche di stima della traiettoria di ...Presentazione Sviluppo e confronto di tecniche di stima della traiettoria di ...
Presentazione Sviluppo e confronto di tecniche di stima della traiettoria di ...
 
Fuzzy viewshed: uno strumento per l’analisi di visibilità in ambiente di ince...
Fuzzy viewshed: uno strumento per l’analisi di visibilità in ambiente di ince...Fuzzy viewshed: uno strumento per l’analisi di visibilità in ambiente di ince...
Fuzzy viewshed: uno strumento per l’analisi di visibilità in ambiente di ince...
 
Scanner 3D e Reverse Engineering
Scanner 3D e Reverse EngineeringScanner 3D e Reverse Engineering
Scanner 3D e Reverse Engineering
 
Evoluzione rendering
Evoluzione renderingEvoluzione rendering
Evoluzione rendering
 
Tesi
TesiTesi
Tesi
 
Direct volume rendering pres
Direct volume rendering presDirect volume rendering pres
Direct volume rendering pres
 
Scanner 3D e reverse Engineering
Scanner 3D e reverse EngineeringScanner 3D e reverse Engineering
Scanner 3D e reverse Engineering
 
Scuola di fotografia - Lezione 1: Tempi, diaframmi, ISO ed esposizione
Scuola di fotografia - Lezione 1: Tempi, diaframmi, ISO ed esposizioneScuola di fotografia - Lezione 1: Tempi, diaframmi, ISO ed esposizione
Scuola di fotografia - Lezione 1: Tempi, diaframmi, ISO ed esposizione
 

More from Marco Benini

Point-free semantics of dependent type theories
Point-free semantics of dependent type theoriesPoint-free semantics of dependent type theories
Point-free semantics of dependent type theoriesMarco Benini
 
The Graph Minor Theorem: a walk on the wild side of graphs
The Graph Minor Theorem: a walk on the wild side of graphsThe Graph Minor Theorem: a walk on the wild side of graphs
The Graph Minor Theorem: a walk on the wild side of graphsMarco Benini
 
Explaining the Kruskal Tree Theore
Explaining the Kruskal Tree TheoreExplaining the Kruskal Tree Theore
Explaining the Kruskal Tree TheoreMarco Benini
 
The Graph Minor Theorem: a walk on the wild side of graphs
The Graph Minor Theorem: a walk on the wild side of graphsThe Graph Minor Theorem: a walk on the wild side of graphs
The Graph Minor Theorem: a walk on the wild side of graphsMarco Benini
 
Dealing with negative results
Dealing with negative resultsDealing with negative results
Dealing with negative resultsMarco Benini
 
Variations on the Higman's Lemma
Variations on the Higman's LemmaVariations on the Higman's Lemma
Variations on the Higman's LemmaMarco Benini
 
Dealing with negative results
Dealing with negative resultsDealing with negative results
Dealing with negative resultsMarco Benini
 
Well Quasi Orders in a Categorical Setting
Well Quasi Orders in a Categorical SettingWell Quasi Orders in a Categorical Setting
Well Quasi Orders in a Categorical SettingMarco Benini
 
Proof-Theoretic Semantics: Point-free meaninig of first-order systems
Proof-Theoretic Semantics: Point-free meaninig of first-order systemsProof-Theoretic Semantics: Point-free meaninig of first-order systems
Proof-Theoretic Semantics: Point-free meaninig of first-order systemsMarco Benini
 
Point-free foundation of Mathematics
Point-free foundation of MathematicsPoint-free foundation of Mathematics
Point-free foundation of MathematicsMarco Benini
 
Fondazione point-free della matematica
Fondazione point-free della matematicaFondazione point-free della matematica
Fondazione point-free della matematicaMarco Benini
 
Numerical Analysis and Epistemology of Information
Numerical Analysis and Epistemology of InformationNumerical Analysis and Epistemology of Information
Numerical Analysis and Epistemology of InformationMarco Benini
 
Constructive Adpositional Grammars, Formally
Constructive Adpositional Grammars, FormallyConstructive Adpositional Grammars, Formally
Constructive Adpositional Grammars, FormallyMarco Benini
 
Marie Skłodowska Curie Intra-European Fellowship
Marie Skłodowska Curie Intra-European FellowshipMarie Skłodowska Curie Intra-European Fellowship
Marie Skłodowska Curie Intra-European FellowshipMarco Benini
 
Programming modulo representations
Programming modulo representationsProgramming modulo representations
Programming modulo representationsMarco Benini
 
Algorithms and Their Explanations
Algorithms and Their ExplanationsAlgorithms and Their Explanations
Algorithms and Their ExplanationsMarco Benini
 
Programming modulo representations
Programming modulo representationsProgramming modulo representations
Programming modulo representationsMarco Benini
 
June 22nd 2014: Seminar at JAIST
June 22nd 2014: Seminar at JAISTJune 22nd 2014: Seminar at JAIST
June 22nd 2014: Seminar at JAISTMarco Benini
 
CORCON2014: Does programming really need data structures?
CORCON2014: Does programming really need data structures?CORCON2014: Does programming really need data structures?
CORCON2014: Does programming really need data structures?Marco Benini
 
Fondazione point-free della matematica
Fondazione point-free della matematicaFondazione point-free della matematica
Fondazione point-free della matematicaMarco Benini
 

More from Marco Benini (20)

Point-free semantics of dependent type theories
Point-free semantics of dependent type theoriesPoint-free semantics of dependent type theories
Point-free semantics of dependent type theories
 
The Graph Minor Theorem: a walk on the wild side of graphs
The Graph Minor Theorem: a walk on the wild side of graphsThe Graph Minor Theorem: a walk on the wild side of graphs
The Graph Minor Theorem: a walk on the wild side of graphs
 
Explaining the Kruskal Tree Theore
Explaining the Kruskal Tree TheoreExplaining the Kruskal Tree Theore
Explaining the Kruskal Tree Theore
 
The Graph Minor Theorem: a walk on the wild side of graphs
The Graph Minor Theorem: a walk on the wild side of graphsThe Graph Minor Theorem: a walk on the wild side of graphs
The Graph Minor Theorem: a walk on the wild side of graphs
 
Dealing with negative results
Dealing with negative resultsDealing with negative results
Dealing with negative results
 
Variations on the Higman's Lemma
Variations on the Higman's LemmaVariations on the Higman's Lemma
Variations on the Higman's Lemma
 
Dealing with negative results
Dealing with negative resultsDealing with negative results
Dealing with negative results
 
Well Quasi Orders in a Categorical Setting
Well Quasi Orders in a Categorical SettingWell Quasi Orders in a Categorical Setting
Well Quasi Orders in a Categorical Setting
 
Proof-Theoretic Semantics: Point-free meaninig of first-order systems
Proof-Theoretic Semantics: Point-free meaninig of first-order systemsProof-Theoretic Semantics: Point-free meaninig of first-order systems
Proof-Theoretic Semantics: Point-free meaninig of first-order systems
 
Point-free foundation of Mathematics
Point-free foundation of MathematicsPoint-free foundation of Mathematics
Point-free foundation of Mathematics
 
Fondazione point-free della matematica
Fondazione point-free della matematicaFondazione point-free della matematica
Fondazione point-free della matematica
 
Numerical Analysis and Epistemology of Information
Numerical Analysis and Epistemology of InformationNumerical Analysis and Epistemology of Information
Numerical Analysis and Epistemology of Information
 
Constructive Adpositional Grammars, Formally
Constructive Adpositional Grammars, FormallyConstructive Adpositional Grammars, Formally
Constructive Adpositional Grammars, Formally
 
Marie Skłodowska Curie Intra-European Fellowship
Marie Skłodowska Curie Intra-European FellowshipMarie Skłodowska Curie Intra-European Fellowship
Marie Skłodowska Curie Intra-European Fellowship
 
Programming modulo representations
Programming modulo representationsProgramming modulo representations
Programming modulo representations
 
Algorithms and Their Explanations
Algorithms and Their ExplanationsAlgorithms and Their Explanations
Algorithms and Their Explanations
 
Programming modulo representations
Programming modulo representationsProgramming modulo representations
Programming modulo representations
 
June 22nd 2014: Seminar at JAIST
June 22nd 2014: Seminar at JAISTJune 22nd 2014: Seminar at JAIST
June 22nd 2014: Seminar at JAIST
 
CORCON2014: Does programming really need data structures?
CORCON2014: Does programming really need data structures?CORCON2014: Does programming really need data structures?
CORCON2014: Does programming really need data structures?
 
Fondazione point-free della matematica
Fondazione point-free della matematicaFondazione point-free della matematica
Fondazione point-free della matematica
 

L'occhio del biologo: elementi di fotografia

  • 1. L’occhio del biologo Elementi di fotografia Dr Marco Benini marco.benini@uninsubria.it Università degli Studi dell’Insubria 2015
  • 2. Argomenti Struttura di una macchina fotografica digitale Sensore: dimensione, risoluzione, tecnologia, sensibilità, rumore, range dinamico Otturatore: tempi di esposizione Diaframma: apertura Tecnica fotografica di base Messa a fuoco: distanza iperfocale Profondità di campo Colore Acquisizione: filtro Bayer, filtri sul sensore Emissioni: spazio RGB Stampa: spazio CMYK Formati: RAW, JPG Distorsioni: lettura degli istogrammi Gestione di base: canali colore Filtri: UV, filtri colorati (2 of 51)
  • 3. Argomenti Post-produzione di base Luminosità Contrasto Bilanciamento dei canali colore Istogrammi e curve Acquisizione multipla: compressione del rumore (3 of 51)
  • 4. Diagramma di una fotocamera digitale ' & $ % - - c c c T T T CPU lente lente filtro diaframma otturatore sensore (4 of 51)
  • 5. Diagramma di una fotocamera digitale le lenti servono per convogliare la luce sul sensore il diaframma regola la quantità di luce che arriva al sensore l’otturatore regola il tempo per cui il sensore è esposto alla luce il filtro elimina o riduce una porzione dello spettro luminoso il sensore registra l’immagine trasformando il segnale luminoso in un segnale elettronico la CPU trasforma il segnale elettronico del sensore in una immagine digitale (5 of 51)
  • 6. Il sensore In prima approssimazione, un sensore è una griglia di elementi, detti pixel, in grado di registrare la quantità di luce che li colpisce. m m m m m m m m m m m m m m m m m m m m m m m m m T c E' x y "CCD Image sensor" di Sphl—Opera propria. Con licenza CC BY: C 3.0 tramite Wikimedia Commons http://commons.wikimedia.org/wiki/File:CCD_Image_sensor.jpg (6 of 51)
  • 7. Il sensore Le principali caratteristiche di un sensore sono: il formato: la sua dimensione (x,y) in millimetri e la proporzione x/y, tipicamente 4 : 3, 3 : 2 o 1 : 1 la risoluzione: la quantità di pixel presenti sul sensore il range dinamico: essenzialmente, la quantità di valori che un pixel può assumere la sensibilità: sostanzialmente, la quantità di luce che serve per modificare il valore di un pixel l’architettura: la tecnologia impiegata nella costruzione del sensore e il modo in cui questo viene letto (7 of 51)
  • 8. Il sensore La combinazione di formato e risoluzione determina la dimensione massima di un pixel. Questa, a sua volta, determina la qualità dell’immagine. Tuttavia, non è vero che, a parità di formato, una risoluzione maggiore restituisca una immagine più precisa: più i pixel sono piccoli, più si influenzano l’un l’altro. Inoltre, ogni lente soffre di diffrazione: al di sotto di un certo valore di dimensione, che dipende dalle caratteristiche della lente, le componenti dello stesso raggio di luce potranno essere, erroneamente, convogliate su pixel differenti. (8 of 51)
  • 9. Il sensore Ogni pixel è dotato di una sensibilità intrinseca che dipende dalla sua costruzione. Ovvero, un pixel registra allo stesso modo due raggi di luce la cui intensità differisca per una quantità inferiore ad una soglia chiamata sensibilità. Ogni sensore ha una sensibilità naturale, che dipende dalle sue caratteristiche strutturali. Ma la CPU o il sensore stesso può variare la propria sensibilità apparente, agendo con un opportuno fattore di moltiplicazione nella conversione del valore analogico di un pixel ad un valore digitale. La sensibilità si misura, come per le pellicole fotografiche, in gradi ISO. Valori usuali per la sensibilità naturale di un sensore sono 50, 100 o 200 ISO. L’ampiezza dei valori digitali possibili costituisce il range dinamico del sensore, e, assieme alla sensibilità, stabilisce la gamma di toni, dal nero al bianco, che il sensore è in grado di registrare. (9 of 51)
  • 10. Il sensore Esistono, ad oggi, due principali tecnologie per la costruzione di sensori: CMOS e CCD. La tecnologia complementary metal oxide semiconductor (CMOS) è più recente e offre il vantaggio che ogni pixel provvede autonomamente a raccogliere la luce e a trasformarne l’intensità in un valore numerico digitale. La tecnologia charge-coupled device (CCD), precedente alla CMOS, consente di costruire pixel più semplici elettronicamente e, seppur il processo di formazione dell’immagine digitale avviene a valle del sensore, complicando la relativa circuiteria, i pixel sono, generalmente, più piccoli, permettendo maggior risoluzione. In linea di massima, i sensori CMOS sono più economici, ma meno precisi. Occorre comunque tener conto che gli avanzamenti tecnologici sono stati notevoli, e oggi esistono sensori CMOS su fotocamere professionali, e sensori CCD montati su fotocamere compatte. (10 of 51)
  • 11. Il sensore Nessun sensore è in grado di osservare passivamente la luce e di registrarla fedelmente. I limiti strutturali e tecnici introducono inevitabilmente dei disturbi di cui occorre esser consci: collettivamente, questi vanno sotto il nome di rumore. Con notevole semplificazione, ad uso di questo corso, possiamo classificare il rumore associabile al sensore in rumore termico: dovuto alla generazione di calore da parte dell’elettronica rumore da osservazione: leggere il valore analogico di un pixel richiede un’azione che necessariamente modifica il valore stesso rumore da quantizzazione: dovuto alla conversione da analogico a digitale rumore ottico: dovuto al fatto che una lente non trasporta fedelmente un raggio di luce sul sensore in tutte le sue componenti rumore strutturale: dovuto alla tecnologia adottata. Tipicamente, un pixel non copre tutta l’area possibile, ma solo una sottoparte, effettivamente sprecando una parte dell’informazione (11 of 51)
  • 12. L’otturatore L’otturatore ha lo scopo di esporre il sensore alla luce per un tempo prefissato. È uno dei principali elementi che determinano l’esposizione. Accenniamo al fatto che un sensore CCD può avere un otturatore elettronico, pur con una sensibile riduzione della superficie fotosensibile di ogni pixel. Questo è utile per ridurre le vibrazioni che il comune otturatore meccanico necessariamente induce, specialmente negli scatti ad alta velocità. Anche, rammentiamo che l’uso di un flash richiede una precisa, e non banale, sincronizzazione con l’otturatore al fine di ottenere una illuminazione uniforme del soggetto. "Focal-plane shutter" di Hustvedt—Opera propria. Con licenza CC BY: C 3.0 tramite Wikimedia Commons http://commons.wikimedia.org/wiki/File:Focal-plane_shutter.jpg (12 of 51)
  • 13. Il diaframma Il diaframma regola la quantità di luce che può arrivare al sensore. Con l’otturatore è il principale elemento che determina l’esposizione. Quando il diaframma è completamente aperto, la lente opera alla sua massima luminosità, che dipende dalle sue caratteristiche ottiche. Tuttavia, ogni lente ha un’apertura del diaframma ottimale nella quale la nitidezza è massima. La caratteristica più importante di una esposizione, che viene controllata dal diaframma, è la profondità di campo. (13 of 51)
  • 14. Lenti Non è scopo di questo corso illustrare le molte caratteristiche strutturali delle varie lenti e degli obiettivi. Ci limiteremo brevemente a illustrare il significato della messa a fuoco. Allontanando o avvicinando la lente al piano del sensore, la luce viene convogliata sulla sua superficie in modo tale che un punto nello spazio appaia come un disco di diametro variabile. Questo diametro, dipende, fissata la posizione della lente e quindi la messa a fuoco, dalla distanza del punto dalla lente. L’occhio umano percepisce questo disco, detto circolo di confusione, come un punto se il suo diametro nell’immagine finale è sufficientemente piccolo. Fotograficamente, diciamo che quel punto è a fuoco. €€€€€€€€ d d d       (14 of 51)
  • 15. Fuoco Quindi, l’insieme dei punti a fuoco è determinato dalla distanza di questi dalla lente, e questo insieme forma un volume la cui sezione è d d d d d d             campo visivo zona a fuoco lente ' ' ' Ogni obiettivo ha una distanza minima di messa a fuoco, determinata dalle sue caratteristiche ottiche, e una distanza massima, spesso infinito o oltre. (15 of 51)
  • 16. Iperfocale Uno degli effetti desiderabili è massimizzare il volume di spazio a fuoco. La distanza iperfocale è la distanza minima che consente di mettere a fuoco un soggetto mantenendo gli oggetti all’infinito accettabilmente nitidi. Quando la lente mette a fuoco a questa distanza, tutti gli oggetti che si trovano tra metà della distanza iperfocale e l’infinito saranno accettabilmente a fuoco. La distanza iperfocale si calcola come H = f 2 Nc , con H la distanza iperfocale in millimetri, f la focale dell’obiettivo, N il valore di apertura del diaframma, e c il diametro del circolo di confusione. Si noti come il circolo di confusione dipende dalla dimensione a cui sarà osservata l’immagine finale e, in modo più sottile, dal formato del sensore e dalla sua risoluzione. (16 of 51)
  • 17. Profondità di campo La profondità di campo indica l’ampiezza della zona a fuoco. Essa dipende dalla focale dell’obiettivo, dall’apertura del diaframma, e dalla distanza del soggetto dalla fotocamera. Precisamente, fissata la lente, la profondità di campo aumenta: con la distanza del soggetto dall’obiettivo con la chiusura del diaframma A destra, lo scatto è stato fatto con apertura f/2.8, a sinistra con apertura f/16, regolando l’otturatore per mantenere la stessa esposizione. (17 of 51)
  • 18. Profondità di campo In realtà, la zona perfettamente a fuoco è sempre estremamente sottile: la sua profondità corrisponde al valore per cui i raggi di luce formano circoli di confusione di diametro inferiore al pixel sul piano del sensore. Tuttavia, come nella presentazione della distanza iperfocale, l’occhio umano percepisce circoli di confusione sufficientemente piccoli come punti. Sapendo quale sia la dimensione desiderata dell’immagine, è possibile calcolare la dimensione del massimo circolo di confusione che generi un punto, e quindi, la profondità di campo che è necessaria per avere il soggetto completamente a fuoco. (18 of 51)
  • 19. Profondità di campo Chiamando piano di fuoco la zona perfettamente a fuoco, la profondità di campo si estende davanti e dietro di esso in modo differente: d d d d d d            6 ? profondità di campo piano di fuoco'    k È importante notare come il piano di fuoco sia, in realtà, curvo. (19 of 51)
  • 20. Profondità di campo Fissato un piano di fuoco, è possibile calcolare la profondità di campo con le seguenti formule: DN = HS H +S (1) DF = HS H −S ,per S H (2) dove H è la distanza iperfocale, S la distanza del soggetto, e la profondità di campo di estende dalla distanza DN (più vicino) a DF (più lontano). Queste formule sono approssimazioni valide quando S è decisamente maggiore della lunghezza focale dell’obiettivo. (20 of 51)
  • 21. Profondità di campo Nel caso in cui la distanza S sia prossima alla lunghezza focale della lente, conviene usare la seguente formula D = 2Nc 1+m/P m (3) con N l’apertura di diaframma (f-number), c il diametro del cerchio di confusione massimo che si accetti come punto, m il fattore di ingrandimento dell’immagine, e P il fattore di ingrandimento della pupilla dell’obiettivo. Allora D misura l’ampiezza della profondità di campo e, ragionevolmente, il piano di fuoco è al suo centro. Si tenga conto che anche questa formula è una approssimazione valida solo se S è molto minore di H, la distanza iperfocale. (21 of 51)
  • 22. Filtri sul sensore Usualmente, un sensore è idealmente provvisto di tre filtri che ne proteggono la superficie e ne influenzano il funzionamento: un filtro Bayer per la resa del colore un filtro UV (ultravioletto) per ridurre/eliminare la componente invisibile ad alta energia della luce un filtro IR (infrarosso) per ridurre/eliminare la componente a bassa energia della luce Occorre tenere presente che il silicio, che è l’elemento chimico di base dei componenti elettronici, è particolarmente sensibile alla luce infrarossa, quindi il filtro IR è solitamente un attenuatore. Al contrario, il filtro UV è usualmente quasi bloccante, anche per l’effetto combinato di assorbimento da parte della lente. Generalmente, il filtro UV e il filtro IR sono integrati in un filtro AA (antialiasing), che viene applicato al sensore su due strati, il primo deputato al taglio della luce infrarossa, e il secondo al mantenimento della luce visibile e alla protezione del sensore dalla polvere. (22 of 51)
  • 23. Filtri sul sensore Il nome del filtro deriva dall’effetto di aliasing (scalettatura) che, insieme all’effetto Moivre, dipende dal campionamento che il sensore effettua e dall’interazione con il filtro di Bayer. È opportuno rammentare anche che un sensore fotografico normale è tarato per registrare la luce nello spettro del visibile e, senza i filtri AA la fotocamera non sarà in grado di usare le funzioni di pulizia del sensore e, soprattutto, i meccanismi di autofocus. Inoltre, il software che trasforma i segnali del sensore in immagini assume la presenza dei filtri AA, e la loro rimozione o alterazione, necessaria in particolari campi della fotografia, andrà ad alterare il funzionamento del software, in particolare si perderà un corretto bilanciamento del bianco. (23 of 51)
  • 24. Costruzione del colore Sebbene vi siano numerosi metodi per catturare il colore in un sensore, il meccanismo più diffuso consiste nell’usare un sensore monocromatico a cui sia applicato un filtro di Bayer Esso usa una quadrato di quattro pixel come base, in cui due siano di colore verde, uno rosso e uno blu, come in figura. Questa distribuzione approssima bene la visione dei colori da parte degli esseri umani. (24 of 51)
  • 25. Colore e range dinamico Il range dinamico misura quanti toni differenti un pixel del sensore è in grado di rappresentare. Solitamente, questo valore è dato in numero di bit: 10, 12 14 sono valori tipici, che corrispondono a 210 = 1024, 212 = 4096, 214 = 16384 valori. Questo significa che, presente un filtro Bayer, l’immagine finale registrata dal sensore avrà tre valori per ogni pixel, rispettivamente il tono di rosso, verde e blu, ottenuti interpolando i toni effettivamente letti dai pixel. Il processo di interpolazione quindi preserva il range dinamico dell’immagine a discapito della risoluzione. Purtroppo, il range dinamico in ogni singolo colore non può essere pari al livello registrato da ogni pixel. La conversione analogico/digitale, l’eventuale amplificazione del segnale, la correzione di gamma, l’adattamento della curva colore, e molte altre manipolazioni effettuate dall’hardware o dal software della fotocamera aumentano il rumore e riducono il range dinamico a valori compresi tra 5 e 9 bit, tipicamente, ovvero tra 32 e 512 toni effettivamente rilevati. (25 of 51)
  • 26. Spazi colore Un colore può essere descritto in molti modi: è al di fuori degli obiettivi di questo corso una trattazione dettagliata. Un fatto semplice è che un colore può essere utilmente separato in componenti primarie, la cui composizione genera il colore desiderato. Questo processo avviene in tre casi importanti: nell’acquisizione di un’immagine nella generazione di un’immagine su di un video nella stampa di un’immagine (26 of 51)
  • 27. Spazio RGB Come abbiamo detto, il filtro Bayer consente di associare ad ogni pixel tre valori che rappresentano assieme il colore di quel pixel: la componente rossa, verde, e blu. Parimenti, un’immagine sullo schermo di un computer è un insieme di punti ciascuno dei quali assume un colore che è descritto dalle tre componenti rosso, verde, e blu. Lo spazio RGB (Red–Green–Blue) descrive i possibili colori come combinazione di queste tre componenti base. È uno spazio addittivo: un colore viene generato sommando le tre componenti, quindi, ad esempio, aumentare il valore di una componente accresce il suo apporto. (27 of 51)
  • 28. Spazio CMYK Al contrario, la stampa viene effettuata in uno spazio sottrattivo: i pigmenti di colore primario vengono depositati su un punto del foglio, e ognuno di essi assorbe la componente di luce in una quantità proporzionale alla quantità di pigmento. Il colore del punto diverrà pertanto il colore della luce riflessa, esattamente quella che non viene assorbita dai pigmenti sul punto. Per questo motivo, in stampa, si usa uno spazio colore differente, a composizione sottrattiva: lo spazio CMYK (Ciano–Magenta–Yellow–blacK). (28 of 51)
  • 29. Relazione tra gli spazi colore I colori primari nello spazio CMYK si ottengono da quelli nello spazio RGB per complemento: Ciano = Blu + Verde, complementare a Rosso Magenta = Blu + Rosso, complementare a Verde Giallo = Verde + Rosso, complementare a Blu Per aumentare il range dinamico della stampa, e ridurre la quantità di pigmenti colorati da utilizzare, è consuetudine aggiungere il nero alla descrizione del colore da riprodurre. (29 of 51)
  • 30. Immagine digitale Il risultato del processo di acquisizione di un’immagine è un documento elettronico. Questo viene normalmente generato dalla fotocamera in due formati: un file RAW, e/o un file JPEG. I due formati non sono equivalenti: non si tratta di due rappresentazioni della medesima informazione, ma di due informazioni diverse, seppur correlate. Il file RAW è la rappresentazione più vicina a quanto acquisito dal sensore. Esso rappresenta l’analogo digitale di un negativo fotografico. Un file JPEG è, a tutti gli effetti, l’analogo digitale di una fotografia: è un formato largamente usabile in ogni software che tratti immagini, è direttamente stampabile, è direttamente trasmissibile via Internet. (30 of 51)
  • 31. Formato RAW Un sistema fotografico registra i dati acquisiti da uno scatto in un file RAW che corrisponde a quanto registrato dal sensore e pre-elaborato. In linea di massima, un file RAW contiene una descrizione dell’immagine pixel per pixel, riportando per ogni pixel i valori dei tre canali colore, oltre a vari metadati come, ad esempio, l’apertura del diaframma e il tempo di esposizione. Il formato RAW, generalmente, contiene dati che non sono stati elaborati, ad esempio, il bilanciamento del bianco, o la regolazione del contrasto, o la nitidezza dell’immagine. Il formato RAW è proprietario: esso dipende dalla casa produttrice della fotocamera e, talora, dal modello. Le case maggiori hanno reso disponibile metodi per decodificare questi file da parte di software di terze parti. (31 of 51)
  • 32. Formato JPEG Il formato jpeg è lo standard de facto per l’archiviazione delle immagini fotografiche, così come è il normale formato per l’interscambio di questo tipo di immagini La rappresentazione dei dati al suo interno è stata concepita come un compromesso tra il mantenere la qualità apparente dell’immagine e la necessità di ridurre le dimensioni del file. Questo viene ottenuto, semplificando, con una compressione che si basa sulla riduzione delle variazioni di tono in aree di colore omogeneo. Per la pubblicazione, la stampa, e la trasmissione un file jpeg può essere considerato il prodotto finale del processo fotografico digitale, l’analogo del positivo sviluppato della fotografia tradizionale. (32 of 51)
  • 33. Formato TIFF Il formato TIFF è un formato molto usato per l’archiviazione di immagini scientifiche. A differenza del formato RAW esso è libero e non specificatamente legato al marchio della fotocamera. A differenza del formato jpeg esso non usa una compressione lossy. Il formato TIFF, nella sua versione più utilizzata, ha due caratteristiche interessanti per la fotografia scientifica: l’immagine viene compressa usando un algoritmo generico per dati, solitamente LZW. Questo significa una minore capacità di compressione rispetto a jpeg, ma anche che i dati decompressi sono esattamente i dati originali, senza alcuna perdita di informazione; l’immagine può essere a 8 o a 16 bit, ovvero il formato TIFF consente di memorizzare immagini con un range dinamico superiore al formato jpeg, che è limitato a 8 bit. Tuttavia, occorre sottolineare che non tutti i software fotografici sono in grado di usare questa caratteristica di TIFF. (33 of 51)
  • 34. Istogrammi Molte moderne fotocamere e tutti i software fotografici mettono a disposizione uno strumento importante per descrivere sinteticamente un’immagine: il suo istogramma. L’istogramma è un grafico che riporta in ascissa i valori dei toni, dal nero al bianco, e in ordinata, il numero di pixel di quel tono. Oltre ad un istogramma che riporta il valore di intensità di ogni pixel, ci sono istogrammi che, in modo analogo, si riferiscono all’intensità di un pixel in un singolo canale di uno spazio colore. (34 of 51)
  • 35. Istogrammi Essendo una informazione sintetica, un istogramma deve essere interpretato con giudizio. Un’immagine con uno sviluppo tonale ben distribuito, risulterà in un istogramma come il seguente, quando correttamente esposta Una concentrazione dell’istogramma a sinistra o a destra, indica una sottoesposizione (prevalenza di toni verso il nero), o una sovraesposizione (prevalenza di toni verso il bianco). (35 of 51)
  • 36. Istogrammi Un istogramma che sia particolarmente concentrato indica un limitato uso del range dinamico In un canale colore, un istogramma concentrato a destra o a sinistra indica una (de)saturazione di quel colore, ovvero la potenziale presenza di una predominanza tonale. (36 of 51)
  • 37. Istogrammi Una avvertenza importante: sebbene gli istogrammi siano uno strumento estremamente utile, essi richiedono una corretta interpretazione che non prescinda dal soggetto. Ad esempio l’istogramma della foto sopra non indica una sovraesposizione, in quanto la foto è generalmente bianca, ritraendo gli effetti di una nevicata! (37 of 51)
  • 38. Filtri Nella fotografia tradizionale si usano numerosi filtri da applicare all’obiettivo. Essi trovano impiego anche nella fotografia scientifica, ma con enfasi differenti. In particolare, i filtri a densità neutra, i filtri graduali, i polarizzatori, e i filtri a infrarosso hanno un utilizzo proprio molto limitato o nullo. I filtri utilizzati sono i filtri UV (Ultra-Violetto) i filtri colorati (38 of 51)
  • 39. Filtri UV Lo scopo primario di un filtro UV è quello di eliminare o ridurre la componente ultravioletta dalla luce che dovrà attraversare l’obiettivo. Sebbene questo effetto sia utile, esso ha una influenza estremamente limitata nella fotografia digitale poiché il vetro, di cui le lenti sono fatte, agisce naturalmente da filtro UV esiste un filtro UV sul sensore Di fatto, nella fotografia digitale contemporanea, il principale uso del filtro UV è quello di fare da schermo all’obiettivo, proteggendolo da polvere, sporco ed eventuali contaminazioni che possano depositarsi sulle lenti o entrare nel corpo. (39 of 51)
  • 40. Filtri colorati I filtri colorati vengono applicati ad un obiettivo con due scopi: conferire una tonalità dominante precisa all’immagine aumentare o diminuire il contrasto tra alcune zone dell’immagine Mentre il primo utilizzo è ovvio, il secondo prende origine dalla fotografia in bianco e nero. Ad esempio, un filtro blu farà in modo che gli oggetti blu saranno resi con una sfumatura più chiara di grigio, mentre gli oggetti del colore complementare, il rosso, saranno resi da una tonalità più scura. In generale, in uno scatto monocromatico, un filtro colorato schiarirà i toni degli oggetti del proprio colore, mentre scurirà i toni degli oggetti di colore complementare. Naturalmente, questo effetto è graduale nei canali colore, e si applica anche a foto a colori, con l’aggiunta di una dominante cromatica. (40 of 51)
  • 41. Luminosità Nei programmi di fotoritocco, la luminosità di un punto è definita come la media aritmetica dei valori dei tre canali colore rosso, verde, e blu. Un controllo permette di aumentare o diminuire la luminosità di tutti i punti, incrementando o decrementando i valori dei tre canali per ogni punto. È importante rilevare come questa trasformazione porti ad una effettiva e irrimediabile perdita di informazione, rendendo completamenti bianchi i punti molto chiari, o completamente neri i punti molto scuri. (41 of 51)
  • 42. Contrasto Il contrasto è definito come la differenza di luminosità tra due punti. Chiaramente, punti contigui che abbiano un accentuato contrasto sono, solitamente, l’indicazione che l’immagine presenta un bordo in quella zona. Volendo evidenziare le diverse entità presenti nell’immagine quando esse presentano una luminosità differente, i programmi di fotoritocco permettono di variare il contrasto complessivo, aumentando la luminosità dei punti più chiari e diminuendo quella dei punti più scuri, proporzionalmente. È, nuovamente, importante sottolineare come la modifica del contrasto porti necessariamente alla perdita di informazione. (42 of 51)
  • 43. Bilanciamento dei canali colore I canali colore sono composti tra loro per conferire un colore ad ogni punto dell’immagine, come già illustrato. Una trasformazione utile in post-produzione consiste nel modificare il modo in cui questa composizione viene calcolata. (43 of 51)
  • 44. Bilanciamento dei canali colore Questo tipo di trasformazione è utile quando si vuole eliminare o aggiungere una tonalità cromatica complessiva all’immagine si vuole che una specifica parte dell’immagine abbia un colore preciso, ad esempio, che la neve sia bianca, oppure il cielo azzurro si vuole isolare o enfatizzare una zona dell’immagine in modo che risulti maggiormente in contrasto con quanto la circonda (44 of 51)
  • 45. Istogrammi e curve Uno strumento più raffinato per la gestione della luminosità, del contrasto, e del bilanciamento dei colori, permette l’applicazione di una curva all’istogramma di un singolo canale colore o, uniformemente, all’intensità di tutti i punti dell’immagine. (45 of 51)
  • 46. Istogrammi e curve Dato l’istogramma dell’immagine, questo viene interpretato linearmente: al valore x sull’asse delle ascisse corrisponde il valore x di intensità del pixel, e l’ordinata riporta il numero di pixel con quel valore. Graficamente, questo corrisponde a usare la retta f (x) = x come curva dei valori di riferimento: i punti di valore x sono resi graficamente con il valore f (x). Una curva differente modifica questa interpretazione, ad esempio una curva a S corrisponde ad una alterazione del contrasto una curva monotona che azzeri i valori più bassi o massimizzi i valori più alti, corrisponderà ad una variazione di luminosità una curva applicata ad un singolo canale colore modificherà in modo più fine il bilanciamento dei colori (46 of 51)
  • 47. Acquisizioni multiple Scattare più foto di uno stesso soggetto mantenendo costante la posizione è una tecnica che viene usata per molteplici scopi: ad esempio, aumentare il range dinamico delle immagini oltre le capacità del sensore, aumentare la profondità di campo mantenendo una nitidezza elevata, rendere i dettagli delle ombre e delle alte luci. Di nostro interesse è mostrare come questa tecnica possa essere usata per ridurre in modo significativo il rumore in una immagine. Consideriamo un punto della scena: essa è descritto da una tripla di valori per ogni scatto che effettuiamo rosso verde blu 1 100 47 220 2 102 41 219 3 104 42 218 4 97 45 217 5 95 38 215 (47 of 51)
  • 48. Acquisizioni multiple Prendendo il valore mediano (100,42,218) oppure il valore medio per ogni componente (99.6,42.6,217.8), otterremo una tripla che presenta un rapporto segnale/rumore ridotto, ipotizzando il rumore come puramente casuale e quindi con distribuzione gaussiana. Ad esempio, il seguente scatto è stato effettuato con ISO = 12800, ottenendo un’immagine che presenta molto rumore, come si vede dall’ingrandimento (48 of 51)
  • 49. Acquisizioni multiple Andando a sovrapporre cinque acquisizioni esattamente con le stesse impostazioni della fotocamera secondo il metodo della mediana, si ottiene (49 of 51)
  • 50. Acquisizioni multiple Confrontando gli ingrandimenti, si vede come il rumore sia stato ridotto (50 of 51)
  • 51. Riferimenti Elizabeth Allen, Sophie Triantaphillidou, The Manual of Photography, 10th edition, Focal Press (2009) Bryan Peterson, Understanding Exposure, 3rd edition, Amphoto Books (2010) CC BY: $ C Dr Marco Benini 2015 Tutte le foto di cui non sia specificata l’attribuzione, sono state scattate dall’autore di queste slides e sono protette da copyright. (51 of 51)