Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

L'occhio del biologo: elementi di fotografia

626 views

Published on

The slides of the course "L'occhio del biologo", Alta Formazione, Università degli Studi dell'Insubria.
It is a small course on the fundamentals of photography oriented towards the scientific photography in a biological laboratory.

Published in: Science
  • Be the first to comment

  • Be the first to like this

L'occhio del biologo: elementi di fotografia

  1. 1. L’occhio del biologo Elementi di fotografia Dr Marco Benini marco.benini@uninsubria.it Università degli Studi dell’Insubria 2015
  2. 2. Argomenti Struttura di una macchina fotografica digitale Sensore: dimensione, risoluzione, tecnologia, sensibilità, rumore, range dinamico Otturatore: tempi di esposizione Diaframma: apertura Tecnica fotografica di base Messa a fuoco: distanza iperfocale Profondità di campo Colore Acquisizione: filtro Bayer, filtri sul sensore Emissioni: spazio RGB Stampa: spazio CMYK Formati: RAW, JPG Distorsioni: lettura degli istogrammi Gestione di base: canali colore Filtri: UV, filtri colorati (2 of 51)
  3. 3. Argomenti Post-produzione di base Luminosità Contrasto Bilanciamento dei canali colore Istogrammi e curve Acquisizione multipla: compressione del rumore (3 of 51)
  4. 4. Diagramma di una fotocamera digitale ' & $ % - - c c c T T T CPU lente lente filtro diaframma otturatore sensore (4 of 51)
  5. 5. Diagramma di una fotocamera digitale le lenti servono per convogliare la luce sul sensore il diaframma regola la quantità di luce che arriva al sensore l’otturatore regola il tempo per cui il sensore è esposto alla luce il filtro elimina o riduce una porzione dello spettro luminoso il sensore registra l’immagine trasformando il segnale luminoso in un segnale elettronico la CPU trasforma il segnale elettronico del sensore in una immagine digitale (5 of 51)
  6. 6. Il sensore In prima approssimazione, un sensore è una griglia di elementi, detti pixel, in grado di registrare la quantità di luce che li colpisce. m m m m m m m m m m m m m m m m m m m m m m m m m T c E' x y "CCD Image sensor" di Sphl—Opera propria. Con licenza CC BY: C 3.0 tramite Wikimedia Commons http://commons.wikimedia.org/wiki/File:CCD_Image_sensor.jpg (6 of 51)
  7. 7. Il sensore Le principali caratteristiche di un sensore sono: il formato: la sua dimensione (x,y) in millimetri e la proporzione x/y, tipicamente 4 : 3, 3 : 2 o 1 : 1 la risoluzione: la quantità di pixel presenti sul sensore il range dinamico: essenzialmente, la quantità di valori che un pixel può assumere la sensibilità: sostanzialmente, la quantità di luce che serve per modificare il valore di un pixel l’architettura: la tecnologia impiegata nella costruzione del sensore e il modo in cui questo viene letto (7 of 51)
  8. 8. Il sensore La combinazione di formato e risoluzione determina la dimensione massima di un pixel. Questa, a sua volta, determina la qualità dell’immagine. Tuttavia, non è vero che, a parità di formato, una risoluzione maggiore restituisca una immagine più precisa: più i pixel sono piccoli, più si influenzano l’un l’altro. Inoltre, ogni lente soffre di diffrazione: al di sotto di un certo valore di dimensione, che dipende dalle caratteristiche della lente, le componenti dello stesso raggio di luce potranno essere, erroneamente, convogliate su pixel differenti. (8 of 51)
  9. 9. Il sensore Ogni pixel è dotato di una sensibilità intrinseca che dipende dalla sua costruzione. Ovvero, un pixel registra allo stesso modo due raggi di luce la cui intensità differisca per una quantità inferiore ad una soglia chiamata sensibilità. Ogni sensore ha una sensibilità naturale, che dipende dalle sue caratteristiche strutturali. Ma la CPU o il sensore stesso può variare la propria sensibilità apparente, agendo con un opportuno fattore di moltiplicazione nella conversione del valore analogico di un pixel ad un valore digitale. La sensibilità si misura, come per le pellicole fotografiche, in gradi ISO. Valori usuali per la sensibilità naturale di un sensore sono 50, 100 o 200 ISO. L’ampiezza dei valori digitali possibili costituisce il range dinamico del sensore, e, assieme alla sensibilità, stabilisce la gamma di toni, dal nero al bianco, che il sensore è in grado di registrare. (9 of 51)
  10. 10. Il sensore Esistono, ad oggi, due principali tecnologie per la costruzione di sensori: CMOS e CCD. La tecnologia complementary metal oxide semiconductor (CMOS) è più recente e offre il vantaggio che ogni pixel provvede autonomamente a raccogliere la luce e a trasformarne l’intensità in un valore numerico digitale. La tecnologia charge-coupled device (CCD), precedente alla CMOS, consente di costruire pixel più semplici elettronicamente e, seppur il processo di formazione dell’immagine digitale avviene a valle del sensore, complicando la relativa circuiteria, i pixel sono, generalmente, più piccoli, permettendo maggior risoluzione. In linea di massima, i sensori CMOS sono più economici, ma meno precisi. Occorre comunque tener conto che gli avanzamenti tecnologici sono stati notevoli, e oggi esistono sensori CMOS su fotocamere professionali, e sensori CCD montati su fotocamere compatte. (10 of 51)
  11. 11. Il sensore Nessun sensore è in grado di osservare passivamente la luce e di registrarla fedelmente. I limiti strutturali e tecnici introducono inevitabilmente dei disturbi di cui occorre esser consci: collettivamente, questi vanno sotto il nome di rumore. Con notevole semplificazione, ad uso di questo corso, possiamo classificare il rumore associabile al sensore in rumore termico: dovuto alla generazione di calore da parte dell’elettronica rumore da osservazione: leggere il valore analogico di un pixel richiede un’azione che necessariamente modifica il valore stesso rumore da quantizzazione: dovuto alla conversione da analogico a digitale rumore ottico: dovuto al fatto che una lente non trasporta fedelmente un raggio di luce sul sensore in tutte le sue componenti rumore strutturale: dovuto alla tecnologia adottata. Tipicamente, un pixel non copre tutta l’area possibile, ma solo una sottoparte, effettivamente sprecando una parte dell’informazione (11 of 51)
  12. 12. L’otturatore L’otturatore ha lo scopo di esporre il sensore alla luce per un tempo prefissato. È uno dei principali elementi che determinano l’esposizione. Accenniamo al fatto che un sensore CCD può avere un otturatore elettronico, pur con una sensibile riduzione della superficie fotosensibile di ogni pixel. Questo è utile per ridurre le vibrazioni che il comune otturatore meccanico necessariamente induce, specialmente negli scatti ad alta velocità. Anche, rammentiamo che l’uso di un flash richiede una precisa, e non banale, sincronizzazione con l’otturatore al fine di ottenere una illuminazione uniforme del soggetto. "Focal-plane shutter" di Hustvedt—Opera propria. Con licenza CC BY: C 3.0 tramite Wikimedia Commons http://commons.wikimedia.org/wiki/File:Focal-plane_shutter.jpg (12 of 51)
  13. 13. Il diaframma Il diaframma regola la quantità di luce che può arrivare al sensore. Con l’otturatore è il principale elemento che determina l’esposizione. Quando il diaframma è completamente aperto, la lente opera alla sua massima luminosità, che dipende dalle sue caratteristiche ottiche. Tuttavia, ogni lente ha un’apertura del diaframma ottimale nella quale la nitidezza è massima. La caratteristica più importante di una esposizione, che viene controllata dal diaframma, è la profondità di campo. (13 of 51)
  14. 14. Lenti Non è scopo di questo corso illustrare le molte caratteristiche strutturali delle varie lenti e degli obiettivi. Ci limiteremo brevemente a illustrare il significato della messa a fuoco. Allontanando o avvicinando la lente al piano del sensore, la luce viene convogliata sulla sua superficie in modo tale che un punto nello spazio appaia come un disco di diametro variabile. Questo diametro, dipende, fissata la posizione della lente e quindi la messa a fuoco, dalla distanza del punto dalla lente. L’occhio umano percepisce questo disco, detto circolo di confusione, come un punto se il suo diametro nell’immagine finale è sufficientemente piccolo. Fotograficamente, diciamo che quel punto è a fuoco. €€€€€€€€ d d d       (14 of 51)
  15. 15. Fuoco Quindi, l’insieme dei punti a fuoco è determinato dalla distanza di questi dalla lente, e questo insieme forma un volume la cui sezione è d d d d d d             campo visivo zona a fuoco lente ' ' ' Ogni obiettivo ha una distanza minima di messa a fuoco, determinata dalle sue caratteristiche ottiche, e una distanza massima, spesso infinito o oltre. (15 of 51)
  16. 16. Iperfocale Uno degli effetti desiderabili è massimizzare il volume di spazio a fuoco. La distanza iperfocale è la distanza minima che consente di mettere a fuoco un soggetto mantenendo gli oggetti all’infinito accettabilmente nitidi. Quando la lente mette a fuoco a questa distanza, tutti gli oggetti che si trovano tra metà della distanza iperfocale e l’infinito saranno accettabilmente a fuoco. La distanza iperfocale si calcola come H = f 2 Nc , con H la distanza iperfocale in millimetri, f la focale dell’obiettivo, N il valore di apertura del diaframma, e c il diametro del circolo di confusione. Si noti come il circolo di confusione dipende dalla dimensione a cui sarà osservata l’immagine finale e, in modo più sottile, dal formato del sensore e dalla sua risoluzione. (16 of 51)
  17. 17. Profondità di campo La profondità di campo indica l’ampiezza della zona a fuoco. Essa dipende dalla focale dell’obiettivo, dall’apertura del diaframma, e dalla distanza del soggetto dalla fotocamera. Precisamente, fissata la lente, la profondità di campo aumenta: con la distanza del soggetto dall’obiettivo con la chiusura del diaframma A destra, lo scatto è stato fatto con apertura f/2.8, a sinistra con apertura f/16, regolando l’otturatore per mantenere la stessa esposizione. (17 of 51)
  18. 18. Profondità di campo In realtà, la zona perfettamente a fuoco è sempre estremamente sottile: la sua profondità corrisponde al valore per cui i raggi di luce formano circoli di confusione di diametro inferiore al pixel sul piano del sensore. Tuttavia, come nella presentazione della distanza iperfocale, l’occhio umano percepisce circoli di confusione sufficientemente piccoli come punti. Sapendo quale sia la dimensione desiderata dell’immagine, è possibile calcolare la dimensione del massimo circolo di confusione che generi un punto, e quindi, la profondità di campo che è necessaria per avere il soggetto completamente a fuoco. (18 of 51)
  19. 19. Profondità di campo Chiamando piano di fuoco la zona perfettamente a fuoco, la profondità di campo si estende davanti e dietro di esso in modo differente: d d d d d d            6 ? profondità di campo piano di fuoco'    k È importante notare come il piano di fuoco sia, in realtà, curvo. (19 of 51)
  20. 20. Profondità di campo Fissato un piano di fuoco, è possibile calcolare la profondità di campo con le seguenti formule: DN = HS H +S (1) DF = HS H −S ,per S H (2) dove H è la distanza iperfocale, S la distanza del soggetto, e la profondità di campo di estende dalla distanza DN (più vicino) a DF (più lontano). Queste formule sono approssimazioni valide quando S è decisamente maggiore della lunghezza focale dell’obiettivo. (20 of 51)
  21. 21. Profondità di campo Nel caso in cui la distanza S sia prossima alla lunghezza focale della lente, conviene usare la seguente formula D = 2Nc 1+m/P m (3) con N l’apertura di diaframma (f-number), c il diametro del cerchio di confusione massimo che si accetti come punto, m il fattore di ingrandimento dell’immagine, e P il fattore di ingrandimento della pupilla dell’obiettivo. Allora D misura l’ampiezza della profondità di campo e, ragionevolmente, il piano di fuoco è al suo centro. Si tenga conto che anche questa formula è una approssimazione valida solo se S è molto minore di H, la distanza iperfocale. (21 of 51)
  22. 22. Filtri sul sensore Usualmente, un sensore è idealmente provvisto di tre filtri che ne proteggono la superficie e ne influenzano il funzionamento: un filtro Bayer per la resa del colore un filtro UV (ultravioletto) per ridurre/eliminare la componente invisibile ad alta energia della luce un filtro IR (infrarosso) per ridurre/eliminare la componente a bassa energia della luce Occorre tenere presente che il silicio, che è l’elemento chimico di base dei componenti elettronici, è particolarmente sensibile alla luce infrarossa, quindi il filtro IR è solitamente un attenuatore. Al contrario, il filtro UV è usualmente quasi bloccante, anche per l’effetto combinato di assorbimento da parte della lente. Generalmente, il filtro UV e il filtro IR sono integrati in un filtro AA (antialiasing), che viene applicato al sensore su due strati, il primo deputato al taglio della luce infrarossa, e il secondo al mantenimento della luce visibile e alla protezione del sensore dalla polvere. (22 of 51)
  23. 23. Filtri sul sensore Il nome del filtro deriva dall’effetto di aliasing (scalettatura) che, insieme all’effetto Moivre, dipende dal campionamento che il sensore effettua e dall’interazione con il filtro di Bayer. È opportuno rammentare anche che un sensore fotografico normale è tarato per registrare la luce nello spettro del visibile e, senza i filtri AA la fotocamera non sarà in grado di usare le funzioni di pulizia del sensore e, soprattutto, i meccanismi di autofocus. Inoltre, il software che trasforma i segnali del sensore in immagini assume la presenza dei filtri AA, e la loro rimozione o alterazione, necessaria in particolari campi della fotografia, andrà ad alterare il funzionamento del software, in particolare si perderà un corretto bilanciamento del bianco. (23 of 51)
  24. 24. Costruzione del colore Sebbene vi siano numerosi metodi per catturare il colore in un sensore, il meccanismo più diffuso consiste nell’usare un sensore monocromatico a cui sia applicato un filtro di Bayer Esso usa una quadrato di quattro pixel come base, in cui due siano di colore verde, uno rosso e uno blu, come in figura. Questa distribuzione approssima bene la visione dei colori da parte degli esseri umani. (24 of 51)
  25. 25. Colore e range dinamico Il range dinamico misura quanti toni differenti un pixel del sensore è in grado di rappresentare. Solitamente, questo valore è dato in numero di bit: 10, 12 14 sono valori tipici, che corrispondono a 210 = 1024, 212 = 4096, 214 = 16384 valori. Questo significa che, presente un filtro Bayer, l’immagine finale registrata dal sensore avrà tre valori per ogni pixel, rispettivamente il tono di rosso, verde e blu, ottenuti interpolando i toni effettivamente letti dai pixel. Il processo di interpolazione quindi preserva il range dinamico dell’immagine a discapito della risoluzione. Purtroppo, il range dinamico in ogni singolo colore non può essere pari al livello registrato da ogni pixel. La conversione analogico/digitale, l’eventuale amplificazione del segnale, la correzione di gamma, l’adattamento della curva colore, e molte altre manipolazioni effettuate dall’hardware o dal software della fotocamera aumentano il rumore e riducono il range dinamico a valori compresi tra 5 e 9 bit, tipicamente, ovvero tra 32 e 512 toni effettivamente rilevati. (25 of 51)
  26. 26. Spazi colore Un colore può essere descritto in molti modi: è al di fuori degli obiettivi di questo corso una trattazione dettagliata. Un fatto semplice è che un colore può essere utilmente separato in componenti primarie, la cui composizione genera il colore desiderato. Questo processo avviene in tre casi importanti: nell’acquisizione di un’immagine nella generazione di un’immagine su di un video nella stampa di un’immagine (26 of 51)
  27. 27. Spazio RGB Come abbiamo detto, il filtro Bayer consente di associare ad ogni pixel tre valori che rappresentano assieme il colore di quel pixel: la componente rossa, verde, e blu. Parimenti, un’immagine sullo schermo di un computer è un insieme di punti ciascuno dei quali assume un colore che è descritto dalle tre componenti rosso, verde, e blu. Lo spazio RGB (Red–Green–Blue) descrive i possibili colori come combinazione di queste tre componenti base. È uno spazio addittivo: un colore viene generato sommando le tre componenti, quindi, ad esempio, aumentare il valore di una componente accresce il suo apporto. (27 of 51)
  28. 28. Spazio CMYK Al contrario, la stampa viene effettuata in uno spazio sottrattivo: i pigmenti di colore primario vengono depositati su un punto del foglio, e ognuno di essi assorbe la componente di luce in una quantità proporzionale alla quantità di pigmento. Il colore del punto diverrà pertanto il colore della luce riflessa, esattamente quella che non viene assorbita dai pigmenti sul punto. Per questo motivo, in stampa, si usa uno spazio colore differente, a composizione sottrattiva: lo spazio CMYK (Ciano–Magenta–Yellow–blacK). (28 of 51)
  29. 29. Relazione tra gli spazi colore I colori primari nello spazio CMYK si ottengono da quelli nello spazio RGB per complemento: Ciano = Blu + Verde, complementare a Rosso Magenta = Blu + Rosso, complementare a Verde Giallo = Verde + Rosso, complementare a Blu Per aumentare il range dinamico della stampa, e ridurre la quantità di pigmenti colorati da utilizzare, è consuetudine aggiungere il nero alla descrizione del colore da riprodurre. (29 of 51)
  30. 30. Immagine digitale Il risultato del processo di acquisizione di un’immagine è un documento elettronico. Questo viene normalmente generato dalla fotocamera in due formati: un file RAW, e/o un file JPEG. I due formati non sono equivalenti: non si tratta di due rappresentazioni della medesima informazione, ma di due informazioni diverse, seppur correlate. Il file RAW è la rappresentazione più vicina a quanto acquisito dal sensore. Esso rappresenta l’analogo digitale di un negativo fotografico. Un file JPEG è, a tutti gli effetti, l’analogo digitale di una fotografia: è un formato largamente usabile in ogni software che tratti immagini, è direttamente stampabile, è direttamente trasmissibile via Internet. (30 of 51)
  31. 31. Formato RAW Un sistema fotografico registra i dati acquisiti da uno scatto in un file RAW che corrisponde a quanto registrato dal sensore e pre-elaborato. In linea di massima, un file RAW contiene una descrizione dell’immagine pixel per pixel, riportando per ogni pixel i valori dei tre canali colore, oltre a vari metadati come, ad esempio, l’apertura del diaframma e il tempo di esposizione. Il formato RAW, generalmente, contiene dati che non sono stati elaborati, ad esempio, il bilanciamento del bianco, o la regolazione del contrasto, o la nitidezza dell’immagine. Il formato RAW è proprietario: esso dipende dalla casa produttrice della fotocamera e, talora, dal modello. Le case maggiori hanno reso disponibile metodi per decodificare questi file da parte di software di terze parti. (31 of 51)
  32. 32. Formato JPEG Il formato jpeg è lo standard de facto per l’archiviazione delle immagini fotografiche, così come è il normale formato per l’interscambio di questo tipo di immagini La rappresentazione dei dati al suo interno è stata concepita come un compromesso tra il mantenere la qualità apparente dell’immagine e la necessità di ridurre le dimensioni del file. Questo viene ottenuto, semplificando, con una compressione che si basa sulla riduzione delle variazioni di tono in aree di colore omogeneo. Per la pubblicazione, la stampa, e la trasmissione un file jpeg può essere considerato il prodotto finale del processo fotografico digitale, l’analogo del positivo sviluppato della fotografia tradizionale. (32 of 51)
  33. 33. Formato TIFF Il formato TIFF è un formato molto usato per l’archiviazione di immagini scientifiche. A differenza del formato RAW esso è libero e non specificatamente legato al marchio della fotocamera. A differenza del formato jpeg esso non usa una compressione lossy. Il formato TIFF, nella sua versione più utilizzata, ha due caratteristiche interessanti per la fotografia scientifica: l’immagine viene compressa usando un algoritmo generico per dati, solitamente LZW. Questo significa una minore capacità di compressione rispetto a jpeg, ma anche che i dati decompressi sono esattamente i dati originali, senza alcuna perdita di informazione; l’immagine può essere a 8 o a 16 bit, ovvero il formato TIFF consente di memorizzare immagini con un range dinamico superiore al formato jpeg, che è limitato a 8 bit. Tuttavia, occorre sottolineare che non tutti i software fotografici sono in grado di usare questa caratteristica di TIFF. (33 of 51)
  34. 34. Istogrammi Molte moderne fotocamere e tutti i software fotografici mettono a disposizione uno strumento importante per descrivere sinteticamente un’immagine: il suo istogramma. L’istogramma è un grafico che riporta in ascissa i valori dei toni, dal nero al bianco, e in ordinata, il numero di pixel di quel tono. Oltre ad un istogramma che riporta il valore di intensità di ogni pixel, ci sono istogrammi che, in modo analogo, si riferiscono all’intensità di un pixel in un singolo canale di uno spazio colore. (34 of 51)
  35. 35. Istogrammi Essendo una informazione sintetica, un istogramma deve essere interpretato con giudizio. Un’immagine con uno sviluppo tonale ben distribuito, risulterà in un istogramma come il seguente, quando correttamente esposta Una concentrazione dell’istogramma a sinistra o a destra, indica una sottoesposizione (prevalenza di toni verso il nero), o una sovraesposizione (prevalenza di toni verso il bianco). (35 of 51)
  36. 36. Istogrammi Un istogramma che sia particolarmente concentrato indica un limitato uso del range dinamico In un canale colore, un istogramma concentrato a destra o a sinistra indica una (de)saturazione di quel colore, ovvero la potenziale presenza di una predominanza tonale. (36 of 51)
  37. 37. Istogrammi Una avvertenza importante: sebbene gli istogrammi siano uno strumento estremamente utile, essi richiedono una corretta interpretazione che non prescinda dal soggetto. Ad esempio l’istogramma della foto sopra non indica una sovraesposizione, in quanto la foto è generalmente bianca, ritraendo gli effetti di una nevicata! (37 of 51)
  38. 38. Filtri Nella fotografia tradizionale si usano numerosi filtri da applicare all’obiettivo. Essi trovano impiego anche nella fotografia scientifica, ma con enfasi differenti. In particolare, i filtri a densità neutra, i filtri graduali, i polarizzatori, e i filtri a infrarosso hanno un utilizzo proprio molto limitato o nullo. I filtri utilizzati sono i filtri UV (Ultra-Violetto) i filtri colorati (38 of 51)
  39. 39. Filtri UV Lo scopo primario di un filtro UV è quello di eliminare o ridurre la componente ultravioletta dalla luce che dovrà attraversare l’obiettivo. Sebbene questo effetto sia utile, esso ha una influenza estremamente limitata nella fotografia digitale poiché il vetro, di cui le lenti sono fatte, agisce naturalmente da filtro UV esiste un filtro UV sul sensore Di fatto, nella fotografia digitale contemporanea, il principale uso del filtro UV è quello di fare da schermo all’obiettivo, proteggendolo da polvere, sporco ed eventuali contaminazioni che possano depositarsi sulle lenti o entrare nel corpo. (39 of 51)
  40. 40. Filtri colorati I filtri colorati vengono applicati ad un obiettivo con due scopi: conferire una tonalità dominante precisa all’immagine aumentare o diminuire il contrasto tra alcune zone dell’immagine Mentre il primo utilizzo è ovvio, il secondo prende origine dalla fotografia in bianco e nero. Ad esempio, un filtro blu farà in modo che gli oggetti blu saranno resi con una sfumatura più chiara di grigio, mentre gli oggetti del colore complementare, il rosso, saranno resi da una tonalità più scura. In generale, in uno scatto monocromatico, un filtro colorato schiarirà i toni degli oggetti del proprio colore, mentre scurirà i toni degli oggetti di colore complementare. Naturalmente, questo effetto è graduale nei canali colore, e si applica anche a foto a colori, con l’aggiunta di una dominante cromatica. (40 of 51)
  41. 41. Luminosità Nei programmi di fotoritocco, la luminosità di un punto è definita come la media aritmetica dei valori dei tre canali colore rosso, verde, e blu. Un controllo permette di aumentare o diminuire la luminosità di tutti i punti, incrementando o decrementando i valori dei tre canali per ogni punto. È importante rilevare come questa trasformazione porti ad una effettiva e irrimediabile perdita di informazione, rendendo completamenti bianchi i punti molto chiari, o completamente neri i punti molto scuri. (41 of 51)
  42. 42. Contrasto Il contrasto è definito come la differenza di luminosità tra due punti. Chiaramente, punti contigui che abbiano un accentuato contrasto sono, solitamente, l’indicazione che l’immagine presenta un bordo in quella zona. Volendo evidenziare le diverse entità presenti nell’immagine quando esse presentano una luminosità differente, i programmi di fotoritocco permettono di variare il contrasto complessivo, aumentando la luminosità dei punti più chiari e diminuendo quella dei punti più scuri, proporzionalmente. È, nuovamente, importante sottolineare come la modifica del contrasto porti necessariamente alla perdita di informazione. (42 of 51)
  43. 43. Bilanciamento dei canali colore I canali colore sono composti tra loro per conferire un colore ad ogni punto dell’immagine, come già illustrato. Una trasformazione utile in post-produzione consiste nel modificare il modo in cui questa composizione viene calcolata. (43 of 51)
  44. 44. Bilanciamento dei canali colore Questo tipo di trasformazione è utile quando si vuole eliminare o aggiungere una tonalità cromatica complessiva all’immagine si vuole che una specifica parte dell’immagine abbia un colore preciso, ad esempio, che la neve sia bianca, oppure il cielo azzurro si vuole isolare o enfatizzare una zona dell’immagine in modo che risulti maggiormente in contrasto con quanto la circonda (44 of 51)
  45. 45. Istogrammi e curve Uno strumento più raffinato per la gestione della luminosità, del contrasto, e del bilanciamento dei colori, permette l’applicazione di una curva all’istogramma di un singolo canale colore o, uniformemente, all’intensità di tutti i punti dell’immagine. (45 of 51)
  46. 46. Istogrammi e curve Dato l’istogramma dell’immagine, questo viene interpretato linearmente: al valore x sull’asse delle ascisse corrisponde il valore x di intensità del pixel, e l’ordinata riporta il numero di pixel con quel valore. Graficamente, questo corrisponde a usare la retta f (x) = x come curva dei valori di riferimento: i punti di valore x sono resi graficamente con il valore f (x). Una curva differente modifica questa interpretazione, ad esempio una curva a S corrisponde ad una alterazione del contrasto una curva monotona che azzeri i valori più bassi o massimizzi i valori più alti, corrisponderà ad una variazione di luminosità una curva applicata ad un singolo canale colore modificherà in modo più fine il bilanciamento dei colori (46 of 51)
  47. 47. Acquisizioni multiple Scattare più foto di uno stesso soggetto mantenendo costante la posizione è una tecnica che viene usata per molteplici scopi: ad esempio, aumentare il range dinamico delle immagini oltre le capacità del sensore, aumentare la profondità di campo mantenendo una nitidezza elevata, rendere i dettagli delle ombre e delle alte luci. Di nostro interesse è mostrare come questa tecnica possa essere usata per ridurre in modo significativo il rumore in una immagine. Consideriamo un punto della scena: essa è descritto da una tripla di valori per ogni scatto che effettuiamo rosso verde blu 1 100 47 220 2 102 41 219 3 104 42 218 4 97 45 217 5 95 38 215 (47 of 51)
  48. 48. Acquisizioni multiple Prendendo il valore mediano (100,42,218) oppure il valore medio per ogni componente (99.6,42.6,217.8), otterremo una tripla che presenta un rapporto segnale/rumore ridotto, ipotizzando il rumore come puramente casuale e quindi con distribuzione gaussiana. Ad esempio, il seguente scatto è stato effettuato con ISO = 12800, ottenendo un’immagine che presenta molto rumore, come si vede dall’ingrandimento (48 of 51)
  49. 49. Acquisizioni multiple Andando a sovrapporre cinque acquisizioni esattamente con le stesse impostazioni della fotocamera secondo il metodo della mediana, si ottiene (49 of 51)
  50. 50. Acquisizioni multiple Confrontando gli ingrandimenti, si vede come il rumore sia stato ridotto (50 of 51)
  51. 51. Riferimenti Elizabeth Allen, Sophie Triantaphillidou, The Manual of Photography, 10th edition, Focal Press (2009) Bryan Peterson, Understanding Exposure, 3rd edition, Amphoto Books (2010) CC BY: $ C Dr Marco Benini 2015 Tutte le foto di cui non sia specificata l’attribuzione, sono state scattate dall’autore di queste slides e sono protette da copyright. (51 of 51)

×