|
| | |
|
FOTOGRAFIA: Il sensore digitale | |
| | |
|
| | |
| | | |
| | |
| | |
|
| | |
| | |
|
|
Un sensore di immagine digitale è essenzialmente un chip di silicio in
grado di catturare e misurare la luce, ovvero la quantità di
fotoni1 che lo raggiungono. I sensori delle fotocamere digitali si basano attualmente sulla tecnologia
CCD2 oppure sulla tecnologia
CMOS3.
Entrambi i tipi sono basati sul silicio, hanno proprietà simili e
funzionano convertendo la luce che li colpisce (fotoni) in carica
elettrica (elettroni) in maniera simile a quanto avviene nelle celle
solari. Il sensore ha generalmente forma rettangolare e dimensioni variabili da costruttore a costruttore e da modello a modello.
La superficie del sensore è formata da milioni di minuscoli "fotositi"
disposti secondo una griglia regolare. Questi "fotositi" sono in
effetti i micro-sensori che effettuano la conversione da fotoni in
elettroni. Ogni singolo fotosito sarà in grado di fornire in
uscita una carica elettrica proporzionale alla quantità di fotoni che
lo hanno colpito; la carica generata dai fotositi viene poi convertita
da un apposito circuito di conversione analogico-digitale in un valore
numerico. L'insieme dei valori forniti dai fotositi viene
elaborato dal microprocessore della fotocamera e costituisce
l'informazione necessaria alla ricostruzione dell'immagine catturata.
In un sensore CCD la carica registrata viene trasportata attraverso
tutto il chip da una riga di fotositi a quella adiacente. Una volta
giunta al bordo del sensore viene trasferita in uno speciale registro
di output e quindi letta dal convertitore A/D. Il processo viene
temporizzato da un segnale di clock (sincronia) generato da circuiti
esterni al chip del sensore. Per poter completare questo processo
senza perdita di informazione, i sensori CCD sono costruiti con un
particolare processo ad alta qualità, che li rende però anche
particolarmente costosi. E' da notare come le righe già lette
vengono scartate, quindi al termine della lettura le cariche sul
sensore sono state completamente azzerate. I sensori CCD, per
il loro particolare funzionamento, richiedono molta più energia dei
sensori CMOS; tipicamente un sensore CCD consuma 100 volte di più di
uno CMOS. Sarebbe tecnicamente possibile ma troppo costoso
realizzare tutta la circuiteria accessoria (generatori di clock,
circuiti di temporizzazione, circuiti di elaborazione del segnale)
direttamente sul chip CCD, pertanto questi vengono normalmente
realizzati su diversi chip secondari. Spesso accade che questi chip
necessitino di tensioni di funzionamento non standard, che devono
essere generate e regolate derivandole da quella principale; appositi
circuiti aggiuntivi si occupano di questo compito. La maggiore
complessità incide ulteriormente sui costi, sulle dimensioni e sul
consumo energetico. I sensori CCD, per l'alta qualità costruttiva, sono meno soggetti a fenomeni di disturbo (il cosiddetto rumore) dei sensori CMOS e forniscono immagini di alta qualità.
I sensori CMOS sono tuttavia molto più economici da produrre dei
sensori CCD. Essi utilizzano infatti la stessa collaudata tecnologia
produttiva dei normali microprocessori (CPU) e dei chip di memoria dei
personal computer, e sono pertanto più economici da produrre, non
richiedendo fabbriche specializzate per essere costruiti. Il costo
fisso degli impianti può essere suddiviso infatti su una maggiore
varietà di prodotti. Poichè la struttura dei sensori CMOS è la
stessa dei normali microprocessori, è facile integrare i circuiti
accessori richiesti per diverse operazioni direttamente sul chip del
sensore. In un sensore CMOS accanto ad ogni singolo fotosito sono
disposti minuscoli transistor e circuiti che amplificano e trasformano
il segnale. Poichè ogni fotosito di un sensore CMOS ha
accanto a sè dei circuiti che "rubano" un po' di spazio, il sensore
risulta in generale meno sensibile alla luce di un analogo CCD, in
quanto parte dei fotoni colpirà i circuiti "di servizio" anzichè la
parte del fotosito sensibile alla luce. La percentuale dell'area di un
fotosito che risulta utile per raccogliere la luce viene detta "fill
factor" (fattore di riempimento). Un sensore CCD ha un fill factor del
100%, un sensore CMOS molto meno. In condizioni di luce scarsa un
sensore CMOS necessita di maggiori aperture o di tempi di esposizione
leggermente più lunghi di un sensore CCD. Per ovviare in parte a questo
problema, vengono spesso utilizzate sopra ogni singolo fotosito delle
micro-lenti, che intercettano la luce destinata a cadere sui circuiti
di servizio e la convogliano sulle parti sensibili. I costruttori
cercano di aumentare il fill factor dei sensori CMOS riducendo sempre
di più le dimensioni dei circuiti integrati. Un sensore CMOS
standard soffre del cosiddetto "rumore": la carica elettrica di ogni
singolo fotosito viene trasportata via durante la lettura da circuiti
di trasporto e amplificazione. Ogni fotosito ha il suo circuito; lievi
alterazioni del segnale dovute a microscopiche imperfezioni nei
circuiti formano una sorta di "disturbo" sull'immagine, sempre uguale.
Nei sensori CMOS più moderni, speciali circuiti filtro addizionali
cancellano il "rumore" basandosi su una sua misurazione effetuata in
fabbrica. Ogni chip CMOS ha infatti il proprio "schema" di rumore.
Queste operazioni di filtraggio influiscono sulla rapidità generale
delle operazioni. La tecnologia CMOS, nota da decenni nel
campo dei microprocessori, è stata applicata ai sensori digitali solo
in un periodo relativamente recente. Inizialmente la qualità dei
sensori CMOS era nettamente inferiore a quella offerta dal CCD, e
quindi i sensori CMOS si guadagnarono una fetta di mercato come
alternativa economica al CCD in apparecchi di fascia bassa o dove la
qualità assoluta non era molto importante, ad esempio nelle WebCam.
Oggi la tecnologia CMOS applicata all'immagine ha fatto molti
progressi, tanto che
diverse fotocamere8 digitali di fascia alta utilizzano un sensore CMOS (naturalmente corredato da filtri anti-rumore) con risultati eccellenti. Dal bianco e nero al colore
Forse i più attenti e ferrati in fisica (e informatica) se ne saranno
già accorti: ma l'informazione sul colore dove viene memorizzata? Il
sensore, CCD o CMOS che sia, converte infatti l'intensità luminosa (il numero di fotoni che lo colpiscono in una determinata unità di tempo) in una carica elettrica ad essa proporzionale. Il sensore è assolutamente indifferente alla lunghezza d'onda di tali fotoni (ovvero a ciò che la vista umana interpreta come colore) ma si limita a considerarne il numero. Questo significa che in realtà il sensore è cieco ai colori, e registra tutto in bianco e nero! Come si fa ad ottenere delle foto a colori allora?
E' necessario aprire una breve parentesi sui processi della vista
umana. Il nostro "sensore" naturale, la rètina, è un tappeto di
microscopiche cellule sensorie (l'equivalente dei fotositi) di due tipi
diversi, i cosiddetti coni e bastoncelli. I coni si
differenziano ulteriormente in tre categorie, ciascuna delle quali
risulta particolarmente sensibile ad una ristretta gamma di lunghezze
d'onda dello spettro elettromagnetico. A grandi linee si può affermare
che vi sono coni sensibili al rosso, coni sensibili al verde e coni
sensibili al blu. I bastoncelli hanno invece una sensibilità meno
ristretta. Tutte queste cellule sono in grado di convertire i fotoni
che le colpiscono in impulsi elettrici nervosi che passano per il nervo
ottico fino ad arrivare al cervello. Le infinite combinazioni di
gradazione tra rosso, verde e blu si miscelano e creano nel cervello la
sensazione dei colori. I bastoncelli vengono impiegati perlopiù di
notte o in situazioni di scarsa luminosità, per un motivo che sarà
chiaro tra poco. Tornando al nostro mondo digitale, è chiaro ora
che dovremmo avere non uno, ma tre sensori diversi per registrare
l'informazione minima che ci possa consentire di ricostruire i colori:
uno sensibile al rosso, uno al verde e uno al blu. Chi ha qualche
conoscenza della grafica al computer sa bene che un colore preciso è
definito da tre valori, uno per ciascuno di questi colori fondamentali.
I nostri tre sensori fornirebbero i dati necessari. Purtroppo il
sensore, sorattutto se CCD, è il singolo pezzo più costoso di una
macchina fotografica digitale, e inserirne tre avrebbe conseguenze
molto pesanti sul prezzo dell'apparecchio, senza considerare il
problema di contenimento delle dimensioni e la complessità costruttiva
maggiore per via dei circuiti accessori necessari all'integrazione dei
tre sensori. Sebbene alcune videocamere semiprofessionali o prosumer
adottino effettivamente questa soluzione (spesso indicata con la sigla
3CCD) nel mondo della fotografia i costruttori hanno adottato un'altra
tecnica molto più economica, naturalmente a prezzo di qualche
sacrificio nella qualità dell'immagine. Quello che si fa è
semplicemente dedicare una parte dei fotositi alla registrazione di un
solo colore fondamentale. Normalmente in un sensore il 25% dei fotositi
registra il rosso, il 25% il blu e il 50% registra il verde. Il motivo
per la preferenza sul verde è che anche l'occhio umano risulta in
effetti più sensibile a questo colore fondamentale rispetto agli altri
due. Per rendere sensibili ad una particolare lunghezza d'onda i
fotositi, davanti ad essi viene posto un filtro che lasci passare solo
le lunghezze d'onda volute. In pratica davanti al fotosito viene posto
uno strato trasparente e colorato in rosso o verde o blu. Questi filtri
vengono disposti secondo uno speciale schema (in inglese pattern) a scacchiera. Il più utilizzato è il cosiddetto
schema di Bayer. Poichè ogni singolo fotosito risulta ora sensibile ad una sola gamma di colore (rosso, verde o blu) la sensibilità alla luce
di un sensore così trattato risulta molto inferiore (circa un terzo) di
quella che avrebbe senza filtri colorati. Questo è il motivo per cui in
condizioni di bassa luminosità un sensore non trattato riesce a
distinguere un dettaglio maggiore; ed è anche il motivo per cui
l'occhio umano si affida ai bastoncelli, ciechi al colore ma sensibili
all'intensità luminosa, quando c'è poca luce. Si può dire che l'occhio umano4 incorpora due sensori in uno, quattro se consideriamo separatamente i coni di vario tipo... Tornando al sensore digitale, se vogliamo ottenere un
pixel6 di immagine per ogni fotosito abbiamo ora un problema. Infatti con l'applicazione del filtro Bayer ogni fotosito registra solo un terzo delle informazioni necessarie alla definizione esatta del colore, ovvero solo uno dei tre colori primari. Eppure le fotografie digitali sono a colori... Da dove saltano fuori i dati mancanti? Molto semplicemente, vengono calcolati per interpolazione. Avete capito bene: i dati mancanti vengono dedotti da un algoritmo di calcolo più o meno complesso, che prende in considerazione i valori registrati dai fotositi adiacenti per effettuare una stima. Naturalmente il processo non è esente da errori, dopotutto stiamo cercando di indovinare i valori che abbiamo scelto di non registrare!
Questi errori sono l'origine di strani artefatti di colore e di altri
effetti indesiderati. D'altra parte questo è il prezzo da pagare per
aver utilizzato un solo sensore per registrare i colori invece dei tre
che sarebbero necessari. Il risultato è nella maggior parte dei casi
piuttosto soddisfacente, anche se in situazioni particolari i difetti
del procedimento
saltano fuori.
Esistono varianti al pattern di Bayer appena descritto; alcune macchine
fotografiche digitali utilizzano filtri a colori sottrattivi CMY
(ciano, magenta e giallo) al posto di filtri RGB (rosso verde e blu) e
ultimamente7
la Sony ha introdotto un nuovo pattern a quattro colori con rosso,
verde, blu e verde smeraldo, che dovrebbe consentire una riproduzione
del colore più accurata. Esiste infine un tipo di sensore completamente diverso, il
Foveon, impiegato ad esempio sulle fotocamere Sigma. Questo sensore è composto in realtà da
tre sensori
impilati uno sull'altro, e composti da particolari materiali permeabili
solo a lunghezze d'onda ben precise. In pratica si tratta di tre
sensori sensibili ciascuno ad un colore primario e trasparenti per gli
altri due. La luce della banda spettrale del rosso viene registrata dal
sensore del rosso e il resto viene lasciato passare, e così via. Questo
tipo di sensore non utlilizza un pattern di Bayer e quindi risulta
esente dai difetti cui si accennava in precedenza. Il problema in
questo caso è essenzialmente di costi, dato che i sensori sono in
pratica tre e non uno solo; per contenerli si costruiscono sensori con
un minor numero di fotositi rispetto allo standard di mercato. Oggi una tipica digicam con sensore foveon viene pubblicizzata come una macchina da 10
Megapixel5; in realtà ha sì 10 milioni di fotositi, ma suddivisi in tre sensori.
L'immagine finale una volta scaricata sul computer o stampata,
risulterà composta da 3,3 Megapixel. Il vantaggio è da ricercare
nell'accuratezza cromatica. L'ultimo aspetto che riguarda i
sensori digitali su cui vorrei spendere due parole riguarda nuovamente
un problema che sorge quando montiamo un obiettivo costruito per il
formato tradizionale a pellicola su una macchina fotografica digitale.
Il problema nasce dal fatto che gli elementi fotosensibili su una
pellicola fotografica sono disposti direttamente sulla superficie del
polimero, mentre in un sensore digitale si trovano incassati sul fondo
di un minuscolo pozzetto. Gli obiettivi per fotografia a pellicola
non tengono in considerazione la divergenza dei raggi luminosi in
uscita, in quanto qualunque angolo di incidenza abbiano saranno sempre
in grado di impressionare la pellicola con la stessa efficacia. Diverso
è il discorso per il sensore digitale: dato che i fotositi sono
"incassati" nel silicio, è importante che i raggi luminosi che escono
dall'obiettivo siano il più paralleli possibile, altrimenti i fotositi
più esterni corrono il rischio di risultare "in ombra". Ciò che succede
in pratica è che un obiettivo pensato per il formato a pellicola
potrebbe dare luogo ad una certa caduta di luminosità ai bordi
dell'immagine se utilizzato su un sensore digitale. Dato che obiettivi
e sensori sono tanti e diversi tra loro, la cosa migliore sarebbe poter
fare delle prove per vedere se il risultato è da considerarsi
accettabile. Per questo mese è tutto, buon divertimento!
Massimo Borri
1Fotone: nome dato in fisica al "quanto" (quantità basilare) di luce o altra radiazione elettromagnetica.
2CCD: acronimo per Charge Coupled Device,
ovvero dispositivo ad accoppiamento di carica. Il nome deriva dal
metodo usato per leggere l'informazione dal sensore una volta
registrata l'immagine: le cariche di ogni "riga" del sensore sono
"accoppiate" a quelle della riga precedente, in modo che quando la
prime si spostano, le seconde si muovono per prenderne il posto.
3CMOS: acronimo per Complementary Metal-Oxide Semiconductor.
4Nella retina sono presenti circa 6.400.000 coni e 120.000.000 bastoncelli.
5Megapixel: neologismo informatico per indicare un milione di Pixel (elementi grafici). Se si considerano le misure digitali in uso per i computer, un megapixel equivale invece a 1.048.576 Pixel.
6Pixel: termine ottenuto dalla contrazione delle parole inglesi Picture Element. Si tratta della più piccola porzione di cui è composta una immagine digitale, come una tessera lo è di un mosaico.
7ad esempio sulla nuova "ammiraglia" di fascia prosumer, la DSC-F828
8ad esempio la Canon EOS 300D e la Canon EOS 10D
|
| |
|
|
| | |
| | |
|
| | |
| | |
|
| | |
| | |
|
| | |
| | |
|
| | |
| | |
|
| | |
|
|
|