.
.
.
.
.
.
|
fig.
1 - Un CCD è formato da un certo numero di elementi di base (pixel)
disposti in file e in colonne. Questi pixel sono formati da due elementi:
un fotodiodo (in blu) e un'area dove viene trasferita la carica (in verde)
e dove la carica resta in attesa di essere letta in modo seriale, ovvero
un pixel dopo l'altro.
L'affiancamento
di un fotodiodo e di una area produce una struttura a colonne.
|
|
FIG
2 - La luce (freccia rossa) che colpisce il fotodiodo viene trasformata
in una carica elettrica proporzionale alla quantità della luce.
In altre parole, vi è una trasformazione dei fotoni in cariche elettriche.
Questa
carica (pallino giallo) viene generata dal fotodiodo (in blu) , e trasferita
nell'adiacente area
di
raccolta (verde) .
La
carica qui immagazzinata è dunque proporzionale alla luce che ha
colpito quel fotodiodo. E' importante notare che (area dopo area) vi è
una quantità di carica che è proporzionale alla luce che
l' ha prodotta, e quindi nelle varie aree vi è una "matrice elettronica
" dell'immagine luminosa
|
|
FIG
3 - Vi sono dei conduttori (disegnati in rosa) che collegano le varie aree
ctr presenti su ciascuna riga. Vi è un dispositivo per la serializzazione
dei segnali presenti su una riga (è disegnato in azzurro) e un secondo
dispositivo (disegnato in rosa) , che provvede a leggere i valori di carica
man mano dall'area passano al conduttore rosa. |
|
Provate
ad osservare questa figura; a destra è schematizzato un flash che
emette luce in varie direz<ioni. Una certa quantità di luce (x)
entra nell’obiettivo e colpisce il sensore (rosso). Qui vi sono solo qquattro
pixe, e quindi ciascun fotodiodo raccoglierà un quarto della quantità
di luce catturata dall’obiettivo (x/4) |
|
Questo
caso è esattamente come il precedente, solo che abbiamo immaginato
un sensore con 25 pixel. E’ chiaro che ciascuno di questi pixel raccolgie
solo un venticinquesimo della luce totale che è entrata. Siccome
la carica prodotta è proporzionale alla quantità di luce
ricevuta, il segnale emesso da questo CCD sarà molto più
basso (una frazione!) di quello emesso dal CCD della figura precedente.
Qui occorre dunque applicare una forte amplificazione, con il rischio di
amplificare anche il disturbo di fondo, e rendere una immagine più
“sporca”. |
|
Osservate
la figura: vi è un segnale elettronico (schematizzato dall’onda
rossa) e in basso il disturbo di fondo presente in ogni immagine. Quando
il segnale è forte l’immagine sovrasta la granulosità di
fondo, ma nei punti e quando il segnale e’ debole (come a sinistra) il
disturbo è superiore all’immagine, e questa risulta granulosa e
scadente. |
|
L’amplificazione
del segnale non è sufficiente a risolvere il problema: se si amplifica,
ecco che si amplifica tutto (segnale e disturbo). Infatti (trascinando
verso l’alto il segnale elettrico) la situazione non cambia, perché
dove c’era la granulosità di fondo, c’è ancora tale e quale. |
|
Oggi
si affaccia una nuova possibilità; quella di usare un software intelligente
che quando serve “raggruppa” i segnali delle singole celle: ad esempio,
in alto a destra si può raccogliere il segnale di quattro celle
(quelle colorate in blu), e quindi in uscita si ha un segnale quattro volte
più forte di quello che si raccoglie in ciascuna delle celle
in rosso. In quell’area si ha una definizione inferiore, ma si ha un’immagine
più “pulita”, priva di disturbo anche con una bassa luminosità…. |
|
|
..
.
.
.
.
Oggi
le immagini si riprendono con diversi dispositivi. Essendo ormai in
ribasso i vecchi “tubi” da ripresa, ecco che i vari sistemi di acquisizione
(videocamere, videocitofoni, webcam, scanner, macchine fotografiche digitali…)
usano in prevalenza CCD.
I
CCD rappresentano ormai una tecnologia collaudata, in quanto datano ormai
da più di venticinque anni. Mentre i CMOS sono un po’ più
recenti, ma si vanno scavando un loro spazio di mercato sempre maggiore,
soprattutto nelle appplicazioni amatoriali.
LA
FORMAZIONE DELL’IMMAGINE
I
CCD sono sensori , ovvero dei dispositivi “sensibili” alla luce, che la
rivelano in termini di segnale elettronico. Ancora più correttamente
possono essere deiniti dei trasduttori opto-elettronici, ovvero dei dispositivi
che “traducono” , ovvero “trasformano” la luce (da cui la radice opto-
) in un segnale elettronico.
Si
presentano come dei piccoli rettangoli, costituiti da un grande numero
di celle, pixel o “elementi di base”, come li volete chiamare.
Oggi
vi è una vasta gamma di sensori, che contengono un numero di elementi
di base basso (es. le webcam, i videocitofoni…) medio (es. quelli delle
videocamere o delle macchine fotografiche digitali, che possono contenere
alcuni milioni di elementi di base) e elevato (es. i sensori adottati per
le applicazioni in astronomia, che contengono ciascuno oltre 10 milioni
di elementi di base).
In
ogni caso, dal più semplice al più ricco, ciascun CCD è
costituito dunque da un numero X di elementi di base (pixel). Essi sono
disposti disposti in righe (= file orizzontali) e in colonne (= file
verticali) , quindi lungo gli assi X e Y.
Ciascun
singolo elemento di un CCD è composto da due parti, ovvero da due
dispositivi distinti:
1-il
primo è rappresentato un fotodiodo e
2-il
secondo da un’area di trasferimento della carica (ctr, charge tranfer region).
Ogni fotodiodo è affiancato da un ctr. Ne consegue che la struttura
dei CCD è formata da colonne alternate di fotodiodi e ctr (vedi
figura).
1-
Il fotodiodo è un dispositivo elettronico in grado di trasformare
la luce in una carica elettrica. In altre parole, quando viene colpito
dalla luce accumula una certa carica, che è proporzionale alla luce
che ha ricevuto. Se ha ricevuto molta luce troveremo una carica più
elevata, se la luce era inferiore vi sarà una carica inferiore.
E’
intuibile come questo dispositivo sia il “cuore” che genera la fotografia
elettronica: se si immaginano molti fotodiodi affiancati come in un mosaico,
ecco che nei punti in cui vi è molta luce vi sarà un segnale
elettrico maggiore, nei punti in cui viè scarsa luce vi è
un segnale elettrico minore. Si è costruita una specie di “matrice”
che (punto dopo punto) riproduce in termini di corrente quello che è
la luminosità di ciascun punto di una immagine.
In
pratica, il sensore viene esposto pr un breve istante alla luce, grazie
ad un sistema di otturazione che ottiene un effetto simile a quello del
classico scatto fotografico che imprime la pellicola. A livello di
ciascun diodo si crea una carica proporzionale alla parte dell’immagine
che lo ha illuminato.
UNA
SOLUZIONE GENIALE PROSSIMA VENTURA
A
questo punto del discorso sono evidenti due cose:
1-più
numerosi sono i singoli fotodiodi del sensore, più accurata è
la lettura dell’immagine.
Infatti
i molti fotodiodi possono leggere ciascuno un piccolo dettaglio dell’immagine
luminosa, mentre un numero più piccolo di elementi di base fa sì
che ciascuno di loro “copre” un’area più vasta, e la carica accumulata
da ciascuno non è che la media dei piccoli dettagli luminosi che
hanno colpito quella (vasta) superficie del sensore.
-
La soluzione Per rendere più definita l’immagine si vanno
diffondendo sensori con un grande numero di elementi di base. Non troppi
anni fa un’immagine tipica, ottenibile da una fotografia digitale, aveva
circa 350.000 pixel, corrispondenti ad un’immagine di 640 x 480 punti.
Oggi una immagine con un numero di pixel da 5 a 10 volte maggiore è
considerata ancora di classe media. Vi sono anche macchine fotografiche
amatoriali che hanno un numero di pixel enormemente superiore rispetto
a quel valore: vi sono in commercio sensori da 5-6 milioni di pixel. Si
assiste dunque ad un continuo incremento del numero di pixel, e ormai la
definizione di una immagine digitale inizia ad essere dl tutto adeguata
per la maggior parte delle applicazioni pratiche a cui può essere
destinata.
Un
sensore con un numero elevato di pixel comporta dei costi elevati per le
piccolissime dimensioni in gioco: vi sono ormai delle celle con dimensioni
inferiori agli 8 micron. Tanto per rendere l’idea, siamo ad elementi dle
tutto invisibili ad occhio nudo (per distinguerle serve un ottimo microscopio)
e sono dimensioni analoghe a quelle dei globuli rossi del sangue. Se si
pensa che queste celel contengono il sensore, una lente individuale perfettamente
centrata (se non si perde luminosità) e vari altri accessori, ci
si rende conto di quale equilibrismo tecnologico rappresenta oggi il cuore
di una fotocamera digitale!
Ma
il costo è dato anche da un altro motivo: serve una grande
precisione nella lavorazione perché dal punto di vista probabilistico
(su un numero enorme di pixel) è facile che qualcuno di questi elementi
di base esca difettoso. Più aumenta il numero di fotodiodi più
aumenta questa probabilità. Se le tolleranze fossero di un fotodiodo
difettoso ogni cinque milioni di fotodiodi, vi sarebbe un difetto ogni
cinque sensori da 1Mpixel mentre i sensori da 6 Mpixel sarebbero tutti
difettosi!
In
effetti nelle comuni macchine fotografiche è facile trovare qualcuno
di questi pixel difettoso, non funzionante, chiamato in gergo “hot pixel”.
La presenza di queste aree difettose si manifesta in forma di piccoli “buchi”
nella lettura dell’immagine; in pratica, si hanno dei puntini fissi che
in quel luogo non “leggono” nulla. Ma molti utenti sono ossessionati in
modo eccessivo dalla presenza o meno nella loro fotocamera di questi hot
pixel: ce ne sono, sono comuni, ma spesso li si scorge appena appena. In
altre parole, se mancano è meglio, ma se sono in dosi fisiologiche
non danneggiano le immagini più di tanto.
2-più
sono numerosi i singoli fotodiodi del sensore, meno carica vi è
su ciascun fotodiodo a parità di immagine, e quindi si ha un segnale
più debole.
Supponiamo
che una certa immagine sia composta da una quantità X di luce, che
esemplifichiamo con un numero convenzionale, ad esempio, col numero
“1000”. Se i sensori sono dieci, ciascuno di loro riceve 1/10 della luce
e quindi restituisce una carica di (1000/10=) 100. Se i sensori sono
10.000, si suddividono in diecimila la quantità di luce che li h
colpiti e quindi ciascuno di loro dispone di una carica di(1000/10.000=)
0,1. Ne consegue che (almeno in teoria) una immagine prodotta da
un sensore con maggior risoluzione (es. 2 o 3 Mega pixel) sia meno luminosa
di un’immagine ottenuta da un sensore di 1 Mega Pixel. Questo accade in
teoria, perché naturalmente un segnale debole può essere
amplificato elettronicamente. Questa amplificazione però rischia
di innalzare (oltre che il segnale utile) anche il disturbo, la granulosità
di fondo, e di non permettere quindi la resa di una immagine pulita e nitida.
Da
questo discorso si deduce che i sensori con un numero di pixel elevato
devono essere costruiti con grande cura e disporre di un rapporto tra segnale
e disturbo di fondo particolarmente buono, se non si vuole che l’immagine
sia di cattiva qualità.
-
la soluzione: Chi ha seguito il discorso fin qui ha compreso il motivo
per cui un sensore con pochi pixel produce un’immagine pulita ma poco definita,
e una con un sensore dotato di molti pixel produce un’immagine con molti
particolari ma poco luminosa o affetta da rumore di fondo (=sono due facce
della stessa medaglia, e una figura dovrebbe spiegare il perché
queste due cose sono correlate…). Recentemente è stata prospettata
una soluzione intelligente: si è creato un sensore con molti elementi
di base, ma il segnale di questi può essere “raggruppato” in modo
variabile a seconda della situazione contingente. Immaginate che vi sia
un software raffinato ed “intelligente” che raccoglie il segnale di più
pixel contigui quando serve raccogliere una notevole quantità di
luce (=luminosità e pulizia a scapito della definizione) mentre
raccoglie i segnali pixel per pixel nei casi in cui serve molta definizione
anche se a scapito della luminosità. Attendiamo con ansia di poter
provare uno di questi sensori per vedere se il risultato è all’altezza
delle aspettative: di certo questa è un’idea geniale.
Una
volta che l’immagine luminosa è stata trasformata in una serie di
cariche elettriche distribuite su una superficie, si tratta di gestire,
trasferire, immagazzinare, trasportare e poi (alla fine) convertire di
nuovo queste cariche elettriche in luce. E ricostruire così l’immagine
luminosa che ha generato le singole cariche su ciascun elemento.
Ecco
che all’inizio di questo processo di elaborazione entra in scena il secondo
dispositivo, ovvero il ctr.
IL
TRASFERIMENTO E LA TRASFORMAZIONE IN SEGNALE
Per
iniziare il lungo processo accennato sopra, occorre per prima cosa
leggere queste cariche ad una ad una, operando così un lavoro di
“serializzazione” delle singole cariche. In altre parole, si tratta di
prendere la luminosità di ciscuna tessera di un mosaico e di metterle
in fila una dopo l’altra come perle in una collana: ciascuna perla sarà
più o meno “scura” a seconda di come era la sua luminosità
a livello del mosaico. Per descrivere questa operazione in altro modo,
più tecnico, si tratta di trasformare una matrice di elementi bidimensionale
XY (righe e colonne) in una codifica bidimensionale (un segnale dopo l’altro,
su una sola riga…) Possiamo distinguere tre aspetti:
1
Trasferimento dal diodo al ctr. Per prima cosa, ciascun fotodiodo trasferisce
la propria carica al dispositivo ctr, ovvero all’area di trasferimento
che (come detto) è presente a fianco di ciascun fotodiodo.
Ora
avviene la lettura vera e propria, che viene effettuata in due direzioni:
deve venire letto il contenuto dei singoli fotodiodi presenti su una riga,
e poi deve esserci la lettura delle varie righe. Questa lettura non avviene
in modo così semplice (prima una riga e poi l’altra). Il CCD è
attraversato da una serie di conduttori orizzontali (nel senso delle righe)
e ciascun conduttore si collega a tutte i ctr, ovvero alle aree di trasferimento,
presenti su una riga.
2
Dispositivo di lettura orizzontale. Vi è un altro dispositivo ancora,
posto lungo la riga, che provvede a “registrare” la carica presente nella
colonna verticale di cuisi è parlato, in una sora di “parcheggio”
orizzontale. Un dispositivo di lettura provvede a trasformare le
singole cariche elettroniche in corrente. Quindi, un dispositivo temporizzato
posto lungo il lato del sensore “riceve” (grazie ai conduttori di cui si
è parlato sopra) il segnale di ciascun ctr, uno dopo l’altro.
3
Dispositivo di lettura verticale. Finito di ricevere il contenuto di una
riga, il dispositivo di lettura passa a leggere il contenuto della riga
successiva: e anche qui avremo una lettura delle varie colonne dei ctr
uno dopo l’altro, operato dal dispositivo di lettura orizzontale. Si va
avanti così fino all’ultimo pixel e (nel caso dei sensori destinati
alle riprese video) si riparte di nuovo dalla prima riga, in modo da leggere
il fotogramma successivo. Quando si è arrivati all’ultimo pixel
del sensore che genera una immagine fotografica, la fase di acquisizione
può invece dirsi conclusa.
Ecco
che si ottiene una fila di cariche elettrche proporzionali alla luce che
ha colpito ciascun fotodiodo. Il cammino del segnale è ancora lungo.
In
primo luogo occorre trasformare la carica in un segnale elettronico adeguato
(carica/voltaggio) , poi occorre amplificare questo segnale debolissimo
in uno più forte, in grado di essere trasferito con cavi od altro
ad altri apparecchi, oppure in grado di essere elaborato, registrato, eccetera.
E
le cose non sono neanche così semplici, perché fino ad ora
si è parlato solo di luminosità dei singoli punti, quando
si sa che al giorno d’oggi la quasi totalità delle immagini fotografiche
o video sono a colori. Anche la lettura del colore e la gestione dei relativi
codici è strutturata in modo molto complesso.
Un
discorso adeguato sul colore ci porterebbe lontano, si darà qui
per scontato il fatto che si catturano e si processano solo dei colori
primari (RGB, rosso, verde e blu) e che dalla mescolanza di questi colori
si ottengono tutti gli altri.
In
particolare, il colore viene letto ponendo davanti ai vari fotodiodi dei
filtri colorati, del colore primario complementare a quello che si vuole
catturare. Si legge la carica, e la si codifica nel segnale come corrispondente
alla percentuale di quel colore primario.
Qualche
tempo fa si considerava un successo il riuscire a centrare perfettamente
il filtro sulla faccia del fotodiodo. E’ facile immaginare che un filtro
che combacia al 90% sul fotodiodo sottostante “rubi” il 10% di luminosità.
Ma oggi si è andati ben oltre: vi sono delle tecniche costruttive
molto raffinate che permettono non solo di evitare delle perdite, ma addirittura
di incrementare la luminosità dell’immagine grazie ad una speciale
geometria di questi filtri. In pratica, si costruiscono dei filtri “più
grandi” del singolo fotodiodo, in modo che a questo arrivi una quantità
di luce maggiore di quella che non arriverebbe se il filtro coprisse solo
la sua faccia con un rapporto 1:1.
Sono
dei veri e propri equilibrismi, al limite della massima precisione che
si può oggi ottenere a livello industriale, tenuto contro delle
dimensioni infinitesimali dei singoli pixel. E’ difficile anche solo immaginare
cosa significa lavorare sui bordi di un’area elementare che è grande
tre o quattro milionesimi di un sensore con il lato che è inferiore
al pollice (2.5 cm circa).
LA
VARIANTE DEI CMOS
Il nome CCD è (come capita spesso) la contrazione della denominazione
in inglese, in questo caso “charge couple device”, ovvero “dispositivo
ad accoppiamento di carica”, imperniati come sono sulla coppia fotodiodo/ctr.
Accanto a questi vi sono anche dei sensori chiamati CMOS. Questi sono basati
sui MOS (Metal Oxide Semiconductor) che sono dei semiconduttori largamente
impiegati nelle circuitazioni e nelle applicazioni elettroniche. La variante
CMOS è insomma molto vicina alla produzione in grandi quantità
di transistor già usati per altri scopi, e quindi (anche indipendentemente
dalla sua maggior semplicità nella struttura) comporta dei vantaggi
in termini di produzione industriale. Molti sanno che i transistor vengono
usati per amplificare il segnale. Ed in effetti il CMOS contiene (pixel
per pixel) il fotodiodo che trasforma la luce in elettroni, il dispositivo
che trasforma la carica elettrica in corrente, e l’amplificazione del segnale.
Ciascun pixel del CCD è disposto in righe e in colonne e raggiunto
da una griglia verticale ed orizzontale: il dispositivo di lettura è
molto più semplice di quello dei CCD, perché ciascun pixel
può essere identificato come un incrocio tra righe e colonne, un
po’ come si fa con la battaglia navale. I singoli pixel vengono quindi
letti uno dopo l’altro in modo molto più semplice. La struttura
generale dei CMOS assomiglia molto a quella di un display che riproduce
immagini. L’accoppiamento dei semiconduttori e dei vari dispositivi
con ciascun pixel è all’origine della lettera C (“complementary”)
che distingue i CMOS dai comuni semiconduttori MOS.
LA
RICOSTRUZIONE DELL’IMMAGINE
Arrivati
a questo punto possiamo ricapitolare la situazione: si ha un segnale elettrico
il cui voltaggio (punto dopo punto) è corrispondente alla luminosità
dell’imagine. Nel segnale generale viene codificato anche il colore di
ciascun punto. La struttura di questo segnale viene costruita in modo diverso
a seconda della situazione: si può immaginare che un segnale continuo
possa rappresentare una serie di immagini in movimento (la TV o la ripresa
video effettuata con una videocamera) mentre un file contenente una serie
finita di dati possa rappresentare una fotografia elettronica.
Ma
si può dire che questo segnale (qualunque sia la sua natura e applicazione)
è una specie di “codifica” in termini di segnale elettronico della
luminosità dell’immagine che l’ha generato, punto per punto, area
per area.
Questo
segnale può essere immagazzinato in una memoria elettronica (la
RAM della macchine fotografica digitale) ma questa possibilità è
limitata a pochi casi e quasi sempre provvisoria. Il segnale subisce di
solito una ulteriore codifica. Molto spesso questa codifica è di
tipo magnetico.
In
parole povere, il segnale elettrico viene trasformato in magnetizzazioni
di un supporto (es. l'hard disk, il nastro del videoregistratore…) e come
tale viene conservato indefinitivamente. Ma non è sempre una codifica
magnetica: non di rado questa ulteriore codifica può essere ad esempio
di tipo fisico (sono queste le registrazioni su CD-rom, DVD, ecc., basate
su tacche, dei veri e propri avvallamenti fisici disposti sulla superficie
di questi mezzi).
E’
importante notare che il file con l’immagine può passare facilmente
da uno di questi supporti all’altro, ma in modo sempre mediato dal
segnale elettronico. Ad esempio, per passare dalla registrazione su Cd-rom
ad hard disk si leggono le tacche della codifica meccanica, si genera un
segnale elettronico, questo viene trasformato in campi magnetici impiegati
per incidere un disco…
In
altre parole, qualunque sia il supporto (hard disk, CD, DVD, nastro, disco…)
il “nucleo” il centro della codifica resta il segnale elettronico, e il
segnale elettronico resta il punto di partenza per generare l’immagine,
quando si legge il file da un supporto di immagazzinamento qualunque. Qualunque
sia il supporto di memorizzazione (RAM o disco, nastro o altro…) quando
si vuol visualizzare l’immagine, di passa dunque a “leggere” il file, a
convertirlo in un segnale elettronico, e a decodificarlo in termini di
intensità luminosa che (punto dopo punto) corrisponde all’intensità
del segnale stesso.
CCD
E CMOS , OGGI E DOMANI
Il
CCD è un sensore che produce una qualità d’immagine piuttosto
buona, e che viene per questo impiegato in applicazioni scientifiche dove
il costo non è rilevante (ad esempio, viene usato per i telescopi
spaziali) o professionali (es. per le milgiori macchine fotografiche).
Si tratta comunque di un dispositivo molto complesso, che ha bisogno di
generatori di frequenze di temporizzazione diverse (es. per la lettura
orizzontale e per quella verticale…) e che quindi necessita di una circuitazione
e componenti supplementari particolari.
-
Ma rispetto alla tecnologia un po’ più recente e più economica
dei CMOS, i CCD hanno il vantaggio di avere un rapporto tra segnale e rumore
migliore, di permettere una sensibilità maggiore da parte del dispositivo
di acquisizione, di permettere la costruzione si elementi di base (pixel)
più piccoli.
-
Dal canto loro i CMOS hanno il vantaggio di essere più economici,
di integrarsi più facilmente nei circuiti degli apparecchi che li
ospitano, di consumare meno corrente (e in questo senso sono molto interessanti
a causa della durata critica delle batterie) e di consentire la costruzione
di dispositivi più compatti. Questo non tanto per le dimensioni
del sensore, ma perché non richiedono quei dispositivi supplementari
(es. generatori di frequenze diverse) tipici dle CCD.
E’
ora evidente il motivo per cui vengono impiegati i CCD per le applicazioni
in cui –come si diceva sopra- serve la qualità d’immagine a qualunque
costo. Dove per “costo” non si deve intendere solo il costo fisico del
sensore, ma anche in termini di svantaggio, come il consumo di corrente
o l’ingombro.
In
particolare la produzione di una immagine con un elevato rapporto tra segnale
e rumore comporta fotografie più nitide, senza la granulosità
di fondo che la rende “sporca” e priva della dovuta limpidezza.
Da
queste considerazioni, molti esperti ritengono che il futuro della fotografia
digitale sarà caratterizzato da un aumento dell’impiego di CMOS
per le applicazioni di base, ovvero quelle più economiche (webcam,
ecc); mentre i CCD dovrebbero essere dedicati alle applicazioni con
esigenze qualitative superiori. In realtà negli ultimi mesi si stanno
aprendo nuove strade, perché queste tecnologie esposte non sono
“congelate”, e la ricerca si sta indirizzando verso dispositivi nuovi,
magari che usano tecnologie ibride, e comunque sono volti ad ottenere prestazioni
sempre migliori, che non siano più quelle caratteristiche dei CCD
o dei CMOS di oggi, ma che raccolgano i vantaggi sia dei primi che dei
secondi. |
. |
IL
COLORE OGGI E DOMANI
Nel
testo si dice che il colore della immagini viene ottenuto ponendo dei piccoli
filtri davanti ad ogni cella che contiene un fotodiodo. E’ chiaro che (siccome
i colori primari sono tre) l’immagine di un singolo colore primario sarà
formata da un numero di letture corrispondente ad 1/3 di quella del numero
totale di fotodiodi. In pratica, l’immagine rossa di un sensore da 6M pixel
sarà formata da “solo” 1Mpixel, la stessa cosa potrà dirsi
dell’immagine verde o blu.
Per
avere una immagine con ciascun colore a piena risoluzione occorrerebbe
avere una macchina fotografica contenente tre sensori, uno per il rosso,
uno per il verde e uno per il blu. Ed in effetti le migliori videocamere
professionali o semiprofessionali usano 3 CCD.
L’impiego
di 3 CCD al posto di uno, se da un lato migliora la definizione del colore,
dall’altro lato ha due difetti : aumenta l’ingombro della macchina e costa
molto. Il primo problema potrebbe essere considerato il minore: chi vuole
certe prestazioni può sopportare macchine un po’ grandi, sempre
e comunque paragonabili alle classiche reflex per chimico. Il secondo aspetto
potrebbe essere liquidato come il primo (chi vuole la qualità la
paghi) ma è uno degli ostacoli alla diffusione delle buone immagini
anche a livello amatoriale.
Una
possibile soluzione di compromesso è stata proposta da un laboratorio
importante, Foveon. La tecnologia è stata battezzata X3.
Si
tratta di costruire dei sensori sensibili ai tre diversi colori primari
non più in senso verticale, parallelo alla faccia del sensore (come
avviene oggi) ma in senso orizzontale, ovvero nel senso della profondità,
dall’obiettivo al fondo della macchina. In pratica, la parte superficiale
di ciascuna cella è sensibile al blu, la parte centrale al verde
e quella in profondità al rosso. Si potrebbe intendere questa tecnologia
come quella che permette di costruire tre celle una sopra l’altra, una
per ciascun colore. E naturalmente si tratta di una soluzione più
pratica ed economica di quella classica, che prevede tre sensori completi
affiancati.
Davanti
a questa soluzione vi è chi grida al miracolo. Si tratta certo di
una soluzione eccellente, in grado di rivoluzionare la qualità della
fotografia digitale, aprendo una nuova era. Ma attenzione a non cadere
in un facile tranello, in cui sono caduti anche tecnici ed esperti: non
si aumenta la definizione dell’immagine (dovuta al segnale di “luminanza”,
ovvero al segnale in bianco e nero) ma alla qualità del colore,
che viene così liberato da una serie di interferenze e approssimazioni
dovute alla sua gestione approssimativa nel sistema precedente. Quindi,
questa tecnologia permette in buona sostanza un eccellente miglioramento
del colore, senza dover ricorrere a tre sensori distinti. |
|