.
.
La
figura qui accanto mostra un riassunto di tutto il procedimento della conversione
di un segnale analogico in un segnale digitale, visto nell'articolo precedente.
Ciascuna immagine può essere infatti considerata come
una serie di variazioni di luce bidimensionali, ovvero, nel senso
della larghezza e dell'altezza.
Provate a mettere gli occhi su un' immagine, ad esempio, su una
qualunque fotografia. Analizzate l'angolo superiore sinistro: ha una determinata
luminosità. Se procediamo all' analisi in una direzione (ad
esempio da sinistra a destra) ecco che si incontra una variazione di luminosità.
In altre parole, se spostiamo l'attenzione verso destra vediamo che
questo valore di luminosità può crescere o diminuire, oppure
crescere ancora, e così via in un saliscendi tra lo scuro e il chiaro.
Quello che è rappresentato in alto (A) nella figura qui a destra,
potrebbe essere proprio una porzione dell'immagine. Se traduciamo
questa luminosità (punto dopo punto) in una curva, si ha la
curva B. La curva B assomiglia molto ad un segnale video che esce da una
videocamera. Questa curva ha un andamento "analogo" rispetto a quello
della luminosità che l'ha generata, perchè sale quando sale
la luminosità, scende quando scende la luminosità. E quindi
l'onda in B è un' onda "analogica". Inizia qui la conversione analogica/digitale.
LA CONVERSIONE
La conversione analogica/digitale avviene con un procedimento chiamato
"campionamento". Ad intervalli regolari, scanditi da un oscillatore (clock)
viene misurata la curva: nella figura della pagina precedente si vedono
in C sette frecce che cadono dall'alto in basso, e simboleggiano sette
misurazioni effettuate sulla base di una certa frequenza predeterminata,
su cui torneremo più tardi. La distanza della curva dallo zero -in
ciascun momento in cui cade la misurazione- può essere rappresentata
da un numero decimale. Ad esempio, 5,6,7,8,7...
Qui è importante notare una cosa. Occorre fare bene i
conti con il numero massimo di valori che può assumere ciascuna
misurazione. Se ciascun punto trasportasse 1.000.000 di possibilità
(ovvero, se ciascuna misurazione potesse assumere un numero tra 1 e 1.000.000),
si avrebbe una misurazione molto precisa, ma occorrerebbe trasportare una
massa di dati enorme. Ogni 500.000 misurazioni (quel tanto che basta
a trasportare una buona immagine video) servirebbero (500.000 x 1000.000=
500 miliardi di informazioni. Se invece vi sono solo 4 possibilità,
ecco che per ciascun punto basta trasportare 4 valori. Per 500.000
misurazioni, bastano due milioni di informazioni. Tra 2 milioni e 500 miliardi
c'è una bella differenza. Ma anche un'immagine di 4 toni è
ben differente come qualità rispetto ad una immagine con un maggior
numero di valori intermedi. Su questo rimandiamo a quanto detto a
suo tempo circa la "scala dei grigi", e alla figura con 2 valori, 4 valori
di grigio e 256 grigi.
In buona sostanza, il risultato della misurazione deve poter assumere
un numero di valori limitato, se si vuole avere una quantità
di dati ragionevole, ma deve assumere un numero di valori elevato se si
vuole avere una qualità d'immagine decente. Queste due esigenze
contrapposte non possono trovare risposta se non in una situazione di perenne
compromesso.
LA FREQUENZA DI
CAMPIONAMENTO
Oltre che al numero di valori che può assumere ciascuna misurazione,
passiamo a considerare il numero di misurazioni che servono. Anche
qui, la situazione è più o meno la stessa: un grande numero
di misurazioni comporta un'immagine più accurata, ma aumenta la
massa di dati da trasportare, da registrare, da manipolare. Abbiamo
già accennato nella puntata scorsa ad un problema di importanza
fondamentale: l'intervallo tra una misurazione e l'altra dev'essere abbastanza
stretto, altrimenti tra una misurazione e l'altra potrebbero esserci delle
variazioni significative del segnale che noi non cogliamo in quanto non
vengono misurate, cadendo appunto tra due misurazioni. Se tra la misura
2 e la 3 ci fosse un picco della curva, questo non verrebbe "visto", in
quanto si conserverebbero i dati del punto 2 e del punto 3, senza
quello intermedio. Con quanta frequenza dev'essere misurata una curva?
In altre parole, quanto deve distare nel tempo una misurazione dall'altra?
E' stato detto che la frequenza del campionamento (la frequenza delle
misurazioni, in cui viene fatto un "campione" della curva) segue la legge
di Shannon: occorre misurare con una frequenza almeno doppia rispetto
a quella della massima frequenza da conservare. Cosa consegue da ciò?
Che la frequenza di campionamento è in funzione della risoluzione
massima che vogliamo avere. Se vogliamo avere un grande numero di particolari,
di dettagli sullo schermo, ecco che avremo molte variazioni di luminosità
di piccole dimensioni (es., i fili dell'erba quando inquadriamo un pezzo
di prato) e quindi dovremo avere delle frequenze elevate e
di piccole dimensioni, e quindi una fitta serie di misurazioni, in numero
almeno doppio rispetto a quello della frequenza dell'onda da registrare.
Se ci accontentiamo di una frequenza più bassa, vedremo meno
variazioni di luminosità, e -se siamo davanti al prato di prima-
non si potranno più vedere i singoli fili d'erba, ma
si vedrà solo un cambiamento di tono più o meno uniforme.
Secondo l'espressione di Hartley, Tuller, Wiener e Shannon, la
quantità totale dei numeri binari (degli impulsi) da trasportare,
è legata sia al rapporto segnale/rumore che alla larghezza della
banda, ovvero al numero delle frequenze impegnate. Questo secondo aspetto
è abbastanza ovvio, sulla base di quanto fin qui detto: se per convertire
frequenze maggiori occorrono molte misurazioni in più, è
evidente che alla fine si avranno molti più numeri da gestire, numeri
che sono il frutto delle maggiori misurazioni. Sarebbe come dire
che se per misurare una tavolo si prendono dieci misure, si
hanno più numeri che se prendiamo solo due misure.
Il RAPPORTO SEGNALE/RUMORE
Anche l'aumento del rapporto segnale /rumore richiesto comporta
un aumento di dati. Iniziamo con il rammentare che per "rumore" non
si intende nulla di acustico, ma semplicemente si indica il disturbo di
fondo che è presente sia nelle immagini che in qualunque altro segnale.
Il rapporto segnale/rumore (indicato come S/N o S/R) indica la "distanza"
tra il segnale utile e il disturbo di fondo. Maggiore è questa distanza,
meno il segnale è inquinato da rumore, e quindi l'immagine acquista
in pulizia. Quindi, un'immagine televisiva con un rapporto segnale/rumore
di 43 dB è più pulita, più nitida di una con 42 dB.
Il dB (decibel) è una misura di guadagno, indica nel nostro caso
quanto il segnale video "sovrasta" il livello del disturbo di fondo. Osservate
la tabella nelle pagine precedenti, titolata "alcuni esempi". Vedrete
che se su una linea telefonica accettiamo un rapporto segnale/ rumore
modesto (differenza tra segnale e rumore di soli 20 dB) ecco che
-a parità di frequenza massima, o meglio di banda passante- si ha
un trasferimento di dati che è il doppio rispetto a quello
che si ottiene quando si è più esigenti, e si
vuole un rapporto segnale/rumore più favorevole. (=una distanza
tra segnale e rumore di 40 dB). Le cose divengono più gravi se si
passa nel mondo dell'immagine. Se ci si accontenta di un'immagine
con una certa granulosità di fondo (35 dB di S/R) a parità
di definizione (=banda passante) basta un flusso di 40 Mbit/s. Se si vuole
un'immagine più "pulita", passando a 40 dB, la quantità di
dati necessaria sale a oltre 65 Mb/s. Quindi, per incrementare
la pulizia di soli 5 dB, occorre aggiungere 26 milioni di informazioni
al secondo, oltre un miliardo e mezzo di informazioni supplementari per
ciascun minuto di programma. Voi ora comprendete perchè spesso i
costruttori sacrificano molto sul versante del rapporto segnale/rumore,
che viene tenuto in minor considerazione da parte degli utenti rispetto
alla risoluzione. Molti utenti sarebbero disposti a sacrificarsi per dieci
linee di risoluzione in più, mentre un dB di S/R in più o
in meno fa meno effetto. Tenete conto che le registrazioni digitali
DVC che sono state presentate nella seconda metà del 1995, hanno
invece un segnale rumore di 54 dB, con un fattore molte volte superiore
rispetto a quello del rapporto tipico di molti sistemi video in uso. Questo
è bene, si sta prendendo coscienza dell' importanza
di questo dato.
IL FLUSSO DI DATI
:
O DURATA
O QUALITA'
Come si vede, per registrare un' immagine digitale di qualità
ragionevole, e quindi con una risoluzione accettabile (=numero di misurazioni
adeguato) e un S/N decente, si sale verso valori di dati al secondo enormi.
Non ripeterò troppe volte una cosa, che tuttavia dev'essere ben
tenuta presente come un tormentone che non vi deve mai lasciare: si parla
sempre di quantità di dati al secondo, e non di quantità
di dati in assoluto. Questo vuol dire che un nastro o un disco
ha una capacità assoluta. Ad esempio, una cassetta può avere
una capacità di 1000 Megab. Ebbene, ci si può domandare:
quanto programma può contenere? Non si può rispondere semplicemente
in termini di tempo: ad esempio, due ore o quattro ore. Se lo si registra
con un trasferimento di 20 Megab/secondo, si satura in
50 secondi, meno di un minuto di programma. Se lo si registra con un programma
di qualità più bassa ( ovvero con minore risoluzione
e S/R, in modo che si abbia un trasferimento di 2 Mb/s) lo
si riempie con oltre otto minuti , dieci volte tanto. Così,
una quantità "X" di dati può essere ottimale
per una sola immagine di buona qualità; ma questa immagine
dev'essere ridotta di qualità se lo stesso ammontare totale
di dati deve venire usato per gestire più immagini anzichè
una sola.
Questo principio spiega parecchie cose. Ad esempio, perchè
diversi standard presentano al loro interno più opzioni. Il sistema
D-VHS (=digital VHS) ne prevede ad esempio tre. Una è caratterizzata
da un C (trasferimento di quantità di dati per secondo)
di 2 Mbit/s. Su una cassetta VHS ci staranno circa 32 Giga-byte.
Facendo i dovuti calcoli, su una VHS (E240) ci stanno addirittura
49 ore di programma! Ma si tratta di un programma con una qualità
modesta. Se si aumenta il C, e si sale ad un'immagine di qualità
migliore, si passa all'opzione HD, con un trasferimento di
28,2 Mb/secondo. A questo punto però su un nastro ci sta meno programma;
ovvero, ci stanno solo due ore e mezza di programma. Ma ci sta un'immagine
con una banda passante e un rapporto segnale/rumore molto, molto migliori.
Tanto migliori che molti utenti preferiranno far durare un nastro due ore
e mezza anzichè 49 ore.
Questi risultati non si sono avuti semplicemente inviando la massa
di dati al nastro VHS, ma grazie ad un espediente senza il quale
il D-VHS non avrebbe visto la luce.
LA COMPRESSIONE
Da tempo stiamo girando attorno ad un problema che non ci dà
pace: se si vuole avere un'immagine di qualità buona, dobbiamo
avere a disposizione un enorme numero di dati. Se vogliamo usare dei nastri,
dei dischi, dei canali televisivi o dei cavi ragionevoli, possiamo impiegare
solo immagini di qualità modesta. Come si fa a risolvere questo
dilemma?
Negli ultimi anni è sorta una possibilità insperata,
che sta rivoluzionando tutto il mondo dell'audio, del video, dell'informatica
e di molti altri settori più o meno collegati. Ed è in fondo
il motivo per cui la digitalizzazione sta prendendo sempre più piede,
e sta diventando la parola d'ordine in tutta l'elettronica. Senza questa
possibilità che andiamo a descrivere, in queste pagine non parleremmo
di digitale, perchè il digitale non sarebbe entrato seriamente nel
mondo della videoregistrazione e dell'immagine in movimento.
Questa tecnica che sta imponendo la digitalizzazione a tutti i livelli
è la compressione.
In pratica, non si trasferiscono i dati così come vengono letti
dall'immagine luminosa trasformata in digitale, ma vengono trasferiti (letti,
elaborati, registrati, inviati via cavo o via etere) impacchettati in forma
compressa.
Vi sono diverse tecniche di compressione, che possono essere classificate
in diverso modo. Ad esempio, in "lossy" e "non-lossy". Inoltre, queste
tecniche sono definite in certi standard, che prendono il nome dal gruppo
che le ha formate. Ad esempio, un insieme di tecniche è stato standardizzato
come MPEG, in quanto formato dalla commissione "Motion Picture Expert Group",
ovvero "Gruppo di esperti dell'immagine in movimento". E' una commissione
appartenente all'organizzazione internazionale "ISO". Ma prima di
entrare nei dettagli delle tecniche usate nei sistemi di videoregistrazione
digitale presenti oggi all'orizzonte, occorre tuttavia iniziare chiarendo
bene a tutti cosa si intende per "compressione", cosa che verrà
fatta nel prossimo capitolo dedicato all'immagine digitale
|
LA
DIGITALIZZAZIONE
Nella
figura sopra, in corrispondenza delle freccia, c'è una variazione
di luminosità. Proviamo a ingrandirla e rappresentarla in
A nel disegno sotto. Essa corrisponde ad
una curva analogica in B. In C, questa curva viene misurata a intervalli
regolari (=campionata). La distanza tra il punto della curva e lo
zero in ciascun istante è rappresentata da un numero. Si
ottiene una fila di numeri decimali. Si consulta una tabella, e
si attribuisce a ciascun numero decimale un numero binario (E).
Questi numeri sono fatti di soli 0 e 1, e quindi si può ottenere
una fila di impulsi digitali (es. bianco/nero, o acceso/spento),
come in F. Questo codice è quello registrato su nastro (magnetizzazioni)
o disco (le tacche dei CD) Notate che se si vuol rappresentare
una curva analogica del codice binario (in H), si ha una frequenza
maggiore di quella originale.
|
|
|
|
PER
SAPERNE DI PIU'
La
quantità di segnale che può essere trasmessa, elaborata o
memorizzata viene espressa in bit al secondo, ovvero "in quante informazioni
elementari" possono essere trasmesse in un secondo. E' qui simbolizzata
dalla lettera C. Essa è legata sia alla larghezza di banda (all'ampiezza
della gamma di frequenze che può essere trasmessa) sia al rapporto
segnale/rumore, ovvero alla possibilità di inviare i dati
con un disturbo più o meno marcato.
La
massima quantità di bit/sec è regolata dall'espressione di
Hartley, Tuller , Wiener e Shannon, dove B è la banda del segnale,
S è la potenza del segnale ricevuto ed N è la potenza del
disturbo o rumore. (=Noise). L'espressione è descritta sopra. Nella
pratica, i comuni canali di trasmissione superano un rapporto tra S e N
di 100:1, ovvero il livello di segnale supera quello del rumore di
100 volte, corrispondendo ad un rapporto segnale/rumore di 20 dB. Questo
accade anche per i sistemi di registrazione più economici.
In
questo caso, si può semplificare la formula e scrivere:
|
|
|
|
ALCUNE
PRECISAZIONI
In
questo testo si fa riferimento esclusivamente alla luminosità dell'immagine,
ovvero all'immagine in bianco e nero. Ripetiamo che lo si fa per semplicità,
anche solo per non ripetere ogni volta che ciascuna misurazione può
avere un diverso valore di grigio e/o di colore. D'altra parte comprendere
la struttura e le operazioni sull'immagine in bianco e nero (formata da
un certo numero di grigi) può servire sia a comprendere come
funziona l'immagine a colori. Se qualcuno vuole riferirsi alla sola immagine
a colori, basta sostituire ai "i valori di luminosità" o "variazioni
di luminosità" le variazioni di tinta o i valori del colore x o
y. Cogliamo l'occasione per ricordare che un’immagine con 256 livelli
di grigio è un’immagine con un numero di sfumature ragionevole,
ed infatti costituisce un buono standard per le immagini in bianco e nero.
Ma non è sufficiente per avere una bella immagine a colori,
256 colori costituiscono un valore tollerabile ma non ottimale. Una
base di 8 bit (con tutte le possibili combinazioni) dà (8 elevato
2=) 255 valori. Quindi, occorre usare un sistema che legga più di
8 bit per misurazione. Perchè parliamo di "8"? Vi è un'unità
di misura nel mondo dei computer, che è il byte, formato appunto
da 8 bit. Quindi, un byte basta per un'immagine in bianco e nero, ma non
per una a colori, che può basarsi su sistemi a 16 , ma -ancor meglio-
a 24 o 32 bit. In effetti oggi i 24 o -più ancora- i 32 bit costituiscono
uno standard di fatto.
Infine,
precisiamo perchè parliamo qui di "256 colori" quando invece
8 alla seconda dà 255. Da dove viene quel valore in più
per passare da 255 a 256? Semplice: è il valore dello zero. E quindi,
le 255 possibilità più la possibilità zero ci dà
256 possibilità: 256 colori o 256 toni di grigio. |
.
.
.
L'IMPORTANZA
DELLA COMPRESSIONE
Tutte
le tecnologie paiono avere dei momenti di grande euforia, e poi delle fasi
di assestamento. E' facile notare che in pochi decenni si è passati
dagli aerei con le ali di tela ai Jumbo, e da qualche decennio ci si è
assestati con piccoli miglioramenti. Così, anche i televisori hanno
visto un loro enorme miglioramento in pochi anni, e poi si va avanti con
microscopiche innovazioni di cui magari l'utente non si accorge neppure
(parlo dei blak-matrix e compagnia bella). Anche la videoregistrazione
pareva arrivata in un momento di stasi: poche innovazioni e poco visibili
da parte del pubblico. Anche dei rinnovamenti profondi (il Super-VHS) hanno
inciso poco sul mercato perchè portano vantaggi scarsamente apprezzabili
da parte del pubblico. Ma eccoci ora ad una vera rivoluzione, che sta per
ridare un grande impulso a tutto il settore video, e che rimescola le carte
sul tavolo. Vi sono apparecchi amatoriali che superano di un balzo certe
prestazioni ottenute a fatica con macchine professionali, al punto che
certi standard professionali paiono destinati a scomparire entro breve
tempo. E' qui che si gioca il futuro di chi ha scelto di dedicarsi alla
ripresa: certe macchine e certi prodotti stanno per divenire obsoleti,
mentre si profila una rivoluzione di prestazioni e standard, tutta all'insegna
del digitale. Questa rivoluzione avviene grazie ad una tecnologia
che è esplosa negli ultimissimi anni: quella della compressione
dei segnali. Vi sono due assi su cui si vanno delineando tutte queste innovazioni:
lo standard MPEG e il JPEG. Tra i due, l'MPEG-2 è di certo il più
importante. Ma anche JPEG focalizza l'attenzione del
videomaker, perchè è in JPEG la registrazione digitale DVC,
proposta da case diverse e di prima grandezza come Panasonic, Sony, JVC.
Il MPEG è uno standard più efficiente, ma è in qualche
modo asimmetrico: la compressione è oggi difficile e costosa, mentre
la decompressione è abbastanza facile e economica. Attorno all'MPEG
si stanno aggregando le applicazioni in cui l'impacchettamento del segnale
(costosissimo) non è di pertinenza del privato. Ad esempio, è
in MPEG-2 la televisione digitale, che dovrebbe sostituire quella
attuale. E' in MPEG-2 il videodisco da 12" . In ambedue i casi, sia l'ente
radiotelevisivo che il produttore cinematografico possono permettersi un
compressore MPEG. E' invece in JPEG il sistema dedicato alle videocamere,
in quanto servirebbe mettere nella videocamera di costo contenuto
un compressore eccessivamente ingombrante e costoso. L' MPEG è poi
un sistema meno adatto al montaggio. Anticipo queste cose solo
per sottolineare l'importanza della compressione: il significato
di queste sigle e i dati tecnici che saranno visti più avanti.
canale |
banda passante |
C
(bit/secondo) |
telefono
televisivo
audio Hi-Fi
reg. digitale DVC
reg.digitale D-VHS standard
" " mode HD
" " mode LP
|
3 KHz
3 KHz
3,5 MHz
5MHz
15 KHz
20 KHz
5MHz |
20 Kbit/s
40 Kbit/s
35 Mbit/s
40 Mbit/s
200Kbit/s
530Kbit/s
20Mbit/s
14,1Mb/s
28,2Mb/s
2Mb/s |
*= i valori
di trasferimento dei sistemi digitali non sono direttamente paragonabili
agli altri, in quanto sono dopo la compressione. Corrispondono dunque a
un trasferimento di dati effettivo molto superiore, anche di un 'ordine
di grandezza. |
|
|