SlideShare uma empresa Scribd logo
1 de 184
Realizzazione di una camera d’ascolto per la
riproduzione della realtà virtuale acustica
Aurore della ricerca: Daniele Brini
Scopo della ricerca:
La seguente trattazione si occupa dell’ottimizzazione della qualità acustica
delle sale d’ascolto e dei sistemi per la registrazione e riproduzione del suono
in tre dimensioni. Questi sistemi devono avere la capacità di captare un
fenomeno acustico tridimensionale, in cui gli stimoli sonori possono provenire
da tutte le direzioni, e riprodurlo in un ambiente diverso, mantenendo tutte le
caratteristiche spaziali del fenomeno acustico originale.
Questo significa realizzare la realtà virtuale in campo sonoro.
La realizzazione di questi sistemi è stata possibile grazie a uno studio
approfondito della percezione uditiva dell’uomo e in particolare dell’ascolto
direzionale.
L’obiettivo di questa trattazione è mettere in rilievo una tecnologia chiamata
Ambisonic, che per le sue solide basi teoriche permette un’espansione futura
del sistema con una crescita significativa delle prestazioni.
L’ascolto delle registrazioni effettuate con questo sistema, necessita di un
ambiente con caratteristiche acustiche particolari: la camera d’ascolto.
Oggetto di questo lavoro è la realizzazione di una sala d’ascolto, con
particolare riferimento alla spazialità del campo sonoro.
Il presente lavoro è stato diviso in due parti, nelle quali la prima è
preliminare alla seconda e necessariamente più teorica.
La prima parte illustra le caratteristiche della percezione direzionale dell’udito
ed esamina con sguardo critico i sistemi elettroacustici di registrazione e
riproduzione sonora, dai primi esperimenti significativi fino agli sviluppi
tecnologici più recenti.
I
La seconda parte descrive il trattamento acustico effettuato e rappresenta
l’applicazione pratica delle teorie esposte in precedenza.
Avvalendosi delle più moderne teorie acustiche, che permettono di valutare la
qualità del suono percepito in base ai risultati di una serie di parametri, si è
cercato di migliorare la qualità acustica dell’ambiente a nostra disposizione,
indirizzando il lavoro verso la diminuzione del tempo di riverberazione
attraverso un trattamento acustico.
La scelta di utilizzare il programma di simulazione acustica Ramsete ha
consentito di valutare le possibilità di intervento acustico attraverso numerose
simulazioni, prima di procedere con l’applicazione dei materiali alle pareti e
al soffitto.
Una volta confrontati i parametri acustici con quelli precedenti al trattamento,
sono state effettuate le prove d’ascolto.
La realizzazione della camera d’ascolto è stata portata a termine secondo le
modalità previste e l’intervento di fonoassorbimento è stato veramente
efficace.
Il tempo di riverberazione è stato abbassato fino a soddisfare e persino
migliorare i valori previsti inizialmente (0,3 – 0,4 sec. intorno alla regione di
frequenze di 1000 Hz), e presenta un andamento lineare.
Sono assolutamente soddisfacenti le prove d’ascolto effettuate con la
riproduzione dei brani di musica classica, in cui si può avvertire con una
grande sensazione di realismo, l’ampiezza del palcoscenico e la dislocazione
spaziale degli strumenti dell’orchestra.
L’ascoltatore può godere pienamente della sensazione di realismo offerta dal
sistema Ambisonic.
II
Indice
Prefazione ……………………………………………………..……….. 1
Introduzione ……………………….…………………………..………. 2
1 Il suono lo spazio e l’udito direzionale ………………………. 4
1.1 I meccanismi dell’udito direzionale .…………………………... 4
1.2 La differenza interaurale dei tempi ……………………………. 6
1.3 La differenza interaurale d’ampiezza ………………………… 7
1.4 Le modificazioni dell’orecchio esterno ………………………... 8
1.5 Capacità direzionale del singolo padiglione auricolare ………... 9
1.6 Altri fattori …………………….……………………………….. 11
1.7 La legge del primo fronte acustico …………………………….. 11
1.8 Precisione direzionale del sistema uditivo ……………………... 12
2 Modelli d’analisi spaziale dei sistemi elettroacustici …………. 14
2.1 Il modello binaurale ……………………………………………. 15
2.2 Il modello geometrico …………………………………………… 16
2.3 Il modello delle armoniche sferiche ……………………………. 19
3 I sistemi elettroacustici binaurali ……………………………….. 22
3.1 La simulazione binaurale e la conversione transaurale ………….. 24
3.2 I sistemi elettroacustici ibridi …………………………………… 28
3.3 I limiti dei sistemi basati sul modello binaurale ………………… 32
4 I sistemi elettroacustici geometrici ……………………………... 35
4.1 I sistemi elettroacustici con un canale d’informazione ………… 36
4.2 Sistemi elettroacustici a due canali d’informazione …………….. 37
4.2.1 La registrazione stereofonica coincidente ………………. 38
4.2.2 La registrazione stereofonica non coincidente ………….. 40
4.2.3 La registrazione stereofonica polimicrofonica ………….. 42
4.2.4 Apprezzamenti soggettivi delle registrazioni stereofoniche 44
4.2.5 Il trattamento del segnale stereofonico ………………….. 45
4.3 Sistemi elettroacustici a più canali d’informazione …………….. 47
4.3.1 Il Dolby Stereo e il Dolby Surround ……………………. 50
4.3.2 La codidfica microfonica per il Dolby Surround ……….. 54
4.3.3 I processori numerici d’ambiente ……………………….. 56
4.3.4 La registrazione e la riproduzione tetraedrica …………... 58
III
5 Il sistema Ambisonic ……………………………………………... 61
5.1 Il microfono di tipo Soundfield …………………………………. 66
5.2 Manipolazione del segnale attraverso il sistema Ambisonic …… 70
5.3 Manipolazione digitale dei campi sonori Ambisonic …………… 76
5.4 Performance del sistema Ambisonic …………………………… 78
5.5 Un assemblaggio esaedrico per la riproduzione
sonora tridimensionale ………………………………………….. 80
5.6 Un sistema di registrazione tridimensionale
con microfoni ultradirezionali …………………………………... 82
5.7 Compatibilità tra i sistemi di spazializzazione
sonora tridimensionale ………………………………………….. 87
5.7.1 La conversione dell’informazione tra i sistemi …………. 89
5.7.2 Le installazioni multi-sistema …………………….…….. 94
6 Caratteristiche del suono della sala da concerto ………….. 96
6.1 Principi psicoacustici fondamentali nel realismo
della riproduzione sonora ……………………………………... 97
6.2 Principi psicoacustici delle sale da concerto ………………….. 98
6.3 Interaural Cross Correlation (IACC) …...…………………….. 101
6.4 La riverberazione …………………………..…………………. 105
6.5 IRT e EDT …………………..………………...………………. 107
6.6 La percezione della profondità ………………………………... 107
7 La ricostruzione dell’ambiente …………………………….. 109
7.1 La diafonia ……...…………………….……………..………... 109
7.2 Head-Related Transfer Function (HTRF) …………………….. 113
7.3 La percezione direzionale alle frequenze acute .……………… 116
7.4 Lo Stereo Dipole ……………………………………………… 119
7.5 Ricostruzione dell’ambiente attraverso la risposta all’impulso .. 122
7.6 La convoluzione ………………………………………………. 123
7.7 Il sistema di Klayman ………………………………………….126
7.8 Sviluppi recenti sulla creazione di riverberazione ……………. 128
8 Il sistema Ambiophonic ……………………………………... 130
8.1 Principi fondamentali del metodo Ambiophonic ……………... 130
8.2 Requisiti del sistema Ambiophonic …………………………... 134
8.3 Ottimizzazione della camera d’ascolto per Ambiophonic ……. 136
9 Trattamento acustico della camera d’ascolto ……………... 138
9.1 Le riflessioni della stanza …………………………………….. 138
9.2 L’ambiente acustico: stanza e altoparlanti …………………… 139
9.3 I pannelli fonoassorbenti ……………………………………... 141
IV
9.4 Muri inclinati verso l’esterno ………………………………… 142
9.5 Il tempo di riverberazione ……………………………………. 142
9.6 Il rumore di fondo ……………………………………………. 143
9.7 Comportamento della basse frequenze ……………………….. 144
9.8 Sistemi di correzione della stanza ……………………………. 145
10 Misure sperimentali e
Simulazioni acustiche ………………………………………. 148
10.1 Misurazioni sperimentali ……………………………………. 148
10.2 Modelli numerici ……………………………………………. 154
10.3 Metodologia utilizzata ………………………………………. 155
10.4 Taratura del modello ………………………………………... 157
11 Realizzazione della camera d’ascolto ….………………...…. 161
11.1 Descrizione del materiale e della stanza .….………...………. 161
11.2 Confronto delle misure effettuate prima e dopo
l’intervento acustico ………………………………………… 166
11.3 Prove d’ascolto ……………………………………………… 170
Conclusioni ………………………………………………………. 173
Sviluppi futuri ..…………………………………………………. 175
Ringraziamenti ……………………………………………………… 176
Bibliografia ……………………………………………………… 177
V
Prefazione
La seguente trattazione si occupa dell’ottimizzazione della qualità acustica
delle sale d’ascolto e dei sistemi per la registrazione e riproduzione del suono
in tre dimensioni.
In primo luogo questi sistemi devono avere la capacità di captare e simulare
un fenomeno acustico tridimensionale, dove gli stimoli sonori possono
provenire da tutte le direzioni attorno ad un ascoltatore reale o virtuale.
In secondo luogo questi sistemi devono riprodurre in un ambiente diverso, il
fenomeno acustico originale in tutte le sue caratteristiche spaziali.
La realizzazione di questi sistemi è stata possibile grazie a uno studio
approfondito della percezione uditiva dell’uomo e in particolare dell’ascolto
direzionale. Il nostro sistema uditivo permette di determinare con diversi
gradi di precisione la direzione e la distanza delle sorgenti sonore nello
spazio tridimensionale che ci circonda.
Sono stati stabiliti due modelli di descrizione spaziale dei fenomeni acustici.
Il modello binaurale si basa sulla capacità e sulla modalità della percezione
uditiva umana. Il modello geometrico si basa sullo studio, attraverso la
geometria euclidea, dell’utilizzo di trasduttori nei sistemi di registrazione e
riproduzione sonori tridimensionali. Questi due modelli permetteranno un
insieme di differenti tecniche di registrazione, simulazione e riproduzione
sonora, e un’analisi oggettiva delle loro capacità riguardo alla
spazializzazione del suono. L’obiettivo è illustrare quali sono i principi
teorici su cui si fonda la realizzazione e il funzionamento delle tecnologie
esistenti che quindi si adattano ai due modelli studiati.
Il risultato di questa trattazione è mettere in rilievo una tecnologia chiamata
Ambisonic, che risponde perfettamente al modello geometrico e che per le
sue solide basi teoriche, permette un’espansione futura del sistema con una
crescita significativa delle prestazioni.
L’ascolto delle registrazioni effettuate con questo sistema, necessita di un
ambiente con caratteristiche acustiche particolari: la camera d’ascolto.
1
Introduzione
Oggetto di questo lavoro è la realizzazione di una camera d’ascolto, con
particolare riferimento alla spazialità del campo sonoro.
Il presente lavoro è stato diviso in due parti, nelle quali la prima è
preliminare alla seconda e necessariamente più teorica. La prima parte illustra
le caratteristiche della percezione direzionale dell’udito e i principi teorici su
cui si fonda la realizzazione e il funzionamento delle tecnologie esistenti.
La seconda parte descrive il trattamento acustico effetttuato e rappresenta
l’applicazione pratica delle teorie esposte in precedenza.
Avvalendosi delle più moderne teorie acustiche, che permettono di valutare la
qualità del suono percepito in base ai risultati di una serie di parametri, si è
cercato di migliorare la qualità acustica dell’ambiente a nostra dispozizione,
indirizzando il lavoro verso la diminuzione del tempo di riverberazione
attraverso un trattamento acustico.
È stato possibile prevedere il tipo di intervento più idoneo, utilizzando il
computer per effettuare delle simulazioni acustiche, prima di procedere con
l’applicazione dei materiali fonoassorbenti.
Una volta confrontati i parametri acustici con quelli precedenti al trattamento,
sono state effettuate le prove d’ascolto.
La camera d’ascolto è dotata di 8 casse ed è attrezzata per utilizzare la
tecnologia Ambisonic, che permette di realizzare una fedele riproduzione
della spazializzazione del campo sonoro.
Contrariamente a quello che si è constatato per la percezione visiva, che è
emisferica, il nostro campo di percezione uditiva è molto più vasto: esso è
totalmente sferico. Sembra che gli attuali sistemi elettroacustici non tengano
in considerazione questa caratteristica della nostra percezione uditiva e
offrendo all’ascoltatore una parziale riproduzione dello spazio sonoro.
I microfoni e i sistemi di altoparlanti, uniti agli ambienti in cui essi sono
inseriti, costituiscono gli elementi più critici dell’intera catena di ripresa-
riproduzione sonora.
2
In gran parte ciò è dovuto al fatto che entrambi sono dei trasduttori, dei
dispositivi, cioè, aventi il compito di trasformare una forma di energia in
un’altra: da sonora in elettrica i microfoni e viceversa gli altoparlanti. La
tecnologia ha fatto molto per minimizzare tali cause di distorsione, tuttavia,
allo stato attuale dell’arte, i risultati all’ascolto, pur essendo giunti a livelli
credibili, non convincono ancora completamente.
In particolare, ottimizzate la timbrica, la dinamica, le distorsioni lineari e
non, il compito più difficile rimane quello di ricreare un’immagine sonora
che, confrontata con l’evento reale, non sia semplicemente un’illusione del
posizionamento originario degli esecutori e degli strumenti.
Tuttavia ora possibile registrare un evento acustico nelle tre dimensioni dello
spazio cartesiano e riprodurre l’evento originale con le sue tre dimensioni in
un altro luogo. Questa riproduzione cerca di soddisfare la percezione uditiva
sferica dell’ascoltatore. Prima è necessario esaminare i vari aspetti che
concernono la nostra sensibilità uditiva dello spazio sonoro tridimensionale e
i sistemi di registrazione e riproduzione acustica in tre dimensioni.
È fondamentale studiare quali sono le nostre capacità di riconoscere la
direzione di emissione della sorgente sonora, in un universo in cui i suoni
provengono da tutte le direzioni.
Esistono due modelli di descrizione sonora spaziale che permettono di
valutare e comparare tutti i sistemi elettroacustici. Questi due modelli sono il
modello binaurale e il modello geometrico. Si dimostrerà in seguito che i
sistemi basati sul modello geometrico comportano un certo numero di
vantaggi rispetto ai sistemi basati sul modello binaurale.
Esiste un sistema elettroacustico chiamato Ambisonic che risponde il più
fedelmente possibile al modello geometrico.
Il sistema Ambisonic è più di un sistema ad architettura aperta: permette di
intravedere le possibilità di espansione e utilizzazione futura offerte dal
sistema. Con la guida dei due modelli sopra citati verranno esaminati con
sguardo critico i sistemi elettroacustici di registrazione e riproduzione sonora,
dai primi esperimenti significativi fino agli sviluppi tecnologici più recenti.
3
CAPITOLO 1
IL SUONO, LO SPAZIO E L’ UDITO
DIREZIONALE
L’universo attorno a noi ci presenta degli stimoli sonori che possono
provenire da tutte le direzioni. Ugualmente nello spazio sonoro limitato e
controllato di una sala da concerto, gli stimoli sonori provenienti direttamente
dalla sorgente e dalle riflessioni delle pareti, presentano agli ascoltatori un
insieme di direzioni, ampiezze e frequenze varie, costituendo così uno spazio
veramente tridimensionale.
La letteratura scientifica sull’ascolto direzionale concorda nell’affermare che
la percezione spaziale dell’uomo può essere rappresentato come un campo di
percezione sferico in cui il centro è la testa. A diversi gradi di precisione noi
possiamo identificare la posizione di una sorgente sonora attorno a noi.
La capacità dell’udito umano di riconoscere la direzione e la posizione di una
fonte sonora, giustificano la creazione di un sistema di riproduzione sonora
tridimensionale.
1.1 I meccanismi dell’udito direzionale
L’udito direzionale dell’uomo dipende da molteplici meccanismi che sono
difficili da riassumere in un solo modello; questo perché l’udito direzionale è
il risultato di due o tre meccanismi principali che contribuiscono
maggiormente al processo di localizzazione sonora. Verranno ora descritti nei
dettagli questi meccanismi.
Il sistema di riferimento spaziale che sarà utilizzato in questa descrizione e
illustrato dalla Figura 1.1.
4
Figura 1.1 Sistema di rappresentazione sferico dello spazio in rapporto
alla testa, dove r è la distanza, δ è l’angolo di elevazione e
ϕ è l’azimut
Noi vediamo che le tre dimensioni nel posizionamento spaziale in rapporto
alla testa sono le seguenti: l’asse x descrive le posizioni dal davanti al
dietro, l’asse y descrive le posizioni da sinistra a destra e l’asse z
descrive le posizioni dall’alto al basso.
In questo sistema le direzioni dei suoni in rapporto alla testa saranno date in
coordinate polari.
5
1.2 La differenza interaurale dei tempi
La distanza che separa i due orecchi è il fattore fisico principalmente
responsabile della differenza, nel momento della percezione di un dato suono.
Questa differenza temporale varierà a seconda dell’azimut della sorgente
sonora. Non ci sarà differenza temporale se la fonte è situata a 0° o 180°
d’azimut, cioè se perfettamente davanti o dietro l’ascoltatore.
Se la sorgente si sposta dal piano orizzontale a partire da 0° o 180°, la
differenza temporale aumenterà progressivamente e raggiungerà il suo
massimo all’azimut 90° o 270°.
Per questi valori dell’ azimut, stabilendo una distanza tra i due orecchi di
21,5cm e la velocità del suono di 344m/s, la massima differenza temporale
sarà approssimativamente di 630 microsecondi. Questo valore non è assoluto
poiché la distanza tra gli orecchi varia da un individuo all’altro e la velocità
del suono cambia con la temperatura dell’aria.
La differenza interaurale dei tempi sarà più o meno importante nella qualità
della localizzazione a seconda dell’inviluppo del suono e delle armoniche che
lo costituiscono. Così per i suoni che hanno attacchi rapidi, la differenza dei
tempi potrà essere direttamente utilizzata dal cervello per la localizzazione
spaziale, ma nel caso di un suono continuo o avente un attacco lento è la
differenza di fase che sarà interpretata per localizzare la fonte sonora.
La qualità dell’interpretazione della differenza di fase decresce rapidamente a
partire da 180° fino a 360°. Ad esempio per una differenza di fase di 360°,
non si può stabilire se si tratta di una differenza di 0°, 360° o 720°, e così per
tutte le differenze superiori a 360°.
La massima differenza di fase di 180° esisterà solo con la più alta frequenza
utile determinata dalla sua mezza lunghezza d’onda, corrispondente alla
distanza tra i due orecchi o determinata dal suo semiperiodo che corrisponde
alla differenza temporale massima tra i due orecchi. Per le frequenze la cui
6
mezza lunghezza d’onda è 21,5cm o più, e cioè le frequenze al di sotto degli
800 Hz, ci sarà una differenza di fase che varia tra 0° e 180°.
Queste frequenze saranno utili per determinare il posizionamento orizzontale
delle sorgenti sonore. Al di sopra degli 800 Hz ci sarà una differenza che
varia tra 180° e 360° e la qualità dell’interpretazione decresce rapidamente
per diventare assolutamente nulla per le frequenze la cui lunghezza d’onda è
uguale o inferiore alla distanza tra gli orecchi e cioè al di sopra dei 1600 Hz.
1.3 La differenza interaurale d’ampiezza
Per le frequenze al di sopra dei 2000 Hz la testa si presenta gradualmente
come un ostacolo acustico sempre maggiore e l’assenza di diffrazione per
queste frequenze dà luogo a differenze d’ampiezza tra i due orecchi, che
variano col variare dell’azimut della sorgente sonora. Come nella differenza
interaurale dei tempi, la differenza interaurale d’ampiezza è nulla quando la
fonte sonora è situata agli azimut 0° e 180°. Nello stesso modo la differenza
interaurale d’ampiezza raggiunge il suo massimo quando la sorgente è situata
agli azimut 90° e 270°. È difficile dare cifre precise su questa differenza
d’ampiezza, per la semplice ragione che la distanza della sorgente diventa
anch’essa un fattore. Infatti la legge del quadrato inverso spiega che
l’ampiezza di una sorgente sonora sferica decresce di 6dB per ogni raddoppio
di distanza. Quindi ci sarà minore differenza interaurale d’ampiezza per una
sorgente lontana, rispetto a una vicina con lo stesso azimut.
Una differenza di circa 15-20dB darà l’impressione di uno spostamento
laterale completo che corrisponde agli azimut 90° e 270°.
Queste cifre rappresentano un caso estremo ottenuto in laboratorio con dei
suoni sinusoidali di alta frequenza. La maggioranza delle ricerche sull’udito
direzionale sono state compiute utilizzando suoni sinusoidali che
rappresentano un caso estremo; la maggioranza dei suoni sono onde
7
complesse formate dall’insieme dei suoni costituenti e raramente il
riconoscimento della direzione è dovuto unicamente alla differenza
interaurale dei tempi o alla differenza interaurale d’ampiezza. Tuttavia anche
nelle migliori condizioni questi due meccanismi non sono sufficienti per
spiegare la nostra capacità di decretare l’altezza (l’angolo di elevazione) di
una fonte sonora.
1.4 Le modificazioni dell’orecchio esterno
Dopo la seconda metà del XX secolo le ricerche sull’udito direzionale hanno prestato
un’attenzione particolare alla funzione dell’orecchio esterno nella valutazione
direzionale di un suono. Acusticamente il padiglione funziona come un filtro lineare
la cui funzione di trasferimento dipende dalla direzione e dalla distanza della sorgente
sonora. Il padiglione decodifica le caratteristiche spaziali del campo sonoro in
caratteristiche temporali e spettrali. Per le frequenze superiori a circa 2000 Hz ogni
variazione angolare nel piano meridiano risulta dalla modificazione della risposta in
frequenza dovuta alle creste e alle gobbe del padiglione.
Per esempio nel caso in cui il suono provenga direttamente davanti o dietro
l’ascoltatore (0° o 180° d’azimut) con un’elevazione arbitraria, non ci sarà
alcuna differenza di interaurale di tempo o d’ampiezza e ci sarà solo
l’orecchio esterno a fornire informazioni sulla posizione della fonte sonora
rispetto al piano meridiano.
Per descrivere in maniera più visuale il funzionamento del padiglione
dell’orecchio, nella localizzazione sonora, immaginiamo di dividere il piano
meridiano con tante rette passanti per il centro. Consideriamo queste rette le
direzioni delle possibili sorgenti sonore e costatiamo che gli ostacoli che
ciascuna di esse incontrerà, da una parte all’altra del centro non saranno mai
simmetrici. La discriminazione angolare avviene a 360° e non si avrà mai
confusione con l’elevazione di una fonte sonora data e la sua elevazione
8
collineare corrispondente a 180°. Quindi il padiglione concorre anche nella
localizzazione avanti-dietro, che è una conseguenza della discriminazione
angolare dell’elevazione.
Essendo un cacciatore-predatore, per l'animale ha la massima importanza
sentire la direzione dello spezzarsi di un ramoscello, il sibilo di un serpente,
il barrito di un elefante, il richiamo degli uccelli, ecc. e probabilmente ha
meno importanza sentire la direzione di frequenze più basse come il tuono, il
sospiro del vento o la direzione dei tamburi.
La dimensione della testa umana mostra chiaramente che l’uomo è
maggiormente sensibile ai suoni di frequenza superiore a 700 Hz.
La complessità della struttura non-lineare dell'orecchio esterno implica che la
sua esatta funzione è troppo complessa e troppo soggettiva per essere spiegata
con formule matematiche. Le creste e le cavità dell'orecchio sono così
numerose e così differenziate da assicurare una grande sensibilità alle
frequenze acute. Non importa da quali frequenze acute un suono sia costituito
e da che direzione provenga, il padiglione e la testa insieme, o anche il
singolo padiglione, produrranno un modello distintivo che il cervello può
imparare a riconoscere per localizzare un determinato suono.
L'orecchio esterno essenzialmente è un convertitore meccanico che individua
le direzioni di arrivo dei suoni in base a dei modelli di risposta in frequenza
prestabiliti.
1.5 Capacità direzionale del singolo padiglione auricolare
Un esperimento molto semplice dimostra l’abilità del singolo padiglione
auricolare di sentire la direzione nel piano orizzontale alle frequenze acute.
Basta sistemare un metronomo direttamente di fronte a se. Chiudere gli occhi
e localizzare la sorgente del suono usando entrambe le orecchie. Poi tenendo
gli occhi chiusi, chiudere il più possibile un’orecchio e stimare quanto si è
9
spostata la posizione apparente del suono, nella direzione dell’orecchio
ancora aperto. Molti esperti di audio si aspetterebbero che il suono sentito
solo nell’orecchio destro sembri provenire dall’estrema destra, ma in questo
esperimento lo spostamento è raramente più di 5 gradi, e se si ha un grande
padiglione auricolare la sorgente potrebbe non muoversi per niente.
Una variante di questo esperimento è girare attorno con gli occhi chiusi e poi
vedere quanto si arriva vicino alla collocazione della sorgente sonora.
In questo caso l’effetto dell’ombra acustica della testa aiuta il padiglione
auricolare nel processo finchè non ci si trova di fronte alla sorgente.
Questi sono i casi in cui il singolo sistema di ricerca direzionale del
padiglione dell’orecchio è più forte della differenza interaurale dell’intensità
e spiega perché individui che sentono da un solo orecchio possono ancora
individuare le posizioni delle sorgenti sonore.
Se adesso passiamo a una sorgente di musica con tutta le frequenze, come una
piccola radio, e si ripete l’esperimento descritto sopra, si sente una grande
immagine che si sposta, dal momento che l’orecchio esterno e la testa sono
meno importanti per la localizzazione del suono, quando esso scende sotto i
400 Hz.
Ci sono state molte discussioni nella letteratura se l’abilità umana di
localizzazione è per primo un fenomeno monaurale o binaurale.
Probabilmente il cervello identifica e fa stime della posizione del suono
attraverso ogni singolo input uditivo e poi combina il risultato monaurale con
i meccanismi binaurali.
Ogni sistema di riproduzione che non tiene conto della sensibilità del
padiglione auricolare alla direzione dell’incidenza della musica non produrrà
un suono naturale o realistico. Due localizzazioni sentite non sono superiori a
una localizzazione sentita; entrambe devono accordarsi a tutte le frequenze
per una riproduzione realistica.
10
1.6 Altri fattori
Ci sono altri fattori che entrano in gioco in ciò che concerne l’udito
direzionale. In particolare sono importanti i movimenti della testa che hanno
la funzione di riposizionare la sorgente sonora in un settore della percezione
spaziale in cui la precisione direzionale sarà maggiore e di diminuire così
l’incertezza della localizzazione di tale sorgente.
Questi movimenti della testa sono riflessi involontari. È importante
considerare anche la conduttività della struttura ossea del corpo, specialmente
della testa e delle riflessioni sonore causate principalmente dal torace.
Gli indici di localizzazione forniti da questi meccanismi non sono
necessariamente di buona qualità: per esempio i vestiti che noi portiamo
modificano probabilmente la capacità riflessiva del torace, avendo così una
buona riflessione invece che l’assorbimento totale di certe frequenze alte.
Tra tutti i meccanismi dell’udito direzionale essi sono i più vulnerabili alle
variabili esterne.
1.7 La legge del primo fronte acustico
Questo è un fenomeno che è stato osservato quando ci sono due sorgenti
sonore fisse e identiche, ma non simultanee. Se la differenza temporale tra le
due sorgenti non è superiore a 37millisecondi il nostro il nostro sistema
uditivo interpreterà la direzione del fenomeno acustico come quella della
prima sorgente udita.
Al di sopra del limite di 37ms, la seconda sorgente non si fonderà più con la
prima e sarà chiaramente percepita come un eco.
11
Questo è un processo di interpretazione mentale indipendente dalla differenza
interaurale dei tempi.
Ad esempio due sorgenti che si trovano in una posizione speculare di azimut
rispetto al piano frontale, creano una differenza interaurale dei tempi identica
l’una rispetto all’altra.
In questo caso entrerà in causa la legge del primo fronte acustico e la
sorgente che ha la priorità temporale sarà la sola ad essere percepita nella
valutazione direzionale.
1.8 Precisione direzionale del sistema uditivo
L’accuratezza della precisione direzionale del nostro sistema uditivo dipende
generalmente dalla larghezza della banda spettrale della sorgente sonora.
Più questa banda sarà ampia e più la direzione dell’evento udito sarà
corrisponderà alla direzione reale della sorgente sonora.
Così i suoni complessi che coprono diverse ottave saranno sempre facilmente
localizzabili. Questi suoni faranno appello alla differenza interaurale dei
tempi, alla differenza interaurale d’ampiezza e alle modificazioni del
padiglione auricolare per consentire la localizzazione.
Questa congiunzione di meccanismi porterà una ridondanza di informazioni
di localizzazione e creerà un evento uditivo in cui la corrispondenza spaziale
rispetto alla sorgente originale sarà assai elevata.
Al contrario, nel caso dei suoni puri, come le onde sinusoidali senza attacco
preciso, sarà utilizzato un solo meccanismo di localizzazione.
L’assenza di ridondanza nelle informazioni di localizzazione contribuisce ad
aumentare l’imprecisione nella spazializzazione dell’evento udito.
La zona critica di frequenze dove l’imprecisione è maggiore, è attorno ai
2000 Hz. Poiché la differenza interaurale di fase diminuisce gradualmente di
efficacia a partire da 800 Hz e poiché la differenza interaurale d’ampiezza
12
non è veramente funzionale sopra i 2000 Hz, c’è una mancanza di
sovrapposizione di zone coperte efficacemente da questi meccanismi di
localizzazione. La nostra mancanza di discriminazione direzionale attorno ai
2000 Hz, spiega in parte la nostra maggiore sensibilità all’ampiezza acustica
che si trova proprio in questo settore di frequenze.
Questo è confermato dalle curve isofone adottate dall’International
Organization for Standardization (ISO) nel 1987.
13
CAPITOLO 2
MODELLI D’ANALISI SPAZIALE
DEI SISTEMI ELETTROACUSTICI
Noi abbiamo la capacità di registrare e riprodurre i suoni da circa un
centinaio d’anni. Durante questo periodo, una moltitudine di tipi di
supporto sono stati utilizzati per la trasmissione e la conservazione
dell’informazione sonora, i cambiamenti di tecnologia erano
generalmente giustificati per l’aumento della fedeltà nel sistema.
Riguardo alla fedeltà spettrale e dinamica, abbiamo raggiunto un
altissimo livello di realismo.
La fedeltà spaziale è sì progredita, ma coloro che si occupano del settore e il
grande pubblico non hanno i mezzi per apprezzare, comparare e
descrivere le capacità di spazializzazione dei differenti sistemi.
Si distinguono due filosofie di concepimento dei sistemi elettroacustici
riguardo alla loro capacità di spazializzazione sonora. Tutti i sistemi che
utilizzano dei trasduttori di ricezione e di riproduzione nascono da una o
dall’altra di queste due filosofie. Quando si tratta di registrazione e
riproduzione tridimensionale, esse non sono realmente in contrasto poiché
procedono dalla stessa constatazione di partenza: la stereofonia attuale non è
soddisfacente per ciò che concerne la spazializzazione e il posizionamento
tridimensionale dei suoni.
Il primo approccio considera il sistema uditivo umano come l’ultimo anello
della catena elettroacustica. La conseguenza principale di questa presa di
posizione è che non si può concepire altro che un sistema elettroacustico che
può utilizzare solo due canali d’informazione, sostenendo che in una
condizione normale d’ascolto il cervello ottiene una quantità e una qualità
14
sufficienti di informazioni, per il posizionamento spaziale dei suoni, con un
massimo di due canali.
La seconda filosofia, che, in certi casi, deriva dall’esperienza pratica, più che
da una vera riflessione scientifica, considera come punto finale della catena
elettroacustica, la sala, lo spazio acustico in cui ha luogo l’evento sonoro.
Questo approccio, che resta per il momento il più sfruttato, non ha tuttavia
stimolato la pratica scientifica necessaria.
Da queste due filosofie derivano due modelli di registrazione e riproduzione
sonora. Questi due modelli serviranno all’analisi comparativa delle differenti
teorie dei differenti sistemi. Il primo modello, basato sulla filosofia del
sistema uditivo come punto finale della catena, sarà chiamato modello
binaurale.
Il secondo modello, basato sulla filosofia dello spazio di riproduzione come
punto finale della catena, sarà chiamato modello geometrico.
Un sistema unidimensionale potrà captare e riprodurre i suoni su un asse dato.
Un sistema bidimensionale potrà captare e riprodurre i suoni su piano dato e
un sistema tridimensionale potrà captare e riprodurre i suoni in uno spazio o
in un volume dato.
2.1 Il modello binaurale
Sviluppato dalle ricerche sull’udito direzionale, il modello binaurale di
registrazione e riproduzione sonora cerca di ottenere una replica dei fattori
fisici più significativi che sono responsabili dell’udito direzionale umano.
Due trasduttori disposti ai lati di un separatore chiamato generalmente baffle,
di volume considerevole (simula l’ostacolo rappresentato dalla testa) e dei
filtri acustici, fisicamente asimmetrici, adiacenti ai trasduttori (come i
padiglioni auricolari) formano la struttura portante di questo modello.
15
È necessario utilizzare, per la riproduzione meccanica o elettronica del
modello, due canali d’informazione che producano dei segnali analogici che
stimolino i nostri timpani. Se il modello è rispettato, questi canali producono
delle differenze fra loro di tempo e d’ampiezza, per la codifica delle
differenze direzionali verticali.
Poiché il timpano è un trasduttore che risponde ai cambiamenti assoluti di
pressione, i trasduttori di un microfono binaurale devono essere dello stesso
tipo per seguire fedelmente il modello. Dall’altra parte della catena, i
trasduttori di riproduzione devono portare direttamente ai due canali uditivi
l’informazione decodificata, in modo che sia convertita dal nostro sistema
uditivo interno e codificata in maniera appropriata dal cervello.
2.2 Il modello geometrico
Il modello geometrico ha una genesi un po’ meno definita del modello
binaurale e solo tardivamente, verso la fine degli anni settanta, è stato esposto
chiaramente.
Nel modello geometrico, i trasduttori audio, microfoni e altoparlanti, sono
considerati come punti di ricezione e di emissione nello spazio.
Questa riduzione dei trasduttori a dei punti è una convenzione generalmente
accettata e fa evidentemente riferimento alle caratteristiche fisiche e
elettriche dei microfoni e degli altoparlanti, oltre che alle caratteristiche di
ricezione e di emissione sonora.
Questi trasduttori sono quindi considerati come punti nello spazio
tridimensionale e interpretati secondo le leggi della geometria euclidea.
Un punto nello spazio è definito dalla sua posizione; così un microfono nella
registrazione e un altoparlante nella riproduzione sono definiti dalla loro
posizione nello spazio. Due punti definiscono una retta; due microfoni e due
diffusori definiscono una dimensione dello spazio. Tre punti non allineati
16
possono definire un piano; tre microfoni e tre altoparlanti non allineati
possono definire due dimensioni dello spazio. Infine quattro punti che non si
trovano sullo stesso piano possono definire un volume e ugualmente quattro
microfoni e quattro diffusori situati non sullo stesso piano, possono definire
le tre dimensioni dello spazio.
Nella geometria analitica quattro punti equidistanti che non si trovano sullo
stesso piano, formano il tetraedro, il più semplice poliedro regolare
inscrivibile nella sfera, come si vede nella Figura 2.1.
Figura 2.1
Riassumendo, il numero e la posizione dei trasduttori gli uni rispetto agli
altri, alla registrazione e alla riproduzione, avrà una conseguenza diretta sulle
possibilità di codifica e decodifica delle caratteristiche spaziali del fenomeno
acustico originale.
Il modello geometrico è nato dagli esperimenti compiuti indipendentemente
in Francia, in Inghilterra e negli Stati Uniti dopo gli anni cinquanta.
Nel 1952, Pierre Scheaffer si dedicò a una serie di esperimenti per la
riproduzione tridimensionale della musica elettroacustica, proponendo di
disporre i diffusori in modo che formassero un tetraedro. Alla fine degli anni
17
sessanta si fecero esperimenti, soprattutto in Inghilterra, sulla registrazione
basata sul tetraedro.
Il modello geometrico fu proposto negli Stati Uniti da Peter Scheiber, ma
illustrato solo in modo teorico, spiegando la codifica bidimensionale a tre
canali e la codifica tridimensionale a quattro canali.
In Inghilterra, il matematico Michael Gerzon sperimentò l’integrazione della
registrazione bidimensionale e tridimensionale nello stesso modello
geometrico. Fece test sulla registrazione e riproduzione bidimensionale a tre
trasduttori e quella tridimensionale a quattro trasduttori.
Gerzon affermò in seguito, che le conclusioni alle quali giunse erano basate
sulle ricerche del matematico inglese Stokes nel 1952 e del matematico
francese Poincaré nel 1892.
Le caratteristiche direzionali dei trasduttori nel modello geometrico, possono
essere omnidirezionali, unidirezionali o bidirezionali. Nella riproduzione, i
diffusori unidirezionali o bidirezionali, devono essere avere il campo di
emissione con polarità positiva, diretto verso il centro di massa della figura
geometrica che essi delineano.
Lo spazio di riproduzione deve essere il meno riverberante possibile, fino a
essere idealmente anecoico. Infatti in uno spazio riverberante, le diverse
riflessioni sulle pareti pregiudicano la qualità della riproduzione direzionale.
In una camera anecoica o con poca riverberazione, gli altoparlanti
unidirezionali sono preferibili.
Per la registrazione, l’utilizzo di microfoni omnidirezionali esige una certa
distanza o l’utilizzo di un baffle tra i microfoni. La distanza o il baffle creerà
le differenze tra i canali, d’ampiezza e di tempo, necessari per la codifica
direzionale. Se si utilizzano dei microfoni unidirezionali, bisogna calcolare
l’orientamento verso l’esterno della figura geometrica disegnata dalla
disposizione dei trasduttori, le rette definite dal centro di massa e i vertici
della figura. Inoltre è necessaria la coincidenza spaziale dei microfoni, cioè la
più grande vicinanza possibile tra loro. Una registrazione che utilizza dei
microfoni unidirezionali descrive lo spazio attraverso la variazione assoluta
18
di pressione e attraverso i gradienti di pressione; i microfoni cardioidi sono
un misto tra gli omnidirezionali e i bidirezionali. Se una registrazione utilizza
solamente dei microfoni bidirezionali coincidenti, la descrizione dello spazio
sarà incompleta perché includerà solo dei gradienti di pressione.
Per essere bidimensionale o tridimensionale, una registrazione con microfoni
bidirezionali dovrà includere anche la variazione assoluta di pressione.
Questo sarà assicurato dalla presenza di un microfono omnidirezionale
coincidente ai microfoni bidirezionali. Inoltre i microfoni bidirezionali
devono essere idealmente disposti in modo da fare una registrazione
ortogonale dello spazio acustico. Un ultimo caso, un po’ particolare e
complesso, di microfoni bidirezionali, che introduce un altro modello, che si
può considerare una variante del modello geometrico: il modello delle
armoniche sferiche.
2.3 Il modello delle armoniche sferiche
Finora abbiamo parlato della direzionalità dei trasduttori in termini generali,
classificandoli come omnidirezionali, unidirezionali, o bidirezionali.
Se storicamente queste caratteristiche sono state ottenute in maniera empirica,
esiste tuttavia, un modello matematico che permette di spiegare e immaginare
caratteristiche direzionali ancora più complesse. Per comprendere meglio
fermiamoci a riflettere su un’analogia. Si può scomporre lo spettro in
frequenza di un fenomeno sonoro complesso, nelle componenti di frequenza
(armoniche) che lo costituiscono.
I suoni complessi sono formati da un insieme di armoniche, legate tra loro da
una relazione matematica. Allo stesso modo, la direzionalità nello spazio di
tutti i fenomeni d’emissione e ricezione sonora può essere scomposta nelle
sue componenti primarie, chiamate armoniche sferiche.
19
Il modello delle armoniche sferiche si applica si applica a un insieme di
fenomeni fisici elettromagnetici, elettrodinamici, atomici e acustici.
Osserviamo i primi tre ordini di armoniche sferiche semplici, come mostrato
in Figura 2.2.
Il microfono che corrisponde all’armonica di ordine zero è conosciuto con il
nome di omnidirezionale e il microfono che corrisponde all’armonica di
primo ordine è chiamato bidirezionale o figura otto. Le due sfere
dell’armonica sferica di primo ordine, avranno una polarità differente.
La polarità dei lobi alternerà sempre da un lobo all’altro: un lobo positivo
sarà sempre seguito da un lobo negativo, che a sua volta sarà seguito da un
lobo positivo e così via.
Figura 2.2
Nell’armonica di secondo ordine, i lobi che puntano a 0° e 180° saranno
positivi, mentre il lobo che si trova sull’asse 90°-270° sarà negativo.
La funzione matematica che descrive l’armonica di ordine zero e
l’Eq. (1), la funzione dell’armonica sferica di primo ordine è l’Eq. (2) e la
funzione dell’armonica sferica di secondo ordine è l’Eq. (3).
20
(1) Y0 (q) = 1
(2) Y1 (q) = cos
(3) Y2 (q) = cosq2
–1
Le armoniche sferiche semplici possono combinarsi linearmente per creare
quelle che chiameremo armoniche sferiche complesse. Si possono combinare
per semplice addizione i segnali dei microfoni alle proprietà sferiche semplici
e ottenere dei microfoni virtuali alle proprietà sferiche complesse.
Per ottenere risultati che implicano una previsione matematica semplice,
bisogna assicurare la coincidenza spaziale dei microfoni di base e
l’allineamento delle loro assi di rotazione, cioè l’asse perpendicolare al
diaframma passante per il centro. Si deve assicurare la coincidenza spaziale
su due assi, X e Y per esempio, in modo da garantire l’integrità della risposta
direzionale del microfono virtuale nel piano determinato dai due assi.
Il microfono virtuale avrà, sempre nel piano dove c’è la coincidenza, le
qualità di risposta in frequenza dei microfoni che lo costituiscono.
Per esempio combinando in un rapporto 1:1 il segnale di un microfono di
ordine zero coincidente a un microfono di primo ordine semplice, in modo
che i loro guadagni rispettivi siano identici per l’azimut 0°, si ottiene un
microfono di primo ordine complesso. Il guadagno uguale e con la stessa
polarità di ogni microfono a 0° avrà ampiezza doppia per questo valore
dell’azimut a causa della combinazione dei rispettivi segnali. Così il
guadagno uguale, ma con polarità opposta a 180°, creerà l’annullamento
completo per questo valore dell’azimut a causa della combinazione dei
segnali. Allo stesso modo per tutti i valori dell’azimut, il segnale risultante è
dovuto alla combinazione dei segnali dei rispettivi microfoni. Il microfono
virtuale così ottenuto viene chiamato unidirezionale o cardioide.
Affinché il modello geometrico sia valido, la codifica della direzionalità
acustica deve sempre includere un ordine dato di armoniche sferiche e tutti
gli ordini che gli sono inferiori. Quindi se si riprende lo spazio con dei
21
microfoni bidirezionali, si tratta di una registrazione di primo ordine; si deve
allora includere l’ordine zero, cioè l’omnidirezionale. È per questa ragione
che una registrazione con dei cardioidi di primo ordine è completa poiché
questi microfoni sono una combinazione lineare dell’armonica di ordine zero
e di primo ordine.
CAPITOLO 3
I SISTEMI ELETTROACUSTICI BINAURALI
La distinzione tra un sistema stereofonico convenzionale e un sistema
binaurale non è evidente e si fa spesso confusione tra i due, quando non c’è
una totale ignoranza riguardo al secondo procedimento.
In un sistema che segue il modello binaurale, è d’obbligo l’utilizzo di due
canali poiché si tratta di un processo di simulazione del sistema uditivo
umano. La produzione di un segnale audio binaurale si effettua con la
registrazione attraverso la testa di un manichino.
I tratti generali del manichino possono essere una grossolana
approssimazione, ma le orecchie devono essere una replica esatta del
padiglione auricolare per poter ottenere dei risultati soddisfacenti.
I microfoni sono posizionati generalmente all’inizio del canale uditivo.
Poiché le modificazioni dell’orecchio esterno saranno già incluse nel segnale
audio registrato dal procedimento binaurale, è necessario l’utilizzo di un
casco d’ascolto. Infatti il segnale audio sarà modificato una seconda volta dal
padiglione auricolare, se la registrazione binaurale viene ascoltata tramite
degli altoparlanti.
22
Figura 3.1
Il microfono binaurale Neumann KU 100 e il microfono binaurale Bruel &
Kjaer 4128
Le prestazioni di questo sistema possono essere stupefacenti, ma queste
dipendono molto dall’integrità spettrale di tutta la catena di registrazione e
riproduzione. Poiché il padiglione dell’orecchio apporta delle modificazioni
spettrali che vengono utilizzate dal cervello per riconoscere la posizione della
fonte sonora, il filtraggio non desiderato produce delle aberrazioni spaziali.
Inoltre l’utilizzo di un casco d’ascolto costituisce un problema nella
riproduzione delle frequenze basse.
La piccola superficie dei diaframmi e la loro zona d’escursione piuttosto
limitata costituiscono le ragioni principali nella mancanza d’ampiezza di
queste frequenze.
Un altro inconveniente è l’assenza di trasmissioni meccaniche del suono sulle
altre parti del corpo: lo schiocco di certi inviluppi di suoni dagli attacchi
molto rapidi, come certi strumenti a percussione, che vengono percepiti in
maniera quasi tattile, e la trasmissione delle basse frequenze attraverso la
struttura interna del corpo.
23
3.1 La simulazione binaurale e la conversione transaurale
Nelle migliori dimostrazioni, sembra che ci sia un certo consenso sulla
qualità dell’illusione tridimensionale ottenuta con una buon registratore
binaurale, a patto che si utilizzi un casco d’ascolto. Questo successo ottenuto,
ma le sue frustranti limitazioni, pongono due quesiti fondamentali sui sistemi
binaurali: è possibile codificare dei segnali sonori monofonici, che
provengono da un nastro multitraccia o da una presa polimicrofonica ad
esempio, per conferire loro un carattere binaurale?
È possibile codificare un segnale binaurale per rendere compatibile il suo
ascolto attraverso degli altoparlanti?
Le ricerche su questi due aspetti hanno avuto uno sviluppo indipendente e
apparentemente senza fini commerciali. Alcune imprese hanno comunque
nutrito un certo interesse nell’unire questi due aspetti della ricerca sulla
registrazione binaurale, per sviluppare dei prodotti che rispondano alle
esigenze dell’industria della musica. Il missaggio stereofonico di nastri
multitraccia esiste già da un certo periodo di tempo e diventa spontaneo
chiedersi se il missaggio di questi nastri si possa fare con tecniche binaurali.
La conoscenza delle caratteristiche della percezione direzionale dell’udito
umano e lo sviluppo tecnologico dei calcolatori lasciano intravedere la
possibilità che si costruiscano apparecchi che apportano su suoni monofonici,
un certo numero di modificazioni parametriche che simulano la registrazione
binaurale. La documentazione pubblicata dalle compagnie di ricerca rimane
per il momento piuttosto scarsa. Un gruppo di ricerca delle NASA in
California ha studiato il procedimento dividendo il campo sferico di ricezione
in 144 posizioni. Il metodo di misurazione delle posizioni di riferimento è
molto semplice, ma molto noioso e ripetitivo.
Si diffondono in condizioni anecoiche degli impulsi di rumore rosa nelle
posizioni predeterminate. Questi impulsi saranno captati da un sistema di
microfoni binaurali basati su un modello statistico medio di misurazione delle
orecchie, della testa e del tronco.
24
Per ogni posizione, si misura la differenza interaurale dei tempi e d’ampiezza
e si confronta la modificazione spettrale assoluta di ogni orecchio.
Queste misure sono immagazzinate in un calcolatore che, a seconda delle
capacità e dell’interfaccia usata, applicherà le modificazioni binaurali ai
suoni monofonici. Idealmente queste modificazioni dovrebbero essere
compiute in tempo reale, e permettere delle modificazioni dinamiche nella
localizzazione dei suoni, cioè la dislocazione dei suoni. La dislocazione,
permettendo all’ascoltatore di confrontare le posizioni in tempo reale,
rinforza la certezza di impressione della spazializzazione. Se si desidera
simulare un suono dato, senza dislocazione del suono, non è più possibile
avere il confronto delle caratteristiche che indicano la posizione del suono.
Risulta un aumento del flusso di localizzazione e cioè una direzione
completamente errata. La condizione implicita dei sistemi binaurali è che
l’intera catena di trasmissione dell’informazione sia neutra quanto
all’integrità della risposta in frequenza dei diversi suoni. Il problema è che
non si può garantire questa neutralità e che certe modificazioni spettrali,
volute o no, possono causare un posizionamento spaziale non desiderato.
Un modo di risolvere questo problema sarebbe quello di prendere come punto
di partenza le misure individuali del posizionamento spaziale. Il gruppo di
ricerca della NASA ha utilizzato un simulatore binaurale, ma per ogni
soggetto che l’ha testato, sono state prese delle misure binaurali individuali.
Solo così il sistema è efficace e attualmente non è possibile la sua
commercializzazione, ma questa squadra di ricercatori spera tuttavia di
riuscire a sviluppare un modello statistico medio soddisfacente.
Per quel che concerne la questione di adattare una registrazione binaurale
all’ascolto su degli altoparlanti, bisogna innanzitutto ricordare che la
caratteristica fondamentale del segnale binaurale è la funzione di
trasferimento da un sistema uditivo esterno (le orecchie, la testa e il torace).
La conseguenza evidente è che questo segnale non può subire un’altra
modificazione da parte dell’orecchio esterno e questo spiega incompatibilità
con l’ascolto attraverso dei diffusori.
25
Inoltre, poiché il segnale binaurale deve stimolare direttamente i timpani,
esso non può tollerare alcuna forma di diafonia: quando un segnale binaurale
è ascoltato attraverso degli altoparlanti, una parte dell’informazione destinata
esclusivamente all’orecchio sinistro verrà udita anche da quello destro e
viceversa. Si ha quindi, diafonia acustica tra i canali.
I problemi principali, che rendono incompatibile l’ascolto del segnale
binaurale con gli altoparlanti, sono due: la reinterpretazione da un sistema
binaurale di un segnale che ha già stato modificato da questa funzione di
trasferimento e la diafonia acustica.
Per risolvere questi problemi è necessaria una trasformazione del segnale in
modo da renderlo compatibile con l’ascolto mediante dei diffusori.
Questo processo di trasformazione del segnale binaurale è chiamato
“conversione transaurale”.
La soluzione al problema della reinterpretazione del segnale è relativamente
semplice da realizzare. L’ascolto mediante diffusori è sempre realizzato
pressappoco nella stessa maniera: gli altoparlanti sono angolati di circa 30°
da ogni lato rispetto all’asse d’ascolto, sono idealmente alzate a un metro dal
suolo e sono posizionate di fronte all’ascoltatore.
Il suono che proviene dai diffusori è interpretato dal sistema binaurale come
due sorgenti discrete a posizione fissa. Misurando le modificazioni binaurali
per le posizioni abituali degli altoparlanti in ascolto stereofonico, si può
calcolare una funzione di trasferimento binaurale media per questo tipo
d’ascolto stereofonico mediante diffusori. Si può allora applicare l’inverso di
questa funzione al segnale binaurale, prima che esca dagli altoparlanti.
La funzione di trasferimento inverso e quella di trasferimento dell’ascoltatore
si annullano e il suono recupera la sua neutralità frequenziale.
David Griesinger della compagnia Lexicon, suggerisce di utilizzare una
funzione di trasferimento media molto più globale e parla di “rendere lineare
la risposta in frequenza media per l’emisfero frontale”.
26
I risultati degli esperimenti compiuti da Lexicon sono stati utilizzati nella
costruzione di certi modelli di processori audio di calcolo numerico prodotti
da questa compagnia.
La soluzione al problema della diafonia acustica, teoricamente non è più
complessa, ma necessita di una elaborazione dell’informazione in tempo reale
molto più importante. Come sappiamo, il segnale destinato esclusivamente a
un orecchio in particolare è udito anche dall’orecchio opposto, ma con un
certo ritardo e una certa diminuzione d’ampiezza. Se si diffonde
nell’altoparlante corrispondente all’orecchio opposto un segnale identico a
quello della diafonia, cioè con lo stesso ritardo e diminuzione d’ampiezza, ma
con polarità inversa, questo nuovo segnale dovrebbe eliminare la diafonia.
Evidentemente il segnale d’annullamento sarà udito anche dall’orecchio
opposto a quello a cui il segnale era destinato; noi abbiamo così un nuovo
problema di diafonia e un nuovo segnale d’annullamento deve essere generato
per eliminare il primo segnale d’annullamento. Questo processo deve essere
ripetuto il numero di volte necessario e in maniera continua in tempo reale sui
canali sinistro e destro per funzionare adeguatamente. La mole del processo
di elaborazione del segnale è enorme.
Problematica è la posizione d’ascolto: alle frequenze alte una dislocazione di
qualche centimetro rovina l’effetto, poiché la simmetria del rapporto tra i
diffusori e l’ascoltatore non è più assicurata. Le frequenze basse sono molto
meno sensibili alla posizione d’ascolto: la loro grande lunghezza d’onda
assicura una certa tolleranza. Esperimenti compiuti negli Stati Uniti e in
Europa, dimostrano che più la sala d’ascolto è riverberante e più è grande la
quantità di elaborazione necessaria. In condizioni d’ascolto anecoico, in cui si
può ridurre la mole di trattamento, sono stati ottenuti risultati eccellenti
duranti gli anni ottanta.
La simulazione binaurale e la conversione transaurale, si articolano attorno a
due punti: trovare un modello statistico medio soddisfacente della funzione di
trasferimento del sistema uditivo umano e aumentare la quantità di
27
elaborazione informatica, per permettere una migliore definizione del campo
uditivo e un’eliminazione della diafonia più efficace.
Da qualche anno c’è una crescente comparsa di sistemi di simulazione
binaurale: il CAP-340M dell’AKG, il Qsound della Qsound Corporation, il
Roland Sound Space (RSS) e i differenti apparecchi di Spatializer Audio
Laboratories, per nominarne alcuni. La Roland afferma che i meccanismi di
funzionamento dell’RSS sono basati sui risultati della ricerca psicoacustica in
ciò che concerne l’udito direzionale. E’ interessante constatare che
l’apparecchio è diviso in due blocchi: il simulatore binaurale e il convertitore
transaurale. La revisione di uno solo dei due settori sarà sempre possibile e
migliorerà senza alcun dubbio la performance globale del sistema.
3.2 I sistemi elettroacustici ibridi
Da qualche anno, sono nati nuovi strumenti di registrazione e la loro
classificazione diventa difficile. In effetti i loro principi di funzionamento e
la metodologia di elaborazione del segnale fanno riferimento sia al modello
binaurale che al modello geometrico. Appartengono a questa categoria di
sistemi di registrazione ibridi il Stereo Ambient Sampling System (SASS)
della compagnia americana Crown e la Sfera della compagnia tedesca
Schoeps, come mostrato in Figura 3.2.
28
Figura 3.2 Il SASS della Crown e la Sfera della Schoeps
Questi sistemi utilizzano un baffle di forma complessa e di volume
considerevole, per simulare certe caratteristiche della testa umana.
La presenza di questo baffle risponde alla prima esigenza del modello
binaurale. Nello stesso tempo l’assenza di filtri acustici adiacenti ai
trasduttori, che simulano il padiglione dell’orecchio, si rifà al modello
geometrico.
La sfera è stata sviluppata in seguito all’elaborazione del modello teorico di
Gunther Theile che afferma che si deve inserire in una registrazione
stereofonica delle modificazioni di segnale corrispondenti a quelle apportate
dal sistema uditivo umano, in particolare a quelle conseguenti agli effetti
acustici della testa. La sfera è costituita da un baffle sferico di 200 mm di
diametro, sul quale sono montati ai due antipodi due capsule omnidirezionali.
Si ottiene dunque una codifica quasi binaurale; evitando volontariamente le
modificazioni spettrali e temporali del padiglione dell’orecchio, il segnale
stereofonico prodotto dalla Sfera, non ha i problemi di compatibilità delle
registrazioni binaurali con l’ascolto con gli altoparlanti. Il baffle attenua
sufficientemente le frequenze acute degli stimoli sonori opposti (captati
direttamente da una delle due capsule e per diffrazione dall’altra) affinché il
29
problema del filtraggio a pettine (comb filtering) delle onde in opposizione di
fase venga attenuato. Tutte le altre particolarità importanti di codifica
direzionale prodotte dalla testa sono ugualmente prodotte dalla Sfera.
Le caratteristiche fisiche della Sfera la rendono conforme al modello Spectral
Stereo di Cooper, che è un modello d’ascolto basato su un baffle sferico.
Non si può pretendere di produrre un informazione spaziale completa con la
Sfera; la sua ricezione è completa negli assi X (avanti/dietro) e Z (alto/basso).
La ricezione della Sfera, essendo discriminante solo sull’asse Y
(sinistra/destra), è unidimensionale. Poiché questa codifica direzionale
sull’asse Y avviene rispettando il modello d’associazione, si pretende che
produca un segnale stereofonico più soddisfacente riguardo all’impressione
spaziale, senza perdere gli attributi di sensibilità con i suoni coincidenti.
Osserviamo che la Sfera ha un antenato francese, il registratore che
l’ingegner Charlin ha sviluppato alla fine degli anni cinquanta. Questa palla
ricoperta da una fasciatura aveva anch’essa due microfoni omnidirezionali
posizionati in maniera identica alla Sfera. La compatibilità mono/stereo
determinò il successo di questo sistema che non rendeva obsoleti i giradischi
monofonici. Più recentemente, con le ricerche di Theile, il registratore con un
baffle sferico ha trovato le sue giustificazioni teoriche e un’incarnazione
commerciale più valida.
Le qualità di registrazione della Sfera si trovano anche nel SASS. Sviluppato
includendo certi meccanismi binaurali per contrastare i difetti di presa di
posizione dei suoni stereofonici coincidenti, ma con la cura della
compatibilità del suono monofonico e d’ascolto con i diffusori, il SASS è un
vero sistema di registrazione ibrido.
I suoi inventori hanno ricordato che il SASS risponde perfettamente alle
esigenze dei modelli di Cooper e Theile. Il modo in cui il SASS risponde a
queste esigenze è leggermente diverso da quello della Sfera. La differenza
maggiore è nelle caratteristiche del baffle: di forma più complesssa, l’analisi
visuale della simmetria delle traiettorie delle rette collineari sul baffle, ci fa
30
notare che il SASS permette una codifica direzionale sia sull’asse Y
(sinistra/destra) che sull’asse X (avanti/dietro).
L’efficacia della codifica sull’asse Y è sperimentata, ma non si può sapere a
priori se la codifica sull’asse X sarà di una qualità soddisfacente con l’ascolto
con gli altoparlanti o almeno con il casco d’ascolto.
Malgrado la differente costruzione, la Sfera e il SASS utilizzano gli stessi
meccanismi per la codifica sull’asse Y. I due sistemi utilizzano delle capsule
omnidirezionali; a basse frequenze il baffle non è efficace e la diffrazione
avrà pertanto una pressione acustica quasi uguale sui due diaframmi,
qualunque sia la direzione del suono.
È invece la distanza tra le due capsule e la differenza di fase che sarà così
introdotta che permette di codificare la direzione a basse frequenze. Al di là
di una certa zona di frequenze, circa 1000 Hz, a causa della presenza del
baffle, la direzionalità delle capsule aumenta e la differenza d’ampiezza tra i
canali assicura la codifica direzionale.
Nelle frequenze acute la grandezza del baffle è abbastanza importante per
prevenire il filtraggio a pettine nella somma monofonica. L’assenza totale di
discriminazione sull’asse Z assicura un ascolto compatibile con i diffusori.
Parliamo infine di un altro sistema, non commercializzato, che può essere
aggiunto a questa categoria di registratori stereofonici ibridi. Si tratta del
Matrixed Pressure Triplet (MPT) del belga Andrè Defossez. Tre capsule
omnidirezionali sono disposte in maniera equidistante sulla superficie curva
di un baffle cilindrico, avendo così una differenza di 120° tra loro. La capsula
A è diretta a 0°, la capsula B a 120° a sinistra e la capsula C 120° a destra.
I segnali per i diffusori sono prodotti da un decodificatore matrix, cioè
attraverso un missaggio prestabilito di canali discreti di una console. La
capsula A alimenta congiuntamente i canali sinistro e destro, la capsula B
alimenta il canale sinistro e, con un attenuazione di 18dB e con inversione di
polarità, il canale destro. Avviene la stessa cosa con la capsula C che
alimenta direttamente il canale destro e, con l’attenuazione di 18dB e
inversione di polarità, quello sinistro.
31
L’inventore dell’MPT piazza la sua invenzione in un settore ancora
inesplorato: la registrazione stereo non coincidente con un decodificatore
matrix. Se questa tecnica può sembrare a prima vista temeraria, bisogna
ricordare che il baffle assicura un’attenuazione sufficiente delle frequenze
acute e controlla il filtraggio a pettine.
L’MPT risponde sicuramente a un certo numero di criteri del modello di
associazione di Theile, ma è ragionevole credere che il rispetto del modello
sarebbe sicuramente più completo se il baffle fosse di forma sferica piuttosto
che cilindrica. Il cilindro rappresenta un ostacolo acustico differente dalla
sfera o dalla testa e può portare delle modificazioni spettrali che possono
essere falsate al momento della riproduzione. L’informazione spaziale è
codificata su due assi, X e Y, e l’MPT potrebbe essere considerato come un
registratore bidimensionale.
3.3 I limiti dei sistemi basati sul modello binaurale
Per aspirare alla commercializzazione, i sistemi basati sul modello binaurale
fanno fronte ad importanti insidie tecnologiche. Delle ricerche recenti hanno
sviluppato dei modelli teorici di riproduzione binaurale con più di due
altoparlanti e per più di un ascoltatore, ma non sono ancora stati pubblicati
risultati sperimentali.
Per il momento non si può fare altro che estrapolare sull’applicazione della
transauralità per più ascoltatori. Altro problema è che la riproduzione
binaurale può essere interpretata solo da una posizione fissa. Questo accade
anche con il casco d’ascolto: se l’ascoltatore gira la testa, tutto il campo
sonoro segue il movimento.
In una situazione acustica reale, quando si gira la testa, i suoni cambiano
posizione nel nostro campo di percezione.
32
Solo il sistema della NASA permette lo spostamento dell’ascoltatore
all’interno dello spazio in cui ha luogo l’evento sonoro.
La registrazione originale è multitraccia e ad ogni elemento sonoro che
costituisce l’evento, viene assegnata una posizione assoluta nello spazio in
cui ha luogo l’esperienza e una relativa alla posizione dell’ascoltatore.
Quest’ultimo, con il suo casco d’ascolto, può posizionarsi nello spazio
sonoro virtuale mentre il calcolatore aggiusta il segnale a seconda dei suoi
spostamenti. Questa filosofia di riproduzione binaurale è molto simile al
concetto di realtà virtuale nel mondo informatico.
Non si possono che ammirare i numerosi sforzi per migliorare la tecnologia,
ma bisogna interrogarsi davanti alla possibilità di sfruttamento commerciale
di un tale sistema.
I metodi che esige la registrazione si adattano abbastanza bene se ci si occupa
di musica pop, ma non corrispondono a pratiche usuali nella musica classica o
in manifestazioni musicali acustiche. Inoltre la registrazione multitraccia non
può essere mixata: ogni elemento sonoro deve rimanere discreto perché gli si
possa applicare il trattamento binaurale adeguato per l’ascolto.
Si parla di un formato per consumatori da almeno venti piste. È pur vero che
con i continui e rapidi sviluppi tecnologici è difficile prevedere il futuro, ma
un formato di questo tipo non può essere preso in considerazione se non tra
una decina d’anni.
Il problema principale di tutti i sistemi basati sul modello binaurale è che essi
devono tendere verso la formulazione di un archetipo dell’udito direzionale.
Questo archetipo, definendo le caratteristiche standard fisiche della testa e
delle orecchie, nega le caratteristiche fisiche individuali dell’ascoltatore.
Al di là delle variazioni che si constatano nelle particolarità della testa, le
variazioni nelle particolarità del padiglione auricolare sono ancora più grandi
da un individuo a un altro. È lecito credere, in base agli studi sull’udito
direzionale, che l’ascolto con le orecchie di un’altra persona avrebbe un
effetto devastante sulla qualità della percezione spaziale. Il modello binaurale
è studiato per un ascoltatore adulto.
33
La forma e la grandezza della testa e delle orecchie cambiano durante la
crescita verso lo stadio adulto. La presentazione di un segnale binaurale
adulto a un bambino, darebbe come risultato una cattiva decodifica del
segnale. Non solo sarebbero inesatte le modificazioni spettrali apportate dal
padiglione dell’orecchio, ma sarebbero difficilmente interpretabili anche le
differenze interaurali dei tempi e d’ampiezza.
Inoltre la sensibilità all’ampiezza sonora non simmetrica tra l’orecchio
sinistro e destro e questa sensibilità è rovesciata nei mancini. Si dovrà allora
costruire un modello binaurale destro e uno mancino? Favorendo un modello
standard non verranno soddisfatti tutti i possibili fruitori.
34
CAPITOLO 4
I SISTEMI ELETTROACUSTICI GEOMETRICI
Lo sviluppo iniziale dei sistemi elettroacustici è stato fortemente legato allo
sviluppo della telefonia. Noi lo abbiamo dimenticato perché oggigiorno si fa
una distinzione basata sul diverso utilizzo. Questa distinzione tra telefonia e
la catena stereofonica non esisteva alla fine del XIX secolo e all’inizio del
XX secolo. In effetti, a parte la tappa di fissare l’informazione su un
supporto, lo scopo del telefono e della catena stereofonica è lo stesso: captare
un’informazione sonora in un luogo dato e diffondere quest’informazione in
un altro luogo. Può forse sorprendere che la prima registrazione stereofonica
utilizzando due microfoni sia stata trasmessa attraverso due linee telefoniche?
È così che nel quadro dell’Esposizione internazionale dell’elettricità di
Parigi, nel 1881, l’inventore Clement Ader compiva la trasmissione
stereofonica a distanza dei concerti che avevano luogo nell’Opéra di Parigi.
Già a quest’epoca era chiaro che la codifica delle caratteristiche direzionali di
un evento acustico rendeva necessario l’utilizzo di più di un canale
d’informazione.
Ma due canali erano sufficienti? Nel 1898, il grammofono Multiplex
Graphophone Grand utilizzava tre cornette per la registrazione e
riproduzione, che scrivevano e leggevano tre solchi su un cilindro.
Con un costo proibitivo di mille dollari, quest’apparecchio non ha
sicuramente trovato molti acquirenti.
Alla luce di questi due esempi, vediamo che all’inizio della telefonia, da più
di cent’anni, le qualità direzionali di un evento acustico, non erano
riproducibili con un solo microfono e un solo altoparlante.
Tuttavia è ancora attuale l’utilizzo in radio e in telediffusione della
registrazione e trasmissione, utilizzando un unico canale d’informazione.
35
4.1 I sistemi elettroacustici con un canale d’informazione
La registrazione e riproduzione con un unico canale d’informazione è meglio
conosciuta con il nome di monofonia. Nella monofonia, l’informazione
sonora è catturata ed emessa da un solo punto nello spazio; è un sistema che
non è neppure unidimensionale.
L’utilizzo di microfoni dalle proprietà sferiche differenti, non cambia nulla:
al massimo si può cambiare il raggio tra il suono che proviene direttamente
dalla sorgente e il suono riflesso dalle pareti.
Nella riproduzione, a parte posizionare fisicamente la fonte di emissione, cioè
l’altoparlante, non è possibile alcun posizionamento spaziale se non quello
della sorgente sonora. Se la monofonia non è nemmeno unidimensionale,
come si fa al momento della riproduzione, a valutare le caratteristiche
acustiche del luogo di registrazione, come il riverbero o l’eco?
Un fenomeno sonoro come la riverberazione fornisce informazioni
sull’acustica del luogo di registrazione fornendo una descrizione spaziale e
una descrizione temporale di questa acustica.
La registrazione monofonica non permette la codifica delle caratteristiche
spaziali e di riverberazione, ma permette di codificare le caratteristiche
temporali. Queste caratteristiche temporali sono delle variazioni nel tempo
dell’ampiezza globale e del raggio d’ampiezza delle frequenze del suono
riflesso che arrivano al microfono.
Al momento della riproduzione, la nostra esperienza uditiva ci permette di
interpretare i descrittori temporali e di valutare le caratteristiche acustiche del
luogo di ricezione. Si può allora parlare di dimensione spaziale, captata e
riprodotta dal sistema elettroacustico, quando essa esiste solamente
nell’estrapolazione mentale basata su una parte degli elementi descrittori?
È per questi motivi che la monofonia non è nemmeno unidimensionale.
36
4.2 Sistemi elettroacustici a due canali d’informazione
I sistemi elettroacustici che utilizzano due canali d’informazione sono
comunemente raggruppati sotto il termine di stereofonia.
L’etimologia della parola stereo deriva dal greco stereos che significa solido,
nel senso geometrico del termine; la stereofonia sarebbe quindi il suono in tre
dimensioni. Il termine stereofonia costituisce, considerando la sua etimologia
e il suo utilizzo corrente per designare esclusivamente i sistemi elettroacustici
a due canali, un abuso del linguaggio storico. Nella consuetudine odierna
questo termine viene usato per designare una registrazione trasmessa
attraverso due canali e riprodotta con due diffusori o un casco d’ascolto.
Come nella telefonia, anche nel campo dei sistemi elettroacustici l’utilizzo di
due canali per la trasmissione e riproduzione sonora appariva come un netto
miglioramento rispetto alla monofonia.
Bisognava aspettare ancora una quarantina d’anni, prima che il
perfezionamento delle componenti meccaniche e elettriche permettessero
sperimentazioni più approfondite e una possibile commercializzazione della
stereofonia. Nel 1931, delle domande di brevetto sull’incisione di un solco a
due canali su un disco o su un cilindro, furono depositate in Inghilterra e
negli Stati Uniti.
Le condizioni sfavorevoli e la crisi economica impedirono tuttavia gli
investimenti necessari alla commercializzazione di questi brevetti.
Gli anni cinquanta, con il boom economico del dopoguerra, offrirono un
contesto più favorevole all’uscita sul mercato di questi prodotti.
Nel caso degli Stati Uniti, questa domanda proveniva dai Laboratori Bell, in
cui si facevano da qualche tempo, delle registrazioni stereofoniche a due o tre
microfoni. In Inghilterra, la domanda di brevetto proveniva da Alan Dower
Blumlein, che lavorava per la compagnia EMI. Ciò che era interessante nel
brevetto di Blumlein, è che egli non parla solo dell’incisione, ma di un
sistema stereofonico completo, dalla registrazione alla riproduzione.
37
Dopo la lettura di questo brevetto, risulta evidente che molte delle tecniche di
produzione utilizzate al giorno d’oggi in stereofonia vengono direttamente da
Blumlein.
La registrazione stereofonica di base con due microfoni, ci offre una
moltitudine di possibilità quanto a combinazioni funzionali dei microfoni.
Si può raggruppare questa combinazione di microfoni in due classi: la
registrazione coincidente e la registrazione non coincidente. Queste tecniche
utilizzano sia la differenza d’ampiezza tra i canali, sia una combinazione di
differenza intercanale d’ampiezza e di differenza intercanale di fase, per
codificare il posizionamento dei suoni.
4.2.1 La registrazione stereofonica coincidente
Nella registrazione coincidente del suono, due capsule direzionali occupano
teoricamente lo stesso punto nello spazio, ma con gli assi di rotazione puntati
in direzioni differenti. Il suono arriva così nello stesso istante ai due
microfoni, ma con un’ampiezza che varia in funzione della direzione del
suono. Quindi in una registrazione coincidente, la codifica della posizione di
una sorgente sonora data, dipende unicamente dalla differenza intercanale
d’ampiezza. Evidentemente con due microfoni omnidirezionali coincidenti,
non si avrebbe teoricamente alcuna differenza d’ampiezza nella direzione dei
suoni. L’utilizzo di coincidente di microfoni aventi lo stesso diagramma
polare sono generalmente chiamati X-Y. Si possono utilizzare due cardioidi,
due ipercardioidi o due figura-otto.
Gli angoli di separazione variano generalmente tra 90° e 180°; gli angoli più
larghi sono preferiti con i cardioidi e con gli ipercardioidi, mentre l’angolo di
90° è preferito con i figura-otto.
I figura-otto a 90° sono stati proposti da Blumlein nel 1931 e questo spiega
perché quest’assemblaggio è conosciuto anche con il nome del suo inventore.
38
Nella realtà pratica, occupare lo stesso spazio con due microfoni non è
fisicamente possibile; essi vengono posizionati abitualmente uno sopra
l’altro, occupando così in un piano orizzontale parallelo al loro asse di
rotazione, lo stesso punto nello spazio.
La forza principale di questa tecnica risiede nella possibilità di creare
microfoni virtuali, variando la combinazione della somma monofonica e della
differenza stereofonica prodotta dai microfoni originali. La somma si ottiene
addizionando i segnali dei due microfoni, e la differenza si ottiene
addizionando ancora il segnale, ma invertendo la polarità del segnale di uno
dei due microfoni. Si possono anche utilizzare direttamente dei microfono
aventi caratteristiche sferiche analoghe alla somma mono e alla differenza
stereo. Questa tecnica viene denominata M-S che significa Middle-Side o
Mono-Stereo.
Come proposto da Blumlein nel suo brevetto, il microfono M punta
direttamente verso il centro della sorgente con angolo 0° e il microfono S è
orientato a 90° d’azimut. Il microfono M è generalmente un cardioide, ma
può essere anche un figura-otto o un microfono direzionale di ordine
superiore o eccezionalmente un omnidirezionale. Invece il microfono S deve
essere sempre un figura-otto. Addizionando e sottraendo i segnali di M e di S
(M+S e M-S) si ottengono dei nuovi microfoni virtuali che hanno
l’orientamento e le caratteristiche sferiche di un X-Y. Cambiando il rapporto
tra M e S si può variare l’angolo di separazione dei microfoni virtuali.
La separazione dei microfoni è direttamente legata alle loro caratteristiche
sferiche: più si allontanano i microfoni e più si aumenta la proporzione
dell’armonica sferica di primo ordine, il microfono S figura-otto.
Analizzando con il modello delle armoniche sferiche le tecniche X-Y e M-S
sembrerebbe lecito affermare che esse sono equivalenti, ma nella realtà
pratica certi ingegneri preferiscono la tecnica M-S perché permette una
somma monofonica di qualità migliore nelle caratteristiche frequenziali e
sferiche.
39
Le tecniche coincidenti sono teoricamente intercambiabili, ma evidentemente
le caratteristiche sferiche e l’angolo di separazione dei microfoni hanno un
impatto determinante sulla funzione di panoramica.
I figura-otto a 90° e i cardioidi a 180° sono le sole registrazioni ad avere una
funzione di panoramica regolare, cioè non favoriscono nessun quadrante a
discapito di un altro. Le altre combinazioni ottenute in X-Y e in M-S
favoriscono il quadrante frontale o i quadranti sinistro e destro.
Il fattore comune che lega tutte le tecniche coincidenti che utilizzano solo due
microfoni è il carattere unidimensionale della loro capacità di codifica
spaziale.
4.2.2 La registrazione stereofonica non coincidente
Contrariamente a ciò che si fa nelle tecniche coincidenti, l’utilizzo di
microfoni omnidirezionali è consigliato nella registrazione del suono non
coincidente.
Questa classe raggruppa l’insieme di tecniche in cui i due microfoni non
occupano lo stesso posto nello spazio. Il microfono omnidirezionale è
utilizzato in un assemblaggio denominato generalmente A-B, in cui la
distanza tra i due microfoni può variare da qualche decina di centimetri a
qualche metro a seconda della situazione e delle preferenze soggettive.
La distanza tra i microfoni e la differenza intercanale d’ampiezza, crea una
differenza intercanale di fase poiché i suoni giungono ai microfoni in
momenti differenti. Quando la separazione dei due microfoni supera qualche
metro, è consigliata l’aggiunta di un terzo microfono omnidirezionale,
posizionato in maniera equidistante rispetto ai microfoni principali diretto al
centro dell’immagine stereofonica. Questa pratica si ispira direttamente alle
esperienze sulla stereofonia realizzate nei Laboratori Bell durante gli anni
trenta. D’altra parte, quando la distanza tra i microfoni è piuttosto piccola,
40
meno di trenta centimetri, i microfoni omnidirezionali non sono più
necessariamente una buona scelta poiché la differenza intercanale d’ampiezza
comincia a essere molto lieve. Se si decide di utilizzare un omnidirezionale
per le sue qualità spettrali, è preferibile l’utilizzo di un baffle.
L’Optimal Stereo System (OSS) ne è un esempio: Due capsule
omnidirezionali distanziate di 16,5 cm e separate da un baffle circolare di 28
cm di diametro. Si tratta anche in questo caso di una delle tecniche
stereofoniche brevettate da Blumlein.
Per le distanze itermicrofoniche inferiori a 30 cm, l’uso di microfoni
direzionali diventa una scelta assai utilizzata. La letteratura specializzata
identifica spesso questo tipo di registrazione come facente parte di un
raggruppamento a parte e lo definisce quasi coincidente.
L’assemblaggio francese ORTF è senza dubbio il più comune di questa
famiglia. Esso utilizzza due cardioidi distanziati di 17 cm e con 110° di
angolo. La tecnica olandese NOS utilizza anch’essa due cardioidi, ma separati
di 30 cm e con 90° di angolo. Il montaggio britannico Faulkner, sicuramente
il meno conosciuto, utilizza due figura-otto spaziati di 18-20 cm, ma con gli
assi di rotazione paralleli l’uno all’altro e diretti verso la sorgente.
A questi assemblaggi si potrà sempre apportare qualche modifica.
La compagnia AKG utilizza un baffle circolare di 35 cm, simile a quello del
sistema OSS, per migliorare le prestazioni del sistema ORTF.
Nelle tecniche quasi coincidenti l’uso del baffle è opzionale; si dovrà tuttavia
utilizzarlo se si ha l’intenzione di preservare una grande compatibilità
monofonica. Infatti si avranno, per certe lunghezze d’onda che corrispondono
alla distanza tra i microfoni, una sfasatura di 180° causando l’annullamento di
queste frequenze nella riproduzione monofonica.
Un’analisi delle armoniche sferiche dei montaggi quasi coincidenti senza
baffle, rivela l’insorgere di fenomeni acustici d’interferenza, poiché
un’armonica sferica di secondo o terzo ordine, variando a seconda della
lunghezza d’onda, costituisce una perdita importante del microfono virtuale
che corrisponde alla somma monofonica.
41
Quindi il baffle, diminuendo l’ampiezza dei segnali che giungono ai due
microfoni, ma in opposizione di fase, assicurerà la compatibilità monofonica.
Le registrazioni non coincidenti sono unidimensionali nella loro codifica
spaziale, proprio come le registrazioni coincidenti.
Nel caso della tecnica A-B, poiché l’aggiunta potenziale del microfono
supplementare si fa sulla stessa linea dei microfoni principali, si migliora la
definizione della linea. La tecnica A-B è dunque unidimensionale come le
altre.
4.2.3 La registrazione stereofonica polimicrofonica
Le registrazioni polimicrofoniche con microfoni monofonici, utilizzano
principalmente la differenza intercanale d’ampiezza, per posizionare i suoni
monofonici a sinistra e a destra, sia in tempo reale che in differita su due
piste. Il controllo della panoramica sulla console si ottiene cambiando
l’ampiezza del segnale in un canale rispetto all’altro.
Le registrazioni polimicrofoniche con microfoni stereofonici, possono
utilizzare differenti combinazioni di microfoni stereo principali e microfoni
mono d’appoggio. Il missaggio potrà preservare o no le caratteristiche di
codifica direzionale dei diversi assemblaggi di microfoni, mantenendo o
diminuendo la separazione dei canali in questi differenti assemblaggi.
La differenza intercanale di fase non è ancora utilizzata usualmente per
posizionare i suoni in un missaggio su due piste. Finora gli apparecchi
periferici che producevano questi delay servivano soprattutto per creare delle
impressioni spaziali con posizionamento diffuso; l’accostamento con la
registrazione del suono non coincidente è abbastanza semplice da fare.
L’arte del missaggio stereo di una registrazione polimicrofonica si è
recentemente arricchita di nuove sperimentazioni.
42
La questione del trattamento temporale dei microfoni d’appoggio è stata
studiata con differenti ipotesi e diverse sperimentazioni.
La tecnica polimicrofonica odierna consiste nel registrare l’evento con un
montaggio stereofonico e dei microfoni monofonici di sostegno per gli
strumenti in cui si vuole compensare la debolezza del rispettivo segnale.
Eseguita in questo modo questa tecnica comporta un importante problema:
i suoni captati dai microfoni d’appoggio saranno percepiti davanti ai suoni
captati dal montaggio stereo. Il risultato sarà l’illusione che l’informazione
del montaggio stereo costituisca le prime riflessioni e che i microfoni
d’appoggio costituiscano i suoni diretti. Se si aggiunge della riverberazione
artificiale, si produce una modificazione dell’acustica originale.
Per contrastare l’anticipo temporale dei segnali dei microfoni d’appoggio, la
prassi normale è compensare con dei delay equivalenti alla distanza tra i
microfoni d’appoggio e il montaggio stereo.
Questa tecnica di correzione crea dei nuovi problemi di filtraggio
frequenziale quando la sorgente di un microfono di sostegno è spostata
lateralmente, in quanto la relazione temporale tra il montaggio stereo e il
microfono d’appoggio assume delle proporzioni differenti.
Rimane un’ultima soluzione, abbastanza promettente, che consiste
nell’introdurre nei canali dei microfoni di sostegno un delay superiore a
quello corrispondente alla distanzza tra i microfoni d’appoggio e il montaggio
stereo. Questo delay manda i segnali monofonici nella zona temporale delle
prime riflessioni e non distrugge l’immagine prodotta dall’assemblaggio
stereo. Questa tecnica di missaggio è ancora più efficace se, per una data
sorgente, sono simulate più riflessioni.
43
4.2.4 Apprezzamenti soggettivi delle registrazioni stereofoniche
Quali sono le differenze udibili e apprezzabili tra le varie tecniche di
registrazione stereofoniche coincidenti e non coincidenti?
Queste differenze sono di tipo psicoacustico; il giudice finale che misura
l’apporto della codifica direzionale di questi meccanismi e determina quindi
il successo di queste tecniche rimane il nostro orecchio. Inoltre sembra che la
precisione nella riproduzione direzionale dei suoni non sia il solo criterio di
per apprezzare la qualità del posizionamento spaziale di una registrazione
stereo.
Carl Ceoen, della Radiodiffusion-Télévision Belge, ha compiuto nel 1971 un
test d’ascolto comparativo delle differenti tecniche stereofoniche dello stesso
evento musicale. I criteri della valutazione, e in più della precisione
direzionale (“stage continuity”), erano i seguenti: “liveness, intimacy,
perspective, extra-width, dynamic range, warmth e brillance”. Oltre sessanta
persone hanno ascoltato l’estratto delle Danze slave di Dvorak registrato
simultaneamente in X-Y (cardioidi), Blumlein, M-S (cardioide/figura-otto),
ORTF, NOS e polimicrofonia (cinque cardioidi panoramici con una console
di missaggio).
La maggioranza delle persone interrogate hanno indicato che la tecnica ORTF
sembrerebbe essere il compromesso migliore tra tutti i criteri, con la
registrazione M-S come seconda scelta. Questa preferenza per la non
coincidenza, spiega Griesinger, è dovuta al fatto che queste registrazioni
ottengono una migliore impressione spaziale. Quest’impressione è solo una
parte dell’informazione spaziale codificata da una registrazione stereofonica;
non si ritrova un’informazione direzionale precisa, ma piuttosto
un’informazione sull’acustica del luogo originale.
Theile afferma che l’impressione spaziale comprende due attributi
dell’immagine sonora: la “riverberanza”, cioè la diffusione temporale degli
eventi sonori causata dalle riflessioni tardive e dalla riverberazione e
44
“l'areazione spaziale”, cioè la diffusione spaziale degli eventi sonori, causata
dalle prime riflessioni.
Questa informazione sull’impressione spaziale è contenuta nel microfono
figura-otto, reale o virtuale, corrispondente al segnale di differenza
stereofonica della registrazione. L’orientamento di questo microfono lo rende
particolarmente adatto a captare le prime riflessioni della sala che danno
riferimenti importanti sul volume della sala originale.
La distanza tra i microfoni di un montaggio non coincidente, assicura una
scarsa correlazione intercanale e contribuisce così a produrre un segnale di
differenza stereo, ricco dal punto di vista psicoacustico. La preferenza per le
tecniche non coincidenti è un’indicazione abbastanza forte di difetti inerenti
alla stereofonia convenzionale quanto alla sua capacità di dare
un’impressione credibile dello spazio acustico dell’evento.
4.2.5 Il trattamento del segnale stereofonico
Gli assemblaggi coincidenti permettono generalmente una variazione
uniforme della differenza intercanale d’ampiezza, ma l’assenza della
differenza intercanale di fase produce una differenza stereo con una forte
correlazione e restituisce in maniera spenta l’impressione spaziale.
Griesinger suggerisce la correzione in piano (shelf filtering) della somma e
della differenza stereo di una registrazione del suono coincidente, per
aumentarne l’impressione spaziale. Aumentando di 4 dB le frequenze al di
sotto dei 700 Hz nella differenza stereo, e in certi casi riducendo di 4 dB
questa zona di frequenze nella somma monofonica, sembra esserci una
migliore impressione nella riproduzione dell’ambiente.
Questo tipo di trattamento, in cui le modificazioni sono apportate ai segnali di
somma e di differenza, piuttosto che ai segnali sinistro e destro, è stata
proposto da Blumlein.
45
Si cominciano così a scoprire le virtù di un trattamento stereofonico
essenzialmente simmetrico: una modifica alla somma o alla differenza si
ripercuote sempre in maniera identica nel canale sinistro e destro.
Non bisogna stupirsi se il tipo di “correzione spaziale” proposto da
Griesinger è simile al trattamento del segnale che si ritrova nella tecnica di
produzione Stereosonic.
Utilizzato negli anni cinquanta e sessanta dalla EMI, Stereosonic era la
versione commerciale del brevetto di Blumlein. Le ricerche di Blumlein e
Griesinger hanno trovato interesse per la compagnia Hughes Aircraft.
Mentre Griesinger suggeriva una correzione spaziale statica, il Sound
Retrieval System (SRS) della Hughes applica una correzione spaziale
dinamica che varia in funzione del segnale stereo che lo alimenta.
Innanzitutto il segnale stereofonico sinistro e destro è ricomposto in somma
monofonica e in differenza stereofonica. L’SRS procede in seguito a
un’analisi dei segnali per determinare la quantità di trattamento da applicare.
Ci sono poche informazioni nella letteratura specializzata su questa parte del
sistema, ma si presume che l’analisi venga eseguita seguendo dei parametri
fissi: si guarda la proporzione dell’ampiezza della somma e della differenza
per tutta la banda passante e per dei settori di frequenze in particolare.
Si modificano poi le ampiezze di certe zone di frequenza che possono creare
una buona impressione spaziale.
Per la ricostruzione del segnale stereo sinistro e destro, si lascia al fruitore la
possibilità di modificare, entro certi limiti, il rapporto tra la somma mono e la
differenza stereo. Il Bedini Audio Spatial Environment (B.A.S.E) funziona
esattamente sullo stesso principio dell’SRS.
Questi due sistemi diventano particolarmente interessanti nel caso in cui i
diffusori sono ravvicinati: correttori spaziali procedono a un aumento
dell’impressione spaziale del segnale stereofonico.
Da qui le affermazioni da parte delle due compagnie di un sistema di
riproduzione sonoro tridimensionale.
46
Un altro trattamento post-registrazione usato recentemente è la conversione
Blumlein, che consiste nel convertire la differenza intercanale di fase di una
registrazione non coincidente in differenza intercanale d’ampiezza.
L’effetto principale di questa conversione è di rendere più compatibile
l’ascolto con i diffusori di una registrazione non coincidente. Si possono
quindi conservare i vantaggi della registrazione non coincidente, con
l’utilizzo di microfoni omnidirezionali, e parallelamente eliminare i loro
inconvenienti, come la somma monofonica e le caratteristiche sferiche
variabili a seconda della frequenza. Ricordiamo che la conversione Blumlein
lavora in entrambe le direzioni: si può anche convertire una differenza
intercanale d’ampiezza in una differenza intercanale di fase.
4.3 Sistemi elettroacustici a più canali d’informazione
I sistemi di riproduzione a più canali d’informazione hanno ancora come
riferimento gli esperimenti di Blumlein. Egli dice chiaramente nel suo
brevetto che i due canali di trasmissione della stereofonia non devono
necessariamente alimentare solo due diffusori, introducendo così il concetto
di diffusione adattata alle particolarità dell’installazione elettroacustica in
ogni luogo di riproduzione. Come per tutto il resto delle sue idee, questo
concetto non è stato utilizzato per circa una ventina d’anni, finché lo
scandinavo Lauridsen ha testato diversi modelli di diffusione, che possono
essere considerati come facenti parte della tecnica M-S. Egli utilizzava infatti
degli altoparlanti che riproducevano le caratteristiche sferiche dei microfoni
utilizzati in una registrazione M-S, con un posizionamento simile.
L’altoparlante monofonico era posizionato davanti all’ascoltatore; dietro
questo altoparlante era piazzato in modo perpendicolare, un altoparlante
bidirezionale che diffondeva la differenza stereo. Questi due altoparlanti
potevano essere combinati nello stesso diffusore.
47
Il tentativo non fu molto fruttuoso, ma ebbe sicuramente il merito di
considerare il segnale stereofonico come la combinazione della somma
monofonica e della differenza stereofonica.
Proprio come Blumlein, Lauridsen sottolineava le possibilità offerte dalla
decodifica, attraverso un box matrix, dei due canali.
Alla fine degli anni sessanta e all’inizio degli anni settanta, l’interesse per la
decodifica matrix cresceva. David Hafler propose un metodo semplice per
migliorare la riproduzione dell’impressione spaziale con un segnale
stereofonico convenzionale. Egli suggerisce di estrarre la differenza dei due
canali e di inviarla a una seconda coppia di diffusori e allacciandole in serie
sui segnali positivi dell’amplificatore.
Questi diffusori devono essere disposti dietro all’ascoltatore.
In principio questi dispositivi migliorano l’impressione spaziale, ma la
qualità del risultato dipende unicamente dalla registrazione ascoltata, poiché
non si controlla alcuna variabile. Il segnale sonoro che proviene da dietro può
essere interessante, ma il rapporto di ampiezza tra il davanti e il dietro
potrebbe essere inadeguata. Questo rapporto dipende dall’efficacia di ogni
coppia di diffusori.
Un modo di aggirare il problema è trattare il segnale di differenza stereo da
un secondo amplificatore. Si potrà così trattare in maniera indipendente il
volume delle due coppie di diffusori. Sono stati effettuati alcuni test dove i
diffusori supplementari erano posti davanti e i soggetti hanno notato, nella
maggioranza dei casi, un miglioramento dell’impressione spaziale in rapporto
alla stereofonia convenzionale.
L’obiezione principale che si può sollevare riguardo al metodo Hafler, è che
l’aggiunta della differenza stereo va a discapito dell’uguaglianza stereo, cioè
l’informazione identica nei due canali. C’è quindi, una modificazione del
missaggio della registrazione. Il risultato pratico è che nella registrazione
della musica pop, c’è una perdita d’ampiezza sulla voce principale e certi
strumenti come le percussioni, sono situati al centro.
48
Certi apparecchi attualmente disponibili sul mercato utilizzano da tempo il
cambiamento di rapporto tra la somma mono e la differenza stereo, come i
lettori compact disc, i preamplificatori Carver e i diffusori Polk.
L’inizio degli anni settanta ha anche visto la sfortunata avventura della
quadrifonia. Chiamata quadrifonia o tetrafonia, ogni compagnia proponeva il
suo modo di registrare il suono, il suo modo di codificarlo in due canali e il
suo modo di decodificarlo in quattro. Il solo punto fermo era l’utilizzo di
quattro microfoni direzionali nella registrazione e quattro diffusori nella
riproduzione. L’SQ della CBS, l’QS della Sansui, il CD-4 di JVC e l’UD-4
della Nippon Columbia (Denon) sono quattro sistemi che hanno avuto una
vita molto breve. Sfortunatamente l’idea guida di tutti i sistemi, ad eccezione
dell’UD-4, era che il suono doveva essere sempre posizionato da un massimo
di due diffusori. Denominato in inglese “pair-wise mixing”, questa tecnica era
un’estrapolazione stupida della stereofonia convenzionale e, combinata con le
matrici di codifica, rendeva instabile la riproduzione poiché un suono da
posizionare saltava da un diffusore all’altro. Un altro dei problemi della
quadrifonia era la limitazione imposta dai supporti dell’epoca, il disco in
vinile. Le tecniche di decodifica matrix usate per inserire quattro canali in un
solco a due parti, esigeva che l’informazione dei due canali dietro fosse una
sorta di residuo dell’informazione dei canali frontali, essenzialmente della
riverberazione, per rimanere compatibile con una modalità di lettura
convenzionale. Comunque l’SQ e il QS hanno sviluppato la nascita del Dolby
Stereo e del Dolby Surround.
49
4.3.1 Il Dolby Stereo e il Dolby Surround
Ufficialmente introdotto nel 1975, il sistema multicanale Dolby Stereo è stato
inizialmente concepito per le sale del cinema. Ci sono diverse variazioni del
Dolby Stereo, a seconda delle produzioni cinematografiche nelle quali è
utilizzato, ma il sistema di base è costituito da quattro canali identificati
come: sinistro, centro, destro e surround. I primi tre canali alimentano
ciascuno, un’insieme di altoparlanti che circondano la sala. È un sistema
bidimensionale con una distorsione spaziale volutamente accentuata in avanti,
per dare la massima precisione nel posizionamento dei suoni che hanno una
relazione diretta con l’immagine. Il canale centrale diffonde quasi
esclusivamente i dialoghi.
Tenuto conto delle caratteristiche di emissione del segnale surround nel
Dolby Stereo quattro piste, il posizionamento spaziale preciso dei suoni al di
là dello schermo non è possibile e non è giudicato fondamentale.
Conseguentemente ai limiti della scrittura sonora ottica analogica sulla
pellicola cinematografica di 35 mm, è stato necessario sviluppare una matrice
di codifica da quatto canali in due canali. Come tutte le matrici di codifica,
essa funziona introducendo prima una codifica di modificazioni prestabilite
d’ampiezza e di fase. Così nella matrice del Dolby Stereo, il canale centrale è
attenuato di 3 dB per essere in seguito mixato simmetricamente nei canali
sinistro e destro. Anche il canale surround è attenuato di 3 dB, ma viene
mixato nei canali sinistro e destro con un inversione di fase.
Questa inversione di fase è ottenuta da una differenza di fase di -90° nel
canale sinistro e di +90° nel canale destro, per una differenza di fase totale di
180°. Il modo di ottenere queste differenze di fase è stato scoperto dopo gli
anni cinquanta.
La matrice di codifica del Dolby Stereo è denominata come matrice 4:2:4. Ciò
vuol dire che nel momento della scrittura sul supporto, da quattro canali si
passa a due, per poi in seguito tornare a quattro al momento della
riproduzione.
50
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica
Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica

Mais conteúdo relacionado

Semelhante a Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica

Mpeg Audio Codifiche Percettive - Compressione Audio
Mpeg Audio Codifiche Percettive - Compressione AudioMpeg Audio Codifiche Percettive - Compressione Audio
Mpeg Audio Codifiche Percettive - Compressione Audio
Davide Cilano
 

Semelhante a Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica (9)

Mpeg Audio Codifiche Percettive - Compressione Audio
Mpeg Audio Codifiche Percettive - Compressione AudioMpeg Audio Codifiche Percettive - Compressione Audio
Mpeg Audio Codifiche Percettive - Compressione Audio
 
Sistema di acquisizione in banda multispettrale
Sistema di acquisizione in banda multispettraleSistema di acquisizione in banda multispettrale
Sistema di acquisizione in banda multispettrale
 
Le codifiche audio percettive
Le codifiche audio percettiveLe codifiche audio percettive
Le codifiche audio percettive
 
Caratterizzazione delle Non Linearità di un Altoparlante Elettrodinamico
Caratterizzazione delle Non Linearità di un Altoparlante ElettrodinamicoCaratterizzazione delle Non Linearità di un Altoparlante Elettrodinamico
Caratterizzazione delle Non Linearità di un Altoparlante Elettrodinamico
 
Cancellatori_d_Eco_per_Dispositivi_di_Allarmistica_ed_Emergenza.pdf
Cancellatori_d_Eco_per_Dispositivi_di_Allarmistica_ed_Emergenza.pdfCancellatori_d_Eco_per_Dispositivi_di_Allarmistica_ed_Emergenza.pdf
Cancellatori_d_Eco_per_Dispositivi_di_Allarmistica_ed_Emergenza.pdf
 
Tesi
TesiTesi
Tesi
 
Acoustic analysis and redevelopment of A.Manzoni theatre in Cassino
Acoustic analysis and redevelopment of A.Manzoni theatre in CassinoAcoustic analysis and redevelopment of A.Manzoni theatre in Cassino
Acoustic analysis and redevelopment of A.Manzoni theatre in Cassino
 
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...
Studio e sviluppo di una soluzione circuitale per la simulazione di un rivela...
 
Presentazione
PresentazionePresentazione
Presentazione
 

Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica

  • 1. Realizzazione di una camera d’ascolto per la riproduzione della realtà virtuale acustica Aurore della ricerca: Daniele Brini Scopo della ricerca: La seguente trattazione si occupa dell’ottimizzazione della qualità acustica delle sale d’ascolto e dei sistemi per la registrazione e riproduzione del suono in tre dimensioni. Questi sistemi devono avere la capacità di captare un fenomeno acustico tridimensionale, in cui gli stimoli sonori possono provenire da tutte le direzioni, e riprodurlo in un ambiente diverso, mantenendo tutte le caratteristiche spaziali del fenomeno acustico originale. Questo significa realizzare la realtà virtuale in campo sonoro. La realizzazione di questi sistemi è stata possibile grazie a uno studio approfondito della percezione uditiva dell’uomo e in particolare dell’ascolto direzionale. L’obiettivo di questa trattazione è mettere in rilievo una tecnologia chiamata Ambisonic, che per le sue solide basi teoriche permette un’espansione futura del sistema con una crescita significativa delle prestazioni. L’ascolto delle registrazioni effettuate con questo sistema, necessita di un ambiente con caratteristiche acustiche particolari: la camera d’ascolto. Oggetto di questo lavoro è la realizzazione di una sala d’ascolto, con particolare riferimento alla spazialità del campo sonoro. Il presente lavoro è stato diviso in due parti, nelle quali la prima è preliminare alla seconda e necessariamente più teorica. La prima parte illustra le caratteristiche della percezione direzionale dell’udito ed esamina con sguardo critico i sistemi elettroacustici di registrazione e riproduzione sonora, dai primi esperimenti significativi fino agli sviluppi tecnologici più recenti. I
  • 2. La seconda parte descrive il trattamento acustico effettuato e rappresenta l’applicazione pratica delle teorie esposte in precedenza. Avvalendosi delle più moderne teorie acustiche, che permettono di valutare la qualità del suono percepito in base ai risultati di una serie di parametri, si è cercato di migliorare la qualità acustica dell’ambiente a nostra disposizione, indirizzando il lavoro verso la diminuzione del tempo di riverberazione attraverso un trattamento acustico. La scelta di utilizzare il programma di simulazione acustica Ramsete ha consentito di valutare le possibilità di intervento acustico attraverso numerose simulazioni, prima di procedere con l’applicazione dei materiali alle pareti e al soffitto. Una volta confrontati i parametri acustici con quelli precedenti al trattamento, sono state effettuate le prove d’ascolto. La realizzazione della camera d’ascolto è stata portata a termine secondo le modalità previste e l’intervento di fonoassorbimento è stato veramente efficace. Il tempo di riverberazione è stato abbassato fino a soddisfare e persino migliorare i valori previsti inizialmente (0,3 – 0,4 sec. intorno alla regione di frequenze di 1000 Hz), e presenta un andamento lineare. Sono assolutamente soddisfacenti le prove d’ascolto effettuate con la riproduzione dei brani di musica classica, in cui si può avvertire con una grande sensazione di realismo, l’ampiezza del palcoscenico e la dislocazione spaziale degli strumenti dell’orchestra. L’ascoltatore può godere pienamente della sensazione di realismo offerta dal sistema Ambisonic. II
  • 3. Indice Prefazione ……………………………………………………..……….. 1 Introduzione ……………………….…………………………..………. 2 1 Il suono lo spazio e l’udito direzionale ………………………. 4 1.1 I meccanismi dell’udito direzionale .…………………………... 4 1.2 La differenza interaurale dei tempi ……………………………. 6 1.3 La differenza interaurale d’ampiezza ………………………… 7 1.4 Le modificazioni dell’orecchio esterno ………………………... 8 1.5 Capacità direzionale del singolo padiglione auricolare ………... 9 1.6 Altri fattori …………………….……………………………….. 11 1.7 La legge del primo fronte acustico …………………………….. 11 1.8 Precisione direzionale del sistema uditivo ……………………... 12 2 Modelli d’analisi spaziale dei sistemi elettroacustici …………. 14 2.1 Il modello binaurale ……………………………………………. 15 2.2 Il modello geometrico …………………………………………… 16 2.3 Il modello delle armoniche sferiche ……………………………. 19 3 I sistemi elettroacustici binaurali ……………………………….. 22 3.1 La simulazione binaurale e la conversione transaurale ………….. 24 3.2 I sistemi elettroacustici ibridi …………………………………… 28 3.3 I limiti dei sistemi basati sul modello binaurale ………………… 32 4 I sistemi elettroacustici geometrici ……………………………... 35 4.1 I sistemi elettroacustici con un canale d’informazione ………… 36 4.2 Sistemi elettroacustici a due canali d’informazione …………….. 37 4.2.1 La registrazione stereofonica coincidente ………………. 38 4.2.2 La registrazione stereofonica non coincidente ………….. 40 4.2.3 La registrazione stereofonica polimicrofonica ………….. 42 4.2.4 Apprezzamenti soggettivi delle registrazioni stereofoniche 44 4.2.5 Il trattamento del segnale stereofonico ………………….. 45 4.3 Sistemi elettroacustici a più canali d’informazione …………….. 47 4.3.1 Il Dolby Stereo e il Dolby Surround ……………………. 50 4.3.2 La codidfica microfonica per il Dolby Surround ……….. 54 4.3.3 I processori numerici d’ambiente ……………………….. 56 4.3.4 La registrazione e la riproduzione tetraedrica …………... 58 III
  • 4. 5 Il sistema Ambisonic ……………………………………………... 61 5.1 Il microfono di tipo Soundfield …………………………………. 66 5.2 Manipolazione del segnale attraverso il sistema Ambisonic …… 70 5.3 Manipolazione digitale dei campi sonori Ambisonic …………… 76 5.4 Performance del sistema Ambisonic …………………………… 78 5.5 Un assemblaggio esaedrico per la riproduzione sonora tridimensionale ………………………………………….. 80 5.6 Un sistema di registrazione tridimensionale con microfoni ultradirezionali …………………………………... 82 5.7 Compatibilità tra i sistemi di spazializzazione sonora tridimensionale ………………………………………….. 87 5.7.1 La conversione dell’informazione tra i sistemi …………. 89 5.7.2 Le installazioni multi-sistema …………………….…….. 94 6 Caratteristiche del suono della sala da concerto ………….. 96 6.1 Principi psicoacustici fondamentali nel realismo della riproduzione sonora ……………………………………... 97 6.2 Principi psicoacustici delle sale da concerto ………………….. 98 6.3 Interaural Cross Correlation (IACC) …...…………………….. 101 6.4 La riverberazione …………………………..…………………. 105 6.5 IRT e EDT …………………..………………...………………. 107 6.6 La percezione della profondità ………………………………... 107 7 La ricostruzione dell’ambiente …………………………….. 109 7.1 La diafonia ……...…………………….……………..………... 109 7.2 Head-Related Transfer Function (HTRF) …………………….. 113 7.3 La percezione direzionale alle frequenze acute .……………… 116 7.4 Lo Stereo Dipole ……………………………………………… 119 7.5 Ricostruzione dell’ambiente attraverso la risposta all’impulso .. 122 7.6 La convoluzione ………………………………………………. 123 7.7 Il sistema di Klayman ………………………………………….126 7.8 Sviluppi recenti sulla creazione di riverberazione ……………. 128 8 Il sistema Ambiophonic ……………………………………... 130 8.1 Principi fondamentali del metodo Ambiophonic ……………... 130 8.2 Requisiti del sistema Ambiophonic …………………………... 134 8.3 Ottimizzazione della camera d’ascolto per Ambiophonic ……. 136 9 Trattamento acustico della camera d’ascolto ……………... 138 9.1 Le riflessioni della stanza …………………………………….. 138 9.2 L’ambiente acustico: stanza e altoparlanti …………………… 139 9.3 I pannelli fonoassorbenti ……………………………………... 141 IV
  • 5. 9.4 Muri inclinati verso l’esterno ………………………………… 142 9.5 Il tempo di riverberazione ……………………………………. 142 9.6 Il rumore di fondo ……………………………………………. 143 9.7 Comportamento della basse frequenze ……………………….. 144 9.8 Sistemi di correzione della stanza ……………………………. 145 10 Misure sperimentali e Simulazioni acustiche ………………………………………. 148 10.1 Misurazioni sperimentali ……………………………………. 148 10.2 Modelli numerici ……………………………………………. 154 10.3 Metodologia utilizzata ………………………………………. 155 10.4 Taratura del modello ………………………………………... 157 11 Realizzazione della camera d’ascolto ….………………...…. 161 11.1 Descrizione del materiale e della stanza .….………...………. 161 11.2 Confronto delle misure effettuate prima e dopo l’intervento acustico ………………………………………… 166 11.3 Prove d’ascolto ……………………………………………… 170 Conclusioni ………………………………………………………. 173 Sviluppi futuri ..…………………………………………………. 175 Ringraziamenti ……………………………………………………… 176 Bibliografia ……………………………………………………… 177 V
  • 6. Prefazione La seguente trattazione si occupa dell’ottimizzazione della qualità acustica delle sale d’ascolto e dei sistemi per la registrazione e riproduzione del suono in tre dimensioni. In primo luogo questi sistemi devono avere la capacità di captare e simulare un fenomeno acustico tridimensionale, dove gli stimoli sonori possono provenire da tutte le direzioni attorno ad un ascoltatore reale o virtuale. In secondo luogo questi sistemi devono riprodurre in un ambiente diverso, il fenomeno acustico originale in tutte le sue caratteristiche spaziali. La realizzazione di questi sistemi è stata possibile grazie a uno studio approfondito della percezione uditiva dell’uomo e in particolare dell’ascolto direzionale. Il nostro sistema uditivo permette di determinare con diversi gradi di precisione la direzione e la distanza delle sorgenti sonore nello spazio tridimensionale che ci circonda. Sono stati stabiliti due modelli di descrizione spaziale dei fenomeni acustici. Il modello binaurale si basa sulla capacità e sulla modalità della percezione uditiva umana. Il modello geometrico si basa sullo studio, attraverso la geometria euclidea, dell’utilizzo di trasduttori nei sistemi di registrazione e riproduzione sonori tridimensionali. Questi due modelli permetteranno un insieme di differenti tecniche di registrazione, simulazione e riproduzione sonora, e un’analisi oggettiva delle loro capacità riguardo alla spazializzazione del suono. L’obiettivo è illustrare quali sono i principi teorici su cui si fonda la realizzazione e il funzionamento delle tecnologie esistenti che quindi si adattano ai due modelli studiati. Il risultato di questa trattazione è mettere in rilievo una tecnologia chiamata Ambisonic, che risponde perfettamente al modello geometrico e che per le sue solide basi teoriche, permette un’espansione futura del sistema con una crescita significativa delle prestazioni. L’ascolto delle registrazioni effettuate con questo sistema, necessita di un ambiente con caratteristiche acustiche particolari: la camera d’ascolto. 1
  • 7. Introduzione Oggetto di questo lavoro è la realizzazione di una camera d’ascolto, con particolare riferimento alla spazialità del campo sonoro. Il presente lavoro è stato diviso in due parti, nelle quali la prima è preliminare alla seconda e necessariamente più teorica. La prima parte illustra le caratteristiche della percezione direzionale dell’udito e i principi teorici su cui si fonda la realizzazione e il funzionamento delle tecnologie esistenti. La seconda parte descrive il trattamento acustico effetttuato e rappresenta l’applicazione pratica delle teorie esposte in precedenza. Avvalendosi delle più moderne teorie acustiche, che permettono di valutare la qualità del suono percepito in base ai risultati di una serie di parametri, si è cercato di migliorare la qualità acustica dell’ambiente a nostra dispozizione, indirizzando il lavoro verso la diminuzione del tempo di riverberazione attraverso un trattamento acustico. È stato possibile prevedere il tipo di intervento più idoneo, utilizzando il computer per effettuare delle simulazioni acustiche, prima di procedere con l’applicazione dei materiali fonoassorbenti. Una volta confrontati i parametri acustici con quelli precedenti al trattamento, sono state effettuate le prove d’ascolto. La camera d’ascolto è dotata di 8 casse ed è attrezzata per utilizzare la tecnologia Ambisonic, che permette di realizzare una fedele riproduzione della spazializzazione del campo sonoro. Contrariamente a quello che si è constatato per la percezione visiva, che è emisferica, il nostro campo di percezione uditiva è molto più vasto: esso è totalmente sferico. Sembra che gli attuali sistemi elettroacustici non tengano in considerazione questa caratteristica della nostra percezione uditiva e offrendo all’ascoltatore una parziale riproduzione dello spazio sonoro. I microfoni e i sistemi di altoparlanti, uniti agli ambienti in cui essi sono inseriti, costituiscono gli elementi più critici dell’intera catena di ripresa- riproduzione sonora. 2
  • 8. In gran parte ciò è dovuto al fatto che entrambi sono dei trasduttori, dei dispositivi, cioè, aventi il compito di trasformare una forma di energia in un’altra: da sonora in elettrica i microfoni e viceversa gli altoparlanti. La tecnologia ha fatto molto per minimizzare tali cause di distorsione, tuttavia, allo stato attuale dell’arte, i risultati all’ascolto, pur essendo giunti a livelli credibili, non convincono ancora completamente. In particolare, ottimizzate la timbrica, la dinamica, le distorsioni lineari e non, il compito più difficile rimane quello di ricreare un’immagine sonora che, confrontata con l’evento reale, non sia semplicemente un’illusione del posizionamento originario degli esecutori e degli strumenti. Tuttavia ora possibile registrare un evento acustico nelle tre dimensioni dello spazio cartesiano e riprodurre l’evento originale con le sue tre dimensioni in un altro luogo. Questa riproduzione cerca di soddisfare la percezione uditiva sferica dell’ascoltatore. Prima è necessario esaminare i vari aspetti che concernono la nostra sensibilità uditiva dello spazio sonoro tridimensionale e i sistemi di registrazione e riproduzione acustica in tre dimensioni. È fondamentale studiare quali sono le nostre capacità di riconoscere la direzione di emissione della sorgente sonora, in un universo in cui i suoni provengono da tutte le direzioni. Esistono due modelli di descrizione sonora spaziale che permettono di valutare e comparare tutti i sistemi elettroacustici. Questi due modelli sono il modello binaurale e il modello geometrico. Si dimostrerà in seguito che i sistemi basati sul modello geometrico comportano un certo numero di vantaggi rispetto ai sistemi basati sul modello binaurale. Esiste un sistema elettroacustico chiamato Ambisonic che risponde il più fedelmente possibile al modello geometrico. Il sistema Ambisonic è più di un sistema ad architettura aperta: permette di intravedere le possibilità di espansione e utilizzazione futura offerte dal sistema. Con la guida dei due modelli sopra citati verranno esaminati con sguardo critico i sistemi elettroacustici di registrazione e riproduzione sonora, dai primi esperimenti significativi fino agli sviluppi tecnologici più recenti. 3
  • 9. CAPITOLO 1 IL SUONO, LO SPAZIO E L’ UDITO DIREZIONALE L’universo attorno a noi ci presenta degli stimoli sonori che possono provenire da tutte le direzioni. Ugualmente nello spazio sonoro limitato e controllato di una sala da concerto, gli stimoli sonori provenienti direttamente dalla sorgente e dalle riflessioni delle pareti, presentano agli ascoltatori un insieme di direzioni, ampiezze e frequenze varie, costituendo così uno spazio veramente tridimensionale. La letteratura scientifica sull’ascolto direzionale concorda nell’affermare che la percezione spaziale dell’uomo può essere rappresentato come un campo di percezione sferico in cui il centro è la testa. A diversi gradi di precisione noi possiamo identificare la posizione di una sorgente sonora attorno a noi. La capacità dell’udito umano di riconoscere la direzione e la posizione di una fonte sonora, giustificano la creazione di un sistema di riproduzione sonora tridimensionale. 1.1 I meccanismi dell’udito direzionale L’udito direzionale dell’uomo dipende da molteplici meccanismi che sono difficili da riassumere in un solo modello; questo perché l’udito direzionale è il risultato di due o tre meccanismi principali che contribuiscono maggiormente al processo di localizzazione sonora. Verranno ora descritti nei dettagli questi meccanismi. Il sistema di riferimento spaziale che sarà utilizzato in questa descrizione e illustrato dalla Figura 1.1. 4
  • 10. Figura 1.1 Sistema di rappresentazione sferico dello spazio in rapporto alla testa, dove r è la distanza, δ è l’angolo di elevazione e ϕ è l’azimut Noi vediamo che le tre dimensioni nel posizionamento spaziale in rapporto alla testa sono le seguenti: l’asse x descrive le posizioni dal davanti al dietro, l’asse y descrive le posizioni da sinistra a destra e l’asse z descrive le posizioni dall’alto al basso. In questo sistema le direzioni dei suoni in rapporto alla testa saranno date in coordinate polari. 5
  • 11. 1.2 La differenza interaurale dei tempi La distanza che separa i due orecchi è il fattore fisico principalmente responsabile della differenza, nel momento della percezione di un dato suono. Questa differenza temporale varierà a seconda dell’azimut della sorgente sonora. Non ci sarà differenza temporale se la fonte è situata a 0° o 180° d’azimut, cioè se perfettamente davanti o dietro l’ascoltatore. Se la sorgente si sposta dal piano orizzontale a partire da 0° o 180°, la differenza temporale aumenterà progressivamente e raggiungerà il suo massimo all’azimut 90° o 270°. Per questi valori dell’ azimut, stabilendo una distanza tra i due orecchi di 21,5cm e la velocità del suono di 344m/s, la massima differenza temporale sarà approssimativamente di 630 microsecondi. Questo valore non è assoluto poiché la distanza tra gli orecchi varia da un individuo all’altro e la velocità del suono cambia con la temperatura dell’aria. La differenza interaurale dei tempi sarà più o meno importante nella qualità della localizzazione a seconda dell’inviluppo del suono e delle armoniche che lo costituiscono. Così per i suoni che hanno attacchi rapidi, la differenza dei tempi potrà essere direttamente utilizzata dal cervello per la localizzazione spaziale, ma nel caso di un suono continuo o avente un attacco lento è la differenza di fase che sarà interpretata per localizzare la fonte sonora. La qualità dell’interpretazione della differenza di fase decresce rapidamente a partire da 180° fino a 360°. Ad esempio per una differenza di fase di 360°, non si può stabilire se si tratta di una differenza di 0°, 360° o 720°, e così per tutte le differenze superiori a 360°. La massima differenza di fase di 180° esisterà solo con la più alta frequenza utile determinata dalla sua mezza lunghezza d’onda, corrispondente alla distanza tra i due orecchi o determinata dal suo semiperiodo che corrisponde alla differenza temporale massima tra i due orecchi. Per le frequenze la cui 6
  • 12. mezza lunghezza d’onda è 21,5cm o più, e cioè le frequenze al di sotto degli 800 Hz, ci sarà una differenza di fase che varia tra 0° e 180°. Queste frequenze saranno utili per determinare il posizionamento orizzontale delle sorgenti sonore. Al di sopra degli 800 Hz ci sarà una differenza che varia tra 180° e 360° e la qualità dell’interpretazione decresce rapidamente per diventare assolutamente nulla per le frequenze la cui lunghezza d’onda è uguale o inferiore alla distanza tra gli orecchi e cioè al di sopra dei 1600 Hz. 1.3 La differenza interaurale d’ampiezza Per le frequenze al di sopra dei 2000 Hz la testa si presenta gradualmente come un ostacolo acustico sempre maggiore e l’assenza di diffrazione per queste frequenze dà luogo a differenze d’ampiezza tra i due orecchi, che variano col variare dell’azimut della sorgente sonora. Come nella differenza interaurale dei tempi, la differenza interaurale d’ampiezza è nulla quando la fonte sonora è situata agli azimut 0° e 180°. Nello stesso modo la differenza interaurale d’ampiezza raggiunge il suo massimo quando la sorgente è situata agli azimut 90° e 270°. È difficile dare cifre precise su questa differenza d’ampiezza, per la semplice ragione che la distanza della sorgente diventa anch’essa un fattore. Infatti la legge del quadrato inverso spiega che l’ampiezza di una sorgente sonora sferica decresce di 6dB per ogni raddoppio di distanza. Quindi ci sarà minore differenza interaurale d’ampiezza per una sorgente lontana, rispetto a una vicina con lo stesso azimut. Una differenza di circa 15-20dB darà l’impressione di uno spostamento laterale completo che corrisponde agli azimut 90° e 270°. Queste cifre rappresentano un caso estremo ottenuto in laboratorio con dei suoni sinusoidali di alta frequenza. La maggioranza delle ricerche sull’udito direzionale sono state compiute utilizzando suoni sinusoidali che rappresentano un caso estremo; la maggioranza dei suoni sono onde 7
  • 13. complesse formate dall’insieme dei suoni costituenti e raramente il riconoscimento della direzione è dovuto unicamente alla differenza interaurale dei tempi o alla differenza interaurale d’ampiezza. Tuttavia anche nelle migliori condizioni questi due meccanismi non sono sufficienti per spiegare la nostra capacità di decretare l’altezza (l’angolo di elevazione) di una fonte sonora. 1.4 Le modificazioni dell’orecchio esterno Dopo la seconda metà del XX secolo le ricerche sull’udito direzionale hanno prestato un’attenzione particolare alla funzione dell’orecchio esterno nella valutazione direzionale di un suono. Acusticamente il padiglione funziona come un filtro lineare la cui funzione di trasferimento dipende dalla direzione e dalla distanza della sorgente sonora. Il padiglione decodifica le caratteristiche spaziali del campo sonoro in caratteristiche temporali e spettrali. Per le frequenze superiori a circa 2000 Hz ogni variazione angolare nel piano meridiano risulta dalla modificazione della risposta in frequenza dovuta alle creste e alle gobbe del padiglione. Per esempio nel caso in cui il suono provenga direttamente davanti o dietro l’ascoltatore (0° o 180° d’azimut) con un’elevazione arbitraria, non ci sarà alcuna differenza di interaurale di tempo o d’ampiezza e ci sarà solo l’orecchio esterno a fornire informazioni sulla posizione della fonte sonora rispetto al piano meridiano. Per descrivere in maniera più visuale il funzionamento del padiglione dell’orecchio, nella localizzazione sonora, immaginiamo di dividere il piano meridiano con tante rette passanti per il centro. Consideriamo queste rette le direzioni delle possibili sorgenti sonore e costatiamo che gli ostacoli che ciascuna di esse incontrerà, da una parte all’altra del centro non saranno mai simmetrici. La discriminazione angolare avviene a 360° e non si avrà mai confusione con l’elevazione di una fonte sonora data e la sua elevazione 8
  • 14. collineare corrispondente a 180°. Quindi il padiglione concorre anche nella localizzazione avanti-dietro, che è una conseguenza della discriminazione angolare dell’elevazione. Essendo un cacciatore-predatore, per l'animale ha la massima importanza sentire la direzione dello spezzarsi di un ramoscello, il sibilo di un serpente, il barrito di un elefante, il richiamo degli uccelli, ecc. e probabilmente ha meno importanza sentire la direzione di frequenze più basse come il tuono, il sospiro del vento o la direzione dei tamburi. La dimensione della testa umana mostra chiaramente che l’uomo è maggiormente sensibile ai suoni di frequenza superiore a 700 Hz. La complessità della struttura non-lineare dell'orecchio esterno implica che la sua esatta funzione è troppo complessa e troppo soggettiva per essere spiegata con formule matematiche. Le creste e le cavità dell'orecchio sono così numerose e così differenziate da assicurare una grande sensibilità alle frequenze acute. Non importa da quali frequenze acute un suono sia costituito e da che direzione provenga, il padiglione e la testa insieme, o anche il singolo padiglione, produrranno un modello distintivo che il cervello può imparare a riconoscere per localizzare un determinato suono. L'orecchio esterno essenzialmente è un convertitore meccanico che individua le direzioni di arrivo dei suoni in base a dei modelli di risposta in frequenza prestabiliti. 1.5 Capacità direzionale del singolo padiglione auricolare Un esperimento molto semplice dimostra l’abilità del singolo padiglione auricolare di sentire la direzione nel piano orizzontale alle frequenze acute. Basta sistemare un metronomo direttamente di fronte a se. Chiudere gli occhi e localizzare la sorgente del suono usando entrambe le orecchie. Poi tenendo gli occhi chiusi, chiudere il più possibile un’orecchio e stimare quanto si è 9
  • 15. spostata la posizione apparente del suono, nella direzione dell’orecchio ancora aperto. Molti esperti di audio si aspetterebbero che il suono sentito solo nell’orecchio destro sembri provenire dall’estrema destra, ma in questo esperimento lo spostamento è raramente più di 5 gradi, e se si ha un grande padiglione auricolare la sorgente potrebbe non muoversi per niente. Una variante di questo esperimento è girare attorno con gli occhi chiusi e poi vedere quanto si arriva vicino alla collocazione della sorgente sonora. In questo caso l’effetto dell’ombra acustica della testa aiuta il padiglione auricolare nel processo finchè non ci si trova di fronte alla sorgente. Questi sono i casi in cui il singolo sistema di ricerca direzionale del padiglione dell’orecchio è più forte della differenza interaurale dell’intensità e spiega perché individui che sentono da un solo orecchio possono ancora individuare le posizioni delle sorgenti sonore. Se adesso passiamo a una sorgente di musica con tutta le frequenze, come una piccola radio, e si ripete l’esperimento descritto sopra, si sente una grande immagine che si sposta, dal momento che l’orecchio esterno e la testa sono meno importanti per la localizzazione del suono, quando esso scende sotto i 400 Hz. Ci sono state molte discussioni nella letteratura se l’abilità umana di localizzazione è per primo un fenomeno monaurale o binaurale. Probabilmente il cervello identifica e fa stime della posizione del suono attraverso ogni singolo input uditivo e poi combina il risultato monaurale con i meccanismi binaurali. Ogni sistema di riproduzione che non tiene conto della sensibilità del padiglione auricolare alla direzione dell’incidenza della musica non produrrà un suono naturale o realistico. Due localizzazioni sentite non sono superiori a una localizzazione sentita; entrambe devono accordarsi a tutte le frequenze per una riproduzione realistica. 10
  • 16. 1.6 Altri fattori Ci sono altri fattori che entrano in gioco in ciò che concerne l’udito direzionale. In particolare sono importanti i movimenti della testa che hanno la funzione di riposizionare la sorgente sonora in un settore della percezione spaziale in cui la precisione direzionale sarà maggiore e di diminuire così l’incertezza della localizzazione di tale sorgente. Questi movimenti della testa sono riflessi involontari. È importante considerare anche la conduttività della struttura ossea del corpo, specialmente della testa e delle riflessioni sonore causate principalmente dal torace. Gli indici di localizzazione forniti da questi meccanismi non sono necessariamente di buona qualità: per esempio i vestiti che noi portiamo modificano probabilmente la capacità riflessiva del torace, avendo così una buona riflessione invece che l’assorbimento totale di certe frequenze alte. Tra tutti i meccanismi dell’udito direzionale essi sono i più vulnerabili alle variabili esterne. 1.7 La legge del primo fronte acustico Questo è un fenomeno che è stato osservato quando ci sono due sorgenti sonore fisse e identiche, ma non simultanee. Se la differenza temporale tra le due sorgenti non è superiore a 37millisecondi il nostro il nostro sistema uditivo interpreterà la direzione del fenomeno acustico come quella della prima sorgente udita. Al di sopra del limite di 37ms, la seconda sorgente non si fonderà più con la prima e sarà chiaramente percepita come un eco. 11
  • 17. Questo è un processo di interpretazione mentale indipendente dalla differenza interaurale dei tempi. Ad esempio due sorgenti che si trovano in una posizione speculare di azimut rispetto al piano frontale, creano una differenza interaurale dei tempi identica l’una rispetto all’altra. In questo caso entrerà in causa la legge del primo fronte acustico e la sorgente che ha la priorità temporale sarà la sola ad essere percepita nella valutazione direzionale. 1.8 Precisione direzionale del sistema uditivo L’accuratezza della precisione direzionale del nostro sistema uditivo dipende generalmente dalla larghezza della banda spettrale della sorgente sonora. Più questa banda sarà ampia e più la direzione dell’evento udito sarà corrisponderà alla direzione reale della sorgente sonora. Così i suoni complessi che coprono diverse ottave saranno sempre facilmente localizzabili. Questi suoni faranno appello alla differenza interaurale dei tempi, alla differenza interaurale d’ampiezza e alle modificazioni del padiglione auricolare per consentire la localizzazione. Questa congiunzione di meccanismi porterà una ridondanza di informazioni di localizzazione e creerà un evento uditivo in cui la corrispondenza spaziale rispetto alla sorgente originale sarà assai elevata. Al contrario, nel caso dei suoni puri, come le onde sinusoidali senza attacco preciso, sarà utilizzato un solo meccanismo di localizzazione. L’assenza di ridondanza nelle informazioni di localizzazione contribuisce ad aumentare l’imprecisione nella spazializzazione dell’evento udito. La zona critica di frequenze dove l’imprecisione è maggiore, è attorno ai 2000 Hz. Poiché la differenza interaurale di fase diminuisce gradualmente di efficacia a partire da 800 Hz e poiché la differenza interaurale d’ampiezza 12
  • 18. non è veramente funzionale sopra i 2000 Hz, c’è una mancanza di sovrapposizione di zone coperte efficacemente da questi meccanismi di localizzazione. La nostra mancanza di discriminazione direzionale attorno ai 2000 Hz, spiega in parte la nostra maggiore sensibilità all’ampiezza acustica che si trova proprio in questo settore di frequenze. Questo è confermato dalle curve isofone adottate dall’International Organization for Standardization (ISO) nel 1987. 13
  • 19. CAPITOLO 2 MODELLI D’ANALISI SPAZIALE DEI SISTEMI ELETTROACUSTICI Noi abbiamo la capacità di registrare e riprodurre i suoni da circa un centinaio d’anni. Durante questo periodo, una moltitudine di tipi di supporto sono stati utilizzati per la trasmissione e la conservazione dell’informazione sonora, i cambiamenti di tecnologia erano generalmente giustificati per l’aumento della fedeltà nel sistema. Riguardo alla fedeltà spettrale e dinamica, abbiamo raggiunto un altissimo livello di realismo. La fedeltà spaziale è sì progredita, ma coloro che si occupano del settore e il grande pubblico non hanno i mezzi per apprezzare, comparare e descrivere le capacità di spazializzazione dei differenti sistemi. Si distinguono due filosofie di concepimento dei sistemi elettroacustici riguardo alla loro capacità di spazializzazione sonora. Tutti i sistemi che utilizzano dei trasduttori di ricezione e di riproduzione nascono da una o dall’altra di queste due filosofie. Quando si tratta di registrazione e riproduzione tridimensionale, esse non sono realmente in contrasto poiché procedono dalla stessa constatazione di partenza: la stereofonia attuale non è soddisfacente per ciò che concerne la spazializzazione e il posizionamento tridimensionale dei suoni. Il primo approccio considera il sistema uditivo umano come l’ultimo anello della catena elettroacustica. La conseguenza principale di questa presa di posizione è che non si può concepire altro che un sistema elettroacustico che può utilizzare solo due canali d’informazione, sostenendo che in una condizione normale d’ascolto il cervello ottiene una quantità e una qualità 14
  • 20. sufficienti di informazioni, per il posizionamento spaziale dei suoni, con un massimo di due canali. La seconda filosofia, che, in certi casi, deriva dall’esperienza pratica, più che da una vera riflessione scientifica, considera come punto finale della catena elettroacustica, la sala, lo spazio acustico in cui ha luogo l’evento sonoro. Questo approccio, che resta per il momento il più sfruttato, non ha tuttavia stimolato la pratica scientifica necessaria. Da queste due filosofie derivano due modelli di registrazione e riproduzione sonora. Questi due modelli serviranno all’analisi comparativa delle differenti teorie dei differenti sistemi. Il primo modello, basato sulla filosofia del sistema uditivo come punto finale della catena, sarà chiamato modello binaurale. Il secondo modello, basato sulla filosofia dello spazio di riproduzione come punto finale della catena, sarà chiamato modello geometrico. Un sistema unidimensionale potrà captare e riprodurre i suoni su un asse dato. Un sistema bidimensionale potrà captare e riprodurre i suoni su piano dato e un sistema tridimensionale potrà captare e riprodurre i suoni in uno spazio o in un volume dato. 2.1 Il modello binaurale Sviluppato dalle ricerche sull’udito direzionale, il modello binaurale di registrazione e riproduzione sonora cerca di ottenere una replica dei fattori fisici più significativi che sono responsabili dell’udito direzionale umano. Due trasduttori disposti ai lati di un separatore chiamato generalmente baffle, di volume considerevole (simula l’ostacolo rappresentato dalla testa) e dei filtri acustici, fisicamente asimmetrici, adiacenti ai trasduttori (come i padiglioni auricolari) formano la struttura portante di questo modello. 15
  • 21. È necessario utilizzare, per la riproduzione meccanica o elettronica del modello, due canali d’informazione che producano dei segnali analogici che stimolino i nostri timpani. Se il modello è rispettato, questi canali producono delle differenze fra loro di tempo e d’ampiezza, per la codifica delle differenze direzionali verticali. Poiché il timpano è un trasduttore che risponde ai cambiamenti assoluti di pressione, i trasduttori di un microfono binaurale devono essere dello stesso tipo per seguire fedelmente il modello. Dall’altra parte della catena, i trasduttori di riproduzione devono portare direttamente ai due canali uditivi l’informazione decodificata, in modo che sia convertita dal nostro sistema uditivo interno e codificata in maniera appropriata dal cervello. 2.2 Il modello geometrico Il modello geometrico ha una genesi un po’ meno definita del modello binaurale e solo tardivamente, verso la fine degli anni settanta, è stato esposto chiaramente. Nel modello geometrico, i trasduttori audio, microfoni e altoparlanti, sono considerati come punti di ricezione e di emissione nello spazio. Questa riduzione dei trasduttori a dei punti è una convenzione generalmente accettata e fa evidentemente riferimento alle caratteristiche fisiche e elettriche dei microfoni e degli altoparlanti, oltre che alle caratteristiche di ricezione e di emissione sonora. Questi trasduttori sono quindi considerati come punti nello spazio tridimensionale e interpretati secondo le leggi della geometria euclidea. Un punto nello spazio è definito dalla sua posizione; così un microfono nella registrazione e un altoparlante nella riproduzione sono definiti dalla loro posizione nello spazio. Due punti definiscono una retta; due microfoni e due diffusori definiscono una dimensione dello spazio. Tre punti non allineati 16
  • 22. possono definire un piano; tre microfoni e tre altoparlanti non allineati possono definire due dimensioni dello spazio. Infine quattro punti che non si trovano sullo stesso piano possono definire un volume e ugualmente quattro microfoni e quattro diffusori situati non sullo stesso piano, possono definire le tre dimensioni dello spazio. Nella geometria analitica quattro punti equidistanti che non si trovano sullo stesso piano, formano il tetraedro, il più semplice poliedro regolare inscrivibile nella sfera, come si vede nella Figura 2.1. Figura 2.1 Riassumendo, il numero e la posizione dei trasduttori gli uni rispetto agli altri, alla registrazione e alla riproduzione, avrà una conseguenza diretta sulle possibilità di codifica e decodifica delle caratteristiche spaziali del fenomeno acustico originale. Il modello geometrico è nato dagli esperimenti compiuti indipendentemente in Francia, in Inghilterra e negli Stati Uniti dopo gli anni cinquanta. Nel 1952, Pierre Scheaffer si dedicò a una serie di esperimenti per la riproduzione tridimensionale della musica elettroacustica, proponendo di disporre i diffusori in modo che formassero un tetraedro. Alla fine degli anni 17
  • 23. sessanta si fecero esperimenti, soprattutto in Inghilterra, sulla registrazione basata sul tetraedro. Il modello geometrico fu proposto negli Stati Uniti da Peter Scheiber, ma illustrato solo in modo teorico, spiegando la codifica bidimensionale a tre canali e la codifica tridimensionale a quattro canali. In Inghilterra, il matematico Michael Gerzon sperimentò l’integrazione della registrazione bidimensionale e tridimensionale nello stesso modello geometrico. Fece test sulla registrazione e riproduzione bidimensionale a tre trasduttori e quella tridimensionale a quattro trasduttori. Gerzon affermò in seguito, che le conclusioni alle quali giunse erano basate sulle ricerche del matematico inglese Stokes nel 1952 e del matematico francese Poincaré nel 1892. Le caratteristiche direzionali dei trasduttori nel modello geometrico, possono essere omnidirezionali, unidirezionali o bidirezionali. Nella riproduzione, i diffusori unidirezionali o bidirezionali, devono essere avere il campo di emissione con polarità positiva, diretto verso il centro di massa della figura geometrica che essi delineano. Lo spazio di riproduzione deve essere il meno riverberante possibile, fino a essere idealmente anecoico. Infatti in uno spazio riverberante, le diverse riflessioni sulle pareti pregiudicano la qualità della riproduzione direzionale. In una camera anecoica o con poca riverberazione, gli altoparlanti unidirezionali sono preferibili. Per la registrazione, l’utilizzo di microfoni omnidirezionali esige una certa distanza o l’utilizzo di un baffle tra i microfoni. La distanza o il baffle creerà le differenze tra i canali, d’ampiezza e di tempo, necessari per la codifica direzionale. Se si utilizzano dei microfoni unidirezionali, bisogna calcolare l’orientamento verso l’esterno della figura geometrica disegnata dalla disposizione dei trasduttori, le rette definite dal centro di massa e i vertici della figura. Inoltre è necessaria la coincidenza spaziale dei microfoni, cioè la più grande vicinanza possibile tra loro. Una registrazione che utilizza dei microfoni unidirezionali descrive lo spazio attraverso la variazione assoluta 18
  • 24. di pressione e attraverso i gradienti di pressione; i microfoni cardioidi sono un misto tra gli omnidirezionali e i bidirezionali. Se una registrazione utilizza solamente dei microfoni bidirezionali coincidenti, la descrizione dello spazio sarà incompleta perché includerà solo dei gradienti di pressione. Per essere bidimensionale o tridimensionale, una registrazione con microfoni bidirezionali dovrà includere anche la variazione assoluta di pressione. Questo sarà assicurato dalla presenza di un microfono omnidirezionale coincidente ai microfoni bidirezionali. Inoltre i microfoni bidirezionali devono essere idealmente disposti in modo da fare una registrazione ortogonale dello spazio acustico. Un ultimo caso, un po’ particolare e complesso, di microfoni bidirezionali, che introduce un altro modello, che si può considerare una variante del modello geometrico: il modello delle armoniche sferiche. 2.3 Il modello delle armoniche sferiche Finora abbiamo parlato della direzionalità dei trasduttori in termini generali, classificandoli come omnidirezionali, unidirezionali, o bidirezionali. Se storicamente queste caratteristiche sono state ottenute in maniera empirica, esiste tuttavia, un modello matematico che permette di spiegare e immaginare caratteristiche direzionali ancora più complesse. Per comprendere meglio fermiamoci a riflettere su un’analogia. Si può scomporre lo spettro in frequenza di un fenomeno sonoro complesso, nelle componenti di frequenza (armoniche) che lo costituiscono. I suoni complessi sono formati da un insieme di armoniche, legate tra loro da una relazione matematica. Allo stesso modo, la direzionalità nello spazio di tutti i fenomeni d’emissione e ricezione sonora può essere scomposta nelle sue componenti primarie, chiamate armoniche sferiche. 19
  • 25. Il modello delle armoniche sferiche si applica si applica a un insieme di fenomeni fisici elettromagnetici, elettrodinamici, atomici e acustici. Osserviamo i primi tre ordini di armoniche sferiche semplici, come mostrato in Figura 2.2. Il microfono che corrisponde all’armonica di ordine zero è conosciuto con il nome di omnidirezionale e il microfono che corrisponde all’armonica di primo ordine è chiamato bidirezionale o figura otto. Le due sfere dell’armonica sferica di primo ordine, avranno una polarità differente. La polarità dei lobi alternerà sempre da un lobo all’altro: un lobo positivo sarà sempre seguito da un lobo negativo, che a sua volta sarà seguito da un lobo positivo e così via. Figura 2.2 Nell’armonica di secondo ordine, i lobi che puntano a 0° e 180° saranno positivi, mentre il lobo che si trova sull’asse 90°-270° sarà negativo. La funzione matematica che descrive l’armonica di ordine zero e l’Eq. (1), la funzione dell’armonica sferica di primo ordine è l’Eq. (2) e la funzione dell’armonica sferica di secondo ordine è l’Eq. (3). 20
  • 26. (1) Y0 (q) = 1 (2) Y1 (q) = cos (3) Y2 (q) = cosq2 –1 Le armoniche sferiche semplici possono combinarsi linearmente per creare quelle che chiameremo armoniche sferiche complesse. Si possono combinare per semplice addizione i segnali dei microfoni alle proprietà sferiche semplici e ottenere dei microfoni virtuali alle proprietà sferiche complesse. Per ottenere risultati che implicano una previsione matematica semplice, bisogna assicurare la coincidenza spaziale dei microfoni di base e l’allineamento delle loro assi di rotazione, cioè l’asse perpendicolare al diaframma passante per il centro. Si deve assicurare la coincidenza spaziale su due assi, X e Y per esempio, in modo da garantire l’integrità della risposta direzionale del microfono virtuale nel piano determinato dai due assi. Il microfono virtuale avrà, sempre nel piano dove c’è la coincidenza, le qualità di risposta in frequenza dei microfoni che lo costituiscono. Per esempio combinando in un rapporto 1:1 il segnale di un microfono di ordine zero coincidente a un microfono di primo ordine semplice, in modo che i loro guadagni rispettivi siano identici per l’azimut 0°, si ottiene un microfono di primo ordine complesso. Il guadagno uguale e con la stessa polarità di ogni microfono a 0° avrà ampiezza doppia per questo valore dell’azimut a causa della combinazione dei rispettivi segnali. Così il guadagno uguale, ma con polarità opposta a 180°, creerà l’annullamento completo per questo valore dell’azimut a causa della combinazione dei segnali. Allo stesso modo per tutti i valori dell’azimut, il segnale risultante è dovuto alla combinazione dei segnali dei rispettivi microfoni. Il microfono virtuale così ottenuto viene chiamato unidirezionale o cardioide. Affinché il modello geometrico sia valido, la codifica della direzionalità acustica deve sempre includere un ordine dato di armoniche sferiche e tutti gli ordini che gli sono inferiori. Quindi se si riprende lo spazio con dei 21
  • 27. microfoni bidirezionali, si tratta di una registrazione di primo ordine; si deve allora includere l’ordine zero, cioè l’omnidirezionale. È per questa ragione che una registrazione con dei cardioidi di primo ordine è completa poiché questi microfoni sono una combinazione lineare dell’armonica di ordine zero e di primo ordine. CAPITOLO 3 I SISTEMI ELETTROACUSTICI BINAURALI La distinzione tra un sistema stereofonico convenzionale e un sistema binaurale non è evidente e si fa spesso confusione tra i due, quando non c’è una totale ignoranza riguardo al secondo procedimento. In un sistema che segue il modello binaurale, è d’obbligo l’utilizzo di due canali poiché si tratta di un processo di simulazione del sistema uditivo umano. La produzione di un segnale audio binaurale si effettua con la registrazione attraverso la testa di un manichino. I tratti generali del manichino possono essere una grossolana approssimazione, ma le orecchie devono essere una replica esatta del padiglione auricolare per poter ottenere dei risultati soddisfacenti. I microfoni sono posizionati generalmente all’inizio del canale uditivo. Poiché le modificazioni dell’orecchio esterno saranno già incluse nel segnale audio registrato dal procedimento binaurale, è necessario l’utilizzo di un casco d’ascolto. Infatti il segnale audio sarà modificato una seconda volta dal padiglione auricolare, se la registrazione binaurale viene ascoltata tramite degli altoparlanti. 22
  • 28. Figura 3.1 Il microfono binaurale Neumann KU 100 e il microfono binaurale Bruel & Kjaer 4128 Le prestazioni di questo sistema possono essere stupefacenti, ma queste dipendono molto dall’integrità spettrale di tutta la catena di registrazione e riproduzione. Poiché il padiglione dell’orecchio apporta delle modificazioni spettrali che vengono utilizzate dal cervello per riconoscere la posizione della fonte sonora, il filtraggio non desiderato produce delle aberrazioni spaziali. Inoltre l’utilizzo di un casco d’ascolto costituisce un problema nella riproduzione delle frequenze basse. La piccola superficie dei diaframmi e la loro zona d’escursione piuttosto limitata costituiscono le ragioni principali nella mancanza d’ampiezza di queste frequenze. Un altro inconveniente è l’assenza di trasmissioni meccaniche del suono sulle altre parti del corpo: lo schiocco di certi inviluppi di suoni dagli attacchi molto rapidi, come certi strumenti a percussione, che vengono percepiti in maniera quasi tattile, e la trasmissione delle basse frequenze attraverso la struttura interna del corpo. 23
  • 29. 3.1 La simulazione binaurale e la conversione transaurale Nelle migliori dimostrazioni, sembra che ci sia un certo consenso sulla qualità dell’illusione tridimensionale ottenuta con una buon registratore binaurale, a patto che si utilizzi un casco d’ascolto. Questo successo ottenuto, ma le sue frustranti limitazioni, pongono due quesiti fondamentali sui sistemi binaurali: è possibile codificare dei segnali sonori monofonici, che provengono da un nastro multitraccia o da una presa polimicrofonica ad esempio, per conferire loro un carattere binaurale? È possibile codificare un segnale binaurale per rendere compatibile il suo ascolto attraverso degli altoparlanti? Le ricerche su questi due aspetti hanno avuto uno sviluppo indipendente e apparentemente senza fini commerciali. Alcune imprese hanno comunque nutrito un certo interesse nell’unire questi due aspetti della ricerca sulla registrazione binaurale, per sviluppare dei prodotti che rispondano alle esigenze dell’industria della musica. Il missaggio stereofonico di nastri multitraccia esiste già da un certo periodo di tempo e diventa spontaneo chiedersi se il missaggio di questi nastri si possa fare con tecniche binaurali. La conoscenza delle caratteristiche della percezione direzionale dell’udito umano e lo sviluppo tecnologico dei calcolatori lasciano intravedere la possibilità che si costruiscano apparecchi che apportano su suoni monofonici, un certo numero di modificazioni parametriche che simulano la registrazione binaurale. La documentazione pubblicata dalle compagnie di ricerca rimane per il momento piuttosto scarsa. Un gruppo di ricerca delle NASA in California ha studiato il procedimento dividendo il campo sferico di ricezione in 144 posizioni. Il metodo di misurazione delle posizioni di riferimento è molto semplice, ma molto noioso e ripetitivo. Si diffondono in condizioni anecoiche degli impulsi di rumore rosa nelle posizioni predeterminate. Questi impulsi saranno captati da un sistema di microfoni binaurali basati su un modello statistico medio di misurazione delle orecchie, della testa e del tronco. 24
  • 30. Per ogni posizione, si misura la differenza interaurale dei tempi e d’ampiezza e si confronta la modificazione spettrale assoluta di ogni orecchio. Queste misure sono immagazzinate in un calcolatore che, a seconda delle capacità e dell’interfaccia usata, applicherà le modificazioni binaurali ai suoni monofonici. Idealmente queste modificazioni dovrebbero essere compiute in tempo reale, e permettere delle modificazioni dinamiche nella localizzazione dei suoni, cioè la dislocazione dei suoni. La dislocazione, permettendo all’ascoltatore di confrontare le posizioni in tempo reale, rinforza la certezza di impressione della spazializzazione. Se si desidera simulare un suono dato, senza dislocazione del suono, non è più possibile avere il confronto delle caratteristiche che indicano la posizione del suono. Risulta un aumento del flusso di localizzazione e cioè una direzione completamente errata. La condizione implicita dei sistemi binaurali è che l’intera catena di trasmissione dell’informazione sia neutra quanto all’integrità della risposta in frequenza dei diversi suoni. Il problema è che non si può garantire questa neutralità e che certe modificazioni spettrali, volute o no, possono causare un posizionamento spaziale non desiderato. Un modo di risolvere questo problema sarebbe quello di prendere come punto di partenza le misure individuali del posizionamento spaziale. Il gruppo di ricerca della NASA ha utilizzato un simulatore binaurale, ma per ogni soggetto che l’ha testato, sono state prese delle misure binaurali individuali. Solo così il sistema è efficace e attualmente non è possibile la sua commercializzazione, ma questa squadra di ricercatori spera tuttavia di riuscire a sviluppare un modello statistico medio soddisfacente. Per quel che concerne la questione di adattare una registrazione binaurale all’ascolto su degli altoparlanti, bisogna innanzitutto ricordare che la caratteristica fondamentale del segnale binaurale è la funzione di trasferimento da un sistema uditivo esterno (le orecchie, la testa e il torace). La conseguenza evidente è che questo segnale non può subire un’altra modificazione da parte dell’orecchio esterno e questo spiega incompatibilità con l’ascolto attraverso dei diffusori. 25
  • 31. Inoltre, poiché il segnale binaurale deve stimolare direttamente i timpani, esso non può tollerare alcuna forma di diafonia: quando un segnale binaurale è ascoltato attraverso degli altoparlanti, una parte dell’informazione destinata esclusivamente all’orecchio sinistro verrà udita anche da quello destro e viceversa. Si ha quindi, diafonia acustica tra i canali. I problemi principali, che rendono incompatibile l’ascolto del segnale binaurale con gli altoparlanti, sono due: la reinterpretazione da un sistema binaurale di un segnale che ha già stato modificato da questa funzione di trasferimento e la diafonia acustica. Per risolvere questi problemi è necessaria una trasformazione del segnale in modo da renderlo compatibile con l’ascolto mediante dei diffusori. Questo processo di trasformazione del segnale binaurale è chiamato “conversione transaurale”. La soluzione al problema della reinterpretazione del segnale è relativamente semplice da realizzare. L’ascolto mediante diffusori è sempre realizzato pressappoco nella stessa maniera: gli altoparlanti sono angolati di circa 30° da ogni lato rispetto all’asse d’ascolto, sono idealmente alzate a un metro dal suolo e sono posizionate di fronte all’ascoltatore. Il suono che proviene dai diffusori è interpretato dal sistema binaurale come due sorgenti discrete a posizione fissa. Misurando le modificazioni binaurali per le posizioni abituali degli altoparlanti in ascolto stereofonico, si può calcolare una funzione di trasferimento binaurale media per questo tipo d’ascolto stereofonico mediante diffusori. Si può allora applicare l’inverso di questa funzione al segnale binaurale, prima che esca dagli altoparlanti. La funzione di trasferimento inverso e quella di trasferimento dell’ascoltatore si annullano e il suono recupera la sua neutralità frequenziale. David Griesinger della compagnia Lexicon, suggerisce di utilizzare una funzione di trasferimento media molto più globale e parla di “rendere lineare la risposta in frequenza media per l’emisfero frontale”. 26
  • 32. I risultati degli esperimenti compiuti da Lexicon sono stati utilizzati nella costruzione di certi modelli di processori audio di calcolo numerico prodotti da questa compagnia. La soluzione al problema della diafonia acustica, teoricamente non è più complessa, ma necessita di una elaborazione dell’informazione in tempo reale molto più importante. Come sappiamo, il segnale destinato esclusivamente a un orecchio in particolare è udito anche dall’orecchio opposto, ma con un certo ritardo e una certa diminuzione d’ampiezza. Se si diffonde nell’altoparlante corrispondente all’orecchio opposto un segnale identico a quello della diafonia, cioè con lo stesso ritardo e diminuzione d’ampiezza, ma con polarità inversa, questo nuovo segnale dovrebbe eliminare la diafonia. Evidentemente il segnale d’annullamento sarà udito anche dall’orecchio opposto a quello a cui il segnale era destinato; noi abbiamo così un nuovo problema di diafonia e un nuovo segnale d’annullamento deve essere generato per eliminare il primo segnale d’annullamento. Questo processo deve essere ripetuto il numero di volte necessario e in maniera continua in tempo reale sui canali sinistro e destro per funzionare adeguatamente. La mole del processo di elaborazione del segnale è enorme. Problematica è la posizione d’ascolto: alle frequenze alte una dislocazione di qualche centimetro rovina l’effetto, poiché la simmetria del rapporto tra i diffusori e l’ascoltatore non è più assicurata. Le frequenze basse sono molto meno sensibili alla posizione d’ascolto: la loro grande lunghezza d’onda assicura una certa tolleranza. Esperimenti compiuti negli Stati Uniti e in Europa, dimostrano che più la sala d’ascolto è riverberante e più è grande la quantità di elaborazione necessaria. In condizioni d’ascolto anecoico, in cui si può ridurre la mole di trattamento, sono stati ottenuti risultati eccellenti duranti gli anni ottanta. La simulazione binaurale e la conversione transaurale, si articolano attorno a due punti: trovare un modello statistico medio soddisfacente della funzione di trasferimento del sistema uditivo umano e aumentare la quantità di 27
  • 33. elaborazione informatica, per permettere una migliore definizione del campo uditivo e un’eliminazione della diafonia più efficace. Da qualche anno c’è una crescente comparsa di sistemi di simulazione binaurale: il CAP-340M dell’AKG, il Qsound della Qsound Corporation, il Roland Sound Space (RSS) e i differenti apparecchi di Spatializer Audio Laboratories, per nominarne alcuni. La Roland afferma che i meccanismi di funzionamento dell’RSS sono basati sui risultati della ricerca psicoacustica in ciò che concerne l’udito direzionale. E’ interessante constatare che l’apparecchio è diviso in due blocchi: il simulatore binaurale e il convertitore transaurale. La revisione di uno solo dei due settori sarà sempre possibile e migliorerà senza alcun dubbio la performance globale del sistema. 3.2 I sistemi elettroacustici ibridi Da qualche anno, sono nati nuovi strumenti di registrazione e la loro classificazione diventa difficile. In effetti i loro principi di funzionamento e la metodologia di elaborazione del segnale fanno riferimento sia al modello binaurale che al modello geometrico. Appartengono a questa categoria di sistemi di registrazione ibridi il Stereo Ambient Sampling System (SASS) della compagnia americana Crown e la Sfera della compagnia tedesca Schoeps, come mostrato in Figura 3.2. 28
  • 34. Figura 3.2 Il SASS della Crown e la Sfera della Schoeps Questi sistemi utilizzano un baffle di forma complessa e di volume considerevole, per simulare certe caratteristiche della testa umana. La presenza di questo baffle risponde alla prima esigenza del modello binaurale. Nello stesso tempo l’assenza di filtri acustici adiacenti ai trasduttori, che simulano il padiglione dell’orecchio, si rifà al modello geometrico. La sfera è stata sviluppata in seguito all’elaborazione del modello teorico di Gunther Theile che afferma che si deve inserire in una registrazione stereofonica delle modificazioni di segnale corrispondenti a quelle apportate dal sistema uditivo umano, in particolare a quelle conseguenti agli effetti acustici della testa. La sfera è costituita da un baffle sferico di 200 mm di diametro, sul quale sono montati ai due antipodi due capsule omnidirezionali. Si ottiene dunque una codifica quasi binaurale; evitando volontariamente le modificazioni spettrali e temporali del padiglione dell’orecchio, il segnale stereofonico prodotto dalla Sfera, non ha i problemi di compatibilità delle registrazioni binaurali con l’ascolto con gli altoparlanti. Il baffle attenua sufficientemente le frequenze acute degli stimoli sonori opposti (captati direttamente da una delle due capsule e per diffrazione dall’altra) affinché il 29
  • 35. problema del filtraggio a pettine (comb filtering) delle onde in opposizione di fase venga attenuato. Tutte le altre particolarità importanti di codifica direzionale prodotte dalla testa sono ugualmente prodotte dalla Sfera. Le caratteristiche fisiche della Sfera la rendono conforme al modello Spectral Stereo di Cooper, che è un modello d’ascolto basato su un baffle sferico. Non si può pretendere di produrre un informazione spaziale completa con la Sfera; la sua ricezione è completa negli assi X (avanti/dietro) e Z (alto/basso). La ricezione della Sfera, essendo discriminante solo sull’asse Y (sinistra/destra), è unidimensionale. Poiché questa codifica direzionale sull’asse Y avviene rispettando il modello d’associazione, si pretende che produca un segnale stereofonico più soddisfacente riguardo all’impressione spaziale, senza perdere gli attributi di sensibilità con i suoni coincidenti. Osserviamo che la Sfera ha un antenato francese, il registratore che l’ingegner Charlin ha sviluppato alla fine degli anni cinquanta. Questa palla ricoperta da una fasciatura aveva anch’essa due microfoni omnidirezionali posizionati in maniera identica alla Sfera. La compatibilità mono/stereo determinò il successo di questo sistema che non rendeva obsoleti i giradischi monofonici. Più recentemente, con le ricerche di Theile, il registratore con un baffle sferico ha trovato le sue giustificazioni teoriche e un’incarnazione commerciale più valida. Le qualità di registrazione della Sfera si trovano anche nel SASS. Sviluppato includendo certi meccanismi binaurali per contrastare i difetti di presa di posizione dei suoni stereofonici coincidenti, ma con la cura della compatibilità del suono monofonico e d’ascolto con i diffusori, il SASS è un vero sistema di registrazione ibrido. I suoi inventori hanno ricordato che il SASS risponde perfettamente alle esigenze dei modelli di Cooper e Theile. Il modo in cui il SASS risponde a queste esigenze è leggermente diverso da quello della Sfera. La differenza maggiore è nelle caratteristiche del baffle: di forma più complesssa, l’analisi visuale della simmetria delle traiettorie delle rette collineari sul baffle, ci fa 30
  • 36. notare che il SASS permette una codifica direzionale sia sull’asse Y (sinistra/destra) che sull’asse X (avanti/dietro). L’efficacia della codifica sull’asse Y è sperimentata, ma non si può sapere a priori se la codifica sull’asse X sarà di una qualità soddisfacente con l’ascolto con gli altoparlanti o almeno con il casco d’ascolto. Malgrado la differente costruzione, la Sfera e il SASS utilizzano gli stessi meccanismi per la codifica sull’asse Y. I due sistemi utilizzano delle capsule omnidirezionali; a basse frequenze il baffle non è efficace e la diffrazione avrà pertanto una pressione acustica quasi uguale sui due diaframmi, qualunque sia la direzione del suono. È invece la distanza tra le due capsule e la differenza di fase che sarà così introdotta che permette di codificare la direzione a basse frequenze. Al di là di una certa zona di frequenze, circa 1000 Hz, a causa della presenza del baffle, la direzionalità delle capsule aumenta e la differenza d’ampiezza tra i canali assicura la codifica direzionale. Nelle frequenze acute la grandezza del baffle è abbastanza importante per prevenire il filtraggio a pettine nella somma monofonica. L’assenza totale di discriminazione sull’asse Z assicura un ascolto compatibile con i diffusori. Parliamo infine di un altro sistema, non commercializzato, che può essere aggiunto a questa categoria di registratori stereofonici ibridi. Si tratta del Matrixed Pressure Triplet (MPT) del belga Andrè Defossez. Tre capsule omnidirezionali sono disposte in maniera equidistante sulla superficie curva di un baffle cilindrico, avendo così una differenza di 120° tra loro. La capsula A è diretta a 0°, la capsula B a 120° a sinistra e la capsula C 120° a destra. I segnali per i diffusori sono prodotti da un decodificatore matrix, cioè attraverso un missaggio prestabilito di canali discreti di una console. La capsula A alimenta congiuntamente i canali sinistro e destro, la capsula B alimenta il canale sinistro e, con un attenuazione di 18dB e con inversione di polarità, il canale destro. Avviene la stessa cosa con la capsula C che alimenta direttamente il canale destro e, con l’attenuazione di 18dB e inversione di polarità, quello sinistro. 31
  • 37. L’inventore dell’MPT piazza la sua invenzione in un settore ancora inesplorato: la registrazione stereo non coincidente con un decodificatore matrix. Se questa tecnica può sembrare a prima vista temeraria, bisogna ricordare che il baffle assicura un’attenuazione sufficiente delle frequenze acute e controlla il filtraggio a pettine. L’MPT risponde sicuramente a un certo numero di criteri del modello di associazione di Theile, ma è ragionevole credere che il rispetto del modello sarebbe sicuramente più completo se il baffle fosse di forma sferica piuttosto che cilindrica. Il cilindro rappresenta un ostacolo acustico differente dalla sfera o dalla testa e può portare delle modificazioni spettrali che possono essere falsate al momento della riproduzione. L’informazione spaziale è codificata su due assi, X e Y, e l’MPT potrebbe essere considerato come un registratore bidimensionale. 3.3 I limiti dei sistemi basati sul modello binaurale Per aspirare alla commercializzazione, i sistemi basati sul modello binaurale fanno fronte ad importanti insidie tecnologiche. Delle ricerche recenti hanno sviluppato dei modelli teorici di riproduzione binaurale con più di due altoparlanti e per più di un ascoltatore, ma non sono ancora stati pubblicati risultati sperimentali. Per il momento non si può fare altro che estrapolare sull’applicazione della transauralità per più ascoltatori. Altro problema è che la riproduzione binaurale può essere interpretata solo da una posizione fissa. Questo accade anche con il casco d’ascolto: se l’ascoltatore gira la testa, tutto il campo sonoro segue il movimento. In una situazione acustica reale, quando si gira la testa, i suoni cambiano posizione nel nostro campo di percezione. 32
  • 38. Solo il sistema della NASA permette lo spostamento dell’ascoltatore all’interno dello spazio in cui ha luogo l’evento sonoro. La registrazione originale è multitraccia e ad ogni elemento sonoro che costituisce l’evento, viene assegnata una posizione assoluta nello spazio in cui ha luogo l’esperienza e una relativa alla posizione dell’ascoltatore. Quest’ultimo, con il suo casco d’ascolto, può posizionarsi nello spazio sonoro virtuale mentre il calcolatore aggiusta il segnale a seconda dei suoi spostamenti. Questa filosofia di riproduzione binaurale è molto simile al concetto di realtà virtuale nel mondo informatico. Non si possono che ammirare i numerosi sforzi per migliorare la tecnologia, ma bisogna interrogarsi davanti alla possibilità di sfruttamento commerciale di un tale sistema. I metodi che esige la registrazione si adattano abbastanza bene se ci si occupa di musica pop, ma non corrispondono a pratiche usuali nella musica classica o in manifestazioni musicali acustiche. Inoltre la registrazione multitraccia non può essere mixata: ogni elemento sonoro deve rimanere discreto perché gli si possa applicare il trattamento binaurale adeguato per l’ascolto. Si parla di un formato per consumatori da almeno venti piste. È pur vero che con i continui e rapidi sviluppi tecnologici è difficile prevedere il futuro, ma un formato di questo tipo non può essere preso in considerazione se non tra una decina d’anni. Il problema principale di tutti i sistemi basati sul modello binaurale è che essi devono tendere verso la formulazione di un archetipo dell’udito direzionale. Questo archetipo, definendo le caratteristiche standard fisiche della testa e delle orecchie, nega le caratteristiche fisiche individuali dell’ascoltatore. Al di là delle variazioni che si constatano nelle particolarità della testa, le variazioni nelle particolarità del padiglione auricolare sono ancora più grandi da un individuo a un altro. È lecito credere, in base agli studi sull’udito direzionale, che l’ascolto con le orecchie di un’altra persona avrebbe un effetto devastante sulla qualità della percezione spaziale. Il modello binaurale è studiato per un ascoltatore adulto. 33
  • 39. La forma e la grandezza della testa e delle orecchie cambiano durante la crescita verso lo stadio adulto. La presentazione di un segnale binaurale adulto a un bambino, darebbe come risultato una cattiva decodifica del segnale. Non solo sarebbero inesatte le modificazioni spettrali apportate dal padiglione dell’orecchio, ma sarebbero difficilmente interpretabili anche le differenze interaurali dei tempi e d’ampiezza. Inoltre la sensibilità all’ampiezza sonora non simmetrica tra l’orecchio sinistro e destro e questa sensibilità è rovesciata nei mancini. Si dovrà allora costruire un modello binaurale destro e uno mancino? Favorendo un modello standard non verranno soddisfatti tutti i possibili fruitori. 34
  • 40. CAPITOLO 4 I SISTEMI ELETTROACUSTICI GEOMETRICI Lo sviluppo iniziale dei sistemi elettroacustici è stato fortemente legato allo sviluppo della telefonia. Noi lo abbiamo dimenticato perché oggigiorno si fa una distinzione basata sul diverso utilizzo. Questa distinzione tra telefonia e la catena stereofonica non esisteva alla fine del XIX secolo e all’inizio del XX secolo. In effetti, a parte la tappa di fissare l’informazione su un supporto, lo scopo del telefono e della catena stereofonica è lo stesso: captare un’informazione sonora in un luogo dato e diffondere quest’informazione in un altro luogo. Può forse sorprendere che la prima registrazione stereofonica utilizzando due microfoni sia stata trasmessa attraverso due linee telefoniche? È così che nel quadro dell’Esposizione internazionale dell’elettricità di Parigi, nel 1881, l’inventore Clement Ader compiva la trasmissione stereofonica a distanza dei concerti che avevano luogo nell’Opéra di Parigi. Già a quest’epoca era chiaro che la codifica delle caratteristiche direzionali di un evento acustico rendeva necessario l’utilizzo di più di un canale d’informazione. Ma due canali erano sufficienti? Nel 1898, il grammofono Multiplex Graphophone Grand utilizzava tre cornette per la registrazione e riproduzione, che scrivevano e leggevano tre solchi su un cilindro. Con un costo proibitivo di mille dollari, quest’apparecchio non ha sicuramente trovato molti acquirenti. Alla luce di questi due esempi, vediamo che all’inizio della telefonia, da più di cent’anni, le qualità direzionali di un evento acustico, non erano riproducibili con un solo microfono e un solo altoparlante. Tuttavia è ancora attuale l’utilizzo in radio e in telediffusione della registrazione e trasmissione, utilizzando un unico canale d’informazione. 35
  • 41. 4.1 I sistemi elettroacustici con un canale d’informazione La registrazione e riproduzione con un unico canale d’informazione è meglio conosciuta con il nome di monofonia. Nella monofonia, l’informazione sonora è catturata ed emessa da un solo punto nello spazio; è un sistema che non è neppure unidimensionale. L’utilizzo di microfoni dalle proprietà sferiche differenti, non cambia nulla: al massimo si può cambiare il raggio tra il suono che proviene direttamente dalla sorgente e il suono riflesso dalle pareti. Nella riproduzione, a parte posizionare fisicamente la fonte di emissione, cioè l’altoparlante, non è possibile alcun posizionamento spaziale se non quello della sorgente sonora. Se la monofonia non è nemmeno unidimensionale, come si fa al momento della riproduzione, a valutare le caratteristiche acustiche del luogo di registrazione, come il riverbero o l’eco? Un fenomeno sonoro come la riverberazione fornisce informazioni sull’acustica del luogo di registrazione fornendo una descrizione spaziale e una descrizione temporale di questa acustica. La registrazione monofonica non permette la codifica delle caratteristiche spaziali e di riverberazione, ma permette di codificare le caratteristiche temporali. Queste caratteristiche temporali sono delle variazioni nel tempo dell’ampiezza globale e del raggio d’ampiezza delle frequenze del suono riflesso che arrivano al microfono. Al momento della riproduzione, la nostra esperienza uditiva ci permette di interpretare i descrittori temporali e di valutare le caratteristiche acustiche del luogo di ricezione. Si può allora parlare di dimensione spaziale, captata e riprodotta dal sistema elettroacustico, quando essa esiste solamente nell’estrapolazione mentale basata su una parte degli elementi descrittori? È per questi motivi che la monofonia non è nemmeno unidimensionale. 36
  • 42. 4.2 Sistemi elettroacustici a due canali d’informazione I sistemi elettroacustici che utilizzano due canali d’informazione sono comunemente raggruppati sotto il termine di stereofonia. L’etimologia della parola stereo deriva dal greco stereos che significa solido, nel senso geometrico del termine; la stereofonia sarebbe quindi il suono in tre dimensioni. Il termine stereofonia costituisce, considerando la sua etimologia e il suo utilizzo corrente per designare esclusivamente i sistemi elettroacustici a due canali, un abuso del linguaggio storico. Nella consuetudine odierna questo termine viene usato per designare una registrazione trasmessa attraverso due canali e riprodotta con due diffusori o un casco d’ascolto. Come nella telefonia, anche nel campo dei sistemi elettroacustici l’utilizzo di due canali per la trasmissione e riproduzione sonora appariva come un netto miglioramento rispetto alla monofonia. Bisognava aspettare ancora una quarantina d’anni, prima che il perfezionamento delle componenti meccaniche e elettriche permettessero sperimentazioni più approfondite e una possibile commercializzazione della stereofonia. Nel 1931, delle domande di brevetto sull’incisione di un solco a due canali su un disco o su un cilindro, furono depositate in Inghilterra e negli Stati Uniti. Le condizioni sfavorevoli e la crisi economica impedirono tuttavia gli investimenti necessari alla commercializzazione di questi brevetti. Gli anni cinquanta, con il boom economico del dopoguerra, offrirono un contesto più favorevole all’uscita sul mercato di questi prodotti. Nel caso degli Stati Uniti, questa domanda proveniva dai Laboratori Bell, in cui si facevano da qualche tempo, delle registrazioni stereofoniche a due o tre microfoni. In Inghilterra, la domanda di brevetto proveniva da Alan Dower Blumlein, che lavorava per la compagnia EMI. Ciò che era interessante nel brevetto di Blumlein, è che egli non parla solo dell’incisione, ma di un sistema stereofonico completo, dalla registrazione alla riproduzione. 37
  • 43. Dopo la lettura di questo brevetto, risulta evidente che molte delle tecniche di produzione utilizzate al giorno d’oggi in stereofonia vengono direttamente da Blumlein. La registrazione stereofonica di base con due microfoni, ci offre una moltitudine di possibilità quanto a combinazioni funzionali dei microfoni. Si può raggruppare questa combinazione di microfoni in due classi: la registrazione coincidente e la registrazione non coincidente. Queste tecniche utilizzano sia la differenza d’ampiezza tra i canali, sia una combinazione di differenza intercanale d’ampiezza e di differenza intercanale di fase, per codificare il posizionamento dei suoni. 4.2.1 La registrazione stereofonica coincidente Nella registrazione coincidente del suono, due capsule direzionali occupano teoricamente lo stesso punto nello spazio, ma con gli assi di rotazione puntati in direzioni differenti. Il suono arriva così nello stesso istante ai due microfoni, ma con un’ampiezza che varia in funzione della direzione del suono. Quindi in una registrazione coincidente, la codifica della posizione di una sorgente sonora data, dipende unicamente dalla differenza intercanale d’ampiezza. Evidentemente con due microfoni omnidirezionali coincidenti, non si avrebbe teoricamente alcuna differenza d’ampiezza nella direzione dei suoni. L’utilizzo di coincidente di microfoni aventi lo stesso diagramma polare sono generalmente chiamati X-Y. Si possono utilizzare due cardioidi, due ipercardioidi o due figura-otto. Gli angoli di separazione variano generalmente tra 90° e 180°; gli angoli più larghi sono preferiti con i cardioidi e con gli ipercardioidi, mentre l’angolo di 90° è preferito con i figura-otto. I figura-otto a 90° sono stati proposti da Blumlein nel 1931 e questo spiega perché quest’assemblaggio è conosciuto anche con il nome del suo inventore. 38
  • 44. Nella realtà pratica, occupare lo stesso spazio con due microfoni non è fisicamente possibile; essi vengono posizionati abitualmente uno sopra l’altro, occupando così in un piano orizzontale parallelo al loro asse di rotazione, lo stesso punto nello spazio. La forza principale di questa tecnica risiede nella possibilità di creare microfoni virtuali, variando la combinazione della somma monofonica e della differenza stereofonica prodotta dai microfoni originali. La somma si ottiene addizionando i segnali dei due microfoni, e la differenza si ottiene addizionando ancora il segnale, ma invertendo la polarità del segnale di uno dei due microfoni. Si possono anche utilizzare direttamente dei microfono aventi caratteristiche sferiche analoghe alla somma mono e alla differenza stereo. Questa tecnica viene denominata M-S che significa Middle-Side o Mono-Stereo. Come proposto da Blumlein nel suo brevetto, il microfono M punta direttamente verso il centro della sorgente con angolo 0° e il microfono S è orientato a 90° d’azimut. Il microfono M è generalmente un cardioide, ma può essere anche un figura-otto o un microfono direzionale di ordine superiore o eccezionalmente un omnidirezionale. Invece il microfono S deve essere sempre un figura-otto. Addizionando e sottraendo i segnali di M e di S (M+S e M-S) si ottengono dei nuovi microfoni virtuali che hanno l’orientamento e le caratteristiche sferiche di un X-Y. Cambiando il rapporto tra M e S si può variare l’angolo di separazione dei microfoni virtuali. La separazione dei microfoni è direttamente legata alle loro caratteristiche sferiche: più si allontanano i microfoni e più si aumenta la proporzione dell’armonica sferica di primo ordine, il microfono S figura-otto. Analizzando con il modello delle armoniche sferiche le tecniche X-Y e M-S sembrerebbe lecito affermare che esse sono equivalenti, ma nella realtà pratica certi ingegneri preferiscono la tecnica M-S perché permette una somma monofonica di qualità migliore nelle caratteristiche frequenziali e sferiche. 39
  • 45. Le tecniche coincidenti sono teoricamente intercambiabili, ma evidentemente le caratteristiche sferiche e l’angolo di separazione dei microfoni hanno un impatto determinante sulla funzione di panoramica. I figura-otto a 90° e i cardioidi a 180° sono le sole registrazioni ad avere una funzione di panoramica regolare, cioè non favoriscono nessun quadrante a discapito di un altro. Le altre combinazioni ottenute in X-Y e in M-S favoriscono il quadrante frontale o i quadranti sinistro e destro. Il fattore comune che lega tutte le tecniche coincidenti che utilizzano solo due microfoni è il carattere unidimensionale della loro capacità di codifica spaziale. 4.2.2 La registrazione stereofonica non coincidente Contrariamente a ciò che si fa nelle tecniche coincidenti, l’utilizzo di microfoni omnidirezionali è consigliato nella registrazione del suono non coincidente. Questa classe raggruppa l’insieme di tecniche in cui i due microfoni non occupano lo stesso posto nello spazio. Il microfono omnidirezionale è utilizzato in un assemblaggio denominato generalmente A-B, in cui la distanza tra i due microfoni può variare da qualche decina di centimetri a qualche metro a seconda della situazione e delle preferenze soggettive. La distanza tra i microfoni e la differenza intercanale d’ampiezza, crea una differenza intercanale di fase poiché i suoni giungono ai microfoni in momenti differenti. Quando la separazione dei due microfoni supera qualche metro, è consigliata l’aggiunta di un terzo microfono omnidirezionale, posizionato in maniera equidistante rispetto ai microfoni principali diretto al centro dell’immagine stereofonica. Questa pratica si ispira direttamente alle esperienze sulla stereofonia realizzate nei Laboratori Bell durante gli anni trenta. D’altra parte, quando la distanza tra i microfoni è piuttosto piccola, 40
  • 46. meno di trenta centimetri, i microfoni omnidirezionali non sono più necessariamente una buona scelta poiché la differenza intercanale d’ampiezza comincia a essere molto lieve. Se si decide di utilizzare un omnidirezionale per le sue qualità spettrali, è preferibile l’utilizzo di un baffle. L’Optimal Stereo System (OSS) ne è un esempio: Due capsule omnidirezionali distanziate di 16,5 cm e separate da un baffle circolare di 28 cm di diametro. Si tratta anche in questo caso di una delle tecniche stereofoniche brevettate da Blumlein. Per le distanze itermicrofoniche inferiori a 30 cm, l’uso di microfoni direzionali diventa una scelta assai utilizzata. La letteratura specializzata identifica spesso questo tipo di registrazione come facente parte di un raggruppamento a parte e lo definisce quasi coincidente. L’assemblaggio francese ORTF è senza dubbio il più comune di questa famiglia. Esso utilizzza due cardioidi distanziati di 17 cm e con 110° di angolo. La tecnica olandese NOS utilizza anch’essa due cardioidi, ma separati di 30 cm e con 90° di angolo. Il montaggio britannico Faulkner, sicuramente il meno conosciuto, utilizza due figura-otto spaziati di 18-20 cm, ma con gli assi di rotazione paralleli l’uno all’altro e diretti verso la sorgente. A questi assemblaggi si potrà sempre apportare qualche modifica. La compagnia AKG utilizza un baffle circolare di 35 cm, simile a quello del sistema OSS, per migliorare le prestazioni del sistema ORTF. Nelle tecniche quasi coincidenti l’uso del baffle è opzionale; si dovrà tuttavia utilizzarlo se si ha l’intenzione di preservare una grande compatibilità monofonica. Infatti si avranno, per certe lunghezze d’onda che corrispondono alla distanza tra i microfoni, una sfasatura di 180° causando l’annullamento di queste frequenze nella riproduzione monofonica. Un’analisi delle armoniche sferiche dei montaggi quasi coincidenti senza baffle, rivela l’insorgere di fenomeni acustici d’interferenza, poiché un’armonica sferica di secondo o terzo ordine, variando a seconda della lunghezza d’onda, costituisce una perdita importante del microfono virtuale che corrisponde alla somma monofonica. 41
  • 47. Quindi il baffle, diminuendo l’ampiezza dei segnali che giungono ai due microfoni, ma in opposizione di fase, assicurerà la compatibilità monofonica. Le registrazioni non coincidenti sono unidimensionali nella loro codifica spaziale, proprio come le registrazioni coincidenti. Nel caso della tecnica A-B, poiché l’aggiunta potenziale del microfono supplementare si fa sulla stessa linea dei microfoni principali, si migliora la definizione della linea. La tecnica A-B è dunque unidimensionale come le altre. 4.2.3 La registrazione stereofonica polimicrofonica Le registrazioni polimicrofoniche con microfoni monofonici, utilizzano principalmente la differenza intercanale d’ampiezza, per posizionare i suoni monofonici a sinistra e a destra, sia in tempo reale che in differita su due piste. Il controllo della panoramica sulla console si ottiene cambiando l’ampiezza del segnale in un canale rispetto all’altro. Le registrazioni polimicrofoniche con microfoni stereofonici, possono utilizzare differenti combinazioni di microfoni stereo principali e microfoni mono d’appoggio. Il missaggio potrà preservare o no le caratteristiche di codifica direzionale dei diversi assemblaggi di microfoni, mantenendo o diminuendo la separazione dei canali in questi differenti assemblaggi. La differenza intercanale di fase non è ancora utilizzata usualmente per posizionare i suoni in un missaggio su due piste. Finora gli apparecchi periferici che producevano questi delay servivano soprattutto per creare delle impressioni spaziali con posizionamento diffuso; l’accostamento con la registrazione del suono non coincidente è abbastanza semplice da fare. L’arte del missaggio stereo di una registrazione polimicrofonica si è recentemente arricchita di nuove sperimentazioni. 42
  • 48. La questione del trattamento temporale dei microfoni d’appoggio è stata studiata con differenti ipotesi e diverse sperimentazioni. La tecnica polimicrofonica odierna consiste nel registrare l’evento con un montaggio stereofonico e dei microfoni monofonici di sostegno per gli strumenti in cui si vuole compensare la debolezza del rispettivo segnale. Eseguita in questo modo questa tecnica comporta un importante problema: i suoni captati dai microfoni d’appoggio saranno percepiti davanti ai suoni captati dal montaggio stereo. Il risultato sarà l’illusione che l’informazione del montaggio stereo costituisca le prime riflessioni e che i microfoni d’appoggio costituiscano i suoni diretti. Se si aggiunge della riverberazione artificiale, si produce una modificazione dell’acustica originale. Per contrastare l’anticipo temporale dei segnali dei microfoni d’appoggio, la prassi normale è compensare con dei delay equivalenti alla distanza tra i microfoni d’appoggio e il montaggio stereo. Questa tecnica di correzione crea dei nuovi problemi di filtraggio frequenziale quando la sorgente di un microfono di sostegno è spostata lateralmente, in quanto la relazione temporale tra il montaggio stereo e il microfono d’appoggio assume delle proporzioni differenti. Rimane un’ultima soluzione, abbastanza promettente, che consiste nell’introdurre nei canali dei microfoni di sostegno un delay superiore a quello corrispondente alla distanzza tra i microfoni d’appoggio e il montaggio stereo. Questo delay manda i segnali monofonici nella zona temporale delle prime riflessioni e non distrugge l’immagine prodotta dall’assemblaggio stereo. Questa tecnica di missaggio è ancora più efficace se, per una data sorgente, sono simulate più riflessioni. 43
  • 49. 4.2.4 Apprezzamenti soggettivi delle registrazioni stereofoniche Quali sono le differenze udibili e apprezzabili tra le varie tecniche di registrazione stereofoniche coincidenti e non coincidenti? Queste differenze sono di tipo psicoacustico; il giudice finale che misura l’apporto della codifica direzionale di questi meccanismi e determina quindi il successo di queste tecniche rimane il nostro orecchio. Inoltre sembra che la precisione nella riproduzione direzionale dei suoni non sia il solo criterio di per apprezzare la qualità del posizionamento spaziale di una registrazione stereo. Carl Ceoen, della Radiodiffusion-Télévision Belge, ha compiuto nel 1971 un test d’ascolto comparativo delle differenti tecniche stereofoniche dello stesso evento musicale. I criteri della valutazione, e in più della precisione direzionale (“stage continuity”), erano i seguenti: “liveness, intimacy, perspective, extra-width, dynamic range, warmth e brillance”. Oltre sessanta persone hanno ascoltato l’estratto delle Danze slave di Dvorak registrato simultaneamente in X-Y (cardioidi), Blumlein, M-S (cardioide/figura-otto), ORTF, NOS e polimicrofonia (cinque cardioidi panoramici con una console di missaggio). La maggioranza delle persone interrogate hanno indicato che la tecnica ORTF sembrerebbe essere il compromesso migliore tra tutti i criteri, con la registrazione M-S come seconda scelta. Questa preferenza per la non coincidenza, spiega Griesinger, è dovuta al fatto che queste registrazioni ottengono una migliore impressione spaziale. Quest’impressione è solo una parte dell’informazione spaziale codificata da una registrazione stereofonica; non si ritrova un’informazione direzionale precisa, ma piuttosto un’informazione sull’acustica del luogo originale. Theile afferma che l’impressione spaziale comprende due attributi dell’immagine sonora: la “riverberanza”, cioè la diffusione temporale degli eventi sonori causata dalle riflessioni tardive e dalla riverberazione e 44
  • 50. “l'areazione spaziale”, cioè la diffusione spaziale degli eventi sonori, causata dalle prime riflessioni. Questa informazione sull’impressione spaziale è contenuta nel microfono figura-otto, reale o virtuale, corrispondente al segnale di differenza stereofonica della registrazione. L’orientamento di questo microfono lo rende particolarmente adatto a captare le prime riflessioni della sala che danno riferimenti importanti sul volume della sala originale. La distanza tra i microfoni di un montaggio non coincidente, assicura una scarsa correlazione intercanale e contribuisce così a produrre un segnale di differenza stereo, ricco dal punto di vista psicoacustico. La preferenza per le tecniche non coincidenti è un’indicazione abbastanza forte di difetti inerenti alla stereofonia convenzionale quanto alla sua capacità di dare un’impressione credibile dello spazio acustico dell’evento. 4.2.5 Il trattamento del segnale stereofonico Gli assemblaggi coincidenti permettono generalmente una variazione uniforme della differenza intercanale d’ampiezza, ma l’assenza della differenza intercanale di fase produce una differenza stereo con una forte correlazione e restituisce in maniera spenta l’impressione spaziale. Griesinger suggerisce la correzione in piano (shelf filtering) della somma e della differenza stereo di una registrazione del suono coincidente, per aumentarne l’impressione spaziale. Aumentando di 4 dB le frequenze al di sotto dei 700 Hz nella differenza stereo, e in certi casi riducendo di 4 dB questa zona di frequenze nella somma monofonica, sembra esserci una migliore impressione nella riproduzione dell’ambiente. Questo tipo di trattamento, in cui le modificazioni sono apportate ai segnali di somma e di differenza, piuttosto che ai segnali sinistro e destro, è stata proposto da Blumlein. 45
  • 51. Si cominciano così a scoprire le virtù di un trattamento stereofonico essenzialmente simmetrico: una modifica alla somma o alla differenza si ripercuote sempre in maniera identica nel canale sinistro e destro. Non bisogna stupirsi se il tipo di “correzione spaziale” proposto da Griesinger è simile al trattamento del segnale che si ritrova nella tecnica di produzione Stereosonic. Utilizzato negli anni cinquanta e sessanta dalla EMI, Stereosonic era la versione commerciale del brevetto di Blumlein. Le ricerche di Blumlein e Griesinger hanno trovato interesse per la compagnia Hughes Aircraft. Mentre Griesinger suggeriva una correzione spaziale statica, il Sound Retrieval System (SRS) della Hughes applica una correzione spaziale dinamica che varia in funzione del segnale stereo che lo alimenta. Innanzitutto il segnale stereofonico sinistro e destro è ricomposto in somma monofonica e in differenza stereofonica. L’SRS procede in seguito a un’analisi dei segnali per determinare la quantità di trattamento da applicare. Ci sono poche informazioni nella letteratura specializzata su questa parte del sistema, ma si presume che l’analisi venga eseguita seguendo dei parametri fissi: si guarda la proporzione dell’ampiezza della somma e della differenza per tutta la banda passante e per dei settori di frequenze in particolare. Si modificano poi le ampiezze di certe zone di frequenza che possono creare una buona impressione spaziale. Per la ricostruzione del segnale stereo sinistro e destro, si lascia al fruitore la possibilità di modificare, entro certi limiti, il rapporto tra la somma mono e la differenza stereo. Il Bedini Audio Spatial Environment (B.A.S.E) funziona esattamente sullo stesso principio dell’SRS. Questi due sistemi diventano particolarmente interessanti nel caso in cui i diffusori sono ravvicinati: correttori spaziali procedono a un aumento dell’impressione spaziale del segnale stereofonico. Da qui le affermazioni da parte delle due compagnie di un sistema di riproduzione sonoro tridimensionale. 46
  • 52. Un altro trattamento post-registrazione usato recentemente è la conversione Blumlein, che consiste nel convertire la differenza intercanale di fase di una registrazione non coincidente in differenza intercanale d’ampiezza. L’effetto principale di questa conversione è di rendere più compatibile l’ascolto con i diffusori di una registrazione non coincidente. Si possono quindi conservare i vantaggi della registrazione non coincidente, con l’utilizzo di microfoni omnidirezionali, e parallelamente eliminare i loro inconvenienti, come la somma monofonica e le caratteristiche sferiche variabili a seconda della frequenza. Ricordiamo che la conversione Blumlein lavora in entrambe le direzioni: si può anche convertire una differenza intercanale d’ampiezza in una differenza intercanale di fase. 4.3 Sistemi elettroacustici a più canali d’informazione I sistemi di riproduzione a più canali d’informazione hanno ancora come riferimento gli esperimenti di Blumlein. Egli dice chiaramente nel suo brevetto che i due canali di trasmissione della stereofonia non devono necessariamente alimentare solo due diffusori, introducendo così il concetto di diffusione adattata alle particolarità dell’installazione elettroacustica in ogni luogo di riproduzione. Come per tutto il resto delle sue idee, questo concetto non è stato utilizzato per circa una ventina d’anni, finché lo scandinavo Lauridsen ha testato diversi modelli di diffusione, che possono essere considerati come facenti parte della tecnica M-S. Egli utilizzava infatti degli altoparlanti che riproducevano le caratteristiche sferiche dei microfoni utilizzati in una registrazione M-S, con un posizionamento simile. L’altoparlante monofonico era posizionato davanti all’ascoltatore; dietro questo altoparlante era piazzato in modo perpendicolare, un altoparlante bidirezionale che diffondeva la differenza stereo. Questi due altoparlanti potevano essere combinati nello stesso diffusore. 47
  • 53. Il tentativo non fu molto fruttuoso, ma ebbe sicuramente il merito di considerare il segnale stereofonico come la combinazione della somma monofonica e della differenza stereofonica. Proprio come Blumlein, Lauridsen sottolineava le possibilità offerte dalla decodifica, attraverso un box matrix, dei due canali. Alla fine degli anni sessanta e all’inizio degli anni settanta, l’interesse per la decodifica matrix cresceva. David Hafler propose un metodo semplice per migliorare la riproduzione dell’impressione spaziale con un segnale stereofonico convenzionale. Egli suggerisce di estrarre la differenza dei due canali e di inviarla a una seconda coppia di diffusori e allacciandole in serie sui segnali positivi dell’amplificatore. Questi diffusori devono essere disposti dietro all’ascoltatore. In principio questi dispositivi migliorano l’impressione spaziale, ma la qualità del risultato dipende unicamente dalla registrazione ascoltata, poiché non si controlla alcuna variabile. Il segnale sonoro che proviene da dietro può essere interessante, ma il rapporto di ampiezza tra il davanti e il dietro potrebbe essere inadeguata. Questo rapporto dipende dall’efficacia di ogni coppia di diffusori. Un modo di aggirare il problema è trattare il segnale di differenza stereo da un secondo amplificatore. Si potrà così trattare in maniera indipendente il volume delle due coppie di diffusori. Sono stati effettuati alcuni test dove i diffusori supplementari erano posti davanti e i soggetti hanno notato, nella maggioranza dei casi, un miglioramento dell’impressione spaziale in rapporto alla stereofonia convenzionale. L’obiezione principale che si può sollevare riguardo al metodo Hafler, è che l’aggiunta della differenza stereo va a discapito dell’uguaglianza stereo, cioè l’informazione identica nei due canali. C’è quindi, una modificazione del missaggio della registrazione. Il risultato pratico è che nella registrazione della musica pop, c’è una perdita d’ampiezza sulla voce principale e certi strumenti come le percussioni, sono situati al centro. 48
  • 54. Certi apparecchi attualmente disponibili sul mercato utilizzano da tempo il cambiamento di rapporto tra la somma mono e la differenza stereo, come i lettori compact disc, i preamplificatori Carver e i diffusori Polk. L’inizio degli anni settanta ha anche visto la sfortunata avventura della quadrifonia. Chiamata quadrifonia o tetrafonia, ogni compagnia proponeva il suo modo di registrare il suono, il suo modo di codificarlo in due canali e il suo modo di decodificarlo in quattro. Il solo punto fermo era l’utilizzo di quattro microfoni direzionali nella registrazione e quattro diffusori nella riproduzione. L’SQ della CBS, l’QS della Sansui, il CD-4 di JVC e l’UD-4 della Nippon Columbia (Denon) sono quattro sistemi che hanno avuto una vita molto breve. Sfortunatamente l’idea guida di tutti i sistemi, ad eccezione dell’UD-4, era che il suono doveva essere sempre posizionato da un massimo di due diffusori. Denominato in inglese “pair-wise mixing”, questa tecnica era un’estrapolazione stupida della stereofonia convenzionale e, combinata con le matrici di codifica, rendeva instabile la riproduzione poiché un suono da posizionare saltava da un diffusore all’altro. Un altro dei problemi della quadrifonia era la limitazione imposta dai supporti dell’epoca, il disco in vinile. Le tecniche di decodifica matrix usate per inserire quattro canali in un solco a due parti, esigeva che l’informazione dei due canali dietro fosse una sorta di residuo dell’informazione dei canali frontali, essenzialmente della riverberazione, per rimanere compatibile con una modalità di lettura convenzionale. Comunque l’SQ e il QS hanno sviluppato la nascita del Dolby Stereo e del Dolby Surround. 49
  • 55. 4.3.1 Il Dolby Stereo e il Dolby Surround Ufficialmente introdotto nel 1975, il sistema multicanale Dolby Stereo è stato inizialmente concepito per le sale del cinema. Ci sono diverse variazioni del Dolby Stereo, a seconda delle produzioni cinematografiche nelle quali è utilizzato, ma il sistema di base è costituito da quattro canali identificati come: sinistro, centro, destro e surround. I primi tre canali alimentano ciascuno, un’insieme di altoparlanti che circondano la sala. È un sistema bidimensionale con una distorsione spaziale volutamente accentuata in avanti, per dare la massima precisione nel posizionamento dei suoni che hanno una relazione diretta con l’immagine. Il canale centrale diffonde quasi esclusivamente i dialoghi. Tenuto conto delle caratteristiche di emissione del segnale surround nel Dolby Stereo quattro piste, il posizionamento spaziale preciso dei suoni al di là dello schermo non è possibile e non è giudicato fondamentale. Conseguentemente ai limiti della scrittura sonora ottica analogica sulla pellicola cinematografica di 35 mm, è stato necessario sviluppare una matrice di codifica da quatto canali in due canali. Come tutte le matrici di codifica, essa funziona introducendo prima una codifica di modificazioni prestabilite d’ampiezza e di fase. Così nella matrice del Dolby Stereo, il canale centrale è attenuato di 3 dB per essere in seguito mixato simmetricamente nei canali sinistro e destro. Anche il canale surround è attenuato di 3 dB, ma viene mixato nei canali sinistro e destro con un inversione di fase. Questa inversione di fase è ottenuta da una differenza di fase di -90° nel canale sinistro e di +90° nel canale destro, per una differenza di fase totale di 180°. Il modo di ottenere queste differenze di fase è stato scoperto dopo gli anni cinquanta. La matrice di codifica del Dolby Stereo è denominata come matrice 4:2:4. Ciò vuol dire che nel momento della scrittura sul supporto, da quattro canali si passa a due, per poi in seguito tornare a quattro al momento della riproduzione. 50