SlideShare uma empresa Scribd logo
1 de 143
Baixar para ler offline
“Nessuna teoria della realtà
compatibile con la teoria dei quanti,
può richiedere che eventi spazialmente
separati siano indipendenti”.
John Stewart Bell
"Gli esseri umani sono bloccati in una
situazione simile a quella di re Mida: non possiamo
sperimentare direttamente la vera trama della realtà,
perché tutto ciò che tocchiamo diventa materia".
Nick Herbert
Indice
Prefazione
Capitolo I
Modellando la realtà, immaginando il possibile
1.1. Dal principio di causalità a quello di località
1.2. Dal realismo locale al principio di non località
1.3. Dalla MQ al teorema e le disuguaglianze di Bell
Capitolo II
Modellando la realtà, immaginando l’impossibile
2.1. CHSH e CH74: i primi esperimenti realizzati
2.2. Gli esperimenti di Alain Aspect e colleghi
2.3. L’esperimento di Nicolas Gisin e colleghi
2.4. L’esperimento di Anton Zeilinger e colleghi
2.5. L’esperimento di Jian-Wei Pan e colleghi
2.6. L’esperimento di Mary Rowe e colleghi
2.7. L’esperimento di Simon Gröblacher e colleghi
2.8. L’esperimento di Markus Ansmann e colleghi
2.9. L’esperimento di Marissa Giustina e colleghi
2.10 Gli esperimenti dei gruppi di Hensen, Giustina e Shalm
2.11 L’esperimento di Roman Schmied e colleghi
2.12 L’esperimento di David Kaiser e colleghi
2.13 L’esperimento di Wenjamin Rosenfeld e colleghi
2.14 L’esperimento denominato: Big Bell Test
Conclusioni
Biografie
Bibliografia
Prefazione
“Ormai in fisica non c'è più nulla di nuovo da scoprire. Tutto ciò
che rimane da realizzare sono misure sempre più precise”. Lo
disse nel settembre del 1900 Lord Kelvin (davanti all’assemblea
della British Association for the Advancement of Science, a
Bradford, nel Regno Unito), uno dei fisici più eminenti della sua
epoca, quando sembrava che la meccanica di Newton e
l’elettromagnetismo potessero spiegare tutta la realtà fisica. Pochi
anni dopo però, la meccanica quantistica e la relatività
rivoluzionarono le vecchie idee di spazio, tempo ed energia.
Ebbene la storia ovviamente ha smentito in modo eclatante tali
idee, purtroppo condivise anche da molti altri scienziati
dell’epoca di L.Kelvin. Oggigiorno nessuno, tra gli “addetti ai
lavori”, ritiene più che le attuali teorie in ambito scientifico (non
solo nel campo della fisica), siano da considerarsi del tutto
consolidate e quindi in sostanza, definitive ed “intoccabili”.
Tuttavia un teorema, come spesso accade nell’ambito della logica
matematica (quando è implicitamente legata ad una realtà fisica
difficilmente sperimentabile), è riuscito a sopravvivere per oltre
mezzo secolo, confermando solo in questi ultimi anni la sua
importanza, con la stessa forza e solidità con cui nel 1964 (anno
della sua pubblicazione), si impose in ambito accademico
(disturbando il sonno a molti scienziati, filosofi e liberi pensatori,
a partire dalla metà degli anni Sessanta fino ad oggi). Ovviamente
il riferimento è al teorema di John Stewart Bell, che per più di
mezzo secolo (dal 1964 al 2015), ha fatto riflettere e discutere
scienziati di mezzo mondo, su quella che avrebbe dovuto essere
l’effettiva descrizione del mondo fisico, attraverso un modello
teorico di riferimento che non lasciasse più spazio ad alcun
dubbio.
Le domande fondamentali quindi, tra tutti gli studiosi e ricercatori
che per vari decenni si occuparono di tale questione, erano le
seguenti: È possibile una descrizione della realtà fisica, solo ed
esclusivamente attraverso il principio di località e del realismo
locale? Esisteranno davvero delle variabili nascoste, all’interno
delle nostre teorie fisico-matematiche, oppure tutto è descrivibile
con le regole e i principi standard della meccanica quantistica? È
possibile che anche il mondo macroscopico, risponda ai principi
della meccanica quantistica, ma che ancora non abbiamo degli
strumenti fisici sufficientemente evoluti per poter osservare tale
fenomeno? Esiste una sottile linea di confine, tra il mondo
dell’infinitamente piccolo e quello macroscopico, dove è
necessario abbandonare l’uno o l’altro modello di riferimento
(fisica classica o meccanica quantistica, per intenderci), per una
descrizione esatta e coerente della realtà?
Ebbene nel 2015, un importante esperimento sulle disuguaglianze
di Bell (riportato nel presente libro; v. sottocapitolo 2.10.- Gli
esperimenti dei gruppi di Hensen, Giustina e Shalm),
sembrerebbe avere almeno in parte risposto alle succitate
domande, mettendo la parola fine al realismo locale. È l’anno del
trionfo della meccanica quantistica, come unico modello di
riferimento per una descrizione della realtà, ampiamente
supportata da una moltitudine di prove sperimentali ormai
ritenute quasi del tutto inoppugnabili. Ma è anche l’anno del
trionfo del teorema di Bell e di tutto ciò che al cospetto delle
menti più eccelse, aveva già preannunciato con circa mezzo
secolo d’anticipo. Nel presente volume vengono presentati tutti
gli esperimenti di Bell, compiuti dall’inizio degli anni Settanta
fino ad oggi (2018); ma solo i più significativi sono stati descritti
nel dettaglio utilizzando il formalismo matematico della
meccanica quantistica (tutti gli altri sono stati esposti in forma
divulgativa). Con la speranza di far appassionare a tale tema il
maggior numero di lettori che avranno scelto quest’opera, sia per
pura curiosità che per un necessario approfondimento di studio
sull’argomento in questione (studenti universitari in primis),
auguro a chiunque sia giunto alle ultime parole di questa breve
prefazione, una buona lettura.
Fausto Intilla
Cadenazzo, 29 settembre 2018
MODELLANDO LA REALTÀ,
IMMAGINANDO IL POSSIBILE
“Si può trascorrere una vita intera a costruire
un muro di certezze tra noi e la realtà”.
Chuck Palahniuk
“L’immaginazione è l’unica arma
nella guerra contro la realtà”.
Lewis Carroll
Dal principio di causalità a quello di località
Sia in ambito scientifico che filosofico, il termine “causalità” si
riferisce semplicemente ad una relazione di causa ed effetto. La
causa è ciò che produce l’effetto, mentre la causalità esprime il
rapporto tra una causa e il suo rispettivo effetto. L’idea di questo
rapporto riferito a tutta la realtà, costituisce dunque il principio di
causalità. Secondo tale principio tutti i fenomeni debbono avere
una causa. Per Spinoza era evidente che “da una causa ben
determinata, deve necessariamente risultare un effetto; e,
inversamente, se non vi è alcuna causa ben determinata, è
impossibile che si produca un effetto”. Secondo Kant invece, la
“legge della causalità” indicava semplicemente che: “Tutti i
cambiamenti avvengono, secondo la legge di connessione tra
causa ed effetto”. Dopo Kant, agli inizi del XIX secolo, la
causalità si colloca nell’ambito della razionalità pura; dove risulta
inscindibile dal concetto di deducibilità. Ovvero, la causalità
permette la deduzione dell’effetto (previsione ottenuta dal
riconoscimento del nesso causale); creando dunque un assioma
fondamentale per il metodo e la conoscenza scientifica dell’era
moderna. Oggigiorno nel campo della fisica, il principio di
causalità afferma che se un fenomeno (definito causa) produce un
altro fenomeno (definito effetto), allora la causa precede l’effetto
(ordine temporale). Il principio di causalità è uno dei limiti
realistici imposti a qualsiasi teoria matematica coerente, affinché
possa essere considerata fisicamente ammissibile.
Il principio di causalità è stato per molto tempo strettamente
associato alla questione del determinismo; secondo cui alle stesse
condizioni iniziali, le stesse cause producono gli stessi effetti.
Tuttavia, tenendo conto di fenomeni di natura intrinsecamente
statistica (come il decadimento radioattivo di un atomo o la
misurazione in meccanica quantistica), esso nel corso del XX
secolo se ne è distanziato considerevolmente. Oggi il principio di
causalità, assume delle forme abbastanza diverse, in base ai rami
della fisica che vengono considerati (in cui esso si ritrova ad
operare).
Il principio di causalità (inteso come ordine temporale della
causalità), venne formulato in modo chiaro ed esplicito da Eulero
e Jean Le Rond d’Alembert, ma era già stato compreso molto
tempo prima da Descartes1
ed utilizzato implicitamente da Isaac
Newton.
Tutta la fisica classica fonda le sue radici sul principio di
causalità; secondo cui qualsiasi effetto è interamente determinato
da delle azioni anteriori. L’effetto è il cambiamento di stato del
sistema fisico studiato, dovuto alle cause (quelle identificabili) e
alle forze che si esercitano sul sistema (sia per contatto come
1
Storicamente, la formulazione moderna del principio di causalità è
stata ispirata dalla filosofia meccanicistica di René Descartes, che ha
cominciato ad approcciarla nel “Discorso sul metodo” (1637), per poi
svilupparla maggiormente in “Meditazioni metafisiche” (1641).
Descartes si chiede, tra le altre cose, se la causa debba precedere nel
tempo il suo effetto. Egli risponde: “(…) propriamente parlando, non
ha il nome o la natura di causa efficiente fin quando essa non produce
il suo effetto; e quindi non lo è prima”. (Descartes, Meditazioni
metafisiche). La causa efficiente è un insieme di condizioni, di cui è
necessario e sufficiente che esse siano presenti nel momento in cui
l'effetto si manifesta.
shock e attrito, sia a distanza come la gravitazione o la forza
elettromagnetica) o agli eventi che producono queste forze.
Isaac Newton, scrivendo che esiste una proporzionalità tra la
forza motrice (la causa) e i cambiamenti di movimento (l'effetto),
ha reso lo studio della causalità uno studio quantitativo che sta
alla base della fisica classica. Il problema della possibile
differenza di natura tra la causa e l'effetto è quindi ridotto alla
questione dell'ordine temporale tra gli stati dell'intero sistema
studiato, poiché tali stati possono essere considerati come cause
ed effetti gli uni degli altri. La previsione deterministica degli stati
futuri dalla conoscenza di quelli del passato sembra essere
associata in modo “naturale” al principio di causalità nella fisica
classica; ma ciò sarebbe come dimenticare che nella pratica
sperimentale nessun dato è perfettamente noto e che nella teoria,
la complessità matematica inizia non appena vi è la presenza di
soli tre corpi. Ed inoltre, sarebbe come dimenticare che la teoria
del caos, è nata proprio dallo stesso determinismo.
Un corpo macroscopico è un corpo composto da un enorme
numero di particelle (atomi o molecole). Se questa materia viene
trattata dalla fisica classica o relativistica, allora, per ipotesi, la
causalità si applicherebbe anche pienamente a ciascun corpo
microscopico che compone il tutto, specialmente per quanto
riguarda le loro influenze reciproche; tuttavia, la sua
manifestazione è singolarmente diversa dal caso dei sistemi più
semplici. Il gran numero di componenti distinti (ovvero di gradi
di libertà) del corpo macroscopico renderebbe irrealizzabile, in
pratica, la determinazione delle equazioni del moto con i metodi
della fisica classica. Mentre la completa determinazione dello
stato iniziale del sistema, sarebbe irraggiungibile. In tale contesto,
le leggi del corpo macroscopico vengono quindi scritte
utilizzando delle statistiche: se il sistema è "stabile", qualsiasi
cambiamento di “bassa portata” lo rimuove solo
momentaneamente da uno stato di equilibrio e dunque, lo stato
globale del sistema è determinato, con una probabilità molto
forte, dall’immediata vicinanza di questo “stato medio”.
Per tutti i corpi microscopici che si riuniscono per comporre un
corpo macroscopico, lo stato è determinabile solo a livello
statistico: vi è lo stato medio degli stati di questi corpi e vi sono
inoltre altri stati possibili con delle probabilità associate; ma è
impossibile determinare il loro stato “attimo dopo attimo”, con la
consueta precisione della fisica classica.
Tutte le perturbazioni/informazioni che vanno ad interessare un
corpo macroscopico nella sua interezza, vengono disperse dagli
scambi incessanti tra i componenti microscopici e in base alle
leggi della statistica. Uno stato (medio o transitorio) di un corpo
macroscopico, o il particolare stato di uno dei suoi componenti
microscopici, emerge dunque da una causa non precisabile,
indefinibile; per tale motivo è impossibile determinarlo con
precisione assoluta, partendo dallo stato precedente (anche da un
punto di vista teorico non è possibile risalire allo stato iniziale).
Inoltre, l'impossibilità di predire lo stato esatto, ma solo lo stato
statistico, del corpo macroscopico o di un corpo microscopico, ci
fa talvolta parlare di indeterminismo.
Poiché il principio di causalità è applicabile praticamente in ogni
contesto, verso la fine del XIX secolo Henri Poincaré dimostrò
che anche dei semplici sistemi trattabili con la fisica classica
possono essere molto sensibili alle variazioni delle condizioni
iniziali: una piccolissima modifica può, per alcuni sistemi molto
semplici, portare ad un’evoluzione successiva molto diversa dal
sistema iniziale. Quindi, poiché è impossibile conoscere con
assoluta precisione le condizioni iniziali di un sistema e poiché è
impossibile conoscere le esatte misurazioni di qualsiasi causa
influente (poiché anche la fisica classica è una scienza
sperimentale), tutto il rigore possibile non permette di prevedere
sempre lo stato futuro di un sistema.
Il determinismo dice che alle stesse condizioni iniziali, le stesse
cause producono gli stessi effetti. In pratica, questo "alle stesse
condizioni iniziali" pone un problema di realizzazione, poiché le
condizioni iniziali del sistema non possono essere conosciute con
assoluta precisione. Se si ripete per la seconda volta quello che
sembrerebbe essere lo stesso esperimento, si riscontrerà
sicuramente qualche differenza con l’esperimento di partenza.
Tuttavia, molti sistemi studiati sono "stabili"; vale a dire che
piccole variazioni iniziali portano solo a piccole variazioni
sull'evoluzione del sistema.
Questa breve nota introduttiva sul concetto di causalità, ha come
unico scopo quello di farci riflettere su come l’essere umano
percepisce ed interpreta la realtà apparente del mondo
osservabile; sia essa a noi circostante oppure lontana milioni di
anni luce. Ed è proprio questa esperienza percettiva collettiva, che
ha indirizzato la nostra evoluzione biologica verso una maggiore
intelligenza di specie e la nostra evoluzione culturale verso una
conoscenza sempre più profonda dei meccanismi della natura.
Ma forse nulla è come appare e noi non siamo nient’altro che
degli ingranaggi di un meccanismo senza confini di cui non
riusciremo mai a coglierne l’effettiva interezza e complessità;
proprio perché ogni nostra singola azione, ogni nostro pensiero,
contribuisce alla creazione continua di questa entità infinita in
continua espansione (che taluni chiamano Universo). Nel 1938,
in “La pensée et le mouvant” (trad. it. “Pensiero e movimento”,
Bompiani, Milano), Henri Bergson scriveva: “Se il movimento è
una serie di posizioni e il mutamento una serie di stati, il tempo è
fatto di parti distinte e giustapposte. Senza dubbio diciamo
ancora che esse si succedono, ma questa successione potrebbe
essere assimilabile a quella delle immagini di una pellicola
cinematografica: il film potrebbe svolgersi dieci, cento, mille
volte più veloce senza che niente di ciò che svolge venga
modificato; se andasse infinitamente veloce, se lo svolgimento
(questa volta fuori dall’apparecchio) divenisse istantaneo, si
vedrebbero sempre le stesse immagini. La successione così intesa
non aggiunge dunque niente; sottrae piuttosto qualcosa, segnala
una mancanza, traduce una infermità della nostra percezione,
condannata a frammentare il film immagine per immagine al
posto di coglierlo globalmente. In breve, il tempo così ravvisato
non è che uno spazio ideale in cui si suppongono allineati tutti gli
eventi trascorsi, presenti e futuri, ai quali si impedisce di
apparire unitamente (…)”. Penso che anche Einstein, come molti
altri eminenti fisici del suo tempo (nonché attuali), fosse
pienamente d’accordo con questa visione della realtà, visto che
un giorno ebbe a dire: “La distinzione fra passato, presente e
futuro è solo un’illusione, anche se ostinata”.
È dunque qui che sta il nocciolo della questione. Il passo tra il
principio di causalità e quello di località, non può far altro che
apparirci breve, logico e scontato; ma è proprio qui che “casca
l’asino”. Noi possiamo analizzare solo dei piccoli frammenti di
una realtà senza confini; e nel fare ciò possiamo fidarci solo delle
nostre limitate capacità sensoriali e percettive. Dobbiamo
accettare l’idea che possano esserci delle cause che non potremo
mai conoscere, ma che tuttavia conducono a degli effetti/eventi
pienamente osservabili. Il riferimento non è a delle ipotetiche
“variabili nascoste”, ma semplicemente ad una quantità infinita di
informazione che non può essere analizzata, elaborata e compresa
neppure da un’entità che disponesse di un’intelligenza illimitata.
Solo l’Universo può comprendere sé stesso.
Il principio di località afferma che: “Oggetti distanti non possono
avere influenza istantanea l'uno sull'altro: un oggetto è
influenzato direttamente solo dalle sue immediate vicinanze”.2
2
Una teoria che includa il principio di località in genere viene definita
come una “teoria locale”. Si tratta di un’alternativa al vecchio concetto
di “azione a distanza istantanea”. La località si è evoluta fuori dalle
teorie di campo della fisica classica. Il concetto è che per avere
un’azione, causata dall’influenza di un punto A verso un punto B (o
viceversa), qualcosa nello spazio tra quei due punti (ad esempio un
campo) deve mediare l’azione. Per esercitare un'influenza, qualcosa,
come un'onda o una particella, deve viaggiare attraverso lo spazio tra i
due punti, “trasportando” appunto tale influenza. La teoria della
relatività speciale limita la velocità con cui tutte queste influenze
possono viaggiare, a quella della luce (c). Dunque, il principio di
località implica che un evento in un punto non può causare un risultato
simultaneo in un altro punto. Un evento al punto A non può causare un
Anche qui, ad entrare in gioco è sempre il concetto di tempo. Ma
se il tempo, come sosteneva anche Einstein, è solo un’illusione,
allora perché continuiamo ostinatamente a chiamarlo in causa? La
risposta è semplice: perché ci fa comodo così. Ed è stato un bene
che sia stato così, specialmente negli ultimi tre secoli; altrimenti
non avremmo potuto raggiungere i traguardi scientifici e
tecnologici che oggi ci consentono di scambiare messaggi alla
velocità della luce, di pilotare un aereo mediante le onde
cerebrali3
o di esplorare lo spazio fino ai confini del sistema
solare.
Il fatto che vi siano dei limiti (teorici, pratici e concettuali) che
non potremo mai superare, è solo un bene; altrimenti
smetteremmo di fare scienza, poiché tutto sarebbe già dato! Tutto
ciò che abbiamo finora raggiunto, scoperto, ideato, “capito”,
dobbiamo solo avere la modestia di definirlo aggiungendo una
semplice parolina al suo fianco: “apparente”. Avremmo così il
principio di causalità apparente, il principio di località (…e di non
località!) apparente, la Relatività Ristretta (…e Generale!)
apparente, il principio di Mach apparente e via di seguito.
Tutto ciò potrà sembrarvi folle, ma purtroppo (o per ben che si
voglia) è del tutto coerente con i più alti livelli oggi raggiunti dalla
fisica sperimentale; specialmente in ambito quantistico. Avrete
modo di scoprire esattamente di cosa sto parlando, verso la fine
di questo libro. Posso solo anticiparvi che nell’anno 2015, si sono
aperte le porte ad un nuovo paradigma scientifico, che forse la
risultato al punto B, in un tempo inferiore a t = D/c (dove “D” è la
distanza tra i due punti e “c” è la velocità della luce).
3
Nel 2014 gli scienziati del Technische Universität München (TUM) e
del TU Berlin hanno dimostrato che i comandi di un velivolo possono
essere eseguiti solo mediante le onde cerebrali, senza toccare joystick,
manetta e pedali. I test, effettuati con un simulatore di volo, sono stati
eseguiti con successo da sette persone, una della quali non aveva mai
pilotato un aereo. Il progetto Brainflight, finanziato dall’Unione
Europea e sviluppato dalle due università tedesche, ha permesso di
studiare nuovi metodi per il “volo controllato dal cervello”.
mente umana non riuscirà mai ad accettare pienamente,
accantonando per sempre ogni dubbio.
Dal realismo locale al principio di non località
Con il termine realismo in fisica si indica l’idea che la natura non
è in alcun modo legata o vincolata dalla mente umana; ovvero che
la sua esistenza non dipenda dal pensiero umano. Detto in altre
parole, entrando per qualche istante nel campo della meccanica
quantistica: anche se il risultato di una possibile misurazione non
esiste prima dell'atto stesso della misurazione, ciò non significa
che sia una creazione della mente dell'osservatore.
Una proprietà indipendente dalla mente non deve essere un valore
di una variabile fisica (come ad esempio la posizione o la quantità
di moto). Una proprietà può essere potenziale (cioè può essere
una capacità): ad esempio un oggetto di vetro ha il potenziale (o
la capacità) di rompersi, se sottoposto a una particolare forza; ma
se ciò non accade (ovvero se l’oggetto in questione non viene
sottoposto a tale forza), esso sicuramente non si romperà. Anche
se il risultato di colpire un oggetto di vetro con un martello non
esiste prima dell'atto di colpirlo, ciò non significa che il vetro
rotto sia una creazione dell'osservatore.
Pensiamo ora ad un acceleratore di particelle come ad un
sofisticato tipo di “martello”; in tale contesto fisico si possono per
analogia identificare i “frammenti” delle particelle bersaglio, al
termine del processo di scontro con le particelle “proiettile”, come
i cocci di vetro dell’oggetto precedentemente considerato.
Tale risposta, cioè la rottura, è una risposta condizionale; ovvero
una risposta a una particolare applicazione della forza.
Applicando tale concetto ai sistemi quantistici, Schrödinger ha
riconosciuto che anche loro hanno una risposta condizionale;
ovvero una tendenza a rispondere (considerabile anche come una
specifica probabilità di risposta) a una particolare forza di
misurazione, con un valore particolare. In un certo senso, essi
sono pre-programmati con un risultato particolare.
Un tale risultato sarebbe realistico in senso metafisico, senza
essere realistico nel senso fisico del realismo locale (che richiede
che un singolo valore sia prodotto con certezza). Un concetto
correlato è la "determinatezza controfattuale"; ovvero l'idea che
sia possibile descrivere in modo significativo come ben definito,
il risultato di una misurazione che, di fatto, non è stata eseguita
(cioè la capacità di assumere l'esistenza di oggetti e assegnare
valori alle loro proprietà, anche quando non sono stati misurati).
In genere la definizione più comune di realismo locale è la
seguente: esso è la combinazione del principio di località con
l'assunto “realistico” che tutti gli oggetti debbano
oggettivamente possedere dei valori preesistenti per ogni
possibile misurazione, prima che tali misurazioni vengano
effettuate. Il realismo locale è una caratteristica di rilievo
della meccanica classica, della Relatività Generale e della teoria
di Maxwell, ma la meccanica quantistica rifiuta largamente
questo principio a causa della presenza di entanglement
quantistici (per la maggior parte chiaramente dimostrati
dal paradosso EPR e quantificati dalle disuguaglianze di Bell).
Qualsiasi teoria, come la meccanica quantistica, che vìoli le
diseguaglianze di Bell, deve rinunciare al realismo locale o alla
determinatezza controfattuale.4
L'affidabilità dei valori controfattualmente definiti è un'ipotesi di
base che, insieme all’ "asimmetria temporale" e alla "causalità
locale" ha portato alle disuguaglianze di Bell. Bell ha dimostrato
che i risultati degli esperimenti intesi a testare l'idea di variabili
nascoste sarebbero previsti entro certi limiti basati su tutte e tre
4
Nella maggior parte delle interpretazioni convenzionali (quale quella
di Copenaghen e quella basata sulle storie consistenti) in cui si assume
che la funzione d'onda non abbia un'interpretazione fisica diretta, è il
realismo ad essere rifiutato. Le reali proprietà definite di un sistema
fisico quantistico "non esistono" prima della misura e la funzione
d'onda viene interpretata come niente altro che uno strumento
matematico utilizzato per calcolare le probabilità dei risultati
sperimentali.
queste ipotesi (che sono considerate principi fondamentali per la
fisica classica), ma che i risultati trovati entro questi limiti
sarebbero incoerenti con le previsioni della teoria della meccanica
quantistica5
. Gli esperimenti hanno dimostrato che i risultati della
meccanica quantistica superano in modo prevedibile i limiti
5
Nel 1964 John Bell dimostrò con il suo teorema che se esistessero
variabili nascoste che rendessero la teoria locale, alcune configurazioni
dovrebbero soddisfare determinate relazioni non previste dalla
meccanica quantistica. Alcuni fisici, come Alain Aspect e Paul Kwiat,
hanno condotto sperimentazioni che hanno registrato violazioni delle
disuguaglianze di Bell su 242 deviazioni standard, conseguendo
un'eccellente certezza scientifica. Ciò depone a favore della meccanica
quantistica nella sua interpretazione classica, escludendo teorie a
variabili nascoste locali (rimane aperta la possibile esistenza di quelle
non locali). Una teoria delle variabili nascoste che volesse mantenere
coerenza con la meccanica quantistica dovrebbe possedere
caratteristiche non-locali, permettendo l'esistenza di relazioni di causa
istantanee, o comunque più veloci della luce, tra entità fisiche separate.
Sulla scia dell'idea di de Broglie dell'onda pilota, nacque nel 1952, a
opera del fisico David Bohm, un'interpretazione della meccanica
quantistica che ancora oggi è considerata la teoria a variabili nascoste
meglio formulata. Basandosi sull'idea originaria di de Broglie, Bohm
ha teorizzato di associare a ciascuna particella, ad esempio un elettrone,
un'onda guida che governi il suo moto. Grazie a tale assunto gli elettroni
hanno un comportamento sufficientemente chiaro: quando si conduce
il celebre esperimento della doppia fenditura, essi passano attraverso
una fenditura piuttosto che un'altra e la loro scelta non è probabilistica,
ma predeterminata, mentre l'onda associata attraversa entrambe le
fenditure generando la figura di interferenza. Tale prospettiva
contraddice l'idea di eventi locali che è utilizzata sia nella teoria
atomica classica che nella teoria della relatività. I conflitti con la teoria
della relatività, non solo in termini di non-località, ma soprattutto per
quanto riguarda l'invarianza di Lorentz, sono considerati dai sostenitori
della "convenzionale" fisica quantistica come la principale debolezza
della teoria di Bohm. Secondo i critici essa sembrerebbe scaturire da
una forzatura, ovverosia sarebbe stata deliberatamente strutturata per
fare previsioni che sono in ogni dettaglio uguali a quelle della
meccanica quantistica.
classici. Il calcolo delle aspettative basato sul lavoro di Bell
implica che per la fisica quantistica l'assunzione del "realismo
locale" debba essere abbandonata. Nella derivazione di Bell si
assume esplicitamente che ogni misura possibile, anche se non
eseguita, possa essere inclusa nei calcoli statistici. Il calcolo
implica la mediazione di insiemi di risultati che non possono
essere tutti contemporaneamente concreti; se alcuni sono
considerati risultati concreti di un esperimento altri devono essere
considerati controfattuali. Quelli che sono definiti come fattuali
sono determinati dallo sperimentatore; in tal modo i risultati delle
misurazioni effettivamente eseguite diventano reali in virtù della
sua scelta di farlo, i risultati delle misurazioni che non esegue
sono controfattuali. Il teorema di Bell dimostra che ogni tipo di
teoria quantistica deve necessariamente violare la località o
rifiutare la possibilità di misurazioni affidabili del tipo
controfattuale e definito. La determinatezza controfattuale è
presente in ogni interpretazione della meccanica quantistica che
considera le misurazioni quantomeccaniche come descrizioni
oggettive dello stato di un sistema (o dello stato del sistema
combinato e dell'apparato di misurazione), ma che non tiene
conto del fatto che non tutte le descrizioni oggettive del genere
possono essere rivelate simultaneamente dalle misurazioni.
L'interpretazione transazionale di Cramer (1986) è un esempio di
tale interpretazione.
Nel 1935 Albert Einstein, Boris Podolsky e Nathan Rosen, nel
loro paradosso EPR (l’acronimo è composto dalle iniziali dei loro
cognomi), teorizzarono che la meccanica quantistica poteva non
essere una teoria locale (ipotizzando erroneamente che il
formalismo quantistico fosse incompleto, poiché non era in grado
di spiegare tutti gli elementi della realtà fisica), poiché una
misurazione fatta su una coppia di particelle separate ma correlate
(entangled) tra loro, causa un effetto simultaneo; ovvero: il
collasso della funzione d'onda nella particella entangled misurata
successivamente (un effetto che supera la velocità della luce). Mi
spiego meglio con un esempio: in una coppia di particelle
entangled (A;B), se lo sperimentatore misura lo spin della
particella A e rileva spin up, istantaneamente, in qualsiasi altra
parte dell’universo si trovi l’altra particella B (anche lontana
milioni di anni-luce dalla sua “gemella” A), la sua funzione
d’onda collassa e assume spin down; mentre prima
dell’osservazione della particella A, il suo spin si trovava in uno
stato di totale indeterminazione.
Se si accettava la teoria dei quanti della meccanica quantistica, si
doveva accettare il paradosso EPR e quindi anche un principio di
non-località6
; ossia il fatto incontrovertibile che l’entanglement,
la “relazione” tra le particelle quantistiche, si mantiene a
prescindere dalla distanza nello spazio e al di là della limitazione
relativistica della velocità della luce.
Siccome il principio di indeterminazione di Heisenberg, limita la
precisione delle misurazioni inerenti a posizione e quantità di
moto delle particelle, nel 1951, David Bohm propose di
abbandonare questi parametri per lo studio dell’entanglement e di
sostituirli con dei valori facilmente misurabili; come ad esempio
lo spin. Fu nel 1964 che John Stewart Bell usò questa idea e
formulò una disuguaglianza. Il suo grande punto d’interesse sta
6
Alcuni fisici furono convinti delle argomentazioni (ancora
tendenzialmente a favore di un realismo locale) di Einstein, Podolsky e
Rosen e cercarono di elaborare delle teorie per completare la meccanica
quantistica con l’introduzione di un livello sottostante di descrizione
(teoria dell’onda pilota di Louis De Broglie, teorie con variabili
nascoste di David Bohm, etc.). Tuttavia, la grande maggioranza dei
fisici seguì la tesi di Bohr, secondo la quale non è possibile considerare
una realtà fisica indipendente (separata) dallo strumento di misurazione
(un concetto fondamentale strettamente legato al principio di non
località). La loro fiducia nella tesi di Bohr, era rinforzata dal teorema di
von Neumann, enunciato nel 1932 nel libro in cui erano poste le basi
matematiche della meccanica quantistica. In questo libro von Neumann
aveva affrontato il problema della interpretazione del carattere statistico
delle predizioni quantistiche nei termini delle variabili nascoste e aveva
dimostrato l’incompatibilità delle proprietà matematiche del
formalismo quantistico con l’esistenza di un formalismo sottostante nel
quale intervenissero delle variabili nascoste.
nel fatto che "la fisica quantistica prevede che questa
disuguaglianza possa essere violata in determinate condizioni
sperimentali, mentre secondo la fisica classica deve verificarsi
sempre". Esistono diverse varianti della disuguaglianza di Bell,
che portano a esperimenti diversi.
Il primo esperimento che indicava una violazione della
disuguaglianza di Bell fu condotto da John Clauser e Stuart
Freedman nel 1972, ma la sua accuratezza era insufficiente
perché potesse essere decisivo. È Alain Aspect a proporre nel
1975 un esperimento sufficientemente rigoroso per essere
considerato irrefutabile.
Dalla MQ al teorema e le disuguaglianze di Bell
La meccanica quantistica è stata formulata nelle sue versioni
moderne nel 1925-1926 da Erwin Schrödinger da una parte
(meccanica ondulatoria) e da Werner Heisenberg, Pascual Jordan
e Max Born dall’altra (meccanica delle matrici). Dopo che fu
dimostrata l’equivalenza fra queste due formulazioni, dapprima
dallo stesso Schrödinger e poi da John von Neumann, il
formalismo non poneva più problemi, anche se la sua
interpretazione avrebbe continuato a sollevare discussioni senza
fine.
Il punto più controverso era il carattere probabilistico delle
predizioni della teoria quantistica messo in luce da M. Born già
nel 1926. Questa natura fondamentalmente statistica delle
predizioni quantistiche aveva turbato numerosi fisici; tra i quali
Louis de Broglie e Albert Einstein. Per quest’ultimo, una teoria
fondamentale doveva essere capace di predire con certezza il
comportamento di un sistema il cui stato iniziale fosse
determinato. Per Einstein dunque, una teoria fondamentale non
poteva essere di natura probabilistica; poiché secondo lui in tal
caso essa avrebbe indicato l’esistenza di un livello sottostante che
a sua volta avrebbe permesso una descrizione più dettagliata del
mondo fisico. Con la celebre frase “Dio non gioca a dadi”, egli
espresse quindi il suo dissenso nei confronti della meccanica
quantistica e della sua natura prevalentemente statistica.
Secondo l’“Interpretazione di Copenaghen”, della quale Niels
Bohr fu il massimo esponente, la meccanica quantistica esprime
invece in forma probabilistica, la descrizione fisica più completa
che si possa concepire e ottenere in termini matematici.
L’impossibilità di andare oltre i limiti imposti dalla MQ, è dovuta
alla quantizzazione di certe quantità che non possono assumere
valori arbitrariamente piccoli. La validità di questa posizione è
assicurata dall’esistenza delle relazioni di indeterminazione di
Heisenberg (principio d’indeterminazione), sulle quali Einstein
concentrò i suoi primi attacchi, cercando di contraddirle con
diverse teorie concettuali compatibili con le leggi fondamentali
della fisica, ma che andavano ben oltre le possibilità di verifica
sperimentale con le tecnologie di quell’epoca7
.
Nel 1935 Einstein e i suoi collaboratori Boris Podolsky e Nathan
Rosen, pubblicarono sulla rivista “Physical Review” il celebre
articolo (in seguito spesso chiamato “paradosso EPR”) in cui si
dimostrava l’incompletezza della MQ basandosi sulle predizioni
che essa stessa formulava. La MQ predice una correlazione molto
stretta fra le misure di polarizzazione di due fotoni e lontani
ma emessi da una sorgente comune che li ha prodotti in uno stato
di polarizzazione definito dalla seguente formula:
| ( , )⟩ =
√
(| , ⟩ + | , ⟩)
Nella quale | , ⟩ rappresenta una coppia di fotoni polarizzati
secondo l’asse Ox , perpendicolare alla direzione di propagazione
e | , ⟩ rappresenta una coppia di fotoni polarizzati secondo
7
Su questa prima fase della discussione si devono ricordare i congressi
di Solvay del 1927 e del 1930, nel corso dei quali Bohr riuscì facilmente
a superare le argomentazioni di Einstein. Sembra che alla fine di queste
discussioni Einstein si sia convinto che la teoria quantistica fosse
corretta, pur continuando a pensare che fosse incompleta.
l’asse Oy perpendicolare a Ox e alla direzione di propagazione.
La MQ prevede una correlazione totale tra le polarizzazioni dei
due fotoni appartenenti a un tale stato, detto “stato EPR”.
Per esempio per direzioni di misura parallele, un risultato +1 per
implica con sicurezza un risultato +1 per (e similmente, se
si ottiene -1 per , con certezza si otterrà -1 per ). Ma secondo
Einstein la misurazione sul fotone non dovrebbe essere
influenzata dalla misurazione su , poiché il principio di
causalità relativistico impedisce a un’interazione di propagarsi ad
una velocità superiore a quella della luce. Per tale motivo il fotone
secondo Einstein doveva possedere una proprietà in grado di
determinare il risultato +1 o -1, prima di eseguire la misurazione;
definendo insieme a Rosen e Podolsky tale proprietà, un
“elemento di realtà fisica”.
Ora, secondo il formalismo quantistico, che non attribuisce
alcuna proprietà di questo tipo a , tutte le coppie sono identiche
ancorché nel 50% dei casi si ottenga +1 e nel 50% degli altri casi
si ottenga -1. Per Einstein e i suoi collaboratori, tale formalismo
quantistico risultava quindi incompleto; poiché esso non era in
grado di spiegare tutti gli elementi della realtà fisica.
Bohr, dal canto suo, per sostenere invece le sue ragioni, dovette
ricorrere ad un ragionamento alquanto sofisticato alla base del
quale occorreva porre le seguenti ipotesi:
1) Le predizioni della meccanica quantistica sono giuste;
2) Nessuna interazione può propagarsi con una velocità
superiore a quella della luce (causalità relativistica);
3) Quando due oggetti sono molto lontani l’uno dall’altro, è
possibile parlare separatamente degli elementi della realtà
fisica di ciascuno di essi.
Per Bohr la terza ipotesi era più importante delle prime due,
poiché conduceva alla conclusione che non è possibile parlare in
astratto degli elementi di realtà fisica di un sistema. Ogni
esperimento di fisica comporta un sistema da studiare e un
apparecchio di misurazione, ed è soltanto precisando l’insieme
dei due che si può parlare di realtà fisica.
Il primo contributo di Bell ai fondamenti concettuali della MQ fu
la dimostrazione, nel 1964, dell’inesattezza del teorema di von
Neumann. Egli osservò innanzitutto che l’esistenza di teorie con
variabili nascoste come quella di Bohm rappresentava un
controesempio al teorema. Inoltre egli identificò un’ipotesi
apparentemente ovvia, seppure non verificata, che minava tutta la
dimostrazione. A questo punto egli era pronto a riprendere il
programma di Einsten, Podolsky e Rosen; ed è ciò che
effettivamente fece nel 1966, in un secondo celebre articolo.
In questo articolo, Bell estende l’argomento di Einstein, Podolsky
e Rosen esaminando le possibili conseguenze della conclusione
secondo cui la meccanica quantistica sarebbe incompleta. Egli
completò quindi la teoria introducendo delle “variabili nascoste”
per interpretare le correlazioni di Einstein, Podolsky e Rosen. Si
tratta di proprietà suscettibili di variare da una coppia (ad esempio
di fotoni) all’altra, ma comuni ai due membri di una stessa coppia.
I risultati delle misure di polarizzazione dipendono da questa
proprietà comune; cosicché si capisce che le misurazioni
effettuate sui due membri di una stessa coppia, possono essere
correlate. Bell impose inoltre al suo formalismo una condizione
di località strettamente legata alle ipotesi 2 e 3 precedentemente
elencate (ipotesi di Bohr). Fatto ciò, dimostrò che una tale teoria
(teoria separabile con variabili nascoste) è in conflitto con la
meccanica quantistica. Il grande punto di forza del ragionamento
di Bell, sta nella sua generalità. Esso non è ristretto a una teoria
particolare con variabili nascoste, ma si applica a tutte le teorie
separabili con variabili nascoste le cui predizioni soddisfino certe
disuguaglianze (da cui il nome: disuguaglianze di Bell), mentre le
predizioni della meccanica quantistica le violano.
Con il teorema di Bell dunque, viene stabilito un nuovo punto
fermo difficilmente confutabile secondo il quale: se la posizione
di Einstein è corretta, le correlazioni di Einstein, Podolsky e
Rosen violano le predizioni quantistiche.
Una linea di indagine nella “preistoria” del teorema di Bell8
riguardava la congettura secondo la quale lo stato
quantomeccanico di un sistema deve essere integrato da ulteriori
“elementi di realtà” o “variabili nascoste” o “stati completi”, al
fine di fornire una descrizione completa. L’incompletezza dello
stato quantistico è la spiegazione del carattere statistico delle
previsioni quantomeccaniche relative al sistema.
In realtà ci sono due principali categorie di teorie delle variabili
nascoste. Nella prima categoria, che è solitamente definita “non
contestuale”, lo stato completo del sistema determina il valore di
una quantità (il che equivale ad un autovalore dell’operatore che
rappresenta quella quantità) che sarà ottenuta con qualsiasi
procedura di misurazione standard di quella quantità,
indipendentemente da quali altre quantità vengono misurate
simultaneamente o da quale potrebbe essere lo stato completo del
sistema e dell’apparato di misurazione. Le teorie delle variabili
nascoste di Kochen e Specker (1967), sono esplicitamente di
questo tipo. Nella seconda categoria, definita in genere
“contestuale”, il valore ottenuto dipende da quali quantità
vengono misurate simultaneamente e/o dai dettagli dello stato
completo dell'apparecchio di misurazione.
Questa distinzione venne per la prima volta indicata da Bell nel
1966; ma senza usare i termini "contestuale" e "non contestuale".
Esistono in realtà due versioni abbastanza diverse delle teorie
delle variabili nascoste contestuali, a seconda del carattere del
contesto: un "contesto algebrico" è quello che specifica le
quantità (o gli operatori che le rappresentano) che sono misurate
congiuntamente con la quantità (o operatore) di interesse
primario; mentre un "contesto ambientale" è una specificazione
delle caratteristiche fisiche dell'apparato di misurazione, in cui
esso misura simultaneamente diverse quantità distinte co-
8
Una nota importante: in questo sotto-capitolo, d’ora in avanti, quasi
tutte le informazioni inerenti al teorema di Bell sono state tratte
dall’articolo di Abner Shimony (Bell’s Theorem), presente sul web
nella Stanford Encyclopedia of Philosophy (riproduzione autorizzata).
misurabili. Nella teoria delle variabili nascoste di Bohm (1952) il
contesto è ambientale, mentre in quelle di Bell (1966) e Gudder
(1970) il contesto è algebrico. Una versione pionieristica di una
"teoria a variabili nascoste" fu proposta da Louis de Broglie nel
1927; mentre una versione più completa fu proposta da David
Bohm nel 1952. In queste teorie l'entità che completa lo stato
quantistico (che è una funzione d'onda nella rappresentazione di
posizione) è tipicamente un'entità classica, situata in uno spazio
di fase classico e quindi caratterizzata da entrambe le variabili di
posizione e di impulso. La dinamica classica di questa entità è
modificata da un contributo della funzione d'onda:
(1) ψ(x, t ) = R(x, t )exp[iS(x, t )/ℏ],
la cui evoluzione temporale è governata dall'equazione di
Schrödinger. Sia de Broglie che Bohm affermano che la velocità
della particella soddisfa l’"equazione guida" (in riferimento alla
teoria dell’onda pilota):
(2) v = grad(S/m),
per cui la funzione d'onda ψ agisce sulle particelle come "un'onda
guida". De Broglie (1928) e la scuola di "Meccanica Bohmiana"
(in particolare Dürr, Goldstein e Zanghì, 1992) postulano
l'”equazione guida” senza un tentativo di derivarla da un
principio più fondamentale. Bohm (1952), tuttavia, propone una
giustificazione più profonda dell'”equazione guida”. Egli postula
una versione modificata della seconda legge del moto di Newton:
(3) m d²x/dt ² = −grad[V(x,t ) + U(x,t )],
dove V(x,t ) è il potenziale classico standard e U(x,t ) è una
nuova entità, il "potenziale quantico":
(4) U(x,t ) = −(ℏ²/2m) grad²R(x,t )/R(x,t ),
e dimostra che se l’”equazione guida” si mantiene ad un tempo
iniziale t0 , allora segue dalle equazioni (2), (3), (4) e
dall’equazione di Schrödinger, che essa mantiene per tutto il
tempo. Sebbene Bohm meriti credito per il tentativo di
giustificare l'”equazione guida”, c'è in realtà una tensione tra
quell'equazione e l'equazione newtoniana modificata (3), che è
stata analizzata da Baublitz e Shimony (1996). L’equazione (3) è
un'equazione differenziale del secondo ordine nel tempo e non
determina una soluzione definita per tutti i tempi t senza due
condizioni iniziali (x e v al tempo t0).
Dal momento che v al tempo t0 è una contingenza, la validità
dell’”equazione guida” al tempo t0 (e quindi in tutte le altre
volte), è contingente. Bohm riconosce questa lacuna nella sua
teoria e discute le possibili soluzioni (Bohm, 1952), senza tuttavia
raggiungere una proposta definitiva. Se, tuttavia, questa difficoltà
viene messa da parte, viene fornita una soluzione al problema
della misurazione della meccanica quantistica standard; ovvero il
problema di contabilizzare il verificarsi di un risultato definito
quando il sistema di interesse viene preparato in una
sovrapposizione di autostati dell’operatore che è sottoposto a
misurazione. Inoltre, l'”equazione guida” garantisce l'accordo
con le previsioni statistiche della meccanica quantistica standard.
Il modello delle variabili nascoste che utilizzava l'”equazione
guida” ispirò Bell a prendere sul serio l'interpretazione delle
variabili nascoste della Meccanica Quantistica, e la non località
di questo modello suggeriva il suo teorema.
Un altro approccio alla congettura delle variabili nascoste è stato
quello di investigare la coerenza della struttura algebrica delle
grandezze fisiche caratterizzate dalla Meccanica Quantistica, con
un'interpretazione a variabili nascoste. La meccanica quantistica
standard presuppone che le "proposizioni" relative a un sistema
fisico siano isomorfe al reticolo L(H) di sottospazi lineari chiusi
di uno spazio di Hilbert H (in modo equivalente, al reticolo degli
operatori di proiezione su H) con le seguenti condizioni:
1) la proposizione il cui valore di verità è necessariamente
"vero" è abbinato all'intero spazio H;
2) la proposizione il cui valore di verità è necessariamente
'falso' è abbinata al sottospazio vuoto 0;
3) se un sottospazio S è abbinato a una proposizione q, allora
il complemento ortogonale di S è abbinato alla negazione
di q;
4) la proposizione q (il cui valore di verità è “vero” se il
valore di “verità” di q1 o q2 è “vero” ed è “falso” se le
risposte a entrambi q1 e q2 sono “false”), è abbinata alla
chiusura dell’unione teorica stabilita degli spazi S1 e S2 ,
rispettivamente abbinati a q1 e q2 (la chiusura è l’insieme
di tutti i vettori e può essere espressa come la somma di
un vettore in S1 e un vettore in S2).
Va sottolineato che quest’ultima corrispondenza (condizione 4)
non presuppone che una proposizione sia necessariamente vera o
falsa e quindi sia compatibile con l'indefinitezza della meccanica
quantistica di un valore di verità (che a sua volta implica la
caratteristica della meccanica quantistica che una quantità fisica
può essere indefinita in valore). Il tipo di interpretazione a
variabili nascoste che è stata trattata più estensivamente in
letteratura (spesso chiamata "interpretazione a variabili nascoste
non contestuali", per una ragione che sarà presto evidente) è una
mappatura m del reticolo L nella coppia {1,0}; dove m(S) = 1
intuitivamente significa che la proposizione abbinata a S è vera e
m(S) = 0 significa intuitivamente che la proposizione abbinata a
S è falsa. Una questione/domanda matematica importante è se
esistano tali mappature per le quali queste interpretazioni intuitive
sono mantenute e se inoltre le condizioni 1) e 4) sono soddisfatte.
Una risposta negativa a questa domanda per tutti i reticoli L(H)
dove lo spazio H di Hilbert ha una dimensionalità maggiore di 2,
è implicitamente legata a un importante teorema di Gleason
(1957); il quale fa di più, fornendo un catalogo completo di
possibili funzioni di probabilità su L(H).
La stessa risposta negativa è stata formulata molto più
semplicemente da John Bell nel 1966 (ma senza il catalogo
completo delle funzioni di probabilità raggiunto da Gleason), che
fornisce anche una risposta positiva alla domanda nel caso della
dimensionalità 2; in modo indipendente questi risultati furono
raggiunti anche da Kochen e Specker (1967). Va aggiunto che
nel caso della dimensionalità 2, le previsioni statistiche di
qualsiasi stato quantistico, possono essere recuperate da una
miscela appropriata delle mappature m.
Nel 1966, dopo aver presentato un “caso forte” contro il
programma a variabili nascoste (eccetto per il caso speciale di
dimensionalità 2), Bell esegue un drammatico ribaltamento
introducendo un nuovo tipo di interpretazione a variabili
nascoste; ovvero: una in cui il valore di verità che m assegna a un
sottospazio S, dipende dal contesto C di proposizioni misurate in
tandem con quello associato a S. Nel nuovo tipo di interpretazione
a variabili nascoste, il valore di verità nel quale m mappa S,
dipende dal contesto C. Queste interpretazioni sono
comunemente definite "interpretazioni a variabili nascoste
contestuali", mentre quelle in cui non esiste alcuna dipendenza
dal contesto sono chiamate "non contestuali". Bell dimostra la
coerenza delle interpretazioni a variabili nascoste contestuali, con
la struttura algebrica del reticolo L(H), per due esempi di H con
dimensione maggiore di 2. Va ricordato inoltre che la sua
proposta è stata sistematizzata da Gudder (1970); il quale
considera un contesto C come una subalgebra booleana
massimale del reticolo L(H) dei sottospazi.
Un'altra linea che portava al Teorema di Bell era l'investigazione
degli stati quantistici entangled ; ovvero degli stati quantistici di
un sistema composito, che non possono essere espressi come
prodotti diretti di stati quantistici dei singoli componenti. Il
fenomeno dell’entanglement è stato scoperto da Erwin
Schrödinger (1926) in uno dei suoi scritti pionieristici; ma il
significato di questa scoperta non è stato enfatizzato fino alla
pubblicazione di Einstein, Podolsky e Rosen (1935).
Einstein e i suoi collaboratori, esaminarono le correlazioni tra le
posizioni e la quantità di moto lineare di due particelle ben
separate e prive di spin e conclusero che (per evitare un appello
al principio di non località), queste correlazioni potevano essere
spiegate solo da "elementi della realtà fisica" in ciascuna
particella (nello specifico: dall’esatta determinazione di posizione
e quantità di moto di ogni particella); e poiché questa descrizione
è più ricca di quanto consentito dal principio di indeterminazione
della Meccanica Quantistica, la loro conclusione divenne
effettivamente il pilastro portante di un'eventuale interpretazione
a variabili nascoste della realtà fisica.
Va sottolineato che la loro argomentazione non dipende dal
ragionamento controfattuale; ovvero da un ragionamento su ciò
che si osserverebbe se una quantità fosse misurata in modo
diverso rispetto alla misurazione effettivamente eseguita. La loro
argomentazione può essere invece interamente riformulata nella
logica induttiva ordinaria, come sottolineato da d'Espagnat (1976)
e Shimony (2001). Questa riformulazione è importante perché
diminuisce la forza della confutazione di Bohr (1935), nei
confronti delle argomentazioni di Einstein, Podolsky e Rosen.
Questo indebolimento della confutazione di Bohr, lo si intuisce
sulla base del fatto che non si ha il diritto di trarre conclusioni
sull'esistenza di “elementi della realtà fisica”, da considerazioni
su ciò che si vedrebbe se venisse eseguita una misurazione diversa
da quella effettiva. Bell era scettico sulla confutazione di Bohr per
altri motivi; in sostanza egli considerava la confutazione di Bohr
troppo antropocentrica.
A conclusione del suo studio (1966), Bell dà una nuova
prospettiva di vita al programma delle variabili nascoste
introducendo la nozione di variabili nascoste contestuali.
Egli compie dunque un altro drammatico ribaltamento della
situazione, sollevando una domanda su un sistema composito
costituito da due (ben separate) particelle (1 e 2): supponiamo che
una proposizione associata a un sottospazio S1 dello spazio di
Hilbert della particella 1 sia sottoposta a misurazione e una teoria
delle variabili nascoste contestuali assegni il valore di verità
m(S1/C) a questa proposizione. Quali condizioni fisicamente
ragionevoli possono essere imposte al contesto C? Bell
suggerisce che C dovrebbe consistere solo di proposizioni
riguardanti la particella 1, altrimenti il risultato della misurazione
sulla particella 1 dipenderà da quali operazioni vengono eseguite
su una particella separata/lontana 2 (e ciò ovviamente
chiamerebbe in causa il principio di non località). Questa
condizione solleva la seguente domanda: le previsioni statistiche
della Meccanica Quantistica relative allo stato entangled,
possono essere duplicate da una teoria a variabili nascoste
contestuale, in cui il contesto C è localizzato?
È interessante notare che questa domanda deriva anche da una
considerazione del modello di de Broglie-Bohm: quando Bohm
ricava le predizioni statistiche di un sistema quantomeccanico
entangled, i cui costituenti sono ben separati, l'esito di una
misurazione effettuata su un costituente dipende dall'azione
dell’"onda guida" sui costituenti lontani, che in genere dipenderà
dalla disposizione di misurazione su quella parte. Bell fu quindi
portato euristicamente a chiedersi se fosse necessario un
“intervallo di località” per il recupero delle statistiche
quantomeccaniche.
Bell (1964) fornisce una dimostrazione pioneristica del teorema
che porta il suo nome, rendendo per prima cosa esplicito un
quadro concettuale (framework) in cui i valori di aspettativa
possono essere calcolati per le componenti di spin di una coppia
di particelle con spin ½ , quindi dimostrando che,
indipendentemente dalle scelte fatte per certe funzioni non
specificate che si verificano nel framework, i valori di aspettativa
obbediscono a una certa disuguaglianza che è stata definita
"Disuguaglianza di Bell". Questo termine è ora comunemente
usato per denotare collettivamente una famiglia di disuguaglianze
derivate in quadri concettuali simili, ma più generali di quella
originale di Bell. A volte queste disuguaglianze vengono
chiamate "disuguaglianze di tipo Bell". Ognuno di questi quadri
concettuali incorpora un certo tipo di teoria a variabili nascoste e
obbedisce a un'ipotesi di località. Anche il nome "Teoria realistica
locale" è appropriato e verrà utilizzato a breve tra le pagine di
questo libro, grazie alla sua generalità.
Bell calcola i valori di aspettativa per alcuni prodotti della forma
(σ1·â)(σ2·ê) [dove σ1 è l'operatore vettoriale di spin di Pauli per la
particella 1 e σ2 è l'operatore vettoriale di spin di Pauli per la
particella 2 (entrambe le particelle hanno spin ½ ); mentre â e ê
sono vettori unitari in 3D] e quindi mostra che questi valori
quantomeccanici di aspettativa, violano la disuguaglianza di Bell.
Questa violazione costituisce un caso speciale del Teorema di
Bell, poiché mostra che nessuna teoria realistica locale inclusa nel
quadro concettuale del documento di Bell del 1964, può essere
d'accordo con tutte le previsioni statistiche della teoria dei quanti.
Da ora in avanti verrà seguito il modello del documento di Bell
del 1964: a) formulazione di una struttura (quadro concettuale/
framework); b) derivazione di una disuguaglianza; c)
dimostrazione di una discrepanza tra certi valori di aspettativa
della meccanica quantistica e questa disuguaglianza.
Tuttavia, si supporrà una struttura concettuale più generale della
sua e verrà derivata una disuguaglianza un po' più generale,
ottenendo così un teorema più generale di quello derivato da Bell
nel 1964, ma con la stessa strategia e nello stesso spirito.
La struttura concettuale in cui verrà dimostrata una
disuguaglianza di tipo Bell, prima di tutto postula un insieme di
coppie di sistemi (i singoli sistemi in ciascuna coppia sono
etichettati come 1 e 2). Ogni coppia di sistemi è caratterizzata da
uno "stato completo" m, che contiene l'insieme delle proprietà
della coppia al momento della generazione. Lo stato completo m
può differire da coppia a coppia, ma la modalità di generazione
delle coppie stabilisce una distribuzione di probabilità ρ, che è
indipendente dai successivi sviluppi di ciascuno dei due sistemi
dopo che si sono separati. Diversi esperimenti possono essere
eseguiti su ciascun sistema. Quelli sul sistema 1 sono designati da
a, a ', etc; mentre quelli sul sistema 2 sono designati da b, b', etc.
Si può in linea di principio lasciare a, a', etc. e includere anche le
caratteristiche dell'apparato usato per la misurazione; ma poiché
la dipendenza del risultato dalle caratteristiche microscopiche
dell'apparato non è determinabile sperimentalmente, solo le
caratteristiche macroscopiche dell'apparato (come gli
orientamenti degli analizzatori di polarizzazione) nel loro
ambiente non completamente controllabile, devono essere
ammessi in pratica nelle descrizioni a, a ', etc. (idem per b, b',
etc.). L'ottimo accordo tra le misurazioni sperimentali delle
correlazioni negli esperimenti di tipo Bell e le previsioni della
meccanica quantistica di queste correlazioni, giustifica in pratica
la limitazione dell'attenzione alle caratteristiche macroscopiche
dell'apparato.
Il risultato di un esperimento sul sistema 1 è etichettato da s; il
quale può assumere su tale sistema, qualsiasi insieme discreto di
numeri reali nell'intervallo [-1, 1]. Allo stesso modo il risultato di
un esperimento sul sistema 2 è etichettato da t; il quale può
assumere su tale sistema, qualsiasi insieme discreto di numeri
reali nell'intervallo [-1, 1]. Va ricordato che la stessa versione di
Bell del suo teorema presuppone che s e t siano entrambi bivalenti
(-1 o 1); tuttavia in altre varianti del teorema vengono assunti altri
intervalli.
Si presuppone che le seguenti probabilità siano ben definite:
(5) p1
m (s |a, b, t) = la probabilità che il risultato della
misurazione eseguita sul sistema 1 sia s quando lo stato completo
è m. Le misurazioni eseguite sui sistemi 1 e 2, sono
rispettivamente a e b; mentre il risultato dell’esperimento sul
sistema 2 è t.
(6) p2
m (t |a, b, s) = la probabilità che il risultato della
misurazione eseguita sul sistema 2 sia t quando lo stato completo
è m. Le misurazioni eseguite sui sistemi 1 e 2, sono
rispettivamente a e b; mentre il risultato della misurazione a è s.
(7) pm (s, t |a, b) = la probabilità che i risultati delle misurazioni
congiunte a e b, quando lo stato completo è m, siano
rispettivamente s e t.
Si suppone che la funzione di probabilità p sia non negativa e si
sommi all'unità, quando la somma è tratta da tutti i valori
consentiti di s e t. Si noti che le teorie a variabili nascoste
precedentemente considerate, possono essere riassunte in questo
quadro concettuale, limitando i valori della funzione di
probabilità p a 1 e 0 (identificando 1 con il valore di verità "vero"
e 0 con il valore di verità "falso").
Un'ulteriore caratteristica del quadro concettuale è la località,
intesa come congiunzione delle seguenti condizioni di
indipendenza, così suddivise:
a) Indipendenza dal risultato a distanza (Remote Outcome
Independence)9
:
(8a) p1
m (s |a, b, t ) ≡ p1
m (s |a, b ) è indipendente da t,
(8b) p2
m (t |a, b, s ) ≡ p2
m (t |a, b ) è indipendente da s;
Si noti che le equazioni (8a) e (8b) non precludono le correlazioni
dei risultati dell’esperimento a sul sistema 1 e dell’esperimento b
sul sistema 2; esse dicono piuttosto che se viene fornito lo stato
completo m, il risultato s dell’esperimento sul sistema 1, non
fornisce ulteriori informazioni sul risultato dell'esperimento sul
sistema 2 e viceversa).
9
Si tratta di un neologismo, ma tuttavia appropriato, per ciò che viene
comunemente chiamato indipendenza dai risultati.
b) Indipendenza dal contesto a distanza (Remote Context
Independence)10
:
(9a) p1
m (s |a, b ) ≡ p1
m (s | a ) è indipendente da b,
(9b) p 2
m (t |a, b ) ≡ p2
m (t | b ) è indipendente da a.
Jarrett (1984) e Bell (1990) hanno dimostrato l'equivalenza della
congiunzione di (8a,b) e (9a,b) con la condizione di
fattorizzazione:
(10) pm (s, t |a, b) = p1
m(s |a )p2
m(t |b ),
e allo stesso modo per (a,b'), (a',b) e (a',b') sostituiti per (a,b). La
condizione di fattorizzazione espressa dall’equazione (10), è
sovente indicata come “località di Bell”. Va sottolineato che allo
stadio attuale dell'esposizione, tuttavia, la “località di Bell” è
semplicemente una condizione matematica all'interno di un
quadro concettuale, a cui non è stato attribuito alcun significato
fisico; in particolare nessuna connessione con la località della
Teoria della Relatività Speciale (sebbene tale connessione verrà
effettuata più tardi, quando verranno discusse le applicazioni
sperimentali del teorema di Bell).
La disuguaglianza di Bell è derivabile dalla sua condizione di
località per mezzo di un semplice lemma:
(11) Se q, q', r, r' appartengono tutti all'intervallo chiuso [-1,1],
allora S ≡ qr + qr '+ q'r - q'r' , appartiene all'intervallo chiuso
[-2 , 2].
Dimostrazione: poiché S è lineare in tutte e quattro le variabili (q,
q', r, r'), esso deve assumere i suoi valori di massimo e minimo,
10
Anche questo è un neologismo, ma appropriato, per ciò che viene
comunemente chiamato: indipendenza dei parametri.
agli angoli del dominio di questo quadruplo di variabili (dove
ogni q, q', r, r ' assume il valore +1 o -1). Quindi in questi angoli
S può essere solo un numero intero compreso tra -4 e +4. Ma S
può essere riscritto come (q + q ') (r + r') - 2q'r', e le due quantità
tra parentesi possono essere solo 0, 2 o -2; mentre l'ultimo termine
può essere solo -2 o +2, in modo che S non possa essere uguale a
± 3, +3, -4 o +4 agli angoli. C.v.d.
Ora definiamo il valore di aspettativa del prodotto “s.t” dei
risultati:
(12) Em (a,b ) ≡ Σs Σt pm(s,t |a,b )(st )
La sommatoria viene presa su tutti i valori consentiti di s e t. E
allo stesso modo con (a,b').(a',b) e (a',b') sostituito da (a, b). Si
prendano anche le quantità q, q', r, r' del lemma (11), affinché i
singoli valori di aspettativa siano:
(13a) q = Σs sp1
m(s|a),
(13b) q′ = Σs sp1
m(s|a′),
(13c) r = Σt tp2
m(t |b),
(13d) r′ = Σt tp2
m(t |b′).
Quindi il lemma, insieme all’equazione (12), con condizione di
fattorizzazione dell’equazione (10) e i limiti di s e t dichiarati
precedentemente per l’equazione (5), implica che:
(14) −2 ≤ Em(a,b ) + Em(a,b′) + Em(a′,b ) − Em(a′,b′) ≤ 2
Infine, torniamo al fatto che l'insieme di interesse consiste in
coppie di sistemi, ciascuno dei quali è governato da una
mappatura m; ma m è scelto stocasticamente da uno spazio M di
mappature governate da una funzione di probabilità standard ρ.
In pratica, per ogni sottoinsieme Borel B di M, ρ (B) è un numero
reale non negativo, ρ (M) = 1 e ρ (Uj Bj) = Σj ρ (Bj); dove i Bj'
sono sottoinsiemi Borel disgiunti di M e Uj Bj è l'unione teorica
dell'insieme dei Bj'. Se definiamo:
(15a) pρ(s,t |a,b ) ≡ ∫M pm(s,t |a,b ) dρ
(15b) Eρ(a,b ) ≡ ∫M Em(a,b )dρ = Σs Σt ∫M pm(s,t |a,b )(st ) dρ
E analogamente, quando (a, b'), (a', b), e (a ', b') sono sostituiti da
(a, b), allora le equazioni (14), (15a) e (15b) e le proprietà di ρ,
implicano che:
(16) −2 ≤ Eρ(a,b) + Eρ(a,b′) + Eρ(a′,b) − Eρ(a′,b′) ≤ 2
La disuguaglianza (16) è una disuguaglianza di tipo Bell, d'ora in
poi chiamata "disuguaglianza Bell-Clauser-Horne-Shimony-Holt
(BCHSH)".
Il terzo passo nella derivazione di un teorema di tipo Bell, consiste
nel mostrare un sistema, uno stato quantomeccanico e un insieme
di quantità per le quali le previsioni statistiche violano la
disuguaglianza (16). Poniamo ora che il sistema sia costituito da
una coppia di fotoni 1 e 2 che si propagano nella direzione z. I
due kets |x>j e |y>j costituiscono una base di polarizzazione per
il fotone j (j = 1, 2); il primo rappresenta (nella notazione di Dirac)
uno stato in cui il fotone 1 è polarizzato linearmente nella
direzione x e il secondo rappresenta uno stato in cui è polarizzato
linearmente nella direzione y. Per il sistema a due fotoni i quattro
kets del prodotto:
|x>1|x>2, |x>1 |y>2, |y>1 |x>2 e |y>1 |y>2 ,
costituiscono una base di polarizzazione. Ogni stato di
polarizzazione a due fotoni può essere espresso come una
combinazione lineare di questi quattro stati di base con
coefficienti complessi. Di particolare interesse sono gli stati
quantistici entangled, che in nessun modo possono essere espressi
come |φ> 1 |ξ> 2. Con |φ> e |ξ> intesi come stati di singoli fotoni,
avremo che:
(17) |Φ > = (1/√2)[ |x>1 |x>2 + |y>1 |y>2 ],
Equazione che ha l’utile proprietà di essere invariante sotto la
rotazione degli assi x e y, nel piano perpendicolare a z. Lo stato
quantistico totale della coppia di fotoni 1 e 2 è invariante sotto lo
scambio dei due fotoni, come richiesto dal fatto che i fotoni sono
particelle con spin intero. Né il fotone 1 né il fotone 2 si trovano
in uno stato di polarizzazione definito quando la coppia si trova
nello stato |ψ>, ma le loro potenzialità (nella terminologia di
Heisenberg, 1958) sono correlate: se a causa di una misurazione
o di qualche altro processo, la potenzialità del fotone 1 di essere
polarizzato lungo la direzione x o lungo la direzione y è
attualizzata, allora lo stesso sarà vero per il fotone 2, e viceversa.
Supponiamo ora che i fotoni 1 e 2 colpiscano rispettivamente le
facce I e II degli analizzatori di polarizzazione (a cristallo
birifrangente), con la faccia di ingresso di ciascun analizzatore
perpendicolare a z. Ogni analizzatore ha la proprietà di separare
la luce incidente sul suo schermo (faccia) in due raggi non
paralleli in uscita: il raggio “ordinario” e il raggio “non
ordinario”. L'asse di trasmissione dell'analizzatore è una
direzione con la proprietà di far emergere un fotone polarizzato
lungo di essa, nel raggio “ordinario” (con certezza se i cristalli
sono considerati ideali); mentre un fotone polarizzato in una
direzione perpendicolare a z e all'asse di trasmissione, emergerà
nel raggio “non ordinario”. Vedi la Figura 1.1.:
Figura 1.1. Schema degli analizzatori di polarizzazione.
Le coppie di fotoni vengono emesse dalla sorgente (fonte, v.
fig.1.1.) ed ogni coppia è descritta in notazione quantomeccanica
da |Φ> dell’equazione (17); ma anche da uno stato completo m
se si assume una teoria realistica locale. I e II sono analizzatori di
polarizzazione, con esito s = 1 e t = 1 che indica l'emergenza nel
raggio “ordinario”; mentre l’esito s = -1 e t = -1 indica
l'emergenza nel raggio “non ordinario”. I cristalli sono anche
idealizzati assumendo che nessun fotone incidente sia assorbito;
ma ognuno emerge nel raggio “ordinario” o “non ordinario”.
La meccanica quantistica fornisce un algoritmo per calcolare le
probabilità che i fotoni 1 e 2 emergeranno da questi analizzatori
idealizzati in raggi specificati, come funzioni degli orientamenti
a e b degli analizzatori (considerando a l'angolo tra l'asse di
trasmissione dell'analizzatore I e una direzione arbitraria fissa nel
piano x-y, e b che ha il significato analogo per l'analizzatore II).
(18a) probΦ(s,t |a,b ) = | <Φ|θs>1 |φt>2 |2
Qui s è un numero quantico associato al raggio nel quale emerge
il fotone 1; +1 indica l'emergenza nel raggio ordinario e -1 indica
l’emergenza nel raggio non ordinario quando a è dato. Mentre t è
il numero quantico analogo per il fotone 2 quando b è dato e:
|θs> 1 |φt> 2
è il ket che rappresenta lo stato quantico dei fotoni 1 e 2 con i
rispettivi numeri quantici s e t. Il calcolo delle probabilità di
interesse dall’equazione (18a) può essere semplificato usando
l'invarianza indicata dopo l'equazione (17) e riscrivendo| Φ>
come:
(19) |Φ> = (1/√2)[ |θ1>1 |θ1>2 + |θ−1>1 |θ−1>2 ]
L’equazione (19) risulta dall’equazione (17), sostituendo l'asse di
trasmissione dell'analizzatore I per x e la direzione perpendicolare
sia a z che a questo asse di trasmissione per y.
Poiché |θ−1>1 è ortogonale a |θ1>1, solo il primo termine
dell’equazione (19) contribuisce al prodotto interno
nell'equazione (18a) se s = t = 1; e dal momento che il prodotto
interno di |θ1>1 con se stesso è l'unità (a causa della
normalizzazione), allora l’equazione (18a), per s = t = 1, si riduce
a:
(18b) probΦ(1,1|a,b ) = (½)| 2<θ1|φ1>2 |2
Infine, l'espressione sul lato destro dell’equazione (18b) è valutata
usando la legge di Malus, che è preservata nel trattamento
quantomeccanico degli stati di polarizzazione. Dunque occorre
tener presente che: la probabilità per un fotone polarizzato in una
direzione n di passare attraverso un analizzatore di polarizzazione
ideale con l'asse di trasmissione n', è uguale al coseno quadrato
dell'angolo tra n e n'. Quindi:
(20a) probΦ(1,1|a,b ) = (½)cos2
σ,
dove σ è b-a. Allo stesso modo:
(20b) probΦ(−1,−1|a,b ) = (½) cos2
σ
(20c) probΦ(1,−1|a,b ) = probΦ(−1,1|a,b ) = (½)sin2
σ
Il valore di aspettativa del prodotto dei risultati s e t delle analisi
di polarizzazione dei fotoni 1 e 2 da parte dei rispettivi
analizzatori è:
(21) EΦ(a,b ) = probΦ(1,1|a,b ) + probΦ(−1,−1|a,b ) −
probΦ(1,−1| a,b ) − probΦ(−1,1|a,b ) = cos2
σ − sin2
σ = cos2σ
Ora scegliamo gli angoli di orientamento degli assi di
trasmissione:
(22) a = π/4, a′ = 0, b = π/8, b′ = 3 π/8
Ed in seguito:
(23a) EΦ(a,b ) = cos2(-π/8) = 0.707,
(23b) EΦ(a,b′) = cos2(π/8) = 0.707,
¨
(23c) EΦ(α′,b ) = cos2(π/8) = 0.707,
(23d) EΦ(a′,b′) = cos2(3π/8) = −0.707
Perciò avremo che:
(24) SΦ ≡ EΦ(a,b ) + EΦ(a,b′) + EΦ(a′,b ) − EΦ(a′,b′) = 2.828
L’equazione (24) mostra che ci sono situazioni in cui i calcoli
quantomeccanici violano la disuguaglianza BCHSH,
completando così la prova di una versione del teorema di Bell.
È importante notare, tuttavia, che tutti gli stati quantici entangled,
producono previsioni in violazione della disuguaglianza (16),
come hanno dimostrato indipendentemente Gisin (1991) e
Popescu / Rohrlich (1992). Popescu e Rohrlich (1992) mostrano
anche che la massima quantità di violazione è raggiunta con uno
stato quantistico di massimo grado di entanglement,
esemplificato da |Φ> dell’equazione (17).
Quello che il teorema di Bell mostra è che la meccanica
quantistica ha una struttura che è incompatibile con la struttura
concettuale entro cui è stata dimostrata la disuguaglianza di Bell:
una struttura in cui un sistema composito con due sottosistemi 1
e 2 è descritto da uno stato completo che assegna una probabilità
a ciascuno dei possibili risultati di ogni esperimento congiunto sui
sottosistemi 1 e 2, con le funzioni di probabilità che soddisfano
le due condizioni di indipendenza (8a, b ) e (9a, b); consentendo
inoltre delle miscele governate da funzioni arbitrarie di
probabilità nello spazio di stati completi. Un "esperimento" su un
sistema può essere compreso per includere il contesto entro il
quale viene misurata una proprietà fisica del sistema, ma le due
condizioni di indipendenza richiedono che il contesto sia locale.
Quindi l'incompatibilità della Meccanica Quantistica con questa
struttura concettuale non preclude i modelli a variabili nascoste
contestuali proposti da Bell nel 1966 (un esempio dei quali è il
modello de Broglie-Bohm), ma preclude i modelli in cui i contesti
sono richiesti per essere una struttura concettuale locale.
L'implicazione più evidente del Teorema di Bell è la luce che
getta sul paradosso EPR. Tale argomento concettuale (il
paradosso EPR) esamina uno stato quantico entangled e mostra
che una condizione necessaria per evitare l'azione a distanza tra
gli esiti di misurazione delle proprietà correlate dei due
sottosistemi (ad esempio, posizione in entrambi o quantità di
moto lineare in entrambi), è l'attribuzione di "elementi della
realtà fisica” corrispondenti alle proprietà correlate a ciascun
sottosistema, senza riferimento all'altro. Il Teorema di Bell
mostra che tale attribuzione avrà implicazioni statistiche in
disaccordo con quelle della meccanica quantistica.
Una caratteristica penetrante dell'analisi di Bell, se confrontata
con quella del paradosso EPR, è l'esame di diverse proprietà nei
due sottosistemi, come le polarizzazioni lineari lungo le diverse
direzioni nei sottosistemi 1 e 2, piuttosto che limitare la sua
attenzione alle correlazioni di proprietà identiche nei due
sottosistemi.
È possibile tuttavia affrontare il quadro concettuale della
disuguaglianza BCHSH (spesso definita anche disuguaglianza
CHSH), da un altro punto di vista, al fine di semplificarne la
comprensione e renderlo così più “accessibile” anche a coloro che
non hanno una grande dimestichezza con le operazioni
matematiche più avanzate. Come già visto, la disuguaglianza
CHSH limita la quantità di correlazione possibile tra gli spin
elettronici11
in una teoria a variabili nascoste. La violazione della
disuguaglianza CHSH, sia nella teoria che nei risultati
sperimentali della meccanica quantistica, dimostra il teorema di
Bell. Poniamo a questo punto la disuguaglianza CHSH nella
seguente forma:
(25) |E(a,b) - E (a, b′) + E (α′, b ) + E (a′, b′)| ≤ 2
11
Il calcolo effettuato da E. Schrödinger dell’energia degli orbitali
dell’idrogeno, costituì una pietra miliare nell’elaborazione della
moderna teoria atomica; tuttavia le righe spettrali non presentavano
esattamente la frequenza da lui prevista. Nel 1925 (prima del lavoro di
Schrödinger ma dopo lo sviluppo del primo modello atomico di Bohr),
due fisici americani di origine olandese, Samuel Goudsmit e George
Uhlenbeck, giunsero ad una importante conclusione e dunque ad una
possibile spiegazione delle piccole differenze osservate da Schrödinger.
Essi suggerirono l’idea che un elettrone si comporti per alcuni versi
come una sfera rotante (ovvero a qualcosa di simile ad un pianeta che
ruoti attorno al proprio asse di simmetria). Tale proprietà costituisce il
cosiddetto spin. Secondo la meccanica quantistica l’elettrone ha
accesso a due stati di spin, rappresentati con le frecce ↑ e ↓ o con le
lettere greche α e β. Possiamo immaginare che l’elettrone sia in grado
di ruotare in senso antiorario a una certa velocità (stato ↑) o in senso
orario esattamente alla stessa velocità (stato ↓). I due stati di spin sono
contraddistinti da un quarto numero quantico, il numero quantico
magnetico di spin, ms , che può assumere solo due valori: + ½ denota
un elettrone ↑ e - ½ denota l’altro elettrone ↓.
Dove a e α′ sono due possibili orientamenti per un rilevatore di
Stern-Gerlach in un esperimento di Bell; mentre b e b′ sono due
possibili orientamenti per il secondo rilevatore. Il valore E(a,b)
fornisce la correlazione degli spin lungo questi orientamenti ed è
definito (in meccanica quantistica) dall'aspettativa del prodotto
degli stati di spin lungo ciascuna direzione. La derivazione
formale di queste disuguaglianze è piuttosto ampia e complessa,
poiché introduce una possibile variabile nascosta e quindi
definisce le aspettative in termini di integrali che coinvolgono
questa variabile.
Tuttavia, l'intuizione dietro di essa è semplice: ciascuna delle
aspettative lungo l'orientamento a, α′, b e b′ è al massimo 1,
poiché ogni correlazione è al massimo 1 in una teoria classica. La
parte difficile della derivazione sta nel manipolare le espressioni
integrali che definiscono le correlazioni per ottenere piacevoli
disuguaglianze che non dipendano dalla variabile nascosta o
dall'angolo del rilevatore. Un semplice esempio della violazione
della disuguaglianza CHSH si verifica in esperimenti che
misurano lo spin nello stato di singoletto12
entangled di due
particelle con spin ½ :
(26) |ψ⟩ =
√
(|↑⟩ ⊗ |↓⟩ − |↓⟩ ⊗ |↑⟩)
Le correlazioni desiderate nella meccanica quantistica possono
essere trovate prendendo le aspettative delle misurazioni di spin
fatte sui due apparati di Stern-Gerlach.
Poniamo che A(a) sia una misurazione fatta con l’apparato A
avente orientamento a e in modo simile, consideriamo le seguenti
quattro misurazioni possibili:
(27a) A(a) = Ŝz ⊗ I
12
In meccanica quantistica un singoletto è una configurazione di spin o
di isospin composta da un solo stato.
(27b) A(α′) = Ŝx ⊗ I
(27c) B(b) = −
√
I ⊗ (Ŝz + Ŝx )
(27d) B(b′) =
√
I ⊗ (Ŝz − Ŝx )
Dove gli orientamenti b e b′ sono ruotati di 135° rispetto ad a e
α′; in modo che con i valori di aspettativa presi nello stato di
singoletto, avremo che:
(28a) E (a, b) = ⟨ ( ) ( )⟩ =
√
(28b) E (a, b′) = ⟨ ( ) (b′)⟩ = −
√
(28c) E (α′, b) = ⟨ ( ′) ( )⟩ =
√
(28d) E (α′,b′) = ⟨ ( ′) (b′)⟩ =
√
Sostituendo nella parte sinistra della diseguaglianza CHSH, si
trova:
(29) |E(a,b) - E (a, b′) + E (α′, b ) + E (a′, b′)| =
√
= 2√2
Ciò viola il limite di 2 previsto in una teoria a variabili nascoste
locali, come conseguenza dell'entanglement quantistico. Tale
equazione (29), nonostante sia evidente una differenza nei segni
più e meno delle varie correlazioni, porta esattamente allo stesso
risultato dell’equazione (24). Nella figura 1.2. riportata di seguito,
è rappresentata la correlazione E (a, b) come “funzione d’angolo”
tra gli orientamenti a e b. La discrepanza tra le previsioni
classiche e quelle quantistiche è evidente; specialmente alla
differenza dell’angolo di 135° usato nel precedente calcolo (dove
ogni correlazione assume il valore
√
; ovvero un valore che nella
teoria locale a variabili nascoste dovrebbe essere al massimo ½ ).
Figura 1.2. La correlazione E (a, b) come “funzione d’angolo”
tra gli orientamenti a e b.
Figura 1.3. John S. Bell (1964)
Figura 1.4. John Clauser nel suo laboratorio (1972)
MODELLANDO LA REALTÀ,
IMMAGINANDO L’IMPOSSIBILE
“Normalmente vediamo solo ciò che ci piace vedere,
tanto che a volte lo vediamo dove non c’è”.
Eric Hoffer
“L’illusione più pericolosa è quella che
esista soltanto un’unica realtà”.
Paul Watzlawick
CHSH e CH74: i primi esperimenti realizzati
Clauser, Horne, Shimony e Holt (da cui l’acronimo della
disuguaglianza CHSH), hanno derivato la disuguaglianza definita
con le iniziali dei loro cognomi, in una forma un po’ diversa
rispetto a quella conosciuta oggigiorno e usando assunzioni molto
più restrittive rispetto a quelle realmente necessarie.
La disuguaglianza CHSH (come nel caso di quella originale di
Bell, del 1964), si applica ad una proprietà statistica di “conteggi
di coincidenze” in un particolare esperimento e viene violata in
determinate condizioni dal formalismo della meccanica
quantistica; tuttavia, essa deve essere rispettata in una classe
generale di teorie locali a variabili nascoste. La forma più
semplice in assoluto in cui viene espressa generalmente la
disuguaglianza CHSH, è la seguente:
(30) − 2 ≤ S ≤ 2
Dove:
(31) S = E(a, b) − E(a, b′) + E(a′, b) + E(a′ b′)
In tale formula/equazione (31), come già visto più volte, a e a'
sono le impostazioni del rilevatore sul lato A; mentre b e b′ sono
le impostazioni del rilevatore sul lato B. Le quattro combinazioni
vengono testate in sotto-esperimenti separati. I termini E(a, b)
etc., sono le correlazioni quantistiche delle coppie di particelle,
dove la correlazione quantistica è definita come il valore di
aspettativa del prodotto dei "risultati" dell'esperimento; cioè la
media statistica di A(a ).B (b), dove A e B sono i risultati separati,
usando la codifica +1 per il canale “+” e -1 per il canale “-“.
La derivazione di Clauser e colleghi (del 1969), era orientata
verso l'uso di rilevatori a "due canali" (usati in genere proprio per
questo tipo di esperimenti); ma con il loro metodo gli unici
risultati possibili erano +1 e -1. Per adattare l’esperimento ad una
situazione reale (il che ai tempi significava l’impiego di luce
polarizzata e polarizzatori a singolo canale), essi dovevano
interpretare il “-“ come “nessun rilevamento” nel canale “+”.
Clauser e colleghi, nell’articolo originale non hanno discusso di
come la diseguaglianza a due canali poteva essere applicata in
esperimenti reali con veri rilevatori imperfetti; sebbene in seguito
sia stato dimostrato (Bell, 1971) che la disuguaglianza stessa era
ugualmente valida. Il verificarsi di risultati pari a zero, tuttavia,
significava che non era più così ovvio il modo in cui i valori di E
dovevano essere stimati dai dati sperimentali. In tutti gli
esperimenti degni di nota sulle disuguaglianze di Bell, si presume
che la sorgente rimanga essenzialmente costante, essendo
caratterizzata in ogni istante da uno stato ("variabile nascosta") λ
che ha una distribuzione costante ρ (λ) e non è influenzato dalla
scelta di impostazione del rilevatore.
In pratica nella maggior parte degli esperimenti si è utilizzata la
luce (considerando che venga emessa sotto forma di fotoni
particellari), piuttosto che gli atomi ipotizzati in origine da Bell,
per la verifica sperimentale delle sue disuguaglianze. Negli
esperimenti più noti (come ad esempio quello di A. Aspect del
1982), la proprietà più interessante rimane sempre la direzione di
polarizzazione (sebbene possano essere utilizzate altre proprietà).
Il diagramma in Figura 1.3., mostra un tipico esperimento ottico.
Le coincidenze (rilevazioni simultanee) vengono registrate, i
risultati vengono categorizzati come “+ +”, “+ −“, “− +” o “− −“
e i conteggi corrispondenti vengono accumulati.
Figura 2.1. Schema di un apparato per un esperimento di Bell a
due canali. La sorgente S produce coppie di "fotoni", inviati in
direzioni opposte. Ogni fotone incontra un polarizzatore a due
canali il cui orientamento può essere impostato dallo
sperimentatore. I segnali emergenti da ciascun canale sono
rilevati e le coincidenze contate dal monitor di coincidenza CM.
Vengono condotti quattro sotto-esperimenti separati,
corrispondenti ai quattro termini E(a, b) nel test di statistica S
(confr. eq. 31). Le impostazioni a, a', b e b' vengono generalmente
scelte con i seguenti angoli tipici per i test di Bell: 0; 45°; 22,5° e
67,5° (si tratta di particolari angoli per i quali i calcoli
quantomeccanici portano alla massima violazione della
disuguaglianza di Bell). Per ciascun valore selezionato di a e b,
vengono registrati i numeri di coincidenze in ciascuna categoria
(N ++, N--, N + - e N- +). La stima sperimentale per E (a, b) viene
quindi calcolata come:
(32) E = (N++ + N-- − N+- − N-+) / (N++ + N-- + N+- + N-+)
Una volta che tutte le E sono state stimate, è possibile trovare una
stima sperimentale di S (eq. 31). Se è numericamente maggiore di
2, ha violato la disuguaglianza CHSH e l’esperimento viene
considerato in accordo con le previsioni quantomeccaniche
(ovvero ha supportato le previsioni della meccanica quantistica);
ciò significa dunque, in ultima analisi, che tutte le teorie locali a
variabili nascoste sono state escluse. In esperimenti reali, tuttavia,
i rilevatori non sono solitamente efficienti al 100%, in modo tale
che venga rilevato solo un campione delle coppie emesse. La
validità della stima dipende dal campione di coppie rilevate; che
rappresenta un campione equo di quelle emesse (un'ipotesi
contestata dai sostenitori delle teorie locali a variabili nascoste).
In un articolo del 1969, Clauser, Horne, Shimony e Holt derivano
la ben nota disuguaglianza CHSH "a due canali", facendo ulteriori
presupposti che equivalgono all'assunzione di una forma ristretta
di "campionamento equo" (ovvero assumono che tutti i fotoni che
sono passati attraverso un polarizzatore, abbiano le stesse
possibilità di rilevamento); in seguito adattano tale derivazione ad
una situazione a canale singolo. Entrambe le derivazioni sono
state successivamente migliorate; quella a due canali nel 1971 da
Bell (Bell, 1971) e quella a canale singolo di Clauser e Horne nel
1974 (Clauser, 1974). Le derivazioni successive mostrano che
all’inizio erano state fatte alcune assunzioni non necessarie. Il test
a due canali non richiede l'ipotesi di Bell sui rilevatori paralleli;
sebbene (nella forma attualmente utilizzata) abbia bisogno di
un'equa ipotesi di campionamento ed è quindi vulnerabile alla
"scappatoia del giusto campionamento". La diseguaglianza a
canale singolo (qui chiamata disuguaglianza "CH74") non
richiede in realtà alcuna ipotesi sul campionamento corretto.
Nella loro derivazione del 1974, Clauser e Horne applicano ciò
che essi definivano una “teoria locale oggettiva” (piuttosto che
una teoria locale a variabili nascoste); assumendo che la variabile
nascosta λ non determinasse necessariamente dei risultati
“completi”; ma solo (quando presi in congiunzione con
l'impostazione del rilevatore) le loro probabilità di
concretizzazione. L'idea si è evoluta da quella introdotta da Bell
nel 1971 (Bell, 1971). Il modello può essere convertito in
deterministico assumendo più componenti per la variabile
nascosta (componenti associate al rilevatore piuttosto che alla
sorgente), ma non vi è alcun reale vantaggio nel farlo. Così com'è,
è un modello molto naturale da usare negli esperimenti ottici.
La disuguaglianza CH74 a canale singolo, come usata, per
esempio, in due esperimenti di Aspect (Aspect, 1981; Aspect,
1982b), è così definita:
(33) S = {N(a, b) − N(a, b′) + N(a′, b) + N(a′, b′)
− N(a′,∞) − N(∞, b)} / N(∞,∞) ≤ 0
Dove a e a' sono le impostazioni del polarizzatore (analizzatore)
per il lato 1 e b e b' sono le impostazioni del polarizzatore
(analizzatore) per il lato 2; mentre il simbolo ∞ indica l'assenza
di un polarizzatore. Ogni termine N rappresenta un conteggio di
coincidenza da un sotto-esperimento separato.
Figura 2.2. Schema di un apparato per un esperimento di Bell a
canale singolo. La sorgente S produce coppie di "fotoni", inviati
in direzioni opposte. Ogni fotone incontra un polarizzatore a
canale singolo il cui orientamento può essere impostato dallo
sperimentatore. I segnali emergenti sono rilevati e le coincidenze
contate dal monitor di coincidenza CM.
Ciò che ora verrà fatto (onde dimostrare la disomogeneità della
disuguaglianza CH74), sarà derivare una conseguenza
dell’ipotesi di fattorizzazione, testabile sperimentalmente senza
che N sia conosciuto e che contraddica le previsioni della
meccanica quantistica. Siano a e a' i due orientamenti
dell’analizzatore 1 e siano b e b' i due orientamenti
dell’analizzatore 2. Se le probabilità sono ragionevoli,
dovrebbero reggere le seguenti disuguaglianze:
(34a) 0 ≤ p1(λ, a) ≤ 1
(34b) 0 ≤ p1(λ, a′) ≤ 1
(34c) 0 ≤ p2(λ, b) ≤ 1
(34d) 0 ≤ p2(λ, b′) ≤ 1
Per ogni λ, arriviamo quindi alla seguente disuguaglianza:
(35) – 1 ≤ p1(λ, a) p2(λ, b) – p1(λ, a) p2(λ, b′) + p1(λ, a′)
p2(λ, b) + p1(λ, a′) p2(λ, b′) – p1(λ, a′) – p2(λ, b) ≤ 0
Moltiplicando per ρ(λ), ovvero per la probabilità che la sorgente
sia nello stato λ e procedendo con l’integrazione su λ, otteniamo
(ipotizzando la fattorizzazione):
(36) – 1 ≤ p1,2(a, b) – p1,2(a, b′) + p1,2(a′, b) + p1,2(a′, b′) –
p1(a′) – p2(b) ≤ 0
Quest’ultima disuguaglianza (36), rappresenta quindi un vincolo
necessario sulle previsioni statistiche di qualsiasi “teoria locale
oggettiva”. In tale disuguaglianza (36), i limiti superiori sono
testabili sperimentalmente senza che N sia conosciuto. Essa in
generale, si mantiene perfettamente per tutti i sistemi descritti da
una “teoria locale oggettiva”.
Per l’”utilizzo pratico”, esiste tuttavia la derivazione di una
disuguaglianza (omogenea) di struttura simile alla (36), che può
essere utilizzata con rilevatori reali a bassa efficienza. Essa
impiega un’ipotesi più forte rispetto alla 34a/b/c/d. Si tratta
dell’ipotesi denominata: “nessun miglioramento”; che può essere
espressa matematicamente nella forma:
(37a) 0 ≤ p1(λ, a) ≤ p1(λ, ∞) ≤ 1
(37b) 0 ≤ p2(λ, b) ≤ p2(λ, ∞) ≤ 1
Dove ∞ denota l'assenza del polarizzatore; p1 (λ, ∞) la probabilità
di un conteggio dal rilevatore 1 quando il polarizzatore è assente
e l'emissione è nello stato λ; e p2 (λ, ∞) la probabilità di un
conteggio dal rilevatore 2 quando il polarizzatore è assente e
l'emissione è nello stato λ.
Usando gli stessi argomenti di prima, troviamo la (36) sostituita
da (38):
(38) p1,2(∞, ∞) ≤ p1,2(a, b) – p1,2(a, b′) + p1,2(a′, b) +
p1,2(a′, b′) – p1,2(a′, ∞) – p1,2(∞, b) ≤ 0
Dividendo attraverso p1,2(∞, ∞) e sostituendo tutte le probabilità
con le loro stime (i conteggi corrispondenti divisi per N, il numero
di coppie emesse), la parte destra della disuguaglianza torna di
nuovo ad essere la CH74 definita in (33).
Quando sussiste un’invarianza rotazionale e le impostazioni del
rilevatore sono selezionate con le differenze tutte uguali a φ o 3φ
(per qualche angolo φ), si applicano dei casi speciali delle
disuguaglianze di Bell. Essi sono facilmente derivabili dalle
formulazioni generali di Clauser (Clauser, 1978). La
disuguaglianza CH74 può essere ulteriormente contratta nei test
di Bell che implicano la polarizzazione in una forma nota come
disuguaglianza di Freedman (se c'è una simmetria sufficiente
nell'esperimento e φ è scelto per essere π/8). Secondo Clauser e
Horne (Clauser, 1974), la disuguaglianza CHSH a due canali, può
essere considerata una conseguenza della disuguaglianza CH74
(Clauser, 1974). Quest’ultima (e i suoi relativi test di verifica), è
stata utilizzata in tutti gli esperimenti di Bell degli anni Settanta e
anche in quelli successivi; in particolar modo in due esperimenti
di Alain Aspect (Aspect, 1981, 1982b). I primi esperimenti, a
partire da quelli di Freedman e Clauser (Freedman, 1972),
sebbene quasi tutti violassero la disuguaglianza, non furono
accettati come prove convincenti per l'entanglement quantistico;
ciò a causa di potenziali “scappatoie” (loopholes) inerenti al
principio di località, che non hanno potuto essere completamente
escluse.
La caratteristica importante della disuguaglianza CH74 è, come
sottolineato sia nel documento del 1974 che nel rapporto del 1978
sui test di Bell di Clauser e Shimony (Clauser, 1978), che non
richiede la conoscenza di N (ovvero il numero di coppie emesse).
Allo stesso modo non richiede l'ipotesi di "campionamento equo"
che viene utilizzata per aggirare il problema di non conoscere N
nella versione attualmente accettata del test CHSH. Alain Aspect
è tra coloro che citano la precedente, indiretta, derivazione della
disuguaglianza CH74 ed hanno l'impressione che richieda la
giusta ipotesi di campionamento. In un esauriente articolo che
descrive i suoi tre esperimenti di Bell (Aspect, 2004), egli
trasmette l'impressione che il test CH74 sia generalmente
inferiore; in parte perché non segue così da vicino lo schema
originale di Bell ma anche a causa delle forti supposizioni che
ritiene siano necessarie.
Il test CH74 è infatti perfettamente valido a pieno titolo. A
prescindere dalle ipotesi standard del realismo locale, la versione
pratica (omogenea) del test CH74 richiede solo un'ipotesi in più:
quella di "nessun miglioramento" (37a; 37b; 38). Questa ipotesi
sembra ragionevole per motivi fisici, fintanto che vengono evitate
evidenti cause di distorsione. Alcuni realisti locali, tuttavia, si
sono opposti al test CH74. Per un motivo o per l’altro, è il test
CHSH che è stato accettato come standard, da quando Aspect lo
ha usato per la prima volta nel secondo (Aspect, 1982a) dei suoi
tre famosi esperimenti.
Gli esperimenti di Alain Aspect e colleghi
Alain Aspect e il suo team di Orsay (Parigi), hanno condotto tre
test di Bell utilizzando fonti a cascata di calcio. Per il primo e per
l'ultimo test, hanno usato la disuguaglianza CH74. Il secondo era
la prima applicazione della disuguaglianza CHSH. Il terzo (e più
famoso) era organizzato in modo tale che la scelta tra le due
impostazioni su ciascun lato fosse fatta durante il volo dei fotoni
(come originariamente suggerito da John Bell). Gli esperimenti di
Aspect, dopo il primo esperimento di Stuart Freedman e John
Clauser nel 1972, sono stati considerati come un ulteriore
supporto alla tesi che le disuguaglianze di Bell, vengono violate
nella versione CHSH. Tuttavia, i suoi risultati non erano del tutto
conclusivi poiché c'erano scappatoie (loopholes) che
permettevano spiegazioni alternative, conformi al realismo
locale.
Aspect, insieme ai suoi colleghi, cercò di creare apparati
sperimentali più complessi in confronto a quelli usati fino ad
allora. Sfruttando la stessa sorgente, Aspect eseguì tre diversi
esperimenti:
1) L’esperimento con polarizzatori a canale singolo
2) L’esperimento con polarizzatori a doppio canale
3) L’esperimento con polarizzatori variabili nel tempo
Quest’ultimo in particolare (il terzo), può essere considerato
come l’esperimento più preciso ed efficace, a cui gli altri due si
possono ricondurre. Vediamo dunque in dettaglio questo
importante esperimento.
Come sorgente comune a tutti e tre gli apparati sperimentali,
Aspect utilizzò l’eccitazione a due fotoni della cascata atomica
del Calcio:
(39) 4 ( ) → 4 4 → 4 ( )
Un processo ad alta efficienza e molto stabile che emette due
fotoni visibili v1 e v2 entangled in polarizzazione (v. fig. 2.3.).
Figura 2.3. Eccitazione a due fotoni della cascata atomica del
Calcio, utilizzata come sorgente per gli esperimenti di Aspect.
L’eccitazione della cascata viene prodotta con due diversi laser
aventi polarizzazioni parallele e focalizzati perpendicolarmente
sul fascio atomico di Calcio. Un primo ciclo di retroazione
controlla la lunghezza d’onda del laser, per avere il massimo
segnale di fluorescenza; un secondo ciclo invece controlla la
potenza del laser per stabilizzare l’emissione di fotoni.
In questo modo Aspect riuscì ad ottenere una sorgente che fosse
la più stabile ed efficiente possibile, con una velocità di cascata
di 4 x 107
coppie di fotoni al secondo, utilizzando solo 40mW per
ciascun laser. Va ricordato che, con la dicitura “a canale singolo”,
si intende l’atto di porre di fronte a ciascun polarizzatore, un
polarizzatore lineare che trasmette i fotoni polarizzati
parallelamente agli assi del polarizzatore stesso; bloccando
invece quelli polarizzati perpendicolarmente (in tal caso viene
misurato solo il valore +, per ciascun fotone delle coppie emesse
dalla sorgente).
In termini matematici, quindi, l’utilizzo di polarizzatori a canale
singolo, permette di determinare il solo risultato:
(40) R (a+, b+) = R (a, b)
poiché non si sa se il risultato -1 per un fotone, sia dovuto
effettivamente al fatto che la sua polarizzazione è ortogonale agli
assi del polarizzatore o se è dovuto ad una scarsa efficienza del
sistema di conteggio. Si richiedono quindi raccolte ausiliari di
dati, con uno o entrambi i polarizzatori rimossi, trovando in
questo modo le seguenti quantità:
(41a) R(∞, ∞) = R0
(41b) R(a+, ∞) = R1(a)
(41c) R(∞, b+) = R2(b)
Ed elaborando opportunamente la generalizzazione del teorema
di Bell, si ottiene la seguente disuguaglianza:
(42) −1 ≤ = [ ( , ) + (a′, b) + R(a′, b′)
– R(a, b′) – R1(a′) – R2(b)] ≤ 0
Questa breve digressione è necessaria poiché nell’esperimento
con i polarizzatori variabili nel tempo si farà uso di questa
disuguaglianza; per cui il range da violare è [-1; 0], anziché di
quella CHSH con range [-2; 2].
Come già accennato poc’anzi, l’esperimento più interessante
eseguito da Alain Aspect è quello in cui sono stati utilizzati
polarizzatori a disposizione variabile. Dal momento che
l’assunzione del principio di località è ragionevole ed intuitiva,
ma non è prescritta da alcuna legge fisica (se non dalla Relatività
Ristretta; ma come si avrà modo di appurare a breve, essa non
verrà intaccata), gli esperimenti di questo tipo sono di
fondamentale importanza. Infatti si potrebbe pensare che gli
analizzatori fissi possano essere disposti lungo le rispettive
direzioni, abbastanza in anticipo da consentire loro di comunicare
mediante uno scambio di segnali con velocità minore o uguale a
quella della luce. Se tali interazioni esistessero, non sarebbero più
valide le disuguaglianze di Bell (che hanno proprio come ipotesi
la non dipendenza di una misurazione, dal modo in cui viene
disposto l’altro apparato sperimentale).
Figura 2.4. Schema dell’esperimento a disposizione variabile con
commutatori ottici (CI e CII ); ciascuno seguito da due
polarizzatori orientati in due diverse direzioni.
Nell’apparato sperimentale utilizzato e mostrato in figura 2.4.,
ciascun polarizzatore è sostituito da un’apparecchiatura composta
da un dispositivo di commutazione, seguito da due polarizzatori
posizionati in due diverse posizioni: a e a′ dal lato I e b e b′ dal
lato II. Ciascuna apparecchiatura corrisponde ad un polarizzatore
variabile, commutato rapidamente tra due orientazioni. Infatti la
commutazione tra i due canali (e quindi il cambiamento di
orientazione dell’equivalente polarizzatore variabile), avviene in
10 nanosecondi. Considerato che tale intervallo di tempo (10 ns)
e il tempo di vita medio del livello intermedio della cascata
atomica (5 ns) sono piccoli in confronto a (40 ns), la rilevazione
di un evento su un lato e il corrispondente cambiamento di
orientazione sull’altro lato, sono separati da un vettore di tipo
spazio (ovvero sono due eventi in posizioni opposte rispetto a un
vettore di tipo luce).
La commutazione della luce è effettuata da interazione acustico-ottica,
con un’onda stazionaria ultrasonica nell’acqua. L’angolo di incidenza
(angolo di Bragg) e la potenza acustica sono regolati in modo da
ottenere una commutazione completa. Tuttavia, con i grandi fasci
utilizzati, la commutazione non era completa poiché l’angolo di
incidenza non era esattamente l’angolo di Bragg. Dunque, per ottenere
una miglior commutazione, venne ridotta la convergenza dei fasci; il
che portò ad un tasso di coincidenze rilevate, minore rispetto a quello
dei precedenti esperimenti. Tutto ciò ha portato a tempi di misurazione
maggiori e risultati che violano ancora una volta la disuguaglianza (42)
e che sono in completo accordo con la meccanica quantistica. Infatti
Aspect e colleghi, per misurazioni ad angoli θab = θba′ = θ a′b′ = 22,5°
hanno trovato il seguente risultato:
Sexp = 0,101 ± 0,020
Quando il valore predetto dalla meccanica quantistica è:
SQM = 0,112
Gli esperimenti di A. Aspect sono una prova sperimentale ma
fondamentale del disaccordo tra la meccanica quantistica e le
teorie locali a variabili nascoste. Da tale esperimento è dunque
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.

Mais conteúdo relacionado

Semelhante a Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.

L'esperimento di Afshar (Prefazione a cura del Prof. Luigi M.Caligiuri) - WWW...
L'esperimento di Afshar (Prefazione a cura del Prof. Luigi M.Caligiuri) - WWW...L'esperimento di Afshar (Prefazione a cura del Prof. Luigi M.Caligiuri) - WWW...
L'esperimento di Afshar (Prefazione a cura del Prof. Luigi M.Caligiuri) - WWW...
Fausto Intilla
 
Metamorfosi della-scienza-rampino
Metamorfosi della-scienza-rampinoMetamorfosi della-scienza-rampino
Metamorfosi della-scienza-rampino
imartini
 
Robert Musil
Robert MusilRobert Musil
Robert Musil
AnnaM22
 
Presentazione seminario_filosofia_popper_2009_2010
Presentazione  seminario_filosofia_popper_2009_2010Presentazione  seminario_filosofia_popper_2009_2010
Presentazione seminario_filosofia_popper_2009_2010
imartini
 
QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...
QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...
QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...
Fausto Intilla
 
La crisi del positivismo
La crisi del positivismoLa crisi del positivismo
La crisi del positivismo
Andrea Samuelli
 
Dal Festival Della Scienza reportage in SL
Dal Festival Della Scienza reportage in SLDal Festival Della Scienza reportage in SL
Dal Festival Della Scienza reportage in SL
Elisa Rubino
 

Semelhante a Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale. (20)

Gravità quantistica: A che punto siamo?
Gravità quantistica: A che punto siamo?Gravità quantistica: A che punto siamo?
Gravità quantistica: A che punto siamo?
 
Interpretazione a Molti Mondi: quali sono gli esperimenti per poterla testare?
Interpretazione a Molti Mondi: quali sono gli esperimenti per poterla testare?Interpretazione a Molti Mondi: quali sono gli esperimenti per poterla testare?
Interpretazione a Molti Mondi: quali sono gli esperimenti per poterla testare?
 
L'esperimento di Afshar (Prefazione a cura del Prof. Luigi M.Caligiuri) - WWW...
L'esperimento di Afshar (Prefazione a cura del Prof. Luigi M.Caligiuri) - WWW...L'esperimento di Afshar (Prefazione a cura del Prof. Luigi M.Caligiuri) - WWW...
L'esperimento di Afshar (Prefazione a cura del Prof. Luigi M.Caligiuri) - WWW...
 
Alla ricerca del reale ...dove nulla, è come appare.
Alla ricerca del reale ...dove nulla, è come appare.Alla ricerca del reale ...dove nulla, è come appare.
Alla ricerca del reale ...dove nulla, è come appare.
 
"Fisica dell'informazione": Intervista all'autore (di: Aracne editrice)
"Fisica dell'informazione":  Intervista all'autore (di: Aracne editrice)"Fisica dell'informazione":  Intervista all'autore (di: Aracne editrice)
"Fisica dell'informazione": Intervista all'autore (di: Aracne editrice)
 
Metamorfosi della-scienza-rampino
Metamorfosi della-scienza-rampinoMetamorfosi della-scienza-rampino
Metamorfosi della-scienza-rampino
 
Robert Musil
Robert MusilRobert Musil
Robert Musil
 
Newton
NewtonNewton
Newton
 
Il grande inganno della matematica
Il grande inganno della matematicaIl grande inganno della matematica
Il grande inganno della matematica
 
Quantum Computing: SOGNO TEORICO O REALTÀ IMMINENTE?
Quantum Computing: SOGNO TEORICO O REALTÀ IMMINENTE?Quantum Computing: SOGNO TEORICO O REALTÀ IMMINENTE?
Quantum Computing: SOGNO TEORICO O REALTÀ IMMINENTE?
 
Presentazione seminario_filosofia_popper_2009_2010
Presentazione  seminario_filosofia_popper_2009_2010Presentazione  seminario_filosofia_popper_2009_2010
Presentazione seminario_filosofia_popper_2009_2010
 
QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...
QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...
QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...
 
Fantasticando sui fenomeni Psi (di Fausto Intilla)
Fantasticando sui fenomeni Psi (di Fausto Intilla) Fantasticando sui fenomeni Psi (di Fausto Intilla)
Fantasticando sui fenomeni Psi (di Fausto Intilla)
 
La crisi del positivismo
La crisi del positivismoLa crisi del positivismo
La crisi del positivismo
 
Il centro del mondo
Il centro del mondoIl centro del mondo
Il centro del mondo
 
Dal Festival Della Scienza reportage in SL
Dal Festival Della Scienza reportage in SLDal Festival Della Scienza reportage in SL
Dal Festival Della Scienza reportage in SL
 
Energia e Informazione: La realtà dei bit, attraverso la fisica dei buchi neri.
Energia e Informazione: La realtà dei bit, attraverso la fisica dei buchi neri.Energia e Informazione: La realtà dei bit, attraverso la fisica dei buchi neri.
Energia e Informazione: La realtà dei bit, attraverso la fisica dei buchi neri.
 
IA: Princìpi e parametri alternativi, per una fisica alternativa – Intervista...
IA: Princìpi e parametri alternativi, per una fisica alternativa – Intervista...IA: Princìpi e parametri alternativi, per una fisica alternativa – Intervista...
IA: Princìpi e parametri alternativi, per una fisica alternativa – Intervista...
 
L'esperimento di Afshar. Verso un nuovo approccio al principio di complementa...
L'esperimento di Afshar. Verso un nuovo approccio al principio di complementa...L'esperimento di Afshar. Verso un nuovo approccio al principio di complementa...
L'esperimento di Afshar. Verso un nuovo approccio al principio di complementa...
 
Una quinta forza fondamentale della natura ...per ora solo ipotetica.
Una quinta forza fondamentale della natura ...per ora solo ipotetica.Una quinta forza fondamentale della natura ...per ora solo ipotetica.
Una quinta forza fondamentale della natura ...per ora solo ipotetica.
 

Mais de Fausto Intilla

Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.
Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.
Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.
Fausto Intilla
 
Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...
Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...
Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...
Fausto Intilla
 
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
Fausto Intilla
 

Mais de Fausto Intilla (20)

Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.
Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.
Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.
 
Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...
Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...
Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...
 
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
 
Teorema di Noether: limiti e applicabilità – Intervista a Fausto Intilla
Teorema di Noether: limiti e applicabilità – Intervista a Fausto IntillaTeorema di Noether: limiti e applicabilità – Intervista a Fausto Intilla
Teorema di Noether: limiti e applicabilità – Intervista a Fausto Intilla
 
Attrattori, campi morfogenetici e meccanica quantistica: il nesso.
Attrattori, campi morfogenetici e meccanica quantistica: il nesso.Attrattori, campi morfogenetici e meccanica quantistica: il nesso.
Attrattori, campi morfogenetici e meccanica quantistica: il nesso.
 
Fausto Intilla: Dalla teoria dell'informazione al concetto di anima.
Fausto Intilla: Dalla teoria dell'informazione al concetto di anima.Fausto Intilla: Dalla teoria dell'informazione al concetto di anima.
Fausto Intilla: Dalla teoria dell'informazione al concetto di anima.
 
Umano, poco umano ...fatto di virus e batteri!
Umano, poco umano ...fatto di virus e batteri!Umano, poco umano ...fatto di virus e batteri!
Umano, poco umano ...fatto di virus e batteri!
 
Altre realtà. Quando la visione del mondo, non è in funzione della mente umana
Altre realtà. Quando la visione del mondo, non è in funzione della mente umanaAltre realtà. Quando la visione del mondo, non è in funzione della mente umana
Altre realtà. Quando la visione del mondo, non è in funzione della mente umana
 
Quando l'Universo ...calcola sé stesso! L'altra faccia dei buchi neri.
Quando l'Universo ...calcola sé stesso! L'altra faccia dei buchi neri.Quando l'Universo ...calcola sé stesso! L'altra faccia dei buchi neri.
Quando l'Universo ...calcola sé stesso! L'altra faccia dei buchi neri.
 
Supremazia quantistica di Google: Mito o realtà?
Supremazia quantistica di Google: Mito o realtà?Supremazia quantistica di Google: Mito o realtà?
Supremazia quantistica di Google: Mito o realtà?
 
Riscaldamento globale: un'analisi obiettiva.
Riscaldamento globale: un'analisi obiettiva.Riscaldamento globale: un'analisi obiettiva.
Riscaldamento globale: un'analisi obiettiva.
 
Quantum computing: stato dell'arte e potenziali sviluppi - Intervista a Faust...
Quantum computing: stato dell'arte e potenziali sviluppi - Intervista a Faust...Quantum computing: stato dell'arte e potenziali sviluppi - Intervista a Faust...
Quantum computing: stato dell'arte e potenziali sviluppi - Intervista a Faust...
 
Aforismario 3 - Aforismi sulla saggezza del vivere
Aforismario 3 - Aforismi sulla saggezza del vivereAforismario 3 - Aforismi sulla saggezza del vivere
Aforismario 3 - Aforismi sulla saggezza del vivere
 
Dal fermione di majorana al computer quantistico.
Dal fermione di majorana al computer quantistico.Dal fermione di majorana al computer quantistico.
Dal fermione di majorana al computer quantistico.
 
Fundamental principle of information to-energy conversion.
Fundamental principle of information to-energy conversion.Fundamental principle of information to-energy conversion.
Fundamental principle of information to-energy conversion.
 
What happens if measure the electron spin twice?
What happens if measure the electron spin twice?What happens if measure the electron spin twice?
What happens if measure the electron spin twice?
 
A non local linear dynamical system and violation of Bell’s inequality.
A non local linear dynamical system and violation of Bell’s inequality.A non local linear dynamical system and violation of Bell’s inequality.
A non local linear dynamical system and violation of Bell’s inequality.
 
Sonde spaziali: In viaggio tra i segreti del cosmo.
Sonde spaziali: In viaggio tra i segreti del cosmo. Sonde spaziali: In viaggio tra i segreti del cosmo.
Sonde spaziali: In viaggio tra i segreti del cosmo.
 
Pensieri. Confessioni di una mente in libertà.
Pensieri. Confessioni di una mente in libertà.Pensieri. Confessioni di una mente in libertà.
Pensieri. Confessioni di una mente in libertà.
 
Ulixe. Il lungo cammino delle idee tra arte, scienza e filosofia.
Ulixe. Il lungo cammino delle idee tra arte, scienza e filosofia.Ulixe. Il lungo cammino delle idee tra arte, scienza e filosofia.
Ulixe. Il lungo cammino delle idee tra arte, scienza e filosofia.
 

Último

Oman_Raffaele_Progetto_scienze_Eubatteri - Copia (1).pptx
Oman_Raffaele_Progetto_scienze_Eubatteri - Copia (1).pptxOman_Raffaele_Progetto_scienze_Eubatteri - Copia (1).pptx
Oman_Raffaele_Progetto_scienze_Eubatteri - Copia (1).pptx
raffaeleoman
 
Mari, Manuela. - L'età ellenistica. Società, polica, cultura [ocr] [2019].pdf
Mari, Manuela. - L'età ellenistica. Società, polica, cultura [ocr] [2019].pdfMari, Manuela. - L'età ellenistica. Società, polica, cultura [ocr] [2019].pdf
Mari, Manuela. - L'età ellenistica. Società, polica, cultura [ocr] [2019].pdf
frank0071
 
relazione laboratorio_Stefano Afferrante.docx
relazione laboratorio_Stefano Afferrante.docxrelazione laboratorio_Stefano Afferrante.docx
relazione laboratorio_Stefano Afferrante.docx
lorenzodemidio01
 

Último (11)

CamploneAlessandro_ArcheoBatteri (1).pptx
CamploneAlessandro_ArcheoBatteri (1).pptxCamploneAlessandro_ArcheoBatteri (1).pptx
CamploneAlessandro_ArcheoBatteri (1).pptx
 
Oman_Raffaele_Progetto_scienze_Eubatteri - Copia (1).pptx
Oman_Raffaele_Progetto_scienze_Eubatteri - Copia (1).pptxOman_Raffaele_Progetto_scienze_Eubatteri - Copia (1).pptx
Oman_Raffaele_Progetto_scienze_Eubatteri - Copia (1).pptx
 
I Modelli Atmoci_FilippoLuciani bohr.pptx
I Modelli Atmoci_FilippoLuciani bohr.pptxI Modelli Atmoci_FilippoLuciani bohr.pptx
I Modelli Atmoci_FilippoLuciani bohr.pptx
 
Mari, Manuela. - L'età ellenistica. Società, polica, cultura [ocr] [2019].pdf
Mari, Manuela. - L'età ellenistica. Società, polica, cultura [ocr] [2019].pdfMari, Manuela. - L'età ellenistica. Società, polica, cultura [ocr] [2019].pdf
Mari, Manuela. - L'età ellenistica. Società, polica, cultura [ocr] [2019].pdf
 
Iuzzolino Nuria-lavoro scienzeeeeee.pptx
Iuzzolino Nuria-lavoro scienzeeeeee.pptxIuzzolino Nuria-lavoro scienzeeeeee.pptx
Iuzzolino Nuria-lavoro scienzeeeeee.pptx
 
ModelliAtomici.pptx studente liceo scientifico
ModelliAtomici.pptx studente liceo scientificoModelliAtomici.pptx studente liceo scientifico
ModelliAtomici.pptx studente liceo scientifico
 
matematicaesempio--power point provaaaaa
matematicaesempio--power point provaaaaamatematicaesempio--power point provaaaaa
matematicaesempio--power point provaaaaa
 
I Modelli Atomici: Bhor, Rutherford, Dalton, Thomson.pptx
I Modelli Atomici: Bhor, Rutherford, Dalton, Thomson.pptxI Modelli Atomici: Bhor, Rutherford, Dalton, Thomson.pptx
I Modelli Atomici: Bhor, Rutherford, Dalton, Thomson.pptx
 
propagazione vegetativa delle piante.pptx
propagazione vegetativa delle piante.pptxpropagazione vegetativa delle piante.pptx
propagazione vegetativa delle piante.pptx
 
relazione laboratorio_Stefano Afferrante.docx
relazione laboratorio_Stefano Afferrante.docxrelazione laboratorio_Stefano Afferrante.docx
relazione laboratorio_Stefano Afferrante.docx
 
Imodelli_atomici_stefano_afferrante.pptx
Imodelli_atomici_stefano_afferrante.pptxImodelli_atomici_stefano_afferrante.pptx
Imodelli_atomici_stefano_afferrante.pptx
 

Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realismo locale.

  • 1.
  • 2. “Nessuna teoria della realtà compatibile con la teoria dei quanti, può richiedere che eventi spazialmente separati siano indipendenti”. John Stewart Bell "Gli esseri umani sono bloccati in una situazione simile a quella di re Mida: non possiamo sperimentare direttamente la vera trama della realtà, perché tutto ciò che tocchiamo diventa materia". Nick Herbert
  • 3. Indice Prefazione Capitolo I Modellando la realtà, immaginando il possibile 1.1. Dal principio di causalità a quello di località 1.2. Dal realismo locale al principio di non località 1.3. Dalla MQ al teorema e le disuguaglianze di Bell Capitolo II Modellando la realtà, immaginando l’impossibile 2.1. CHSH e CH74: i primi esperimenti realizzati 2.2. Gli esperimenti di Alain Aspect e colleghi 2.3. L’esperimento di Nicolas Gisin e colleghi 2.4. L’esperimento di Anton Zeilinger e colleghi 2.5. L’esperimento di Jian-Wei Pan e colleghi 2.6. L’esperimento di Mary Rowe e colleghi 2.7. L’esperimento di Simon Gröblacher e colleghi 2.8. L’esperimento di Markus Ansmann e colleghi 2.9. L’esperimento di Marissa Giustina e colleghi 2.10 Gli esperimenti dei gruppi di Hensen, Giustina e Shalm 2.11 L’esperimento di Roman Schmied e colleghi 2.12 L’esperimento di David Kaiser e colleghi 2.13 L’esperimento di Wenjamin Rosenfeld e colleghi 2.14 L’esperimento denominato: Big Bell Test Conclusioni Biografie Bibliografia
  • 4. Prefazione “Ormai in fisica non c'è più nulla di nuovo da scoprire. Tutto ciò che rimane da realizzare sono misure sempre più precise”. Lo disse nel settembre del 1900 Lord Kelvin (davanti all’assemblea della British Association for the Advancement of Science, a Bradford, nel Regno Unito), uno dei fisici più eminenti della sua epoca, quando sembrava che la meccanica di Newton e l’elettromagnetismo potessero spiegare tutta la realtà fisica. Pochi anni dopo però, la meccanica quantistica e la relatività rivoluzionarono le vecchie idee di spazio, tempo ed energia. Ebbene la storia ovviamente ha smentito in modo eclatante tali idee, purtroppo condivise anche da molti altri scienziati dell’epoca di L.Kelvin. Oggigiorno nessuno, tra gli “addetti ai lavori”, ritiene più che le attuali teorie in ambito scientifico (non solo nel campo della fisica), siano da considerarsi del tutto consolidate e quindi in sostanza, definitive ed “intoccabili”. Tuttavia un teorema, come spesso accade nell’ambito della logica matematica (quando è implicitamente legata ad una realtà fisica difficilmente sperimentabile), è riuscito a sopravvivere per oltre mezzo secolo, confermando solo in questi ultimi anni la sua importanza, con la stessa forza e solidità con cui nel 1964 (anno della sua pubblicazione), si impose in ambito accademico (disturbando il sonno a molti scienziati, filosofi e liberi pensatori, a partire dalla metà degli anni Sessanta fino ad oggi). Ovviamente il riferimento è al teorema di John Stewart Bell, che per più di mezzo secolo (dal 1964 al 2015), ha fatto riflettere e discutere scienziati di mezzo mondo, su quella che avrebbe dovuto essere l’effettiva descrizione del mondo fisico, attraverso un modello teorico di riferimento che non lasciasse più spazio ad alcun dubbio. Le domande fondamentali quindi, tra tutti gli studiosi e ricercatori che per vari decenni si occuparono di tale questione, erano le seguenti: È possibile una descrizione della realtà fisica, solo ed esclusivamente attraverso il principio di località e del realismo locale? Esisteranno davvero delle variabili nascoste, all’interno
  • 5. delle nostre teorie fisico-matematiche, oppure tutto è descrivibile con le regole e i principi standard della meccanica quantistica? È possibile che anche il mondo macroscopico, risponda ai principi della meccanica quantistica, ma che ancora non abbiamo degli strumenti fisici sufficientemente evoluti per poter osservare tale fenomeno? Esiste una sottile linea di confine, tra il mondo dell’infinitamente piccolo e quello macroscopico, dove è necessario abbandonare l’uno o l’altro modello di riferimento (fisica classica o meccanica quantistica, per intenderci), per una descrizione esatta e coerente della realtà? Ebbene nel 2015, un importante esperimento sulle disuguaglianze di Bell (riportato nel presente libro; v. sottocapitolo 2.10.- Gli esperimenti dei gruppi di Hensen, Giustina e Shalm), sembrerebbe avere almeno in parte risposto alle succitate domande, mettendo la parola fine al realismo locale. È l’anno del trionfo della meccanica quantistica, come unico modello di riferimento per una descrizione della realtà, ampiamente supportata da una moltitudine di prove sperimentali ormai ritenute quasi del tutto inoppugnabili. Ma è anche l’anno del trionfo del teorema di Bell e di tutto ciò che al cospetto delle menti più eccelse, aveva già preannunciato con circa mezzo secolo d’anticipo. Nel presente volume vengono presentati tutti gli esperimenti di Bell, compiuti dall’inizio degli anni Settanta fino ad oggi (2018); ma solo i più significativi sono stati descritti nel dettaglio utilizzando il formalismo matematico della meccanica quantistica (tutti gli altri sono stati esposti in forma divulgativa). Con la speranza di far appassionare a tale tema il maggior numero di lettori che avranno scelto quest’opera, sia per pura curiosità che per un necessario approfondimento di studio sull’argomento in questione (studenti universitari in primis), auguro a chiunque sia giunto alle ultime parole di questa breve prefazione, una buona lettura. Fausto Intilla Cadenazzo, 29 settembre 2018
  • 6. MODELLANDO LA REALTÀ, IMMAGINANDO IL POSSIBILE “Si può trascorrere una vita intera a costruire un muro di certezze tra noi e la realtà”. Chuck Palahniuk “L’immaginazione è l’unica arma nella guerra contro la realtà”. Lewis Carroll Dal principio di causalità a quello di località Sia in ambito scientifico che filosofico, il termine “causalità” si riferisce semplicemente ad una relazione di causa ed effetto. La causa è ciò che produce l’effetto, mentre la causalità esprime il rapporto tra una causa e il suo rispettivo effetto. L’idea di questo rapporto riferito a tutta la realtà, costituisce dunque il principio di causalità. Secondo tale principio tutti i fenomeni debbono avere una causa. Per Spinoza era evidente che “da una causa ben determinata, deve necessariamente risultare un effetto; e, inversamente, se non vi è alcuna causa ben determinata, è impossibile che si produca un effetto”. Secondo Kant invece, la “legge della causalità” indicava semplicemente che: “Tutti i cambiamenti avvengono, secondo la legge di connessione tra causa ed effetto”. Dopo Kant, agli inizi del XIX secolo, la causalità si colloca nell’ambito della razionalità pura; dove risulta inscindibile dal concetto di deducibilità. Ovvero, la causalità permette la deduzione dell’effetto (previsione ottenuta dal riconoscimento del nesso causale); creando dunque un assioma fondamentale per il metodo e la conoscenza scientifica dell’era moderna. Oggigiorno nel campo della fisica, il principio di
  • 7. causalità afferma che se un fenomeno (definito causa) produce un altro fenomeno (definito effetto), allora la causa precede l’effetto (ordine temporale). Il principio di causalità è uno dei limiti realistici imposti a qualsiasi teoria matematica coerente, affinché possa essere considerata fisicamente ammissibile. Il principio di causalità è stato per molto tempo strettamente associato alla questione del determinismo; secondo cui alle stesse condizioni iniziali, le stesse cause producono gli stessi effetti. Tuttavia, tenendo conto di fenomeni di natura intrinsecamente statistica (come il decadimento radioattivo di un atomo o la misurazione in meccanica quantistica), esso nel corso del XX secolo se ne è distanziato considerevolmente. Oggi il principio di causalità, assume delle forme abbastanza diverse, in base ai rami della fisica che vengono considerati (in cui esso si ritrova ad operare). Il principio di causalità (inteso come ordine temporale della causalità), venne formulato in modo chiaro ed esplicito da Eulero e Jean Le Rond d’Alembert, ma era già stato compreso molto tempo prima da Descartes1 ed utilizzato implicitamente da Isaac Newton. Tutta la fisica classica fonda le sue radici sul principio di causalità; secondo cui qualsiasi effetto è interamente determinato da delle azioni anteriori. L’effetto è il cambiamento di stato del sistema fisico studiato, dovuto alle cause (quelle identificabili) e alle forze che si esercitano sul sistema (sia per contatto come 1 Storicamente, la formulazione moderna del principio di causalità è stata ispirata dalla filosofia meccanicistica di René Descartes, che ha cominciato ad approcciarla nel “Discorso sul metodo” (1637), per poi svilupparla maggiormente in “Meditazioni metafisiche” (1641). Descartes si chiede, tra le altre cose, se la causa debba precedere nel tempo il suo effetto. Egli risponde: “(…) propriamente parlando, non ha il nome o la natura di causa efficiente fin quando essa non produce il suo effetto; e quindi non lo è prima”. (Descartes, Meditazioni metafisiche). La causa efficiente è un insieme di condizioni, di cui è necessario e sufficiente che esse siano presenti nel momento in cui l'effetto si manifesta.
  • 8. shock e attrito, sia a distanza come la gravitazione o la forza elettromagnetica) o agli eventi che producono queste forze. Isaac Newton, scrivendo che esiste una proporzionalità tra la forza motrice (la causa) e i cambiamenti di movimento (l'effetto), ha reso lo studio della causalità uno studio quantitativo che sta alla base della fisica classica. Il problema della possibile differenza di natura tra la causa e l'effetto è quindi ridotto alla questione dell'ordine temporale tra gli stati dell'intero sistema studiato, poiché tali stati possono essere considerati come cause ed effetti gli uni degli altri. La previsione deterministica degli stati futuri dalla conoscenza di quelli del passato sembra essere associata in modo “naturale” al principio di causalità nella fisica classica; ma ciò sarebbe come dimenticare che nella pratica sperimentale nessun dato è perfettamente noto e che nella teoria, la complessità matematica inizia non appena vi è la presenza di soli tre corpi. Ed inoltre, sarebbe come dimenticare che la teoria del caos, è nata proprio dallo stesso determinismo. Un corpo macroscopico è un corpo composto da un enorme numero di particelle (atomi o molecole). Se questa materia viene trattata dalla fisica classica o relativistica, allora, per ipotesi, la causalità si applicherebbe anche pienamente a ciascun corpo microscopico che compone il tutto, specialmente per quanto riguarda le loro influenze reciproche; tuttavia, la sua manifestazione è singolarmente diversa dal caso dei sistemi più semplici. Il gran numero di componenti distinti (ovvero di gradi di libertà) del corpo macroscopico renderebbe irrealizzabile, in pratica, la determinazione delle equazioni del moto con i metodi della fisica classica. Mentre la completa determinazione dello stato iniziale del sistema, sarebbe irraggiungibile. In tale contesto, le leggi del corpo macroscopico vengono quindi scritte utilizzando delle statistiche: se il sistema è "stabile", qualsiasi cambiamento di “bassa portata” lo rimuove solo momentaneamente da uno stato di equilibrio e dunque, lo stato globale del sistema è determinato, con una probabilità molto forte, dall’immediata vicinanza di questo “stato medio”.
  • 9. Per tutti i corpi microscopici che si riuniscono per comporre un corpo macroscopico, lo stato è determinabile solo a livello statistico: vi è lo stato medio degli stati di questi corpi e vi sono inoltre altri stati possibili con delle probabilità associate; ma è impossibile determinare il loro stato “attimo dopo attimo”, con la consueta precisione della fisica classica. Tutte le perturbazioni/informazioni che vanno ad interessare un corpo macroscopico nella sua interezza, vengono disperse dagli scambi incessanti tra i componenti microscopici e in base alle leggi della statistica. Uno stato (medio o transitorio) di un corpo macroscopico, o il particolare stato di uno dei suoi componenti microscopici, emerge dunque da una causa non precisabile, indefinibile; per tale motivo è impossibile determinarlo con precisione assoluta, partendo dallo stato precedente (anche da un punto di vista teorico non è possibile risalire allo stato iniziale). Inoltre, l'impossibilità di predire lo stato esatto, ma solo lo stato statistico, del corpo macroscopico o di un corpo microscopico, ci fa talvolta parlare di indeterminismo. Poiché il principio di causalità è applicabile praticamente in ogni contesto, verso la fine del XIX secolo Henri Poincaré dimostrò che anche dei semplici sistemi trattabili con la fisica classica possono essere molto sensibili alle variazioni delle condizioni iniziali: una piccolissima modifica può, per alcuni sistemi molto semplici, portare ad un’evoluzione successiva molto diversa dal sistema iniziale. Quindi, poiché è impossibile conoscere con assoluta precisione le condizioni iniziali di un sistema e poiché è impossibile conoscere le esatte misurazioni di qualsiasi causa influente (poiché anche la fisica classica è una scienza sperimentale), tutto il rigore possibile non permette di prevedere sempre lo stato futuro di un sistema. Il determinismo dice che alle stesse condizioni iniziali, le stesse cause producono gli stessi effetti. In pratica, questo "alle stesse condizioni iniziali" pone un problema di realizzazione, poiché le condizioni iniziali del sistema non possono essere conosciute con assoluta precisione. Se si ripete per la seconda volta quello che
  • 10. sembrerebbe essere lo stesso esperimento, si riscontrerà sicuramente qualche differenza con l’esperimento di partenza. Tuttavia, molti sistemi studiati sono "stabili"; vale a dire che piccole variazioni iniziali portano solo a piccole variazioni sull'evoluzione del sistema. Questa breve nota introduttiva sul concetto di causalità, ha come unico scopo quello di farci riflettere su come l’essere umano percepisce ed interpreta la realtà apparente del mondo osservabile; sia essa a noi circostante oppure lontana milioni di anni luce. Ed è proprio questa esperienza percettiva collettiva, che ha indirizzato la nostra evoluzione biologica verso una maggiore intelligenza di specie e la nostra evoluzione culturale verso una conoscenza sempre più profonda dei meccanismi della natura. Ma forse nulla è come appare e noi non siamo nient’altro che degli ingranaggi di un meccanismo senza confini di cui non riusciremo mai a coglierne l’effettiva interezza e complessità; proprio perché ogni nostra singola azione, ogni nostro pensiero, contribuisce alla creazione continua di questa entità infinita in continua espansione (che taluni chiamano Universo). Nel 1938, in “La pensée et le mouvant” (trad. it. “Pensiero e movimento”, Bompiani, Milano), Henri Bergson scriveva: “Se il movimento è una serie di posizioni e il mutamento una serie di stati, il tempo è fatto di parti distinte e giustapposte. Senza dubbio diciamo ancora che esse si succedono, ma questa successione potrebbe essere assimilabile a quella delle immagini di una pellicola cinematografica: il film potrebbe svolgersi dieci, cento, mille volte più veloce senza che niente di ciò che svolge venga modificato; se andasse infinitamente veloce, se lo svolgimento (questa volta fuori dall’apparecchio) divenisse istantaneo, si vedrebbero sempre le stesse immagini. La successione così intesa non aggiunge dunque niente; sottrae piuttosto qualcosa, segnala una mancanza, traduce una infermità della nostra percezione, condannata a frammentare il film immagine per immagine al posto di coglierlo globalmente. In breve, il tempo così ravvisato non è che uno spazio ideale in cui si suppongono allineati tutti gli
  • 11. eventi trascorsi, presenti e futuri, ai quali si impedisce di apparire unitamente (…)”. Penso che anche Einstein, come molti altri eminenti fisici del suo tempo (nonché attuali), fosse pienamente d’accordo con questa visione della realtà, visto che un giorno ebbe a dire: “La distinzione fra passato, presente e futuro è solo un’illusione, anche se ostinata”. È dunque qui che sta il nocciolo della questione. Il passo tra il principio di causalità e quello di località, non può far altro che apparirci breve, logico e scontato; ma è proprio qui che “casca l’asino”. Noi possiamo analizzare solo dei piccoli frammenti di una realtà senza confini; e nel fare ciò possiamo fidarci solo delle nostre limitate capacità sensoriali e percettive. Dobbiamo accettare l’idea che possano esserci delle cause che non potremo mai conoscere, ma che tuttavia conducono a degli effetti/eventi pienamente osservabili. Il riferimento non è a delle ipotetiche “variabili nascoste”, ma semplicemente ad una quantità infinita di informazione che non può essere analizzata, elaborata e compresa neppure da un’entità che disponesse di un’intelligenza illimitata. Solo l’Universo può comprendere sé stesso. Il principio di località afferma che: “Oggetti distanti non possono avere influenza istantanea l'uno sull'altro: un oggetto è influenzato direttamente solo dalle sue immediate vicinanze”.2 2 Una teoria che includa il principio di località in genere viene definita come una “teoria locale”. Si tratta di un’alternativa al vecchio concetto di “azione a distanza istantanea”. La località si è evoluta fuori dalle teorie di campo della fisica classica. Il concetto è che per avere un’azione, causata dall’influenza di un punto A verso un punto B (o viceversa), qualcosa nello spazio tra quei due punti (ad esempio un campo) deve mediare l’azione. Per esercitare un'influenza, qualcosa, come un'onda o una particella, deve viaggiare attraverso lo spazio tra i due punti, “trasportando” appunto tale influenza. La teoria della relatività speciale limita la velocità con cui tutte queste influenze possono viaggiare, a quella della luce (c). Dunque, il principio di località implica che un evento in un punto non può causare un risultato simultaneo in un altro punto. Un evento al punto A non può causare un
  • 12. Anche qui, ad entrare in gioco è sempre il concetto di tempo. Ma se il tempo, come sosteneva anche Einstein, è solo un’illusione, allora perché continuiamo ostinatamente a chiamarlo in causa? La risposta è semplice: perché ci fa comodo così. Ed è stato un bene che sia stato così, specialmente negli ultimi tre secoli; altrimenti non avremmo potuto raggiungere i traguardi scientifici e tecnologici che oggi ci consentono di scambiare messaggi alla velocità della luce, di pilotare un aereo mediante le onde cerebrali3 o di esplorare lo spazio fino ai confini del sistema solare. Il fatto che vi siano dei limiti (teorici, pratici e concettuali) che non potremo mai superare, è solo un bene; altrimenti smetteremmo di fare scienza, poiché tutto sarebbe già dato! Tutto ciò che abbiamo finora raggiunto, scoperto, ideato, “capito”, dobbiamo solo avere la modestia di definirlo aggiungendo una semplice parolina al suo fianco: “apparente”. Avremmo così il principio di causalità apparente, il principio di località (…e di non località!) apparente, la Relatività Ristretta (…e Generale!) apparente, il principio di Mach apparente e via di seguito. Tutto ciò potrà sembrarvi folle, ma purtroppo (o per ben che si voglia) è del tutto coerente con i più alti livelli oggi raggiunti dalla fisica sperimentale; specialmente in ambito quantistico. Avrete modo di scoprire esattamente di cosa sto parlando, verso la fine di questo libro. Posso solo anticiparvi che nell’anno 2015, si sono aperte le porte ad un nuovo paradigma scientifico, che forse la risultato al punto B, in un tempo inferiore a t = D/c (dove “D” è la distanza tra i due punti e “c” è la velocità della luce). 3 Nel 2014 gli scienziati del Technische Universität München (TUM) e del TU Berlin hanno dimostrato che i comandi di un velivolo possono essere eseguiti solo mediante le onde cerebrali, senza toccare joystick, manetta e pedali. I test, effettuati con un simulatore di volo, sono stati eseguiti con successo da sette persone, una della quali non aveva mai pilotato un aereo. Il progetto Brainflight, finanziato dall’Unione Europea e sviluppato dalle due università tedesche, ha permesso di studiare nuovi metodi per il “volo controllato dal cervello”.
  • 13. mente umana non riuscirà mai ad accettare pienamente, accantonando per sempre ogni dubbio. Dal realismo locale al principio di non località Con il termine realismo in fisica si indica l’idea che la natura non è in alcun modo legata o vincolata dalla mente umana; ovvero che la sua esistenza non dipenda dal pensiero umano. Detto in altre parole, entrando per qualche istante nel campo della meccanica quantistica: anche se il risultato di una possibile misurazione non esiste prima dell'atto stesso della misurazione, ciò non significa che sia una creazione della mente dell'osservatore. Una proprietà indipendente dalla mente non deve essere un valore di una variabile fisica (come ad esempio la posizione o la quantità di moto). Una proprietà può essere potenziale (cioè può essere una capacità): ad esempio un oggetto di vetro ha il potenziale (o la capacità) di rompersi, se sottoposto a una particolare forza; ma se ciò non accade (ovvero se l’oggetto in questione non viene sottoposto a tale forza), esso sicuramente non si romperà. Anche se il risultato di colpire un oggetto di vetro con un martello non esiste prima dell'atto di colpirlo, ciò non significa che il vetro rotto sia una creazione dell'osservatore. Pensiamo ora ad un acceleratore di particelle come ad un sofisticato tipo di “martello”; in tale contesto fisico si possono per analogia identificare i “frammenti” delle particelle bersaglio, al termine del processo di scontro con le particelle “proiettile”, come i cocci di vetro dell’oggetto precedentemente considerato. Tale risposta, cioè la rottura, è una risposta condizionale; ovvero una risposta a una particolare applicazione della forza. Applicando tale concetto ai sistemi quantistici, Schrödinger ha riconosciuto che anche loro hanno una risposta condizionale; ovvero una tendenza a rispondere (considerabile anche come una specifica probabilità di risposta) a una particolare forza di misurazione, con un valore particolare. In un certo senso, essi sono pre-programmati con un risultato particolare.
  • 14. Un tale risultato sarebbe realistico in senso metafisico, senza essere realistico nel senso fisico del realismo locale (che richiede che un singolo valore sia prodotto con certezza). Un concetto correlato è la "determinatezza controfattuale"; ovvero l'idea che sia possibile descrivere in modo significativo come ben definito, il risultato di una misurazione che, di fatto, non è stata eseguita (cioè la capacità di assumere l'esistenza di oggetti e assegnare valori alle loro proprietà, anche quando non sono stati misurati). In genere la definizione più comune di realismo locale è la seguente: esso è la combinazione del principio di località con l'assunto “realistico” che tutti gli oggetti debbano oggettivamente possedere dei valori preesistenti per ogni possibile misurazione, prima che tali misurazioni vengano effettuate. Il realismo locale è una caratteristica di rilievo della meccanica classica, della Relatività Generale e della teoria di Maxwell, ma la meccanica quantistica rifiuta largamente questo principio a causa della presenza di entanglement quantistici (per la maggior parte chiaramente dimostrati dal paradosso EPR e quantificati dalle disuguaglianze di Bell). Qualsiasi teoria, come la meccanica quantistica, che vìoli le diseguaglianze di Bell, deve rinunciare al realismo locale o alla determinatezza controfattuale.4 L'affidabilità dei valori controfattualmente definiti è un'ipotesi di base che, insieme all’ "asimmetria temporale" e alla "causalità locale" ha portato alle disuguaglianze di Bell. Bell ha dimostrato che i risultati degli esperimenti intesi a testare l'idea di variabili nascoste sarebbero previsti entro certi limiti basati su tutte e tre 4 Nella maggior parte delle interpretazioni convenzionali (quale quella di Copenaghen e quella basata sulle storie consistenti) in cui si assume che la funzione d'onda non abbia un'interpretazione fisica diretta, è il realismo ad essere rifiutato. Le reali proprietà definite di un sistema fisico quantistico "non esistono" prima della misura e la funzione d'onda viene interpretata come niente altro che uno strumento matematico utilizzato per calcolare le probabilità dei risultati sperimentali.
  • 15. queste ipotesi (che sono considerate principi fondamentali per la fisica classica), ma che i risultati trovati entro questi limiti sarebbero incoerenti con le previsioni della teoria della meccanica quantistica5 . Gli esperimenti hanno dimostrato che i risultati della meccanica quantistica superano in modo prevedibile i limiti 5 Nel 1964 John Bell dimostrò con il suo teorema che se esistessero variabili nascoste che rendessero la teoria locale, alcune configurazioni dovrebbero soddisfare determinate relazioni non previste dalla meccanica quantistica. Alcuni fisici, come Alain Aspect e Paul Kwiat, hanno condotto sperimentazioni che hanno registrato violazioni delle disuguaglianze di Bell su 242 deviazioni standard, conseguendo un'eccellente certezza scientifica. Ciò depone a favore della meccanica quantistica nella sua interpretazione classica, escludendo teorie a variabili nascoste locali (rimane aperta la possibile esistenza di quelle non locali). Una teoria delle variabili nascoste che volesse mantenere coerenza con la meccanica quantistica dovrebbe possedere caratteristiche non-locali, permettendo l'esistenza di relazioni di causa istantanee, o comunque più veloci della luce, tra entità fisiche separate. Sulla scia dell'idea di de Broglie dell'onda pilota, nacque nel 1952, a opera del fisico David Bohm, un'interpretazione della meccanica quantistica che ancora oggi è considerata la teoria a variabili nascoste meglio formulata. Basandosi sull'idea originaria di de Broglie, Bohm ha teorizzato di associare a ciascuna particella, ad esempio un elettrone, un'onda guida che governi il suo moto. Grazie a tale assunto gli elettroni hanno un comportamento sufficientemente chiaro: quando si conduce il celebre esperimento della doppia fenditura, essi passano attraverso una fenditura piuttosto che un'altra e la loro scelta non è probabilistica, ma predeterminata, mentre l'onda associata attraversa entrambe le fenditure generando la figura di interferenza. Tale prospettiva contraddice l'idea di eventi locali che è utilizzata sia nella teoria atomica classica che nella teoria della relatività. I conflitti con la teoria della relatività, non solo in termini di non-località, ma soprattutto per quanto riguarda l'invarianza di Lorentz, sono considerati dai sostenitori della "convenzionale" fisica quantistica come la principale debolezza della teoria di Bohm. Secondo i critici essa sembrerebbe scaturire da una forzatura, ovverosia sarebbe stata deliberatamente strutturata per fare previsioni che sono in ogni dettaglio uguali a quelle della meccanica quantistica.
  • 16. classici. Il calcolo delle aspettative basato sul lavoro di Bell implica che per la fisica quantistica l'assunzione del "realismo locale" debba essere abbandonata. Nella derivazione di Bell si assume esplicitamente che ogni misura possibile, anche se non eseguita, possa essere inclusa nei calcoli statistici. Il calcolo implica la mediazione di insiemi di risultati che non possono essere tutti contemporaneamente concreti; se alcuni sono considerati risultati concreti di un esperimento altri devono essere considerati controfattuali. Quelli che sono definiti come fattuali sono determinati dallo sperimentatore; in tal modo i risultati delle misurazioni effettivamente eseguite diventano reali in virtù della sua scelta di farlo, i risultati delle misurazioni che non esegue sono controfattuali. Il teorema di Bell dimostra che ogni tipo di teoria quantistica deve necessariamente violare la località o rifiutare la possibilità di misurazioni affidabili del tipo controfattuale e definito. La determinatezza controfattuale è presente in ogni interpretazione della meccanica quantistica che considera le misurazioni quantomeccaniche come descrizioni oggettive dello stato di un sistema (o dello stato del sistema combinato e dell'apparato di misurazione), ma che non tiene conto del fatto che non tutte le descrizioni oggettive del genere possono essere rivelate simultaneamente dalle misurazioni. L'interpretazione transazionale di Cramer (1986) è un esempio di tale interpretazione. Nel 1935 Albert Einstein, Boris Podolsky e Nathan Rosen, nel loro paradosso EPR (l’acronimo è composto dalle iniziali dei loro cognomi), teorizzarono che la meccanica quantistica poteva non essere una teoria locale (ipotizzando erroneamente che il formalismo quantistico fosse incompleto, poiché non era in grado di spiegare tutti gli elementi della realtà fisica), poiché una misurazione fatta su una coppia di particelle separate ma correlate (entangled) tra loro, causa un effetto simultaneo; ovvero: il collasso della funzione d'onda nella particella entangled misurata successivamente (un effetto che supera la velocità della luce). Mi spiego meglio con un esempio: in una coppia di particelle
  • 17. entangled (A;B), se lo sperimentatore misura lo spin della particella A e rileva spin up, istantaneamente, in qualsiasi altra parte dell’universo si trovi l’altra particella B (anche lontana milioni di anni-luce dalla sua “gemella” A), la sua funzione d’onda collassa e assume spin down; mentre prima dell’osservazione della particella A, il suo spin si trovava in uno stato di totale indeterminazione. Se si accettava la teoria dei quanti della meccanica quantistica, si doveva accettare il paradosso EPR e quindi anche un principio di non-località6 ; ossia il fatto incontrovertibile che l’entanglement, la “relazione” tra le particelle quantistiche, si mantiene a prescindere dalla distanza nello spazio e al di là della limitazione relativistica della velocità della luce. Siccome il principio di indeterminazione di Heisenberg, limita la precisione delle misurazioni inerenti a posizione e quantità di moto delle particelle, nel 1951, David Bohm propose di abbandonare questi parametri per lo studio dell’entanglement e di sostituirli con dei valori facilmente misurabili; come ad esempio lo spin. Fu nel 1964 che John Stewart Bell usò questa idea e formulò una disuguaglianza. Il suo grande punto d’interesse sta 6 Alcuni fisici furono convinti delle argomentazioni (ancora tendenzialmente a favore di un realismo locale) di Einstein, Podolsky e Rosen e cercarono di elaborare delle teorie per completare la meccanica quantistica con l’introduzione di un livello sottostante di descrizione (teoria dell’onda pilota di Louis De Broglie, teorie con variabili nascoste di David Bohm, etc.). Tuttavia, la grande maggioranza dei fisici seguì la tesi di Bohr, secondo la quale non è possibile considerare una realtà fisica indipendente (separata) dallo strumento di misurazione (un concetto fondamentale strettamente legato al principio di non località). La loro fiducia nella tesi di Bohr, era rinforzata dal teorema di von Neumann, enunciato nel 1932 nel libro in cui erano poste le basi matematiche della meccanica quantistica. In questo libro von Neumann aveva affrontato il problema della interpretazione del carattere statistico delle predizioni quantistiche nei termini delle variabili nascoste e aveva dimostrato l’incompatibilità delle proprietà matematiche del formalismo quantistico con l’esistenza di un formalismo sottostante nel quale intervenissero delle variabili nascoste.
  • 18. nel fatto che "la fisica quantistica prevede che questa disuguaglianza possa essere violata in determinate condizioni sperimentali, mentre secondo la fisica classica deve verificarsi sempre". Esistono diverse varianti della disuguaglianza di Bell, che portano a esperimenti diversi. Il primo esperimento che indicava una violazione della disuguaglianza di Bell fu condotto da John Clauser e Stuart Freedman nel 1972, ma la sua accuratezza era insufficiente perché potesse essere decisivo. È Alain Aspect a proporre nel 1975 un esperimento sufficientemente rigoroso per essere considerato irrefutabile. Dalla MQ al teorema e le disuguaglianze di Bell La meccanica quantistica è stata formulata nelle sue versioni moderne nel 1925-1926 da Erwin Schrödinger da una parte (meccanica ondulatoria) e da Werner Heisenberg, Pascual Jordan e Max Born dall’altra (meccanica delle matrici). Dopo che fu dimostrata l’equivalenza fra queste due formulazioni, dapprima dallo stesso Schrödinger e poi da John von Neumann, il formalismo non poneva più problemi, anche se la sua interpretazione avrebbe continuato a sollevare discussioni senza fine. Il punto più controverso era il carattere probabilistico delle predizioni della teoria quantistica messo in luce da M. Born già nel 1926. Questa natura fondamentalmente statistica delle predizioni quantistiche aveva turbato numerosi fisici; tra i quali Louis de Broglie e Albert Einstein. Per quest’ultimo, una teoria fondamentale doveva essere capace di predire con certezza il comportamento di un sistema il cui stato iniziale fosse determinato. Per Einstein dunque, una teoria fondamentale non poteva essere di natura probabilistica; poiché secondo lui in tal caso essa avrebbe indicato l’esistenza di un livello sottostante che a sua volta avrebbe permesso una descrizione più dettagliata del mondo fisico. Con la celebre frase “Dio non gioca a dadi”, egli
  • 19. espresse quindi il suo dissenso nei confronti della meccanica quantistica e della sua natura prevalentemente statistica. Secondo l’“Interpretazione di Copenaghen”, della quale Niels Bohr fu il massimo esponente, la meccanica quantistica esprime invece in forma probabilistica, la descrizione fisica più completa che si possa concepire e ottenere in termini matematici. L’impossibilità di andare oltre i limiti imposti dalla MQ, è dovuta alla quantizzazione di certe quantità che non possono assumere valori arbitrariamente piccoli. La validità di questa posizione è assicurata dall’esistenza delle relazioni di indeterminazione di Heisenberg (principio d’indeterminazione), sulle quali Einstein concentrò i suoi primi attacchi, cercando di contraddirle con diverse teorie concettuali compatibili con le leggi fondamentali della fisica, ma che andavano ben oltre le possibilità di verifica sperimentale con le tecnologie di quell’epoca7 . Nel 1935 Einstein e i suoi collaboratori Boris Podolsky e Nathan Rosen, pubblicarono sulla rivista “Physical Review” il celebre articolo (in seguito spesso chiamato “paradosso EPR”) in cui si dimostrava l’incompletezza della MQ basandosi sulle predizioni che essa stessa formulava. La MQ predice una correlazione molto stretta fra le misure di polarizzazione di due fotoni e lontani ma emessi da una sorgente comune che li ha prodotti in uno stato di polarizzazione definito dalla seguente formula: | ( , )⟩ = √ (| , ⟩ + | , ⟩) Nella quale | , ⟩ rappresenta una coppia di fotoni polarizzati secondo l’asse Ox , perpendicolare alla direzione di propagazione e | , ⟩ rappresenta una coppia di fotoni polarizzati secondo 7 Su questa prima fase della discussione si devono ricordare i congressi di Solvay del 1927 e del 1930, nel corso dei quali Bohr riuscì facilmente a superare le argomentazioni di Einstein. Sembra che alla fine di queste discussioni Einstein si sia convinto che la teoria quantistica fosse corretta, pur continuando a pensare che fosse incompleta.
  • 20. l’asse Oy perpendicolare a Ox e alla direzione di propagazione. La MQ prevede una correlazione totale tra le polarizzazioni dei due fotoni appartenenti a un tale stato, detto “stato EPR”. Per esempio per direzioni di misura parallele, un risultato +1 per implica con sicurezza un risultato +1 per (e similmente, se si ottiene -1 per , con certezza si otterrà -1 per ). Ma secondo Einstein la misurazione sul fotone non dovrebbe essere influenzata dalla misurazione su , poiché il principio di causalità relativistico impedisce a un’interazione di propagarsi ad una velocità superiore a quella della luce. Per tale motivo il fotone secondo Einstein doveva possedere una proprietà in grado di determinare il risultato +1 o -1, prima di eseguire la misurazione; definendo insieme a Rosen e Podolsky tale proprietà, un “elemento di realtà fisica”. Ora, secondo il formalismo quantistico, che non attribuisce alcuna proprietà di questo tipo a , tutte le coppie sono identiche ancorché nel 50% dei casi si ottenga +1 e nel 50% degli altri casi si ottenga -1. Per Einstein e i suoi collaboratori, tale formalismo quantistico risultava quindi incompleto; poiché esso non era in grado di spiegare tutti gli elementi della realtà fisica. Bohr, dal canto suo, per sostenere invece le sue ragioni, dovette ricorrere ad un ragionamento alquanto sofisticato alla base del quale occorreva porre le seguenti ipotesi: 1) Le predizioni della meccanica quantistica sono giuste; 2) Nessuna interazione può propagarsi con una velocità superiore a quella della luce (causalità relativistica); 3) Quando due oggetti sono molto lontani l’uno dall’altro, è possibile parlare separatamente degli elementi della realtà fisica di ciascuno di essi. Per Bohr la terza ipotesi era più importante delle prime due, poiché conduceva alla conclusione che non è possibile parlare in astratto degli elementi di realtà fisica di un sistema. Ogni esperimento di fisica comporta un sistema da studiare e un
  • 21. apparecchio di misurazione, ed è soltanto precisando l’insieme dei due che si può parlare di realtà fisica. Il primo contributo di Bell ai fondamenti concettuali della MQ fu la dimostrazione, nel 1964, dell’inesattezza del teorema di von Neumann. Egli osservò innanzitutto che l’esistenza di teorie con variabili nascoste come quella di Bohm rappresentava un controesempio al teorema. Inoltre egli identificò un’ipotesi apparentemente ovvia, seppure non verificata, che minava tutta la dimostrazione. A questo punto egli era pronto a riprendere il programma di Einsten, Podolsky e Rosen; ed è ciò che effettivamente fece nel 1966, in un secondo celebre articolo. In questo articolo, Bell estende l’argomento di Einstein, Podolsky e Rosen esaminando le possibili conseguenze della conclusione secondo cui la meccanica quantistica sarebbe incompleta. Egli completò quindi la teoria introducendo delle “variabili nascoste” per interpretare le correlazioni di Einstein, Podolsky e Rosen. Si tratta di proprietà suscettibili di variare da una coppia (ad esempio di fotoni) all’altra, ma comuni ai due membri di una stessa coppia. I risultati delle misure di polarizzazione dipendono da questa proprietà comune; cosicché si capisce che le misurazioni effettuate sui due membri di una stessa coppia, possono essere correlate. Bell impose inoltre al suo formalismo una condizione di località strettamente legata alle ipotesi 2 e 3 precedentemente elencate (ipotesi di Bohr). Fatto ciò, dimostrò che una tale teoria (teoria separabile con variabili nascoste) è in conflitto con la meccanica quantistica. Il grande punto di forza del ragionamento di Bell, sta nella sua generalità. Esso non è ristretto a una teoria particolare con variabili nascoste, ma si applica a tutte le teorie separabili con variabili nascoste le cui predizioni soddisfino certe disuguaglianze (da cui il nome: disuguaglianze di Bell), mentre le predizioni della meccanica quantistica le violano. Con il teorema di Bell dunque, viene stabilito un nuovo punto fermo difficilmente confutabile secondo il quale: se la posizione di Einstein è corretta, le correlazioni di Einstein, Podolsky e Rosen violano le predizioni quantistiche.
  • 22. Una linea di indagine nella “preistoria” del teorema di Bell8 riguardava la congettura secondo la quale lo stato quantomeccanico di un sistema deve essere integrato da ulteriori “elementi di realtà” o “variabili nascoste” o “stati completi”, al fine di fornire una descrizione completa. L’incompletezza dello stato quantistico è la spiegazione del carattere statistico delle previsioni quantomeccaniche relative al sistema. In realtà ci sono due principali categorie di teorie delle variabili nascoste. Nella prima categoria, che è solitamente definita “non contestuale”, lo stato completo del sistema determina il valore di una quantità (il che equivale ad un autovalore dell’operatore che rappresenta quella quantità) che sarà ottenuta con qualsiasi procedura di misurazione standard di quella quantità, indipendentemente da quali altre quantità vengono misurate simultaneamente o da quale potrebbe essere lo stato completo del sistema e dell’apparato di misurazione. Le teorie delle variabili nascoste di Kochen e Specker (1967), sono esplicitamente di questo tipo. Nella seconda categoria, definita in genere “contestuale”, il valore ottenuto dipende da quali quantità vengono misurate simultaneamente e/o dai dettagli dello stato completo dell'apparecchio di misurazione. Questa distinzione venne per la prima volta indicata da Bell nel 1966; ma senza usare i termini "contestuale" e "non contestuale". Esistono in realtà due versioni abbastanza diverse delle teorie delle variabili nascoste contestuali, a seconda del carattere del contesto: un "contesto algebrico" è quello che specifica le quantità (o gli operatori che le rappresentano) che sono misurate congiuntamente con la quantità (o operatore) di interesse primario; mentre un "contesto ambientale" è una specificazione delle caratteristiche fisiche dell'apparato di misurazione, in cui esso misura simultaneamente diverse quantità distinte co- 8 Una nota importante: in questo sotto-capitolo, d’ora in avanti, quasi tutte le informazioni inerenti al teorema di Bell sono state tratte dall’articolo di Abner Shimony (Bell’s Theorem), presente sul web nella Stanford Encyclopedia of Philosophy (riproduzione autorizzata).
  • 23. misurabili. Nella teoria delle variabili nascoste di Bohm (1952) il contesto è ambientale, mentre in quelle di Bell (1966) e Gudder (1970) il contesto è algebrico. Una versione pionieristica di una "teoria a variabili nascoste" fu proposta da Louis de Broglie nel 1927; mentre una versione più completa fu proposta da David Bohm nel 1952. In queste teorie l'entità che completa lo stato quantistico (che è una funzione d'onda nella rappresentazione di posizione) è tipicamente un'entità classica, situata in uno spazio di fase classico e quindi caratterizzata da entrambe le variabili di posizione e di impulso. La dinamica classica di questa entità è modificata da un contributo della funzione d'onda: (1) ψ(x, t ) = R(x, t )exp[iS(x, t )/ℏ], la cui evoluzione temporale è governata dall'equazione di Schrödinger. Sia de Broglie che Bohm affermano che la velocità della particella soddisfa l’"equazione guida" (in riferimento alla teoria dell’onda pilota): (2) v = grad(S/m), per cui la funzione d'onda ψ agisce sulle particelle come "un'onda guida". De Broglie (1928) e la scuola di "Meccanica Bohmiana" (in particolare Dürr, Goldstein e Zanghì, 1992) postulano l'”equazione guida” senza un tentativo di derivarla da un principio più fondamentale. Bohm (1952), tuttavia, propone una giustificazione più profonda dell'”equazione guida”. Egli postula una versione modificata della seconda legge del moto di Newton: (3) m d²x/dt ² = −grad[V(x,t ) + U(x,t )], dove V(x,t ) è il potenziale classico standard e U(x,t ) è una nuova entità, il "potenziale quantico": (4) U(x,t ) = −(ℏ²/2m) grad²R(x,t )/R(x,t ),
  • 24. e dimostra che se l’”equazione guida” si mantiene ad un tempo iniziale t0 , allora segue dalle equazioni (2), (3), (4) e dall’equazione di Schrödinger, che essa mantiene per tutto il tempo. Sebbene Bohm meriti credito per il tentativo di giustificare l'”equazione guida”, c'è in realtà una tensione tra quell'equazione e l'equazione newtoniana modificata (3), che è stata analizzata da Baublitz e Shimony (1996). L’equazione (3) è un'equazione differenziale del secondo ordine nel tempo e non determina una soluzione definita per tutti i tempi t senza due condizioni iniziali (x e v al tempo t0). Dal momento che v al tempo t0 è una contingenza, la validità dell’”equazione guida” al tempo t0 (e quindi in tutte le altre volte), è contingente. Bohm riconosce questa lacuna nella sua teoria e discute le possibili soluzioni (Bohm, 1952), senza tuttavia raggiungere una proposta definitiva. Se, tuttavia, questa difficoltà viene messa da parte, viene fornita una soluzione al problema della misurazione della meccanica quantistica standard; ovvero il problema di contabilizzare il verificarsi di un risultato definito quando il sistema di interesse viene preparato in una sovrapposizione di autostati dell’operatore che è sottoposto a misurazione. Inoltre, l'”equazione guida” garantisce l'accordo con le previsioni statistiche della meccanica quantistica standard. Il modello delle variabili nascoste che utilizzava l'”equazione guida” ispirò Bell a prendere sul serio l'interpretazione delle variabili nascoste della Meccanica Quantistica, e la non località di questo modello suggeriva il suo teorema. Un altro approccio alla congettura delle variabili nascoste è stato quello di investigare la coerenza della struttura algebrica delle grandezze fisiche caratterizzate dalla Meccanica Quantistica, con un'interpretazione a variabili nascoste. La meccanica quantistica standard presuppone che le "proposizioni" relative a un sistema fisico siano isomorfe al reticolo L(H) di sottospazi lineari chiusi
  • 25. di uno spazio di Hilbert H (in modo equivalente, al reticolo degli operatori di proiezione su H) con le seguenti condizioni: 1) la proposizione il cui valore di verità è necessariamente "vero" è abbinato all'intero spazio H; 2) la proposizione il cui valore di verità è necessariamente 'falso' è abbinata al sottospazio vuoto 0; 3) se un sottospazio S è abbinato a una proposizione q, allora il complemento ortogonale di S è abbinato alla negazione di q; 4) la proposizione q (il cui valore di verità è “vero” se il valore di “verità” di q1 o q2 è “vero” ed è “falso” se le risposte a entrambi q1 e q2 sono “false”), è abbinata alla chiusura dell’unione teorica stabilita degli spazi S1 e S2 , rispettivamente abbinati a q1 e q2 (la chiusura è l’insieme di tutti i vettori e può essere espressa come la somma di un vettore in S1 e un vettore in S2). Va sottolineato che quest’ultima corrispondenza (condizione 4) non presuppone che una proposizione sia necessariamente vera o falsa e quindi sia compatibile con l'indefinitezza della meccanica quantistica di un valore di verità (che a sua volta implica la caratteristica della meccanica quantistica che una quantità fisica può essere indefinita in valore). Il tipo di interpretazione a variabili nascoste che è stata trattata più estensivamente in letteratura (spesso chiamata "interpretazione a variabili nascoste non contestuali", per una ragione che sarà presto evidente) è una mappatura m del reticolo L nella coppia {1,0}; dove m(S) = 1 intuitivamente significa che la proposizione abbinata a S è vera e m(S) = 0 significa intuitivamente che la proposizione abbinata a S è falsa. Una questione/domanda matematica importante è se esistano tali mappature per le quali queste interpretazioni intuitive sono mantenute e se inoltre le condizioni 1) e 4) sono soddisfatte. Una risposta negativa a questa domanda per tutti i reticoli L(H) dove lo spazio H di Hilbert ha una dimensionalità maggiore di 2,
  • 26. è implicitamente legata a un importante teorema di Gleason (1957); il quale fa di più, fornendo un catalogo completo di possibili funzioni di probabilità su L(H). La stessa risposta negativa è stata formulata molto più semplicemente da John Bell nel 1966 (ma senza il catalogo completo delle funzioni di probabilità raggiunto da Gleason), che fornisce anche una risposta positiva alla domanda nel caso della dimensionalità 2; in modo indipendente questi risultati furono raggiunti anche da Kochen e Specker (1967). Va aggiunto che nel caso della dimensionalità 2, le previsioni statistiche di qualsiasi stato quantistico, possono essere recuperate da una miscela appropriata delle mappature m. Nel 1966, dopo aver presentato un “caso forte” contro il programma a variabili nascoste (eccetto per il caso speciale di dimensionalità 2), Bell esegue un drammatico ribaltamento introducendo un nuovo tipo di interpretazione a variabili nascoste; ovvero: una in cui il valore di verità che m assegna a un sottospazio S, dipende dal contesto C di proposizioni misurate in tandem con quello associato a S. Nel nuovo tipo di interpretazione a variabili nascoste, il valore di verità nel quale m mappa S, dipende dal contesto C. Queste interpretazioni sono comunemente definite "interpretazioni a variabili nascoste contestuali", mentre quelle in cui non esiste alcuna dipendenza dal contesto sono chiamate "non contestuali". Bell dimostra la coerenza delle interpretazioni a variabili nascoste contestuali, con la struttura algebrica del reticolo L(H), per due esempi di H con dimensione maggiore di 2. Va ricordato inoltre che la sua proposta è stata sistematizzata da Gudder (1970); il quale considera un contesto C come una subalgebra booleana massimale del reticolo L(H) dei sottospazi. Un'altra linea che portava al Teorema di Bell era l'investigazione degli stati quantistici entangled ; ovvero degli stati quantistici di un sistema composito, che non possono essere espressi come prodotti diretti di stati quantistici dei singoli componenti. Il fenomeno dell’entanglement è stato scoperto da Erwin
  • 27. Schrödinger (1926) in uno dei suoi scritti pionieristici; ma il significato di questa scoperta non è stato enfatizzato fino alla pubblicazione di Einstein, Podolsky e Rosen (1935). Einstein e i suoi collaboratori, esaminarono le correlazioni tra le posizioni e la quantità di moto lineare di due particelle ben separate e prive di spin e conclusero che (per evitare un appello al principio di non località), queste correlazioni potevano essere spiegate solo da "elementi della realtà fisica" in ciascuna particella (nello specifico: dall’esatta determinazione di posizione e quantità di moto di ogni particella); e poiché questa descrizione è più ricca di quanto consentito dal principio di indeterminazione della Meccanica Quantistica, la loro conclusione divenne effettivamente il pilastro portante di un'eventuale interpretazione a variabili nascoste della realtà fisica. Va sottolineato che la loro argomentazione non dipende dal ragionamento controfattuale; ovvero da un ragionamento su ciò che si osserverebbe se una quantità fosse misurata in modo diverso rispetto alla misurazione effettivamente eseguita. La loro argomentazione può essere invece interamente riformulata nella logica induttiva ordinaria, come sottolineato da d'Espagnat (1976) e Shimony (2001). Questa riformulazione è importante perché diminuisce la forza della confutazione di Bohr (1935), nei confronti delle argomentazioni di Einstein, Podolsky e Rosen. Questo indebolimento della confutazione di Bohr, lo si intuisce sulla base del fatto che non si ha il diritto di trarre conclusioni sull'esistenza di “elementi della realtà fisica”, da considerazioni su ciò che si vedrebbe se venisse eseguita una misurazione diversa da quella effettiva. Bell era scettico sulla confutazione di Bohr per altri motivi; in sostanza egli considerava la confutazione di Bohr troppo antropocentrica. A conclusione del suo studio (1966), Bell dà una nuova prospettiva di vita al programma delle variabili nascoste introducendo la nozione di variabili nascoste contestuali. Egli compie dunque un altro drammatico ribaltamento della situazione, sollevando una domanda su un sistema composito
  • 28. costituito da due (ben separate) particelle (1 e 2): supponiamo che una proposizione associata a un sottospazio S1 dello spazio di Hilbert della particella 1 sia sottoposta a misurazione e una teoria delle variabili nascoste contestuali assegni il valore di verità m(S1/C) a questa proposizione. Quali condizioni fisicamente ragionevoli possono essere imposte al contesto C? Bell suggerisce che C dovrebbe consistere solo di proposizioni riguardanti la particella 1, altrimenti il risultato della misurazione sulla particella 1 dipenderà da quali operazioni vengono eseguite su una particella separata/lontana 2 (e ciò ovviamente chiamerebbe in causa il principio di non località). Questa condizione solleva la seguente domanda: le previsioni statistiche della Meccanica Quantistica relative allo stato entangled, possono essere duplicate da una teoria a variabili nascoste contestuale, in cui il contesto C è localizzato? È interessante notare che questa domanda deriva anche da una considerazione del modello di de Broglie-Bohm: quando Bohm ricava le predizioni statistiche di un sistema quantomeccanico entangled, i cui costituenti sono ben separati, l'esito di una misurazione effettuata su un costituente dipende dall'azione dell’"onda guida" sui costituenti lontani, che in genere dipenderà dalla disposizione di misurazione su quella parte. Bell fu quindi portato euristicamente a chiedersi se fosse necessario un “intervallo di località” per il recupero delle statistiche quantomeccaniche. Bell (1964) fornisce una dimostrazione pioneristica del teorema che porta il suo nome, rendendo per prima cosa esplicito un quadro concettuale (framework) in cui i valori di aspettativa possono essere calcolati per le componenti di spin di una coppia di particelle con spin ½ , quindi dimostrando che, indipendentemente dalle scelte fatte per certe funzioni non specificate che si verificano nel framework, i valori di aspettativa obbediscono a una certa disuguaglianza che è stata definita "Disuguaglianza di Bell". Questo termine è ora comunemente usato per denotare collettivamente una famiglia di disuguaglianze
  • 29. derivate in quadri concettuali simili, ma più generali di quella originale di Bell. A volte queste disuguaglianze vengono chiamate "disuguaglianze di tipo Bell". Ognuno di questi quadri concettuali incorpora un certo tipo di teoria a variabili nascoste e obbedisce a un'ipotesi di località. Anche il nome "Teoria realistica locale" è appropriato e verrà utilizzato a breve tra le pagine di questo libro, grazie alla sua generalità. Bell calcola i valori di aspettativa per alcuni prodotti della forma (σ1·â)(σ2·ê) [dove σ1 è l'operatore vettoriale di spin di Pauli per la particella 1 e σ2 è l'operatore vettoriale di spin di Pauli per la particella 2 (entrambe le particelle hanno spin ½ ); mentre â e ê sono vettori unitari in 3D] e quindi mostra che questi valori quantomeccanici di aspettativa, violano la disuguaglianza di Bell. Questa violazione costituisce un caso speciale del Teorema di Bell, poiché mostra che nessuna teoria realistica locale inclusa nel quadro concettuale del documento di Bell del 1964, può essere d'accordo con tutte le previsioni statistiche della teoria dei quanti. Da ora in avanti verrà seguito il modello del documento di Bell del 1964: a) formulazione di una struttura (quadro concettuale/ framework); b) derivazione di una disuguaglianza; c) dimostrazione di una discrepanza tra certi valori di aspettativa della meccanica quantistica e questa disuguaglianza. Tuttavia, si supporrà una struttura concettuale più generale della sua e verrà derivata una disuguaglianza un po' più generale, ottenendo così un teorema più generale di quello derivato da Bell nel 1964, ma con la stessa strategia e nello stesso spirito. La struttura concettuale in cui verrà dimostrata una disuguaglianza di tipo Bell, prima di tutto postula un insieme di coppie di sistemi (i singoli sistemi in ciascuna coppia sono etichettati come 1 e 2). Ogni coppia di sistemi è caratterizzata da uno "stato completo" m, che contiene l'insieme delle proprietà della coppia al momento della generazione. Lo stato completo m può differire da coppia a coppia, ma la modalità di generazione delle coppie stabilisce una distribuzione di probabilità ρ, che è indipendente dai successivi sviluppi di ciascuno dei due sistemi
  • 30. dopo che si sono separati. Diversi esperimenti possono essere eseguiti su ciascun sistema. Quelli sul sistema 1 sono designati da a, a ', etc; mentre quelli sul sistema 2 sono designati da b, b', etc. Si può in linea di principio lasciare a, a', etc. e includere anche le caratteristiche dell'apparato usato per la misurazione; ma poiché la dipendenza del risultato dalle caratteristiche microscopiche dell'apparato non è determinabile sperimentalmente, solo le caratteristiche macroscopiche dell'apparato (come gli orientamenti degli analizzatori di polarizzazione) nel loro ambiente non completamente controllabile, devono essere ammessi in pratica nelle descrizioni a, a ', etc. (idem per b, b', etc.). L'ottimo accordo tra le misurazioni sperimentali delle correlazioni negli esperimenti di tipo Bell e le previsioni della meccanica quantistica di queste correlazioni, giustifica in pratica la limitazione dell'attenzione alle caratteristiche macroscopiche dell'apparato. Il risultato di un esperimento sul sistema 1 è etichettato da s; il quale può assumere su tale sistema, qualsiasi insieme discreto di numeri reali nell'intervallo [-1, 1]. Allo stesso modo il risultato di un esperimento sul sistema 2 è etichettato da t; il quale può assumere su tale sistema, qualsiasi insieme discreto di numeri reali nell'intervallo [-1, 1]. Va ricordato che la stessa versione di Bell del suo teorema presuppone che s e t siano entrambi bivalenti (-1 o 1); tuttavia in altre varianti del teorema vengono assunti altri intervalli. Si presuppone che le seguenti probabilità siano ben definite: (5) p1 m (s |a, b, t) = la probabilità che il risultato della misurazione eseguita sul sistema 1 sia s quando lo stato completo è m. Le misurazioni eseguite sui sistemi 1 e 2, sono rispettivamente a e b; mentre il risultato dell’esperimento sul sistema 2 è t. (6) p2 m (t |a, b, s) = la probabilità che il risultato della misurazione eseguita sul sistema 2 sia t quando lo stato completo
  • 31. è m. Le misurazioni eseguite sui sistemi 1 e 2, sono rispettivamente a e b; mentre il risultato della misurazione a è s. (7) pm (s, t |a, b) = la probabilità che i risultati delle misurazioni congiunte a e b, quando lo stato completo è m, siano rispettivamente s e t. Si suppone che la funzione di probabilità p sia non negativa e si sommi all'unità, quando la somma è tratta da tutti i valori consentiti di s e t. Si noti che le teorie a variabili nascoste precedentemente considerate, possono essere riassunte in questo quadro concettuale, limitando i valori della funzione di probabilità p a 1 e 0 (identificando 1 con il valore di verità "vero" e 0 con il valore di verità "falso"). Un'ulteriore caratteristica del quadro concettuale è la località, intesa come congiunzione delle seguenti condizioni di indipendenza, così suddivise: a) Indipendenza dal risultato a distanza (Remote Outcome Independence)9 : (8a) p1 m (s |a, b, t ) ≡ p1 m (s |a, b ) è indipendente da t, (8b) p2 m (t |a, b, s ) ≡ p2 m (t |a, b ) è indipendente da s; Si noti che le equazioni (8a) e (8b) non precludono le correlazioni dei risultati dell’esperimento a sul sistema 1 e dell’esperimento b sul sistema 2; esse dicono piuttosto che se viene fornito lo stato completo m, il risultato s dell’esperimento sul sistema 1, non fornisce ulteriori informazioni sul risultato dell'esperimento sul sistema 2 e viceversa). 9 Si tratta di un neologismo, ma tuttavia appropriato, per ciò che viene comunemente chiamato indipendenza dai risultati.
  • 32. b) Indipendenza dal contesto a distanza (Remote Context Independence)10 : (9a) p1 m (s |a, b ) ≡ p1 m (s | a ) è indipendente da b, (9b) p 2 m (t |a, b ) ≡ p2 m (t | b ) è indipendente da a. Jarrett (1984) e Bell (1990) hanno dimostrato l'equivalenza della congiunzione di (8a,b) e (9a,b) con la condizione di fattorizzazione: (10) pm (s, t |a, b) = p1 m(s |a )p2 m(t |b ), e allo stesso modo per (a,b'), (a',b) e (a',b') sostituiti per (a,b). La condizione di fattorizzazione espressa dall’equazione (10), è sovente indicata come “località di Bell”. Va sottolineato che allo stadio attuale dell'esposizione, tuttavia, la “località di Bell” è semplicemente una condizione matematica all'interno di un quadro concettuale, a cui non è stato attribuito alcun significato fisico; in particolare nessuna connessione con la località della Teoria della Relatività Speciale (sebbene tale connessione verrà effettuata più tardi, quando verranno discusse le applicazioni sperimentali del teorema di Bell). La disuguaglianza di Bell è derivabile dalla sua condizione di località per mezzo di un semplice lemma: (11) Se q, q', r, r' appartengono tutti all'intervallo chiuso [-1,1], allora S ≡ qr + qr '+ q'r - q'r' , appartiene all'intervallo chiuso [-2 , 2]. Dimostrazione: poiché S è lineare in tutte e quattro le variabili (q, q', r, r'), esso deve assumere i suoi valori di massimo e minimo, 10 Anche questo è un neologismo, ma appropriato, per ciò che viene comunemente chiamato: indipendenza dei parametri.
  • 33. agli angoli del dominio di questo quadruplo di variabili (dove ogni q, q', r, r ' assume il valore +1 o -1). Quindi in questi angoli S può essere solo un numero intero compreso tra -4 e +4. Ma S può essere riscritto come (q + q ') (r + r') - 2q'r', e le due quantità tra parentesi possono essere solo 0, 2 o -2; mentre l'ultimo termine può essere solo -2 o +2, in modo che S non possa essere uguale a ± 3, +3, -4 o +4 agli angoli. C.v.d. Ora definiamo il valore di aspettativa del prodotto “s.t” dei risultati: (12) Em (a,b ) ≡ Σs Σt pm(s,t |a,b )(st ) La sommatoria viene presa su tutti i valori consentiti di s e t. E allo stesso modo con (a,b').(a',b) e (a',b') sostituito da (a, b). Si prendano anche le quantità q, q', r, r' del lemma (11), affinché i singoli valori di aspettativa siano: (13a) q = Σs sp1 m(s|a), (13b) q′ = Σs sp1 m(s|a′), (13c) r = Σt tp2 m(t |b), (13d) r′ = Σt tp2 m(t |b′). Quindi il lemma, insieme all’equazione (12), con condizione di fattorizzazione dell’equazione (10) e i limiti di s e t dichiarati precedentemente per l’equazione (5), implica che: (14) −2 ≤ Em(a,b ) + Em(a,b′) + Em(a′,b ) − Em(a′,b′) ≤ 2 Infine, torniamo al fatto che l'insieme di interesse consiste in coppie di sistemi, ciascuno dei quali è governato da una mappatura m; ma m è scelto stocasticamente da uno spazio M di
  • 34. mappature governate da una funzione di probabilità standard ρ. In pratica, per ogni sottoinsieme Borel B di M, ρ (B) è un numero reale non negativo, ρ (M) = 1 e ρ (Uj Bj) = Σj ρ (Bj); dove i Bj' sono sottoinsiemi Borel disgiunti di M e Uj Bj è l'unione teorica dell'insieme dei Bj'. Se definiamo: (15a) pρ(s,t |a,b ) ≡ ∫M pm(s,t |a,b ) dρ (15b) Eρ(a,b ) ≡ ∫M Em(a,b )dρ = Σs Σt ∫M pm(s,t |a,b )(st ) dρ E analogamente, quando (a, b'), (a', b), e (a ', b') sono sostituiti da (a, b), allora le equazioni (14), (15a) e (15b) e le proprietà di ρ, implicano che: (16) −2 ≤ Eρ(a,b) + Eρ(a,b′) + Eρ(a′,b) − Eρ(a′,b′) ≤ 2 La disuguaglianza (16) è una disuguaglianza di tipo Bell, d'ora in poi chiamata "disuguaglianza Bell-Clauser-Horne-Shimony-Holt (BCHSH)". Il terzo passo nella derivazione di un teorema di tipo Bell, consiste nel mostrare un sistema, uno stato quantomeccanico e un insieme di quantità per le quali le previsioni statistiche violano la disuguaglianza (16). Poniamo ora che il sistema sia costituito da una coppia di fotoni 1 e 2 che si propagano nella direzione z. I due kets |x>j e |y>j costituiscono una base di polarizzazione per il fotone j (j = 1, 2); il primo rappresenta (nella notazione di Dirac) uno stato in cui il fotone 1 è polarizzato linearmente nella direzione x e il secondo rappresenta uno stato in cui è polarizzato linearmente nella direzione y. Per il sistema a due fotoni i quattro kets del prodotto: |x>1|x>2, |x>1 |y>2, |y>1 |x>2 e |y>1 |y>2 ,
  • 35. costituiscono una base di polarizzazione. Ogni stato di polarizzazione a due fotoni può essere espresso come una combinazione lineare di questi quattro stati di base con coefficienti complessi. Di particolare interesse sono gli stati quantistici entangled, che in nessun modo possono essere espressi come |φ> 1 |ξ> 2. Con |φ> e |ξ> intesi come stati di singoli fotoni, avremo che: (17) |Φ > = (1/√2)[ |x>1 |x>2 + |y>1 |y>2 ], Equazione che ha l’utile proprietà di essere invariante sotto la rotazione degli assi x e y, nel piano perpendicolare a z. Lo stato quantistico totale della coppia di fotoni 1 e 2 è invariante sotto lo scambio dei due fotoni, come richiesto dal fatto che i fotoni sono particelle con spin intero. Né il fotone 1 né il fotone 2 si trovano in uno stato di polarizzazione definito quando la coppia si trova nello stato |ψ>, ma le loro potenzialità (nella terminologia di Heisenberg, 1958) sono correlate: se a causa di una misurazione o di qualche altro processo, la potenzialità del fotone 1 di essere polarizzato lungo la direzione x o lungo la direzione y è attualizzata, allora lo stesso sarà vero per il fotone 2, e viceversa. Supponiamo ora che i fotoni 1 e 2 colpiscano rispettivamente le facce I e II degli analizzatori di polarizzazione (a cristallo birifrangente), con la faccia di ingresso di ciascun analizzatore perpendicolare a z. Ogni analizzatore ha la proprietà di separare la luce incidente sul suo schermo (faccia) in due raggi non paralleli in uscita: il raggio “ordinario” e il raggio “non ordinario”. L'asse di trasmissione dell'analizzatore è una direzione con la proprietà di far emergere un fotone polarizzato lungo di essa, nel raggio “ordinario” (con certezza se i cristalli sono considerati ideali); mentre un fotone polarizzato in una direzione perpendicolare a z e all'asse di trasmissione, emergerà nel raggio “non ordinario”. Vedi la Figura 1.1.:
  • 36. Figura 1.1. Schema degli analizzatori di polarizzazione. Le coppie di fotoni vengono emesse dalla sorgente (fonte, v. fig.1.1.) ed ogni coppia è descritta in notazione quantomeccanica da |Φ> dell’equazione (17); ma anche da uno stato completo m se si assume una teoria realistica locale. I e II sono analizzatori di polarizzazione, con esito s = 1 e t = 1 che indica l'emergenza nel raggio “ordinario”; mentre l’esito s = -1 e t = -1 indica l'emergenza nel raggio “non ordinario”. I cristalli sono anche idealizzati assumendo che nessun fotone incidente sia assorbito; ma ognuno emerge nel raggio “ordinario” o “non ordinario”. La meccanica quantistica fornisce un algoritmo per calcolare le probabilità che i fotoni 1 e 2 emergeranno da questi analizzatori idealizzati in raggi specificati, come funzioni degli orientamenti a e b degli analizzatori (considerando a l'angolo tra l'asse di trasmissione dell'analizzatore I e una direzione arbitraria fissa nel piano x-y, e b che ha il significato analogo per l'analizzatore II). (18a) probΦ(s,t |a,b ) = | <Φ|θs>1 |φt>2 |2 Qui s è un numero quantico associato al raggio nel quale emerge il fotone 1; +1 indica l'emergenza nel raggio ordinario e -1 indica l’emergenza nel raggio non ordinario quando a è dato. Mentre t è il numero quantico analogo per il fotone 2 quando b è dato e: |θs> 1 |φt> 2
  • 37. è il ket che rappresenta lo stato quantico dei fotoni 1 e 2 con i rispettivi numeri quantici s e t. Il calcolo delle probabilità di interesse dall’equazione (18a) può essere semplificato usando l'invarianza indicata dopo l'equazione (17) e riscrivendo| Φ> come: (19) |Φ> = (1/√2)[ |θ1>1 |θ1>2 + |θ−1>1 |θ−1>2 ] L’equazione (19) risulta dall’equazione (17), sostituendo l'asse di trasmissione dell'analizzatore I per x e la direzione perpendicolare sia a z che a questo asse di trasmissione per y. Poiché |θ−1>1 è ortogonale a |θ1>1, solo il primo termine dell’equazione (19) contribuisce al prodotto interno nell'equazione (18a) se s = t = 1; e dal momento che il prodotto interno di |θ1>1 con se stesso è l'unità (a causa della normalizzazione), allora l’equazione (18a), per s = t = 1, si riduce a: (18b) probΦ(1,1|a,b ) = (½)| 2<θ1|φ1>2 |2 Infine, l'espressione sul lato destro dell’equazione (18b) è valutata usando la legge di Malus, che è preservata nel trattamento quantomeccanico degli stati di polarizzazione. Dunque occorre tener presente che: la probabilità per un fotone polarizzato in una direzione n di passare attraverso un analizzatore di polarizzazione ideale con l'asse di trasmissione n', è uguale al coseno quadrato dell'angolo tra n e n'. Quindi: (20a) probΦ(1,1|a,b ) = (½)cos2 σ, dove σ è b-a. Allo stesso modo: (20b) probΦ(−1,−1|a,b ) = (½) cos2 σ
  • 38. (20c) probΦ(1,−1|a,b ) = probΦ(−1,1|a,b ) = (½)sin2 σ Il valore di aspettativa del prodotto dei risultati s e t delle analisi di polarizzazione dei fotoni 1 e 2 da parte dei rispettivi analizzatori è: (21) EΦ(a,b ) = probΦ(1,1|a,b ) + probΦ(−1,−1|a,b ) − probΦ(1,−1| a,b ) − probΦ(−1,1|a,b ) = cos2 σ − sin2 σ = cos2σ Ora scegliamo gli angoli di orientamento degli assi di trasmissione: (22) a = π/4, a′ = 0, b = π/8, b′ = 3 π/8 Ed in seguito: (23a) EΦ(a,b ) = cos2(-π/8) = 0.707, (23b) EΦ(a,b′) = cos2(π/8) = 0.707, ¨ (23c) EΦ(α′,b ) = cos2(π/8) = 0.707, (23d) EΦ(a′,b′) = cos2(3π/8) = −0.707 Perciò avremo che: (24) SΦ ≡ EΦ(a,b ) + EΦ(a,b′) + EΦ(a′,b ) − EΦ(a′,b′) = 2.828 L’equazione (24) mostra che ci sono situazioni in cui i calcoli quantomeccanici violano la disuguaglianza BCHSH, completando così la prova di una versione del teorema di Bell. È importante notare, tuttavia, che tutti gli stati quantici entangled, producono previsioni in violazione della disuguaglianza (16), come hanno dimostrato indipendentemente Gisin (1991) e Popescu / Rohrlich (1992). Popescu e Rohrlich (1992) mostrano
  • 39. anche che la massima quantità di violazione è raggiunta con uno stato quantistico di massimo grado di entanglement, esemplificato da |Φ> dell’equazione (17). Quello che il teorema di Bell mostra è che la meccanica quantistica ha una struttura che è incompatibile con la struttura concettuale entro cui è stata dimostrata la disuguaglianza di Bell: una struttura in cui un sistema composito con due sottosistemi 1 e 2 è descritto da uno stato completo che assegna una probabilità a ciascuno dei possibili risultati di ogni esperimento congiunto sui sottosistemi 1 e 2, con le funzioni di probabilità che soddisfano le due condizioni di indipendenza (8a, b ) e (9a, b); consentendo inoltre delle miscele governate da funzioni arbitrarie di probabilità nello spazio di stati completi. Un "esperimento" su un sistema può essere compreso per includere il contesto entro il quale viene misurata una proprietà fisica del sistema, ma le due condizioni di indipendenza richiedono che il contesto sia locale. Quindi l'incompatibilità della Meccanica Quantistica con questa struttura concettuale non preclude i modelli a variabili nascoste contestuali proposti da Bell nel 1966 (un esempio dei quali è il modello de Broglie-Bohm), ma preclude i modelli in cui i contesti sono richiesti per essere una struttura concettuale locale. L'implicazione più evidente del Teorema di Bell è la luce che getta sul paradosso EPR. Tale argomento concettuale (il paradosso EPR) esamina uno stato quantico entangled e mostra che una condizione necessaria per evitare l'azione a distanza tra gli esiti di misurazione delle proprietà correlate dei due sottosistemi (ad esempio, posizione in entrambi o quantità di moto lineare in entrambi), è l'attribuzione di "elementi della realtà fisica” corrispondenti alle proprietà correlate a ciascun sottosistema, senza riferimento all'altro. Il Teorema di Bell mostra che tale attribuzione avrà implicazioni statistiche in disaccordo con quelle della meccanica quantistica. Una caratteristica penetrante dell'analisi di Bell, se confrontata con quella del paradosso EPR, è l'esame di diverse proprietà nei due sottosistemi, come le polarizzazioni lineari lungo le diverse
  • 40. direzioni nei sottosistemi 1 e 2, piuttosto che limitare la sua attenzione alle correlazioni di proprietà identiche nei due sottosistemi. È possibile tuttavia affrontare il quadro concettuale della disuguaglianza BCHSH (spesso definita anche disuguaglianza CHSH), da un altro punto di vista, al fine di semplificarne la comprensione e renderlo così più “accessibile” anche a coloro che non hanno una grande dimestichezza con le operazioni matematiche più avanzate. Come già visto, la disuguaglianza CHSH limita la quantità di correlazione possibile tra gli spin elettronici11 in una teoria a variabili nascoste. La violazione della disuguaglianza CHSH, sia nella teoria che nei risultati sperimentali della meccanica quantistica, dimostra il teorema di Bell. Poniamo a questo punto la disuguaglianza CHSH nella seguente forma: (25) |E(a,b) - E (a, b′) + E (α′, b ) + E (a′, b′)| ≤ 2 11 Il calcolo effettuato da E. Schrödinger dell’energia degli orbitali dell’idrogeno, costituì una pietra miliare nell’elaborazione della moderna teoria atomica; tuttavia le righe spettrali non presentavano esattamente la frequenza da lui prevista. Nel 1925 (prima del lavoro di Schrödinger ma dopo lo sviluppo del primo modello atomico di Bohr), due fisici americani di origine olandese, Samuel Goudsmit e George Uhlenbeck, giunsero ad una importante conclusione e dunque ad una possibile spiegazione delle piccole differenze osservate da Schrödinger. Essi suggerirono l’idea che un elettrone si comporti per alcuni versi come una sfera rotante (ovvero a qualcosa di simile ad un pianeta che ruoti attorno al proprio asse di simmetria). Tale proprietà costituisce il cosiddetto spin. Secondo la meccanica quantistica l’elettrone ha accesso a due stati di spin, rappresentati con le frecce ↑ e ↓ o con le lettere greche α e β. Possiamo immaginare che l’elettrone sia in grado di ruotare in senso antiorario a una certa velocità (stato ↑) o in senso orario esattamente alla stessa velocità (stato ↓). I due stati di spin sono contraddistinti da un quarto numero quantico, il numero quantico magnetico di spin, ms , che può assumere solo due valori: + ½ denota un elettrone ↑ e - ½ denota l’altro elettrone ↓.
  • 41. Dove a e α′ sono due possibili orientamenti per un rilevatore di Stern-Gerlach in un esperimento di Bell; mentre b e b′ sono due possibili orientamenti per il secondo rilevatore. Il valore E(a,b) fornisce la correlazione degli spin lungo questi orientamenti ed è definito (in meccanica quantistica) dall'aspettativa del prodotto degli stati di spin lungo ciascuna direzione. La derivazione formale di queste disuguaglianze è piuttosto ampia e complessa, poiché introduce una possibile variabile nascosta e quindi definisce le aspettative in termini di integrali che coinvolgono questa variabile. Tuttavia, l'intuizione dietro di essa è semplice: ciascuna delle aspettative lungo l'orientamento a, α′, b e b′ è al massimo 1, poiché ogni correlazione è al massimo 1 in una teoria classica. La parte difficile della derivazione sta nel manipolare le espressioni integrali che definiscono le correlazioni per ottenere piacevoli disuguaglianze che non dipendano dalla variabile nascosta o dall'angolo del rilevatore. Un semplice esempio della violazione della disuguaglianza CHSH si verifica in esperimenti che misurano lo spin nello stato di singoletto12 entangled di due particelle con spin ½ : (26) |ψ⟩ = √ (|↑⟩ ⊗ |↓⟩ − |↓⟩ ⊗ |↑⟩) Le correlazioni desiderate nella meccanica quantistica possono essere trovate prendendo le aspettative delle misurazioni di spin fatte sui due apparati di Stern-Gerlach. Poniamo che A(a) sia una misurazione fatta con l’apparato A avente orientamento a e in modo simile, consideriamo le seguenti quattro misurazioni possibili: (27a) A(a) = Ŝz ⊗ I 12 In meccanica quantistica un singoletto è una configurazione di spin o di isospin composta da un solo stato.
  • 42. (27b) A(α′) = Ŝx ⊗ I (27c) B(b) = − √ I ⊗ (Ŝz + Ŝx ) (27d) B(b′) = √ I ⊗ (Ŝz − Ŝx ) Dove gli orientamenti b e b′ sono ruotati di 135° rispetto ad a e α′; in modo che con i valori di aspettativa presi nello stato di singoletto, avremo che: (28a) E (a, b) = ⟨ ( ) ( )⟩ = √ (28b) E (a, b′) = ⟨ ( ) (b′)⟩ = − √ (28c) E (α′, b) = ⟨ ( ′) ( )⟩ = √ (28d) E (α′,b′) = ⟨ ( ′) (b′)⟩ = √ Sostituendo nella parte sinistra della diseguaglianza CHSH, si trova: (29) |E(a,b) - E (a, b′) + E (α′, b ) + E (a′, b′)| = √ = 2√2 Ciò viola il limite di 2 previsto in una teoria a variabili nascoste locali, come conseguenza dell'entanglement quantistico. Tale equazione (29), nonostante sia evidente una differenza nei segni più e meno delle varie correlazioni, porta esattamente allo stesso risultato dell’equazione (24). Nella figura 1.2. riportata di seguito, è rappresentata la correlazione E (a, b) come “funzione d’angolo”
  • 43. tra gli orientamenti a e b. La discrepanza tra le previsioni classiche e quelle quantistiche è evidente; specialmente alla differenza dell’angolo di 135° usato nel precedente calcolo (dove ogni correlazione assume il valore √ ; ovvero un valore che nella teoria locale a variabili nascoste dovrebbe essere al massimo ½ ). Figura 1.2. La correlazione E (a, b) come “funzione d’angolo” tra gli orientamenti a e b.
  • 44. Figura 1.3. John S. Bell (1964) Figura 1.4. John Clauser nel suo laboratorio (1972)
  • 45. MODELLANDO LA REALTÀ, IMMAGINANDO L’IMPOSSIBILE “Normalmente vediamo solo ciò che ci piace vedere, tanto che a volte lo vediamo dove non c’è”. Eric Hoffer “L’illusione più pericolosa è quella che esista soltanto un’unica realtà”. Paul Watzlawick CHSH e CH74: i primi esperimenti realizzati Clauser, Horne, Shimony e Holt (da cui l’acronimo della disuguaglianza CHSH), hanno derivato la disuguaglianza definita con le iniziali dei loro cognomi, in una forma un po’ diversa rispetto a quella conosciuta oggigiorno e usando assunzioni molto più restrittive rispetto a quelle realmente necessarie. La disuguaglianza CHSH (come nel caso di quella originale di Bell, del 1964), si applica ad una proprietà statistica di “conteggi di coincidenze” in un particolare esperimento e viene violata in determinate condizioni dal formalismo della meccanica quantistica; tuttavia, essa deve essere rispettata in una classe generale di teorie locali a variabili nascoste. La forma più semplice in assoluto in cui viene espressa generalmente la disuguaglianza CHSH, è la seguente: (30) − 2 ≤ S ≤ 2 Dove: (31) S = E(a, b) − E(a, b′) + E(a′, b) + E(a′ b′)
  • 46. In tale formula/equazione (31), come già visto più volte, a e a' sono le impostazioni del rilevatore sul lato A; mentre b e b′ sono le impostazioni del rilevatore sul lato B. Le quattro combinazioni vengono testate in sotto-esperimenti separati. I termini E(a, b) etc., sono le correlazioni quantistiche delle coppie di particelle, dove la correlazione quantistica è definita come il valore di aspettativa del prodotto dei "risultati" dell'esperimento; cioè la media statistica di A(a ).B (b), dove A e B sono i risultati separati, usando la codifica +1 per il canale “+” e -1 per il canale “-“. La derivazione di Clauser e colleghi (del 1969), era orientata verso l'uso di rilevatori a "due canali" (usati in genere proprio per questo tipo di esperimenti); ma con il loro metodo gli unici risultati possibili erano +1 e -1. Per adattare l’esperimento ad una situazione reale (il che ai tempi significava l’impiego di luce polarizzata e polarizzatori a singolo canale), essi dovevano interpretare il “-“ come “nessun rilevamento” nel canale “+”. Clauser e colleghi, nell’articolo originale non hanno discusso di come la diseguaglianza a due canali poteva essere applicata in esperimenti reali con veri rilevatori imperfetti; sebbene in seguito sia stato dimostrato (Bell, 1971) che la disuguaglianza stessa era ugualmente valida. Il verificarsi di risultati pari a zero, tuttavia, significava che non era più così ovvio il modo in cui i valori di E dovevano essere stimati dai dati sperimentali. In tutti gli esperimenti degni di nota sulle disuguaglianze di Bell, si presume che la sorgente rimanga essenzialmente costante, essendo caratterizzata in ogni istante da uno stato ("variabile nascosta") λ che ha una distribuzione costante ρ (λ) e non è influenzato dalla scelta di impostazione del rilevatore. In pratica nella maggior parte degli esperimenti si è utilizzata la luce (considerando che venga emessa sotto forma di fotoni particellari), piuttosto che gli atomi ipotizzati in origine da Bell, per la verifica sperimentale delle sue disuguaglianze. Negli esperimenti più noti (come ad esempio quello di A. Aspect del 1982), la proprietà più interessante rimane sempre la direzione di polarizzazione (sebbene possano essere utilizzate altre proprietà).
  • 47. Il diagramma in Figura 1.3., mostra un tipico esperimento ottico. Le coincidenze (rilevazioni simultanee) vengono registrate, i risultati vengono categorizzati come “+ +”, “+ −“, “− +” o “− −“ e i conteggi corrispondenti vengono accumulati. Figura 2.1. Schema di un apparato per un esperimento di Bell a due canali. La sorgente S produce coppie di "fotoni", inviati in direzioni opposte. Ogni fotone incontra un polarizzatore a due canali il cui orientamento può essere impostato dallo sperimentatore. I segnali emergenti da ciascun canale sono rilevati e le coincidenze contate dal monitor di coincidenza CM. Vengono condotti quattro sotto-esperimenti separati, corrispondenti ai quattro termini E(a, b) nel test di statistica S (confr. eq. 31). Le impostazioni a, a', b e b' vengono generalmente scelte con i seguenti angoli tipici per i test di Bell: 0; 45°; 22,5° e 67,5° (si tratta di particolari angoli per i quali i calcoli quantomeccanici portano alla massima violazione della disuguaglianza di Bell). Per ciascun valore selezionato di a e b, vengono registrati i numeri di coincidenze in ciascuna categoria (N ++, N--, N + - e N- +). La stima sperimentale per E (a, b) viene quindi calcolata come: (32) E = (N++ + N-- − N+- − N-+) / (N++ + N-- + N+- + N-+)
  • 48. Una volta che tutte le E sono state stimate, è possibile trovare una stima sperimentale di S (eq. 31). Se è numericamente maggiore di 2, ha violato la disuguaglianza CHSH e l’esperimento viene considerato in accordo con le previsioni quantomeccaniche (ovvero ha supportato le previsioni della meccanica quantistica); ciò significa dunque, in ultima analisi, che tutte le teorie locali a variabili nascoste sono state escluse. In esperimenti reali, tuttavia, i rilevatori non sono solitamente efficienti al 100%, in modo tale che venga rilevato solo un campione delle coppie emesse. La validità della stima dipende dal campione di coppie rilevate; che rappresenta un campione equo di quelle emesse (un'ipotesi contestata dai sostenitori delle teorie locali a variabili nascoste). In un articolo del 1969, Clauser, Horne, Shimony e Holt derivano la ben nota disuguaglianza CHSH "a due canali", facendo ulteriori presupposti che equivalgono all'assunzione di una forma ristretta di "campionamento equo" (ovvero assumono che tutti i fotoni che sono passati attraverso un polarizzatore, abbiano le stesse possibilità di rilevamento); in seguito adattano tale derivazione ad una situazione a canale singolo. Entrambe le derivazioni sono state successivamente migliorate; quella a due canali nel 1971 da Bell (Bell, 1971) e quella a canale singolo di Clauser e Horne nel 1974 (Clauser, 1974). Le derivazioni successive mostrano che all’inizio erano state fatte alcune assunzioni non necessarie. Il test a due canali non richiede l'ipotesi di Bell sui rilevatori paralleli; sebbene (nella forma attualmente utilizzata) abbia bisogno di un'equa ipotesi di campionamento ed è quindi vulnerabile alla "scappatoia del giusto campionamento". La diseguaglianza a canale singolo (qui chiamata disuguaglianza "CH74") non richiede in realtà alcuna ipotesi sul campionamento corretto. Nella loro derivazione del 1974, Clauser e Horne applicano ciò che essi definivano una “teoria locale oggettiva” (piuttosto che una teoria locale a variabili nascoste); assumendo che la variabile nascosta λ non determinasse necessariamente dei risultati “completi”; ma solo (quando presi in congiunzione con l'impostazione del rilevatore) le loro probabilità di
  • 49. concretizzazione. L'idea si è evoluta da quella introdotta da Bell nel 1971 (Bell, 1971). Il modello può essere convertito in deterministico assumendo più componenti per la variabile nascosta (componenti associate al rilevatore piuttosto che alla sorgente), ma non vi è alcun reale vantaggio nel farlo. Così com'è, è un modello molto naturale da usare negli esperimenti ottici. La disuguaglianza CH74 a canale singolo, come usata, per esempio, in due esperimenti di Aspect (Aspect, 1981; Aspect, 1982b), è così definita: (33) S = {N(a, b) − N(a, b′) + N(a′, b) + N(a′, b′) − N(a′,∞) − N(∞, b)} / N(∞,∞) ≤ 0 Dove a e a' sono le impostazioni del polarizzatore (analizzatore) per il lato 1 e b e b' sono le impostazioni del polarizzatore (analizzatore) per il lato 2; mentre il simbolo ∞ indica l'assenza di un polarizzatore. Ogni termine N rappresenta un conteggio di coincidenza da un sotto-esperimento separato. Figura 2.2. Schema di un apparato per un esperimento di Bell a canale singolo. La sorgente S produce coppie di "fotoni", inviati in direzioni opposte. Ogni fotone incontra un polarizzatore a canale singolo il cui orientamento può essere impostato dallo sperimentatore. I segnali emergenti sono rilevati e le coincidenze contate dal monitor di coincidenza CM.
  • 50. Ciò che ora verrà fatto (onde dimostrare la disomogeneità della disuguaglianza CH74), sarà derivare una conseguenza dell’ipotesi di fattorizzazione, testabile sperimentalmente senza che N sia conosciuto e che contraddica le previsioni della meccanica quantistica. Siano a e a' i due orientamenti dell’analizzatore 1 e siano b e b' i due orientamenti dell’analizzatore 2. Se le probabilità sono ragionevoli, dovrebbero reggere le seguenti disuguaglianze: (34a) 0 ≤ p1(λ, a) ≤ 1 (34b) 0 ≤ p1(λ, a′) ≤ 1 (34c) 0 ≤ p2(λ, b) ≤ 1 (34d) 0 ≤ p2(λ, b′) ≤ 1 Per ogni λ, arriviamo quindi alla seguente disuguaglianza: (35) – 1 ≤ p1(λ, a) p2(λ, b) – p1(λ, a) p2(λ, b′) + p1(λ, a′) p2(λ, b) + p1(λ, a′) p2(λ, b′) – p1(λ, a′) – p2(λ, b) ≤ 0 Moltiplicando per ρ(λ), ovvero per la probabilità che la sorgente sia nello stato λ e procedendo con l’integrazione su λ, otteniamo (ipotizzando la fattorizzazione): (36) – 1 ≤ p1,2(a, b) – p1,2(a, b′) + p1,2(a′, b) + p1,2(a′, b′) – p1(a′) – p2(b) ≤ 0 Quest’ultima disuguaglianza (36), rappresenta quindi un vincolo necessario sulle previsioni statistiche di qualsiasi “teoria locale oggettiva”. In tale disuguaglianza (36), i limiti superiori sono testabili sperimentalmente senza che N sia conosciuto. Essa in
  • 51. generale, si mantiene perfettamente per tutti i sistemi descritti da una “teoria locale oggettiva”. Per l’”utilizzo pratico”, esiste tuttavia la derivazione di una disuguaglianza (omogenea) di struttura simile alla (36), che può essere utilizzata con rilevatori reali a bassa efficienza. Essa impiega un’ipotesi più forte rispetto alla 34a/b/c/d. Si tratta dell’ipotesi denominata: “nessun miglioramento”; che può essere espressa matematicamente nella forma: (37a) 0 ≤ p1(λ, a) ≤ p1(λ, ∞) ≤ 1 (37b) 0 ≤ p2(λ, b) ≤ p2(λ, ∞) ≤ 1 Dove ∞ denota l'assenza del polarizzatore; p1 (λ, ∞) la probabilità di un conteggio dal rilevatore 1 quando il polarizzatore è assente e l'emissione è nello stato λ; e p2 (λ, ∞) la probabilità di un conteggio dal rilevatore 2 quando il polarizzatore è assente e l'emissione è nello stato λ. Usando gli stessi argomenti di prima, troviamo la (36) sostituita da (38): (38) p1,2(∞, ∞) ≤ p1,2(a, b) – p1,2(a, b′) + p1,2(a′, b) + p1,2(a′, b′) – p1,2(a′, ∞) – p1,2(∞, b) ≤ 0 Dividendo attraverso p1,2(∞, ∞) e sostituendo tutte le probabilità con le loro stime (i conteggi corrispondenti divisi per N, il numero di coppie emesse), la parte destra della disuguaglianza torna di nuovo ad essere la CH74 definita in (33). Quando sussiste un’invarianza rotazionale e le impostazioni del rilevatore sono selezionate con le differenze tutte uguali a φ o 3φ (per qualche angolo φ), si applicano dei casi speciali delle disuguaglianze di Bell. Essi sono facilmente derivabili dalle formulazioni generali di Clauser (Clauser, 1978). La disuguaglianza CH74 può essere ulteriormente contratta nei test
  • 52. di Bell che implicano la polarizzazione in una forma nota come disuguaglianza di Freedman (se c'è una simmetria sufficiente nell'esperimento e φ è scelto per essere π/8). Secondo Clauser e Horne (Clauser, 1974), la disuguaglianza CHSH a due canali, può essere considerata una conseguenza della disuguaglianza CH74 (Clauser, 1974). Quest’ultima (e i suoi relativi test di verifica), è stata utilizzata in tutti gli esperimenti di Bell degli anni Settanta e anche in quelli successivi; in particolar modo in due esperimenti di Alain Aspect (Aspect, 1981, 1982b). I primi esperimenti, a partire da quelli di Freedman e Clauser (Freedman, 1972), sebbene quasi tutti violassero la disuguaglianza, non furono accettati come prove convincenti per l'entanglement quantistico; ciò a causa di potenziali “scappatoie” (loopholes) inerenti al principio di località, che non hanno potuto essere completamente escluse. La caratteristica importante della disuguaglianza CH74 è, come sottolineato sia nel documento del 1974 che nel rapporto del 1978 sui test di Bell di Clauser e Shimony (Clauser, 1978), che non richiede la conoscenza di N (ovvero il numero di coppie emesse). Allo stesso modo non richiede l'ipotesi di "campionamento equo" che viene utilizzata per aggirare il problema di non conoscere N nella versione attualmente accettata del test CHSH. Alain Aspect è tra coloro che citano la precedente, indiretta, derivazione della disuguaglianza CH74 ed hanno l'impressione che richieda la giusta ipotesi di campionamento. In un esauriente articolo che descrive i suoi tre esperimenti di Bell (Aspect, 2004), egli trasmette l'impressione che il test CH74 sia generalmente inferiore; in parte perché non segue così da vicino lo schema originale di Bell ma anche a causa delle forti supposizioni che ritiene siano necessarie. Il test CH74 è infatti perfettamente valido a pieno titolo. A prescindere dalle ipotesi standard del realismo locale, la versione pratica (omogenea) del test CH74 richiede solo un'ipotesi in più: quella di "nessun miglioramento" (37a; 37b; 38). Questa ipotesi sembra ragionevole per motivi fisici, fintanto che vengono evitate
  • 53. evidenti cause di distorsione. Alcuni realisti locali, tuttavia, si sono opposti al test CH74. Per un motivo o per l’altro, è il test CHSH che è stato accettato come standard, da quando Aspect lo ha usato per la prima volta nel secondo (Aspect, 1982a) dei suoi tre famosi esperimenti. Gli esperimenti di Alain Aspect e colleghi Alain Aspect e il suo team di Orsay (Parigi), hanno condotto tre test di Bell utilizzando fonti a cascata di calcio. Per il primo e per l'ultimo test, hanno usato la disuguaglianza CH74. Il secondo era la prima applicazione della disuguaglianza CHSH. Il terzo (e più famoso) era organizzato in modo tale che la scelta tra le due impostazioni su ciascun lato fosse fatta durante il volo dei fotoni (come originariamente suggerito da John Bell). Gli esperimenti di Aspect, dopo il primo esperimento di Stuart Freedman e John Clauser nel 1972, sono stati considerati come un ulteriore supporto alla tesi che le disuguaglianze di Bell, vengono violate nella versione CHSH. Tuttavia, i suoi risultati non erano del tutto conclusivi poiché c'erano scappatoie (loopholes) che permettevano spiegazioni alternative, conformi al realismo locale. Aspect, insieme ai suoi colleghi, cercò di creare apparati sperimentali più complessi in confronto a quelli usati fino ad allora. Sfruttando la stessa sorgente, Aspect eseguì tre diversi esperimenti: 1) L’esperimento con polarizzatori a canale singolo 2) L’esperimento con polarizzatori a doppio canale 3) L’esperimento con polarizzatori variabili nel tempo Quest’ultimo in particolare (il terzo), può essere considerato come l’esperimento più preciso ed efficace, a cui gli altri due si possono ricondurre. Vediamo dunque in dettaglio questo importante esperimento.
  • 54. Come sorgente comune a tutti e tre gli apparati sperimentali, Aspect utilizzò l’eccitazione a due fotoni della cascata atomica del Calcio: (39) 4 ( ) → 4 4 → 4 ( ) Un processo ad alta efficienza e molto stabile che emette due fotoni visibili v1 e v2 entangled in polarizzazione (v. fig. 2.3.). Figura 2.3. Eccitazione a due fotoni della cascata atomica del Calcio, utilizzata come sorgente per gli esperimenti di Aspect. L’eccitazione della cascata viene prodotta con due diversi laser aventi polarizzazioni parallele e focalizzati perpendicolarmente sul fascio atomico di Calcio. Un primo ciclo di retroazione controlla la lunghezza d’onda del laser, per avere il massimo segnale di fluorescenza; un secondo ciclo invece controlla la potenza del laser per stabilizzare l’emissione di fotoni. In questo modo Aspect riuscì ad ottenere una sorgente che fosse la più stabile ed efficiente possibile, con una velocità di cascata di 4 x 107 coppie di fotoni al secondo, utilizzando solo 40mW per ciascun laser. Va ricordato che, con la dicitura “a canale singolo”, si intende l’atto di porre di fronte a ciascun polarizzatore, un
  • 55. polarizzatore lineare che trasmette i fotoni polarizzati parallelamente agli assi del polarizzatore stesso; bloccando invece quelli polarizzati perpendicolarmente (in tal caso viene misurato solo il valore +, per ciascun fotone delle coppie emesse dalla sorgente). In termini matematici, quindi, l’utilizzo di polarizzatori a canale singolo, permette di determinare il solo risultato: (40) R (a+, b+) = R (a, b) poiché non si sa se il risultato -1 per un fotone, sia dovuto effettivamente al fatto che la sua polarizzazione è ortogonale agli assi del polarizzatore o se è dovuto ad una scarsa efficienza del sistema di conteggio. Si richiedono quindi raccolte ausiliari di dati, con uno o entrambi i polarizzatori rimossi, trovando in questo modo le seguenti quantità: (41a) R(∞, ∞) = R0 (41b) R(a+, ∞) = R1(a) (41c) R(∞, b+) = R2(b) Ed elaborando opportunamente la generalizzazione del teorema di Bell, si ottiene la seguente disuguaglianza: (42) −1 ≤ = [ ( , ) + (a′, b) + R(a′, b′) – R(a, b′) – R1(a′) – R2(b)] ≤ 0 Questa breve digressione è necessaria poiché nell’esperimento con i polarizzatori variabili nel tempo si farà uso di questa disuguaglianza; per cui il range da violare è [-1; 0], anziché di quella CHSH con range [-2; 2].
  • 56. Come già accennato poc’anzi, l’esperimento più interessante eseguito da Alain Aspect è quello in cui sono stati utilizzati polarizzatori a disposizione variabile. Dal momento che l’assunzione del principio di località è ragionevole ed intuitiva, ma non è prescritta da alcuna legge fisica (se non dalla Relatività Ristretta; ma come si avrà modo di appurare a breve, essa non verrà intaccata), gli esperimenti di questo tipo sono di fondamentale importanza. Infatti si potrebbe pensare che gli analizzatori fissi possano essere disposti lungo le rispettive direzioni, abbastanza in anticipo da consentire loro di comunicare mediante uno scambio di segnali con velocità minore o uguale a quella della luce. Se tali interazioni esistessero, non sarebbero più valide le disuguaglianze di Bell (che hanno proprio come ipotesi la non dipendenza di una misurazione, dal modo in cui viene disposto l’altro apparato sperimentale). Figura 2.4. Schema dell’esperimento a disposizione variabile con commutatori ottici (CI e CII ); ciascuno seguito da due polarizzatori orientati in due diverse direzioni. Nell’apparato sperimentale utilizzato e mostrato in figura 2.4., ciascun polarizzatore è sostituito da un’apparecchiatura composta da un dispositivo di commutazione, seguito da due polarizzatori posizionati in due diverse posizioni: a e a′ dal lato I e b e b′ dal
  • 57. lato II. Ciascuna apparecchiatura corrisponde ad un polarizzatore variabile, commutato rapidamente tra due orientazioni. Infatti la commutazione tra i due canali (e quindi il cambiamento di orientazione dell’equivalente polarizzatore variabile), avviene in 10 nanosecondi. Considerato che tale intervallo di tempo (10 ns) e il tempo di vita medio del livello intermedio della cascata atomica (5 ns) sono piccoli in confronto a (40 ns), la rilevazione di un evento su un lato e il corrispondente cambiamento di orientazione sull’altro lato, sono separati da un vettore di tipo spazio (ovvero sono due eventi in posizioni opposte rispetto a un vettore di tipo luce). La commutazione della luce è effettuata da interazione acustico-ottica, con un’onda stazionaria ultrasonica nell’acqua. L’angolo di incidenza (angolo di Bragg) e la potenza acustica sono regolati in modo da ottenere una commutazione completa. Tuttavia, con i grandi fasci utilizzati, la commutazione non era completa poiché l’angolo di incidenza non era esattamente l’angolo di Bragg. Dunque, per ottenere una miglior commutazione, venne ridotta la convergenza dei fasci; il che portò ad un tasso di coincidenze rilevate, minore rispetto a quello dei precedenti esperimenti. Tutto ciò ha portato a tempi di misurazione maggiori e risultati che violano ancora una volta la disuguaglianza (42) e che sono in completo accordo con la meccanica quantistica. Infatti Aspect e colleghi, per misurazioni ad angoli θab = θba′ = θ a′b′ = 22,5° hanno trovato il seguente risultato: Sexp = 0,101 ± 0,020 Quando il valore predetto dalla meccanica quantistica è: SQM = 0,112 Gli esperimenti di A. Aspect sono una prova sperimentale ma fondamentale del disaccordo tra la meccanica quantistica e le teorie locali a variabili nascoste. Da tale esperimento è dunque