Bell-TestEin Bell-Test (auch: Bell-Experiment oder Test der Bell'schen Ungleichung) ist ein physikalisches Experiment, das dazu dient, zwischen den Vorhersagen der Quantenmechanik und denen lokal-realistischer Theorien (auch als Lokale-Verborgene-Variablen Theorien bezeichnet) zu unterscheiden. Der Test weist die Verletzung einer Bellschen Ungleichung nach. Diese Ungleichung wird von allen lokal-realistischen Theorien erfüllt, sie wird aber von verschränkten Systemen der Quantenmechanik verletzt. Bell bewies 1964, dass die Resultate bestimmter Experimente (der später so genannten Bell-Tests) quantifizierbaren Einschränkungen unterliegen, wenn sich die untersuchten Systeme gemäß den Annahmen des lokalen Realismus verhalten. Diese Einschränkungen werden von den Vorhersagen der Quantenmechanik für verschränkte Systeme verletzt. Wenn ein solcher Bell-Test im Labor ausgeführt wird und die erhaltenen Resultate diesen Einschränkungen nicht genügen, dann sind die Ergebnisse mit der Hypothese lokaler verborgener Variablen nicht konsistent und stützen damit die Position, dass es nicht möglich ist, eine lokal-realistische Erklärung für die beobachteten und von der Quantenmechanik beschriebenen Phänomene zu finden. Seit den frühen 1970er Jahren sind eine Vielzahl solcher Tests auf der ganzen Welt durchgeführt worden und haben jeweils Ergebnisse in Übereinstimmung mit der Quantenmechanik geliefert. Über die Jahre wurden die Experimente immer weiter verbessert, um sogenannte „Schlupflöcher“ zu schließen. Damit werden Abweichungen des tatsächlichen experimentellen Aufbaus von den idealen Voraussetzungen, auf denen der Beweis der Bellschen Ungleichung beruht, bezeichnet. Eine solche Abweichung ist beispielsweise, dass die Detektoren nicht alle Teilchen detektieren oder dass die Wahl der Messeinstellungen und die Messereignisse nicht raumartig voneinander getrennt sind (siehe auch den Abschnitt Schlupflöcher weiter unten). Im Jahr 2015 wurden die ersten als „schlupflochfrei“ bezeichneten Experimente publiziert. ÜbersichtDer Bell-Test hat seinen Ursprung in der Debatte zwischen Albert Einstein und anderen Pionieren der Quantenphysik, vor allem Niels Bohr. Einer der debattierten Aspekte der Theorie der Quantenmechanik war die Bedeutung der Heisenbergschen Unschärferelation. Diese besagt, dass es Eigenschaften gibt, deren genaue Kenntnis die genaue Kenntnis bestimmter anderer Eigenschaften desselben physikalischen Systems ausschließt. Nach der Unschärferelation können zum Beispiel Ort und Impuls eines Teilchens nicht gleichzeitig mit beliebig hoher Genauigkeit bestimmt werden. 1935 veröffentlichten Einstein, Boris Podolsky und Nathan Rosen einen Artikel,[1] in dem sie argumentierten, dass dies die Folge einer nur unvollständigen Beschreibung der Realität durch die Quantenmechanik sei. In einem Gedankenexperiment betrachteten sie dazu einen verschränkten Zustand zweier Teilchen, in dem die Summe der beiden Ortskoordinaten und die Differenz der beiden Impulse jeweils einen genauen Wert annehmen.[2] Wegen der strengen Korrelation zwischen beiden Systemen ließen sich nun durch Messung am zweiten Teilchen entweder Ort oder Impuls des ersten Teilchens genau bestimmen. Das ist gemäß der Quantenmechanik selbst dann möglich, wenn die beiden Teilchen sehr weit voneinander entfernt sind. Einstein und Koautoren sahen hier ein Paradoxon, das nach den drei Autoren als „EPR-Paradoxon“ bekannt wurde. Es ergibt sich, wenn man einerseits annimmt, dass sichere Vorhersagen der Theorie (wie zum Beispiel die des Impulses von Teilchen 1 nach einer Impulsmessung am Teilchen 2) ein „Element der Realität“ darstellen und andererseits Elemente der Realität nicht mit Überlichtgeschwindigkeit verändert oder beeinflusst werden können. Denn je nach Messung am Teilchen 2 erfüllt dann entweder der Wert des Orts oder der des Impulses von Teilchen 1 die von EPR an ein „Element der Realität“ gestellten Forderungen, und das unabhängig davon, wie weit die beiden Teilchen voneinander entfernt sind. Die drei Autoren schlossen daraus, dass die Quantenmechanik nicht vollständig sein könne und dass es eine ihr zugrundeliegende genauere Theorie geben müsse, die alle Elemente der Realität repräsentiere und unter Einhaltung des Lokalitätsprinzips die Vorhersagen der Quantenmechanik statistisch reproduziere. Solche Modelle werden als Lokale-Verborgene-Variablen-Modelle (LVV) bezeichnet. In einer Theorie der verborgenen Variablen, wie Einstein sie sich vorstellte, wären die Zufälligkeit und Unbestimmtheit, die im Verhalten der Quantenteilchen zu beobachten sind, nur scheinbar. Wenn man zum Beispiel die Details aller verborgenen Variablen eines Teilchens kennen würde, könnte man sowohl seine Position als auch seinen Impuls vorhersagen. Die Unschärfe, die durch das Heisenbergsche Prinzip quantifiziert wird, wäre lediglich ein Artefakt, das sich daraus ergibt, dass man keine vollständigen Informationen über die verborgenen Variablen hat. Außerdem argumentierte Einstein, dass die verborgenen Variablen der Bedingung der Lokalität gehorchen sollten: Unabhängig davon, wie die verborgenen Variablen tatsächlich beschaffen sind, sollte ihr Verhalten für ein Teilchen das Verhalten der Variablen für ein anderes, weit entferntes Teilchen nicht unmittelbar beeinflussen können. Diese Idee, das so genannte Lokalitätsprinzip, beruht auf einer Grundlage der relativistischen Physik, dass sich Wechselwirkungen nicht schneller als mit Lichtgeschwindigkeit im Raum ausbreiten. Diese Ideen waren Gegenstand ständiger Debatten zwischen ihren Befürwortern. Insbesondere war Einstein selbst mit der Art und Weise, wie Podolsky das Problem in der berühmten EPR-Arbeit dargelegt hatte, nicht einverstanden.[3][4] 1964 stellte John Stewart Bell sein heute berühmtes Theorem auf, dass keine physikalische Theorie mit verborgenen lokalen Variablen jemals alle Vorhersagen der Quantenmechanik reproduzieren kann. Das Theorem impliziert die Aussage, dass der Determinismus der klassischen Physik grundsätzlich nicht in der Lage ist, die Quantenmechanik zu beschreiben. In Folgearbeiten erweiterte Bell das Theorem und schuf die konzeptionelle Grundlage für die Bell-Test-Experimente. Bei einem typischen solchen Experiment werden Teilchenpaare, häufig Photonen, in einem verschränkten Zustand erzeugt und je eines der Teilchen zu einem von zwei voneinander entfernten Detektoren gesendet, mit denen bestimmte Eigenschaften der Teilchen, z. B. ihr Spin, gemessen werden. Um die beiden Detektoren voneinander zu unterscheiden, bezeichnet man sie oft in Anlehnung an Alice und Bob mit A und B. Der Zustand des Teilchenpaars und die Messungen sind so gewählt, dass Quantenmechanik und Lokaler Realismus verschiedene Vorhersagen machen. Die Ergebnisse des Experiments können dann mit den Vorhersagen des lokalen Realismus und den Vorhersagen der Quantenmechanik verglichen werden, um eine der beiden Beschreibungsweisen zu falsifizieren. Theoretisch könnten die erhaltenen Ergebnisse „zufällig“ mit beiden Modellen vereinbar sein (da in beiden Modellen statistische Schwankungen auftreten und nicht unendlich viele Messungen gemacht werden können). Um dieses Problem zu lösen, schlug Bell eine mathematische Beschreibung des lokalen Realismus vor, die eine statistische Grenze für die Wahrscheinlichkeit dieser Eventualität setzt. Wenn die Ergebnisse eines Experiments gegen die Bellsche Ungleichung verstoßen, können lokale versteckte Variablen als Ursache mit zunehmender Gewissheit ausgeschlossen werden, je mehr Messungen eine Verletzung dieser Ungleichung zeigen. Spätere Forscher bauten auf Bells Arbeit auf, indem sie neue Ungleichungen vorschlugen, die demselben Zweck dienen und die Grundidee auf die eine oder andere Weise verfeinern.[5][6][7][8] Folglich kann der Begriff „Bell-Ungleichung“ eine beliebige von mehreren Ungleichungen bezeichnen, die von allen Theorien lokaler verborgener Variablen erfüllt werden. In der Praxis verwenden viele heutige Experimente die CHSH-Ungleichung (nach John Clauser, Michael Horne, Abner Shimony und Richard Holt). Alle diese Ungleichungen, wie auch die ursprüngliche von Bell entwickelte, bringen die Idee zum Ausdruck, dass die Annahme eines lokalen Realismus die statistischen Ergebnisse von Experimenten an Teilchenmengen, die an einer Wechselwirkung teilgenommen haben und dann getrennt wurden, einschränkt. Bislang haben alle Bell-Tests die Theorie der Quantenphysik gestützt und nicht die Hypothese der lokalen verborgenen Variablen. Optische Bell-Test-ExperimenteIn der Praxis wurde in den meisten bisher durchgeführten Experimenten Licht verwendet, das in Form von teilchenförmigen Photonen (erzeugt durch eine Atomkaskade oder durch spontane parametrische Abkonversion) emittiert wurde, und nicht, wie es Bell ursprünglich im Sinn hatte, Atome. Die interessierende Eigenschaft ist in den bekanntesten Experimenten die Polarisationsrichtung, obwohl auch andere Eigenschaften verwendet werden können. Solche Experimente lassen sich in zwei Klassen einteilen, je nachdem, ob die verwendeten Analysatoren einen oder zwei Ausgangskanäle haben. Ein typisches Zwei-Kanal (CHSH) ExperimentDas Diagramm zeigt ein typisches optisches Experiment mit zwei Kanälen wie das von Alain Aspect aus dem Jahr 1982.[9] Koinzidenzen (gleichzeitige Detektion von je einem Photon am Detektor bei A und bei B) werden aufgezeichnet, wobei die Ergebnisse als „++“, „+−“, „−+“ oder „−−“ kategorisiert und die entsprechenden Zählungen kumuliert werden. Damit kann eine Verletzung der CHSH-Ungleichung nachgewiesen werden. Es werden vier getrennte Unterversuche durchgeführt, je einer für die vier Einstellungen der beiden Detektoren. Für den Detektor bei A werden die Einstellungen und verwendet und für den bei B und . Diese werden in der Regel so gewählt, dass den Winkeln 0, 45°, 22,5° bzw. 67,5° entsprechen. Diese „Bell-Test-Winkel“ sind diejenigen, für die die quantenmechanische Formel die größte Verletzung der CHSH-Ungleichung ergibt. Für jede der vier Einstellungen werden der folgende Ausdruck aus den Koinzidenzzahlen gebildet: Aus diesen experimentellen Werten lässt sich dann eine Abschätzung der Teststatistik S bestimmen Wenn betragsmäßig größer als 2 ist, ist die CHSH-Ungleichung verletzt. Damit falsifiziert das Experiment alle lokalen Verborgene-Variablen-Modelle. Die quantenmechanische Vorhersage ist (für Photonen im für die Verletzung dieser Ungleichung optimalen, maximal verschränkten Bell-Zustand) ist . In der Praxis werden in Experimenten mit Photonen nicht alle in der Quelle erzeugten Photonenpaare auch detektiert. Das verletzt eine der Annahmen, unter denen die CHSH-Ungleichung abgeleitet wurde. Damit verwendet werden kann, um lokalen Realismus auszuschließen, muss entweder der Anteil der nicht-detektierten Photonen sehr klein sein oder man muss zusätzlich annehmen, dass die Stichprobe der nachgewiesenen Paare repräsentativ für die von der Quelle ausgesandten Paare ist. Dass diese Annahme möglicherweise nicht zutrifft, ist das fair-sampling-Schlupfloch, das erst 2015 nach über 40 Jahren Bell-Tests geschlossen werden konnte. Ein typisches CH74 (Ein-Kanal-) ExperimentVor 1982 nutzten alle realisierten Bell-Tests „Ein-Kanal“-Setups und Variationen der für diesen Fall abgeleiteten Ungleichung, die in dem vielzitierten Artikel von Clauser, Horne, Shimony und Holt von 1969 als die geeignetste für den praktischen Gebrauch genannt wird.[5] Wie beim CHSH-Test gibt es vier „Teilexperimente“, in welchen jeder der zwei Polarisationsfilter eine von zwei möglichen Einstellungen hat. Aber es werden zusätzlich Experimente durchgeführt, in denen je einer der Filter oder beide fehlen. Für all diese Einstellungen werden Koinzidenzen gezählt und für die Teststatistik verwendet. wobei das Symbol für das Fehlen des Polarisationsfilters steht. Wenn größer ist als 0, sagt man, dass das Experiment die Bellsche Ungleichung verletzt und daher „den lokalen Realismus widerlegt“ habe. Um die Ungleichung auf Experimente mit Photonen anwendbar zu machen, mussten CHSH in ihrer Arbeit von 1969 eine zusätzliche Annahme treffen, die sogenannte „fair Sampling“-Annahme, dass die Wahrscheinlichkeit der Erkennung eines bestimmten Photons, sobald es den Polarisator passiert hat, unabhängig von der Polarisatoreinstellung (einschließlich der Einstellung „Abwesenheit“) ist. Wenn diese Annahme verletzt würde, könnte ein LVV-Modell im Prinzip die CHSH-Ungleichung verletzen. Diese Annahme war 1969 (und für Jahrzehnte danach) in der Praxis nötig, da Photonendetektoren oft nur einen sehr kleinen Anteil der emittierten Photonen detektierten und man annehmen musste, dass die detektierte Untermenge nicht speziell ausgewählt wurde, um die CHSH-Ungleichung zu verletzen. Wenn man das berücksichtigt, lässt sich zeigen, dass für Detektionswahrscheinlichkeiten unterhalb von 83 % kein Widerspruch mehr zwischen Quantenmechanik und lokalem Realismus vorliegt.[10] In einem späteren Artikel aus dem Jahr 1974 ersetzten Clauser und Horne diese Annahme durch die schwächere Annahme „keine Verbesserung“ und leiteten eine modifizierte Ungleichung ab, die das mögliche Resultat „keine Detektion“ enthält (jetzt gibt es auf jeder Seite und bei jeder Detektoreinstellung drei mögliche Resultate) und nun für alle Detektoreffizienzen gilt. Eine Verletzung der Ungleichung durch die Quantenmechanik setzt eine Effizienz von mindestens 2/3 voraus.[11][10] Annahmen über das Experiment und SchlupflöcherDamit ein Experiment ein Bell-Test sein kann, ist es entscheidend, dass die mathematischen Annahmen, auf denen die Ableitung der Bellschen Ungleichung beruht, durch den experimentellen Aufbau garantiert sind. Das heißt konkret, dass die beiden Messungen raumartig voneinander getrennt sind, sodass sie sich nicht gegenseitig beeinflussen können, und dass die Wahl der Einstellungen beider Detektoren unabhängig voneinander und unabhängig von der Zustandspräparation erfolgt. Weiterhin wird üblicherweise in der Ableitung der Bellschen Ungleichung angenommen, dass die Messungen zweiwertige (dichotome) Observable realisieren, und also immer entweder den einen oder den anderen von zwei Messwerten liefern. Das beinhaltet insbesondere, dass sie alle detektiert werden. Es gibt aber auch Bell-Ungleichungen ohne diese Annahme. In den tatsächlich durchgeführten Experimenten waren diese Voraussetzung nicht immer alle sichergestellt. Man spricht dann von „Schlupflöchern“ (engl. loopholes), die eine hypothetische lokal-realistische Theorie ausnutzen könnte, um die experimentellen Ergebnisse zu reproduzieren. Die drei in der Entwicklung der Bell-Tests wichtigsten Schlupflöcher sind die folgenden:[10][12]
In manchen Experimenten lagen noch andere Schlupflöcher vor.[10] Im Laufe von fast 50 Jahren seit 1972 wurden die Schlupflöcher geschlossen bzw. immer weiter verengt, aber bis 2015 konnten die Ergebnisse aller Experimente, die eine Bell-Ungleichung verletzten, theoretisch immer noch durch hypothetische lokal-realistische Modelle erklärt werden, die das Lokalitäts- oder das Fair-Sampling-Schlupfloch ausnützten. Im Jahr 2015 wurde dann erstmals Bell-Verletzungen publiziert, bei der beide Schlupflöcher gleichzeitig geschlossen waren.[13][14] Das erste dieser Experimente nutzte die verschränkten Spins von zwei Fehlstellen in Diamanten in zwei 1,3 km voneinander entfernten Labors,[15] die beiden kurz darauf zeitgleich veröffentlichten Experimente verwendeten verschränkte Photonen und erreichten eine viel größere statistischen Signifikanz.[16][17] Die verbleibenden möglichen Theorien, die dem lokalen Realismus gehorchen, können durch verfeinerte Experimente weiter eingeschränkt werden. In der Hauptsache geht es dabei um das Wahlfreiheitsschlupfloch. Um es auszunutzen, müssen lokal-realistische Theorien eine Abhängigkeit der Detektoreinstellungen von den verborgenen Variablen beschreiben. Indem man die Detektoreinstellung von anderen, mit den verschränkten Teilchen augenscheinlich nicht in Zusammenhang stehenden physikalischen Prozessen abhängig macht, kann man die Anforderungen, die eine solche Theorie erfüllen müsste, erhöhen. Vorgeschlagen und umgesetzt wurden hier einerseits Vorschläge, die Einstellungen vom Zustand von Photonen abhängig zu machen, die von fernen astronomischen Objekten ausgesandt wurden[18] und andererseits die Verwendung von Menschen zur Generierung der Messeinstellungen.[19] Trotz aller Mängel der realisierten Experimente zeigt sich eine bemerkenswerte Tatsache: Die Ergebnisse entsprechen alle in sehr guter Näherung den Vorhersagen der Quantenmechanik. Wenn unvollkommene Experimente eine so hervorragende Übereinstimmung mit Quantenvorhersagen liefern, stimmen die meisten praktizierenden Quantenphysiker mit John Bell darin überein, dass die Bell-Ungleichungen auch dann verletzt würden, wenn ein perfekter Bell-Test durchgeführt würde. Diese Haltung hat zur Entstehung eines neuen Teilgebiets der Physik geführt, das heute als Quanteninformationstheorie bekannt ist.[20] Eine der wichtigsten Errungenschaften dieses neuen Zweigs der Physik ist der Nachweis, dass die Verletzung der Bellschen Ungleichungen zur Möglichkeit für eine quantitativ überprüfbar abhörsichere Informationsübertragung führt (Quantenkryptographie). Dieser Zusammenhang wurde erstmals 1991 von Artur Ekert in seinem Vorschlag für ein Verfahren zum Quantenschlüsselaustausch hergestellt und ist heute zentral für das Konzept der geräteunabhängigen Sicherheit (device-independent security) von Quantenkommunikationssystemen.[21] Auswahl bedeutsamer ExperimenteIm Laufe der letzten knapp fünfzig Jahre wurde eine große Anzahl von Bell-Tests durchgeführt.[22] Die Ergebnisse dieser Experimente bestätigten die Vorhersagen der Quantenmechanik und waren mit Modellen lokaler verborgener Variablen nur Ausnutzung verschiedener Schlupflöcher kompatibel und werden daher üblicherweise dahingehend interpretiert, dass sie lokale verborgene Variablen ausschließen bzw. unplausibel machen. Die ersten Experimente, die gleichzeitig das Lokalitäts- und das Fair-Sampling-Schlupfloch schließen, wurden 2015 veröffentlicht.[15][16][17] Ein Experiment ist frei vom Lokalitätsschlupfloch, wenn für jede Messung die Wahl und Einstellung des Detektorsettings in jedem Arm des Experiments raumartig getrennt sind von der Messung im anderen Arm, das heißt, wenn das Setting in einem Arm das Messergebnis im anderen nach der speziellen Relativitätstheorie nicht beeinflussen kann. Ein Experiment schließt das Fair-Sampling-Schlupfloch, wenn ein hinreichend großer Anteil der Experimente zu Messergebnissen in beiden Armen des Experiments führt.[23][24] Zu den bekanntesten und neuesten Experimenten zählen: Freedman und Clauser (1972)Stuart J. Freedman und John Clauser waren die ersten, die einen Bell-Test ausführten. Sie benutzten Freedmans Ungleichung, eine Variante der CH74-Ungleichung.[25] John Clauser erhielt 2022 für diese Arbeiten den Nobelpreis für Physik.[26] Aspect et al. (1982)Alain Aspect und sein Team in Orsay bei Paris, führten drei Bell-Test-Experimente durch, in denen sie eine Zwei-Photonen-Kaskade in Kalziumatomen als Quelle verschränkter Photonen verwendeten. Das erste und dritte ihrer Experimente nutze ebenfalls die CH74-Ungleichung, während das zweite die CHSH-Ungleichung verwendete. Im dritten (und bekanntesten) der Experimente erfolgte die Einstellung der Detektoren während sich die Photonen schon auf dem Weg zu den Detektoren befanden.[27][28] Alain Aspect erhielt 2022 für diese Arbeiten den Nobelpreis für Physik.[29] Tittel et al. (1998)Die Genfer Bell-Test-Experimente zeigten, dass Verschränkung auch über große Distanzen erhalten bleiben kann. Es wurde Licht durch Glasfaserkabel über Distanzen von einigen Kilometern übertragen, bevor es gemessen wurde. Wie in fast allen Bell-Experimenten seit 1985 wurde der Prozess der parametrischen Abkonversion (englisch: parametric down-conversion (PDC)) als Quelle verschränkter Photonen verwendet.[30][31] Weihs et al. (1998): Experiment unter strengen Einstein-Lokalitäts-BedingungenGregor Weihs und ein Team unter der Führung von Anton Zeilinger führten an der Universität Innsbruck ein Experiment durch, welches das Lokalitätsschlupfloch in einer gegenüber dem Aspect-Experiment verbesserten Weise schloss, indem die Detektorstellung durch einen physikalischen, auf einer Quantenmessung beruhenden Zufallsgenerator festgelegt wurde (statt durch einen Pseudozufallszahlengenerator). In diesem Test wurde die CHSH-Ungleichung um über 30 Standardabweichungen verletzt und stimmten mit den Vorhersagen der Quantentheorie überein.[32] Pan et al. (2000) Experiment mit dem GHZ-ZustandDieses an der Universität Wien durchgeführte Experiment ist das erste einer neuen Klasse von Bell-Test-artigen Experimenten, die LVV-Modelle, in einem Setting von mehr als zwei Parteien testen. Konkret wurde ein GHZ-Experiment durchgeführt, das den sogenannten Greenberger-Horne-Zeilinger-Zustand-Zustand von drei Photonen verwendet.[33] Rowe et al. (2001): erster Bell-Test ohne DetektionsschlupflochDas Detektionsschlupfloch wurde erstmals in einem Bell-Experiment mit zwei verschränkten Ionen in einer Ionenfalle in der Gruppe von David Wineland am National Institute of Standards and Technology in Boulder (Colorado) geschlossen. Dies war dank Detektionseffizienzen von weit über 90 % möglich. Allerdings war keine raumartige Trennung von Detektorsetting und Detektion gegeben.[34] Gröblacher et al. (2007) Test nicht-lokaler realistischer Theorien vom Leggett-TypEine spezielle Klasse nicht-lokaler realistischer Theorien, die von Anthony Leggett vorgeschlagen worden war, wurde durch dieses Experiment an der Universität Wien ausgeschlossen. Die Autoren ziehen den Schluss, dass selbst wenn man Nicht-Lokalität zulässt, jedes Verborgene-Variablen-Modell, das mit der Quantenmechanik konsistent ist, hochgradig kontraintuitiv sein muss.[35][36] Salart et al. (2008): Große Entfernung zwischen den DetektorenIn diesem Experiment an der Universität Genf waren die Detektoren 18 km voneinander entfernt, der bis dahin größte in einem Bell-Test erreichte Abstand. Diese Distanz stellte sicher, dass die Quantenmessungen abgeschlossen waren, bevor ein Signal von einem Detektor den anderen hätte erreichen können.[37][38] Ansmann et al. (2009): Festkörperbasierte Qubits ohne DetektionsschlupflochIn diesem Experiment an der University of California, Santa Barbara wurden mit Supraleitern und Josephson-Kontakten realisierte Phasenqubits verwendet und damit erstmals ein Bell-Test in einem Festkörpersystem durchgeführt. Da sowohl die Erzeugung des verschränkten Zustands als auch die Bell-Messung mit 100 % Effizienz erfolgten, bestand kein Detektionsschlupfloch. Da die Qubits aber nur wenige Millimeter voneinander entfernt waren, bestand das Lokalitätsschlupfloch. Die CHSH-Ungleichung wurde um 244 Standardabweichungen verletzt.[39] Giustina et al. (2013): Schließen des Detektionsschlupflochs für PhotonenFür Photonen wurde das Detektionsschlupfloch erstmal mit einem Experiment der Gruppe von Anton Zeilinger geschlossen, das hocheffiziente supraleitende transition-edge Sensoren verwendete. Damit waren Photonen das erste System, in dem alle wesentliche Schlupflöcher geschlossen werden konnten (allerdings in verschiedenen Experimenten).[40] Das mit einer kontinuierlichen Photonenquelle und nur viermal geänderten Messeinstellungen arbeitende Experiment schien zunächst dem Koinzidenzschlupfloch zu unterliegen. Eine genauere Analyse der Daten zeigte jedoch, dass dies nicht der Fall war.[41] Ein fast zeitgleiches Experiment in der Gruppe von Nicolas Gisin, gepulst und mit oft und zufällig veränderten Messeinstellungen, schloss ebenfalls das Detektionsschlupfloch und war vom Koinzidenzschlupfloch nicht betroffen.[42] Hensen et al., Giustina et al. und Shalm et al. (2015): Erste „schlupflochfreie“ Bell-TestsIm Jahr 2015 wurden innerhalb von drei Monaten von drei unabhängigen Forschergruppen in Delft, Wien und Boulder schlupflochfreie Bell-Tests publiziert.[43] Alle drei Tests schlossen sowohl das Detektions- als auch das Lokalitätsschlupfloch (und das Gedächtnisschlupfloch). Sie gelten als schlupflochfrei, da die verbleibenden Schlupflöcher (wie z. B. der „Superdeterminismus“) auf sehr exotischen Annahmen beruhen und sich der experimentellen Überprüfung entziehen. Das zuerst veröffentlichte Experiment von Hensen et al.[15] an der TU Delft benutzte Photonen, um den Spin von zwei Stickstoff-Fehlstellen-Zentren („NV-Zentren“) in zwei 1,3 km voneinander entfernten Diamanten zu verschränken und dann eine Verletzung der CHSH-Ungleichung () durch die Spins nachzuweisen. Damit widersprach es der lokal-realistischen Hypothese mit einem p-Wert von 0,039, d. h., die Wahrscheinlichkeit, das entsprechende Ergebnis in einer lokal-realistischen Welt zufällig zu messen, betrug nicht mehr als 3,9 %.[13] Die beiden kurz darauf gleichzeitig veröffentlichten Experimente von Giustina et al.[16] und Shalm et al.[17] benutzten verschränkte Photonen und wiesen eine Bell-Verletzung mit hoher statistischer Signifikanz (p-Wert ) nach. Schmied et al. (2016): Bell-Korrelationen in einem VielteilchensystemMittels eines Verschränkungszeugen für Bell-Korrelationen, der von einer für viele Parteien (nicht nur, wie im Fall der CHSH-Ungleichung, für zwei) geltenden Bell-Ungleichung abgeleitet wurde, wurden in einem Experiment an der Universität Basel erstmals Bell-Korrelationen in einem Vielteilchensystem, konkret ca. 480 kalte Atome in einem Bose-Einstein-Kondensat, nachgewiesen. Zwar waren die üblichen Schlupflöcher hier nicht geschlossen, aber das Experiment zeigt, dass Bell-Korelationen auch für Systeme großer Teilchenzahl messbar sind.[44] Handsteiner et al. (2017): „Kosmischer Bell-Test“ – Messeinstellungen durch SternenlichtDas Experiment unter der Leitung von David Kaiser (MIT) und Anton Zeilinger (IQOQI und Universität Wien) zielt auf das freedom of choice-Schlupfloch. Es geht auf einen Vorschlag von Kaiser zurück.[45] Dazu wurden die Messeinstellungen der beiden Detektoren durch Quantenmessungen an Photonen bestimmt, die von zwei verschiedenen und voneinander weit entfernten Sternen der Milchstraße stammten. Dadurch wurde sichergestellt, dass alle denkbaren kausalen Einflüsse, die das Schlupfloch ausnützen könnten (indem die Messeinstellungen nicht unabhängig von den Werten der verborgenen Variablen der verschränkten Photonen sind), mindestens über 570 Jahre in der Vergangenheit liegen müssten.[46] Das Experiment „stellt das erste Experiment dar, das den Raum-Zeit-Bereich, in dem verborgene Variablen relevant sein könnten, drastisch einschränkt“.[47][48] Rosenfeld et al. (2017): Bell-Test mit verschränkten Atomen und ohne Detektions- und LokalitätsschlupflochIn einem Experiment an der Ludwig-Maximilians-Universität München und dem Max-Planck-Institut für Quantenoptik wurde eine Bell-Ungleichung bei Messungen an verschränkten atomaren Spins in zwei 398 m voneinander entfernten Laboren verletzt. Der verschränkte Zustand wird erzeugt, indem zunächst zwei gefangene Atome mit je einem Photon verschränkt werden und die Verschränkung dann mittels einer gemeinsamen Messung der Photonen auf die Atome übertragen wird (entanglement swapping). Die Erzeugung des verschränkten Zustands wird also durch das photonische Messergebnis „angekündigt“ (heralded entanglement) und es gibt daher kein fair sampling-Schlupfloch. Detektions-, Lokalitäts- und Gedächtnisschlupfloch waren geschlossen. Die beobachtete Bell-Verletzung von erlaubte, den lokalen Realismus mit einem p-Wert von 1,02 · 10−16 zu verwerfen, wofür die Daten von sieben Monaten und insgesamt 55.000 Messereignissen verwendet wurden.[49] The BIG Bell Test Collaboration (2018): Den lokalen Realismus durch menschliche Entscheidungen herausfordernAuch dieser Bell-Test war durch das freedom-of-choice-Schlupfloch motiviert. In Zusammenarbeit von zwölf Laboren auf fünf Kontinenten wurden insgesamt 13 Bell-Experimente (auf verschiedenen Plattformen) durchgeführt, wobei die Messeinstellungen von den Entscheidungen mehrerer 10.000 Teilnehmer an einem dafür designten Onlinespiel bestimmt wurden. Die Experimente waren konsistent mit den Vorhersagen der Quantenmechanik und verletzten die getesteten Bell-Ungleichungen um mehrere (3) bis viele (>100) Standardabweichungen. Um dieses Ergebnis lokal-realistisch zu erklären, müssten verborgene Variablen die Entscheidungen der Teilnehmer geeignet miteinander korreliert haben.[50] Rauch et al (2018): Messeinstellung bestimmt durch QuasareIn diesem Experiment[51] wird der letztmögliche Zeitpunkt, zu dem lokal-realistische verborgene Variablen das freedom-of-choice-Schlupfloch ausgenutzt haben könnten auf mehr als 7,8 Milliarden Jahre in die Vergangenheit geschoben, da die Messeinstellungen des Bell-Tests durch das Licht zweier weit entfernter Quasare bestimmt wurde. Mehr als 95 % des Raumzeitvolumens in unserem Rückwärts-Lichtkegel werden dadurch als Quelle dieser Beeinflussung ausgeschlossen.[52][53] Die 2019 ausgestrahlte Episode Einstein's Quantum Riddle von PBS Nova dokumentiert diesen „kosmischen Bell-Test“ mit Aufnahmen des Forscherteams im Teide Observatorium auf den Kanarischen Inseln.[54] Einzelnachweise
Literatur
|