Künstliche Intelligenz
Quantenspalt aus einem Atom: Physiker schließen Lücke im Einstein-Bohr-Streit
Fast ein Jahrhundert nach der legendären Debatte zwischen Albert Einstein und Niels Bohr hat ein Team um Jian-Wei Pan von der University of Science and Technology of China das berühmte „recoiling-slit“-Gedankenexperiment in einer besonders originalgetreuen Form ins Labor gebracht. Die in der Dezemberausgabe der Physical Review Letters veröffentlichte Arbeit (eine Vorabversion ist auf arXiv.org verfügbar) schließt damit eine klar definierte Lücke: Erstmals wurde ein linear-optisches Einzelphotonen-Interferometer mit einem quantenlimitierten, durchstimmbaren „beweglichen Spalt“ realisiert – so nah an Einsteins ursprünglicher Idee wie nie zuvor.
Weiterlesen nach der Anzeige
Das Doppelspaltexperiment: „Das einzige Rätsel“
Richard Feynman nannte das Doppelspaltexperiment einst „das Herz der Quantenmechanik“ und „in Wirklichkeit das einzige Rätsel“. Schickt man einzelne Teilchen durch zwei schmale Spalte, schlagen sie punktförmig ein, wie klassische Teilchen – doch über viele Durchgänge entsteht ein Interferenzmuster, als wäre jedes Teilchen eine Welle, die durch beide Spalte gleichzeitig geht und mit sich selbst interferiert. Sobald man jedoch versucht herauszufinden, welchen Weg das Teilchen genommen hat, verschwindet das Interferenzmuster. Diese Komplementarität – Wellen- oder Teilcheneigenschaften, aber nie beides gleichzeitig – war Ausgangspunkt der berühmten Bohr-Einstein-Debatten auf der Solvay-Konferenz 1927.
Einstein schlug damals ein Gedankenexperiment vor, das die Komplementarität aushebeln sollte: Ein „beweglicher Spalt“ auf empfindlichen Federn sollte den Rückstoß registrieren, wenn ein Photon ihn passiert und dabei abgelenkt wird. Aus dem Rückstoß ließe sich der Photonenweg bestimmen – und trotzdem sollte das Interferenzmuster erhalten bleiben. Bohr konterte mit der Heisenbergschen Unschärferelation: Will man den Impuls des Spalts präzise genug messen, wird dessen Ortsunschärfe so groß, dass sie das Interferenzmuster verwischt.

Der experimentelle Aufbau:
Ein einzelnes 87Rb-Atom wird mit einer Objektivlinse mit einer numerischen Apertur von 0,55 in einer optischen Pinzette eingefangen. Eine weitere Objektivlinse sammelt gestreute Photonen in einer Einmodenfaser, die von Einzelphotonen-Zählmodulen (SPCMs) detektiert werden. Das optische System ist phasenverriegelt mit einem 1064-nm-Referenzlaser, der durch einen maßgeschneiderten dichroitischen Strahlteiler in zwei Strahlen aufgeteilt wird.
(Bild: Pan et al. / Bearbeitung heise medien)
Lücke früherer Experimente geschlossen
Zwar gab es bereits experimentelle Annäherungen an dieses Gedankenexperiment – etwa mit Molekülen und Röntgenstrahlung oder als theoretischer Ionenfallen-Vorschlag. Doch diese Ansätze zerstörten entweder den Photonenzustand, nutzten zusätzliche Freiheitsgrade oder stellten kein echtes linear-optisches Interferometer dar.
Weiterlesen nach der Anzeige
Das chinesische Team hat nun einen konzeptionell „puristischen“ Aufbau realisiert: Ein einzelnes, auf den Bewegungsgrundzustand heruntergekühltes Atom des Radioisotops Rubidium-87 in einer optischen Pinzette dient als beweglicher Spalt. Ein Photon wird daran gestreut, ohne absorbiert zu werden, und das gestreute Licht interferiert anschließend. Entscheidend ist, dass weder interne Atomzustände noch thermische Bewegung zusätzliche Weginformation liefern – das Atom fungiert als nahezu idealer quantenmechanischer Strahlteiler.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Zur Diskussion zwischen Einstein und Bohr und deren Auswirkung auf die Interpretation der Quantenphysik hat Veritasium einen hervorragenden Beitrag veröffentlicht (Englisch).
Der Übergang zwischen Quanten- und klassischer Physik
Durch Variation der Fallentiefe der optischen Pinzette lässt sich die Impulsunschärfe des Atoms zwischen 0,78 und 1,60 Photonenimpulsen einstellen und damit die Interferenzsichtbarkeit systematisch steuern. Bei geringer Fallentiefe enthält der atomare Rückstoß viel Information über den Photonenweg – Photon und Atom sind stark verschränkt, die Interferenz verschwindet. Bei tiefer Falle „verschwindet“ der Rückstoß in den Quantenfluktuationen, die Interferenz bleibt erhalten. Die gemessenen Sichtbarkeiten folgen präzise der theoretischen Vorhersage für minimale Heisenberg-Unschärfe.
Zudem konnten die Forscher quantenmechanisches Rauschen von klassischer Aufheizung trennen und so den Übergang vom quantenlimitierten zum klassisch dominierten Regime direkt beobachten – eine experimentelle Bestätigung von Bohrs Position.
Physikalisch revolutionär ist das Ergebnis nicht – die Verbindung zwischen Sichtbarkeit, Verschränkung und Komplementarität war theoretisch längst geklärt. Doch in dieser spezifischen Kombination aus Einzelphotonen-Interferometer, quantenlimitiertem Atom als beweglichem Spalt und optisch einstellbarer Impulsunschärfe gibt es kein direktes Vorbild. Es dürfte aber die bisher „sauberste Lehrbuch-Version“ von Einsteins Gedankenexperiment sein.
(vza)
Künstliche Intelligenz
Hinter der Milchstraße versteckt: Supercluster Vela deutlich größer als gedacht
Eine von der Milchstraße verdeckte gigantische Struktur aus unzähligen Galaxien ist viel größer und massereicher als angenommen. Das haben Beobachtungen mit zwei Observatorien in Südafrika ergeben, die unsere Vorstellung vom Supercluster Vela deutlich präzisieren. Diese Ansammlung mehrerer Galaxienhaufen ist demnach von vergleichbarer Größe wie der Supercluster Shapley und vereint mehr Masse in sich als Laniakea. Das ist der Supercluster, in dem sich die Milchstraße befindet. Rund 800 Millionen Lichtjahre von uns entfernt ist Vela 300 Millionen Lichtjahre lang und vereint rund 30 Millionen Milliarden Sonnenmassen in sich, erklärt die Forschungsgruppe. Die haben der Struktur den Spitznamen „Vela-Banzi“ gegeben, der Zusatz bedeutet in der südafrikanischen Sprache isiXhosa „weitreichend offenlegend“.
Weiterlesen nach der Anzeige
Massereicher als unser eigener Supercluster
Der Supercluster oder auch Supergalaxienhaufen Vela ist besonders schwer zu erforschen, weil er sich aus unserer Perspektive genau hinter der Milchstraße befindet. Deren Sterne und interstellarer Staub verhindern, dass wir auf etwa 20 Prozent des Nachthimmels einen guten Blick hinter unsere Heimatgalaxie werfen können. Das erschwert es auch, ein umfassendes Verständnis von unserer Nachbarschaft und größerer Strukturen im Universum zu bekommen. Für ihre Arbeit hat die Forschungsgruppe um Amber Hollinger von der Université Claude Bernard Lyon 1 mehr als 65.000 Distanzmessungen zu Galaxien und 8000 zur Rotverschiebung ausgewertet. Die Daten stammen demnach vom Southern African Large Optical Telescope (SALT) und dem Radioteleskop MeerKAT.
Herausgekommen ist bei der Analyse, dass Vela eine komplexe interne Struktur aufweist und aus zwei dichten Kernen besteht, die sich aufeinander zubewegen, erklärt das Team. Mit ihrer enormen Masse beeinflussen Supercluster wie Vela großflächige Verschiebungen von Materie im Universum. Die Analyse vervollständigt auch unser Bild des lokalen Universums, das demnach aus neun solchen Superclustern besteht. Unser eigener wurde erstmals 2014 beschrieben, die beiden nächsten heißen Perseus und Pisces. Die neue Beschreibung des Superclusters Vela wurde zur Veröffentlichung im Fachmagazin Astronomy & Astrophysics eingereicht.
(mho)
Künstliche Intelligenz
Reprofotografie in 240 MP: Digitalisierung eines wiederentdeckten Kunstwerks
Die farbechte und hochauflösende Digitalisierung von Kunstwerken ist eine der technisch anspruchsvollsten Disziplinen der Fotografie. Sie bildet die Brücke zwischen dem analogen Original und dessen digitaler Zukunft, sei es zur Archivierung, zur wissenschaftlichen Analyse oder, wie in diesem Fall, zur Erschaffung einer immersiven Kunsterfahrung in der virtuellen Realität. Dieses Projekt zeigt den gesamten Prozess – von der Wiederentdeckung eines Kunstwerks bis zu seiner digitalen Rekonstruktion.
Im Jahr 1915 plante der expressionistische Künstler Ernst Ludwig Kirchner die malerische Ausgestaltung eines kuppelüberwölbten Ausstellungsraums, der vom Architekturbüro Curjel & Moser in Karlsruhe entworfen worden war. Er fertigte detaillierte Skizzen der Architekturelemente und der geplanten Fresken an, doch das ambitionierte Vorhaben scheiterte an den Wirren des Ersten Weltkriegs und geriet in Vergessenheit.
Mitte 2025, mehr als ein Jahrhundert später, ereignete sich ein kunsthistorischer Glücksfall: Die Roman Norbert Ketterer Stiftung übergab dem KirchnerHAUS Museum Aschaffenburg 24 Arbeiten Kirchners. Unter diesen befand sich ein 84 mal 84 Zentimeter großer farbiger Entwurf, den Museumsleiterin Dr. Brigitte Schad als jene verschollen geglaubte Skizze für den „Runden Raum“ identifizierte. Aus dieser Wiederentdeckung entstand die Vision, Kirchners ursprüngliche Idee mit den Mitteln des 21. Jahrhunderts doch noch zu realisieren. Dies erforderte eine Digitalisierung von höchster Qualität – eine Reproduktion, die sowohl farbverbindlich als auch hochauflösend jede Nuance des Entwurfs einfängt, um ihn anschließend in die virtuelle Realität übertragen zu können.
Das war die Leseprobe unseres heise-Plus-Artikels „Reprofotografie in 240 MP: Digitalisierung eines wiederentdeckten Kunstwerks“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Digitale Rasterfahndung: Justizministerium will biometrischen Internet-Abgleich
Was Bundesjustizministerin Stefanie Hubig (SPD) aktuell als „zeitgemäße Ermittlungswerkzeuge“ präsentiert, liest sich für Bürgerrechtler wie der Bauplan für eine Infrastruktur zur Massenüberwachung. Ein am Donnerstag veröffentlichter Referentenentwurf aus Hubigs Ressort zur Änderung der Strafprozessordnung (StPO) sieht vor, den Strafverfolgungsbehörden zwei mächtige digitale Instrumente in die Hand zu geben: den automatisierten biometrischen Internet-Abgleich und den Einsatz KI-gestützter Analyseplattformen.
Weiterlesen nach der Anzeige
Hinter den technokratischen Begriffen verbirgt sich eine Zäsur: Erstmals soll es der Polizei erlaubt werden, biometrische Merkmale von Verdächtigen oder Zeugen systematisch mit der gigantischen Bilderflut des öffentlich zugänglichen Internets abzugleichen.
In sich hat es vor allem der geplante Paragraf 98d StPO, der den biometrischen Internet-Abgleich regeln soll. Die offizielle Lesart des Ministeriums ist, dass lediglich „vorhandene Daten“ durchsucht würden und keine neue Super-Datenbank entstehe. Ein Abgleich mit öffentlich verfügbaren Echtzeitdaten etwa von einer Webcam werde ausgeschlossen. Nötig sei eine „ausdrückliche Anordnung“ eines Staatsanwalts im Einzelfall – also nicht einmal eine Richtergenehmigung.
Biometrie-Abgleich: Illusion der „gezielten“ Suche
Experten wie Kilian Vieth-Ditlmann von der Organisation AlgorithmWatch halten diese Einschränkungen für eine Farce: Ein automatisierter Abgleich von Millionen Web-Bildern in Sekundenbruchteilen sei technisch unmöglich, ohne vorher eine strukturierte, durchsuchbare Datenbasis aller verfügbaren Gesichter anzulegen. Wer ein solches Werkzeug einführen wolle, müsse zwangsläufig das Internet biometrisch inventarisieren, warnt Vieth-Ditlmann auf Basis eines Gutachtens. Erfasst würden dann etwa auch private Urlaubsfotos sowie Aufnahmen von Demos und zufälliger Hintergrund-Passanten auf Social-Media-Profilen.
Damit stünde das Vorhaben in direktem Konflikt mit der KI-Verordnung der EU: Der AI Act untersagt das ungezielte Auslesen von Gesichtsbildern zur Erstellung von Datenbanken. Der Wissenschaftliche Dienst des Bundestages bestätigte bereits, dass ein systematischer Abgleich ohne eine solche vorverarbeitete Datenbasis technisch kaum realisierbar sei. Dennoch hält das Ministerium an der Darstellung fest, es handele sich nur um eine digitale Beschleunigung des „manuellen Augenscheins“. Für AlgorithmWatch ist das ein gefährlicher Euphemismus für den Aufbau einer Infrastruktur, die das Ende der Anonymität im öffentlichen Raum einläutet.
KI-Analyse: Ermittlungen in der algorithmischen Blackbox
Weiterlesen nach der Anzeige
Auch das zweite Kernstück, die automatisierte Datenanalyse nach Paragraf 98e StPO des Entwurfs, soll das „unverbundene Nebeneinander“ polizeilicher Datenbanken beenden. Hier will das Ministerium offenbar die strengen Hürden des Bundesverfassungsgerichts umschiffen, das 2023 den Einsatz der Analyse-Software des US-Anbieters Palantir in Hessen und Hamburg für in weiten Teilen verfassungswidrig erklärte. Zwar gelobt Hubig, dass „Bewertungen und Entscheidungen“ weiterhin allein durch Ermittler getroffen werden. Doch Fachleute befürchten eine schleichende Automatisierung der Justiz.
Wenn Algorithmen festlegen, welche Querverbindungen zwischen verschiedenen Ermittlungsverfahren als „relevant“ markiert werden, gerät die polizeiliche Arbeit in eine Blackbox. Vorurteile der Software (Bias) oder fehlerhafte Datenverknüpfungen könnten dazu führen, dass Unschuldige ins Visier der Behörden geraten, ohne dass die Herleitung des Verdachts im Nachhinein lückenlos nachvollziehbar wäre. Da der Gesetzentwurf auch den Einsatz von KI-Systemen unter „klar definierten Voraussetzungen“ erlauben würde, droht eine Verlagerung der Ermittlungshoheit weg vom Beamten hin zu intransparenten Software-Modulen.
Dehnbare Begriffe und Risiko des Dammbruchs
Das Justizressort rechtfertigt die vorgesehenen Grundrechtseingriffe mit der Notwendigkeit, bei Terrorismus und schwerer Kriminalität handlungsfähig zu bleiben. Doch die Definition der „erheblichen Bedeutung“ von Straftaten, die als Voraussetzung für den biometrischen Abgleich genannt wird, gilt in Juristenkreisen als weit dehnbar. Wovon sich die Politik einen „Sicherheitsgewinn“ verspricht, kommt Bürgerrechtlern einem Dammbruch gleich: Ist die Technik erst einmal installiert und rechtlich legitimiert, dürfte die Begehrlichkeit wachsen, die neuen Werkzeuge auch bei politisch unliebsamem Verhalten oder weniger schweren Delikten in Stellung zu bringen.
Das Justizministerium hat den Entwurf nach eigenen Angaben zeitgleich mit einer Vorlage des Bundesinnenministeriums für vergleichbare Befugnisse im Polizeirecht des Bundes erarbeitet. Diese gälten dann etwa für das Bundeskriminalamt (BKA) und die Bundespolizei. Das koordinierte Vorgehen unterstreicht den Willen der Bundesregierung zur digitalen Aufrüstung in diesem Bereich. Länder und Verbände haben nun bis zum 2. April Zeit, Stellung zu nehmen, bevor die Entwürfe das Bundeskabinett passieren und dann an den Bundestag und den Bundesrat gehen sollen.
Der Vorstoß knüpft an eine Debatte an, die bereits im Herbst 2024 die Republik spaltete. Damals scheiterte die Bundesregierung im Rahmen des sogenannten Sicherheitspakets teils am Widerstand des Bundesrats. Während einschlägige Maßnahmen im Bereich der Migration den Bundestag und die Länderkammer passierten, stoppte letztere die polizeilichen Kompetenzen für Big-Data-Analysen. Mit dem neuen Anlauf wollen Hubig und Innenminister Alexander Dobrindt (CSU) diese damals gescheiterten Befugnisse jetzt dauerhaft und flächendeckend verankern.
(mho)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 4 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 3 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 1 MonatEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenEMEC vereint Gezeitenkraft, Batteriespeicher und H₂-Produktion in einer Anlage
