Connect with us

Künstliche Intelligenz

Google präsentiert neuen Quantenalgorithmus „Quantum Echoes“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Weiterlesen nach der Anzeige

Ein Forschungsteam von Google Quantum AI hat einen neuen Quantenalgorithmus entwickelt, der einen verifizierbaren Quantenvorteil gegenüber herkömmlicher Hardware ermöglichen soll. Der Algorithmus trägt den Spitznamen Quantum Echoes und soll auf Googles Quantenchip Willow 13.000-mal schneller laufen als der beste bekannte klassische Algorithmus auf den schnellsten Supercomputern.

Die Ergebnisse präsentiert die Gruppe in einer Publikation im Fachmagazin Nature. Ein zur gleichen Zeit erschienenes Manuskript auf dem Preprint-Server arXiv soll die erfolgreiche Anwendung von Quantum Echoes im Bereich der NMR demonstrieren.

Quantencomputer versprechen bei bestimmten Aufgaben einen enormen Rechenvorteil im Vergleich zu herkömmlichen oder auch Supercomputern. Damit die Quantenrechner aber einen Vorteil liefern, benötigen sie spezielle Quantenalgorithmen, die Quanteneffekte geschickt ausnutzen, um ein Problem effizient zu lösen. Verbreitet ist der Shor-Algorithmus, der das mathematische Problem löst, auf dem ein Großteil der heute etablierten Verschlüsselungsverfahren basiert. Damit könnte es Quantencomputern also eines Tages gelingen, in kürzester Zeit komplexe Verschlüsselung zu knacken.


Google Quantenchip Willow

Google Quantenchip Willow

Vergangenes Jahr präsentierte Google seinen neuesten Quantenchip „Willow“. Mit seinen aktuellen Ergebnissen demonstriert die Forschungsgruppe, dass sie nicht nur Quanten-Hardware, sondern auch Software weiterentwickelt.

(Bild: Google Quantum AI)

Das sogenannte Random Circuit Sampling (RCS) ist ein weiterer Quantenalgorithmus, den Unternehmen wie Google häufig nutzen, um die Leistungsfähigkeit ihrer Quantenchips zu demonstrieren. RCS wurde allerdings speziell dafür konstruiert, die Leistungsfähigkeit von Quantencomputern zu testen. Somit ist RCS als reiner Benchmark zu verstehen, da der Algorithmus kein Problem löst, das für reale Anwendungen nützlich wäre.

Nicht so Googles neuer Quantenalgorithmus Quantum Echoes. Dieser testet nicht einfach nur die Komplexität, sondern auch die Präzision einer Quantenrechnung. Das Team verkündet, dieser Algorithmus könne bei der Lösung von realen Problemen helfen, die etwa in der Medikamenten- oder Fusionsforschung eine Rolle spielen.

Weiterlesen nach der Anzeige

Quantum Echoes soll außerdem einen verifizierbaren Quantenvorteil liefern. Das bedeutet, dass andere Forschungsgruppen den Algorithmus auf ihren eigenen Quantenrechnern ausführen, das Ergebnis des Willow-Prozessors reproduzieren und so bestätigen können. Eigenen Angaben zufolge hat Google ein unabhängiges Team beauftragt, Schwachstellen in ihrem Algorithmus zu finden, um so die Performance zu bestätigen.

Der technische Name von Quantum Echoes lautet eigentlich „Out-of-order Time Correlator (OTOC) Algorithm“. Vereinfacht gesagt ist Quantum Echoes ein Algorithmus, um die Zeit zurückzudrehen und so die Eigenschaften von Quantencomputern besser zu verstehen, Störungen nachzuverfolgen oder umzukehren.

Dafür führen die Wissenschaftler zuerst eine Reihe von Operationen auf dem Quantenchip aus. Dann stören sie eines der Qubits und diese Störung breitet sich im Quantencomputer aus. Anschließend kehren sie die Operationen um, sie führen also die Operationen aus dem ersten Schritt rückwärts in umgekehrter Reihenfolge durch – wie bei einem Echo, daher der Name des Algorithmus. Zuletzt lesen sie die Informationen aus.

Das Ergebnis verrät den Forschern, wie sich Quanteninformation und klassisches Rauschen im Quantencomputer ausbreiten. Üblicherweise sind diese beiden Effekte schwierig auseinanderzuhalten, weil alle Elemente des Quantencomputers miteinander verknüpft sind und sich verschiedene Effekte überlagern. Ihr Algorithmus verrät den Forschern, wie sich Quanteninformation in komplexen Systemen mit vielen Teilchen ausbreitet.

So können die Forscher Einblicke in mikroskopische Eigenschaften des Quantensystems gewinnen, die ein klassischer Computer nicht berechnen kann. Darin sieht das Team einen möglichen Baustein für künftige Beweise eines echten Quantenvorteils. Der Algorithmus selbst zeigt in der Nature-Publikation jedoch keinen Quantenvorteil und löst kein reales Problem.

Eine tatsächliche Anwendung schlägt das Team in einem begleitenden Manuskript auf arXiv vor. Die Arbeit basiert auf einer Kollaboration mit Forschungsgruppen aus den USA, dem Vereinigten Königreich, Kanada und Australien. Die Anwendung stammt aus dem Bereich der Kernspinresonanz (NMR, für Nuclear Magnetic Resonance). NMR ist die Grundlage für die Magnetresonanztomografie (MRT), sowie viele weitere Präzisionsmessmethoden in der Chemie, Medizin oder Geophysik.

Im betrachteten Beispiel könne Quantum Echoes als „molekulares Lineal“ dienen, um Abstände sehr präzise zu messen und Informationen über chemische Strukturen zu gewinnen. Das Team untersuchte in ihrer Arbeit zwei Moleküle mit 15 beziehungsweise 28 Atomen. Die Berechnungen mit Googles Willow stimmten mit den Vorhersagen der klassischen NMR überein. Quantum Echo liefere jedoch zusätzliche Informationen, die NMR allein nicht liefern könne.

Bessere NMR ist für viele Bereiche relevant, wie die Pharmaforschung oder Materialentwicklung, um die molekulare Struktur in Medikamenten oder Baustoffen besser und schneller zu verstehen. Die Ergebnisse des arXiv-Manuskripts wurden noch nicht von unabhängigen Experten geprüft.

„Diese neue Arbeit präsentiert den Quantencomputer als Tool, um molekulare Strukturen aufzudecken, nicht nur in der NMR, sondern in der Zukunft vielleicht auch in der Quantensensorik“, sagt Michel Devoret während einer Vorab-Präsentation der Ergebnisse. Das Team nutzt den Begriff „Quantum-Scope“, um die Weiterentwicklung von Teleskopen und Mikroskopen anzudeuten.

Devoret gewann kürzlich den Physik-Nobelpreis für die physikalischen Grundlagenexperimente, die heute die Basis für supraleitende Qubits bilden. Dies sind die Bausteine, aus denen Unternehmen wie Google oder auch IBM und das europäische IQM Quantencomputer konstruieren. Devoret ist leitender Wissenschaftler für Quantenhardware bei Google Quantum AI.

Bereits 2019 verkündete ein Forscherteam von Google, mit ihrem damaligen Quantenchip Sycamore einen Quantenvorteil demonstriert zu haben. Der Chip soll ein Problem in wenigen Minuten gelöst haben, für das ein herkömmlicher Supercomputer 10.000 Jahre gebraucht hätte. Kurz darauf wurde dieser Erfolg relativiert, als Forscher einen Weg fanden, die gleiche Rechnung mit einem effizienteren Algorithmus in wenigen Minuten auf einem herkömmlichen Computer zu lösen.

„Dieses Rennen zwischen klassischem und Quantencomputing ist ganz normal. All diese Geschwindigkeits-Vorhersagen sind Momentaufnahmen. Wir haben schon damals erwartet, dass Entwickler klassische Algorithmen beschleunigen“, sagt Hartmut Neven. „Wir erwarten, dass das auch in diesem Fall passieren wird. Aber auch die Quantentechnologie entwickelt sich weiter und die Leistungsfähigkeit von Quantencomputern wird weiter steigen.“

Google zeigt sich optimistisch, innerhalb von fünf Jahren relevante Probleme mithilfe Quantencomputern lösen zu können, die kein klassischer Computer lösen könne. Mit der Entwicklung größerer, fehlerkorrigierter Quantenrechner erwartet das Unternehmen auch, dass mehr reale Anwendungen für Quantencomputer entdeckt werden. Aktuell fokussiere sich das Team darauf, seinen dritten Meilenstein zu erreichen: ein langlebiges, logisches Qubit.


(spa)



Source link

Künstliche Intelligenz

Digital Networks Act: Glasfaser bis 2035 und Mobilfunkfrequenzen auf Dauer


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die EU-Kommission hat am Mittwoch in Straßburg ihren Entwurf des Digital Networks Act (DNA) vorgestellt. Der Gesetzesentwurf soll vier bestehende Regelungswerke zusammenfassen und die Weichen für den europäischen Telekommunikationsmarkt stellen. Es geht um zentrale Fragen wie die Migration von Kupfernetzen auf Glasfaser, Mobilfunknetze und die Netzneutralität.

Weiterlesen nach der Anzeige

Der DNA fasst auf gut 260 Seiten den European Electronic Communications Code (EECC), die Verordnung über das Gremium der europäischen Regulierungsbehörden (GEREK), Regelungen zu grenzüberschreitenden Funkfrequenzen und „Offenes Internet“ zusammen. Vieles soll einfacher, schneller und europäischer werden – und an einigen Stellen hat der DNA es in sich.

Einen großen Auftrag bringt der DNA für die deutsche Politik mit: Bis 2035 sollten so gut wie alle Anschlüsse auf Glasfaser umgestellt sein, bekräftigte die für Digitales zuständige Kommissionsvizepräsidentin Henna Virkkunen bei der Vorstellung des DNA im Europäischen Parlament in Straßburg. Bis 2029 sollen alle Mitgliedstaaten einen konkreten Plan haben, wie der Abschied vom Kupfer stattfinden solle. Ausnahmen für Fernsehkabel nannte Virkkunen nicht – und auch der Entwurf unterscheidet bei Kupfer nicht zwischen alten Teilnehmernetzen und moderneren HFC-Netzen.

Für Valentina Daiber, Präsidentin des Verbands der Anbieter im Digital- und Telekommunikationsmarkt (VATM) ist das Vorgehen das richtige Signal, zehn Jahre böten „ausreichend Planungsperspektive“. Dafür will Daiber auch die Regulierung entsprechend aufgestellt sehen: „Anbieter- und Dienstevielfalt machen Glasfasernetze für die Menschen erst attraktiv. Die Auswahl, die auf den Kupfernetzen Usus ist, muss auch auf der neuen Netzinfrastruktur erhalten bleiben.“

Denn bislang gilt: Wer ausbaut, entscheidet, ob andere auf dieser Infrastruktur etwas anbieten dürfen. Anders als bei den alten, staatlichen Kupfermonopolen gibt es bislang keine eindeutige gesetzliche Verpflichtung, Wettbewerbern einen Netzzugang zu gewähren. Verbraucher haben im schlechtesten Fall also Glasfaser – aber keinen alternativen Anbieter, mit dem sie einen Vertrag abschließen könnten.

Wie das zukünftige Regulierungsregime genau ausgestaltet sein wird, soll unter anderem vom Ergebnis eines komplizierten Mechanismus abhängen: Bei relevanter Marktmacht sollen die Aufsichtsbehörden vorab einschreiten und Regeln festlegen dürfen, wie Wettbewerber Infrastrukturen mitnutzen dürfen. Dass die Marktposition über die Regulierung entscheiden soll, begrüßt etwa auch der Breitbandverband ANGA. Eine Ausweitung der Regulierung auf alle Marktteilnehmer sieht der Verband dagegen kritisch.

Weiterlesen nach der Anzeige

Für viele harte Diskussionen dürfte eine zentrale Änderung bei der Vergabe von Funkfrequenzen sorgen: Geht es nach der EU-Kommission, werden Lizenzen für Frequenznutzung künftig ohne Laufzeitbegrenzung vergeben. Davon sollen vor allem Mobilfunkbetreiber profitieren. Die Nutzungsrechte sollen dann nicht mehr wie bisher nach mehreren Jahren neu vergeben werden – in Deutschland hatte sich dafür die Versteigerung eingebürgert. Stattdessen würden die Anbieter die Lizenzen de facto auf Dauer erwerben. Das solle den Unternehmen mehr Planungssicherheit verschaffen, erläuterte Virkkunen.

Und auch darüber hinaus will die EU-Kommission bei den Funkfrequenzen Änderungen: Nach jeder Tagung der Weltfunkkonferenz (alle zwei bis vier Jahre) soll eine gemeinsame EU-Frequenzstrategie verabschiedet werden. Das soll Einheitlichkeit herstellen – eine sinnvolle Europäisierung durch die Hintertür. Ursprünglich hätte die Kommission die Frequenzpolitik gerne vollständig zentralisiert, fand dafür aber keine Mehrheit bei den Mitgliedstaaten.

Eine der Fragen, die im Vorfeld immer wieder gestellt wurden: Wird die EU das eigene Regelwerk zur Netzneutralität noch einmal anfassen und ein sogenanntes „Fair Share“-Regime einführen, das die großen US-Plattformen verpflichtet, für die Durchleitung ihrer Daten zu bezahlen? Das ist seit Jahren ein Politikum geopolitischer Dimension – und steht zumindest mit dem Kommissionsvorschlag derzeit nicht zur Debatte.

Im Streit um die Frage, ob die Politik konkrete Regeln für Peering und Transit aufstellen muss, hat die Kommission nun erst einmal ein freiwilliges Streitbeilegungsverfahren vorgeschlagen. Für Virkkunen ist dies einer konkreten Regulierung vorzuziehen, da es sich um einen im Regelfall gut funktionierenden Markt handele.

Trotzdem befürchtet die Computer and Communications Industry Association (CCIA) Europe, in der die großen US-Inhalteanbieter und -Plattformen eine gewichtige Stimme haben, dass der DNA-Entwurf ein Schlupfloch für solche Entgelte lasse: „Dies ist kein Verfahren zur ‚freiwilligen Schlichtung‘, sondern eines, das neue Streitigkeiten hervorrufen wird“, sagt Maria Teresa Stecher vom CCIA Europe. Der Verband befürchtet, dass mit Artikel 192 des Vorschlags de facto eine Einigungspflicht herbeigeführt würde.

Über den Vorschlag der EU-Kommission werden das Parlament und der Rat in den kommenden Monaten intensiv beraten. Im Europäischen Parlament wird der Ausschuss für Industrie (ITRE) die Federführung übernehmen. Die Fachpolitiker werden sich mit dem Rat und den Fachministern der Mitgliedstaaten auf eine Regelung einigen müssen. Ob und wann das passiert, ist derzeit vollkommen offen. Für besonders umstrittene Vorhaben – und zumindest Teile des DNA gehören hier zweifelsohne dazu – können sich die Beratungen der Gremien auch über viele Jahre ziehen.


(vbr)



Source link

Weiterlesen

Künstliche Intelligenz

Gibt es Apple künftig nur noch im Abo? | Mac & i-Podcast


Apple One, iCloud+, AppleCare One und nun das Creator Studio: Mit einer wachsenden Liste an eigenen Abo-Angeboten stärkt Apple das große Geschäft mit Diensten – und lockt mehr Geld aus Kunden heraus, die bereits die teure Hardware gekauft haben. Dafür wandern jetzt neue KI-Funktionen für die lange kostenlos beigelegten Office-Apps Pages, Numbers und Keynote hinter die Abo-Schranke. Weitere Apple-Abos sind bereits am Horizont zu erahnen: Beobachter erwarten einen KI-basierten Health-Coach und Apple selbst will eines Tages für Satellitendienste abrechnen.

Weiterlesen nach der Anzeige

In Episode 113 nehmen Malte Kirchner und Leo Becker das Apple Creator Studio unter die Lupe und diskutieren, was das auf längere Sicht für die parallel weiterhin als Einmalkauf erhältlichen Profi-Anwendungen Final Cut und Logic Pro bedeutet. Wir wundern uns, was die iWork-Apps in dem Bundle eigentlich verloren haben und werfen einen Blick darauf, wie Apple Abonnements als primäres Geschäftsmodell für Software breit in den Markt gedrückt hat. Nicht zuletzt geht es um die Frage, wie sich Abonnements auf die Betriebssysteme und letztlich das Nutzererlebnis auswirken.

Der Apple-Podcast von Mac & i erscheint mit dem Moderatoren-Duo Malte Kirchner und Leo Becker im Zweiwochenrhythmus und lässt sich per RSS-Feed (Audio) mit jeder Podcast-App der Wahl abonnieren – von Apple Podcasts über Overcast bis Pocket Casts.

Zum Anhören findet man ihn auch in Apples Podcast-Verzeichnis (Audio) und bei Spotify. Wir freuen uns über Feedback, Kritik und Fragen an podcast@mac-and-i.de.


(lbe)



Source link

Weiterlesen

Künstliche Intelligenz

Neues XR-Headset Lynx-R2 setzt auf großes Sichtfeld, Datenschutz und Offenheit


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Weiterlesen nach der Anzeige

Der französische Hersteller Lynx hat mit der Lynx-R2 ein neues Standalone-Mixed-Reality-Headset angekündigt, das sich deutlich von der internationalen Konkurrenz um Apple Vision Pro, Samsung Galaxy XR und Meta Quest 3 absetzen will. Die R2 soll durch ein offenes Betriebssystem, hohe Bildqualität und umfassende Kontrolle über die Sensorik punkten und richtet sich primär an Industrie, Forschung und professionelle Nutzer.

Kernstück der R2 ist ein besonders breites Sichtfeld: Mit 126 Grad horizontal bietet Lynx deutlich mehr als bei vergleichbaren Standalone-Headsets. Die Vision Pro bietet etwa 100 Grad, während Samsung für die Galaxy XR 109 Grad angibt und die Quest 3 bei 110 Grad horizontal rangiert. Möglich wird das durch eine neue Linsentechnologie, die aus einer Zusammenarbeit mit den Linsenexperten von Hypervision hervorgegangen ist. Diese asphärischen Pancake-Linsen sollen zudem für verzerrungsfreies Sehen in der Peripherie sorgen.


Lynx R-2 Headset in Explosionsansicht: Gehäuse, Visor und MR-Linsen zeigen den modularen Aufbau der Mixed-Reality-Brille

Lynx R-2 Headset in Explosionsansicht: Gehäuse, Visor und MR-Linsen zeigen den modularen Aufbau der Mixed-Reality-Brille

Asphärische Pancake-Linsen von Hypervision sollen ein besonders breites Sichtfeld ermöglichen.

(Bild: Lynx)

Laut Hersteller liegt die Pixeldichte im Zentrum bei über 24 Pixeln pro Grad. Dieser Wert ist vor allem für medizinische und industrielle Anwendungen relevant, da er den sogenannten „Fliegengitter-Effekt“ minimiert und Details somit klarer dargestellt werden. Wie sich diese Werte tatsächlich auf die Bildqualität auswirken, müssen Tests zeigen. Auf dem Papier liegt die Lynx-R2 damit hinter Galaxy XR (etwa 40 PPD) und Vision Pro (34 PPD), aber etwa gleichauf mit Metas Quest 3 (25 PPD). Die Darstellung erfolgt über zwei 2,3K-LCDs.

Im Inneren der R2 arbeitet Qualcomms Snapdragon XR2 Gen 2, der laut Lynx eine 2,5-fache Grafikleistung und achtmal schnellere KI-Verarbeitung im Vergleich zum Vorgängermodell R1 ermöglichen soll. Zwei leise Lüfter sollen für konstante Kühlung sorgen. Für die Umgebungserfassung kommen vier Weitwinkelkameras, eine Tiefenkamera und Infrarot-LEDs zum Einsatz. Diese ermöglichen neben Raumvermessung und Handtracking auch Anwendungen wie 3D-Scans, Gaussian Splatting und objektbasiertes Tracking. Alle Funktionen sind über die OpenXR-Schnittstelle in Engines wie Unity, Unreal oder StereoKit nutzbar.

Weiterlesen nach der Anzeige

Das bekannte Flip-Up-Design des Vorgängers bleibt erhalten: Nutzer können das Visier nach oben klappen und so schnell zwischen realer und digitaler Umgebung wechseln. Der Akku ist im hinteren Teil des Kopfbands untergebracht und dient als Gegengewicht. Zusätzlich lassen sich Augenabstand und Linsenabstand individuell justieren – auch mit Brille. Reparaturen sollen ebenfalls einfacher werden: Schraubverbindungen statt Klebstoff, ein wechselbarer Akku und offizielle Wartungsanleitungen sind vorgesehen.

Lesen Sie auch

Ursprünglich sollte das Headset mit Googles Android-XR-Plattform ausgeliefert werden. Google beendete die Kooperation jedoch überraschend, wie Lynx-Gründer Stan Larroque Ende letzten Jahres gegenüber UploadVR erklärte. Stattdessen setzt Lynx nun auf ein eigenes Betriebssystem namens Lynx OS – eine quelloffene Variante von Android 14 mit vollständiger Unterstützung für OpenXR 1.1.

Der Quellcode sowie elektronische Schaltpläne und Baupläne sollen öffentlich zugänglich gemacht werden. Entwickler erhalten darüber hinaus direkten Zugriff auf Kamera- und Sensordaten, was bei den Plattformen von Meta oder Apple nicht ohne Weiteres möglich ist. Auch in Sachen Datenschutz will Lynx eigene Wege gehen: Das Gerät funktioniert vollständig offline und es besteht keine Abhängigkeit von Cloud-Diensten oder Social-Media-Konten. Besonders in Bereichen wie Verteidigung, Gesundheitswesen oder Industrie könnte dies ein nicht zu unterschätzender Vorteil sein.

Im Gegensatz zur R1 verzichtet Lynx bei der R2 auf Vorbestellungen oder Crowdfunding. Das Gerät soll erst dann erhältlich sein, wenn es auch tatsächlich ausgeliefert werden kann. Für den Bestellstart peilt Lynx die diesjährigen Sommermonate an. Noch ist der Preis nicht bekannt, soll laut Firmengründer Stan Larroque aber im mittleren Segment zwischen Meta Quest 3 (ca. 550 Euro) und Samsungs Galaxy XR (ca. 1.800 Euro) angesiedelt sein.

heise online XR-Briefing abonnieren

Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.


(joe)



Source link

Weiterlesen

Beliebt