Künstliche Intelligenz

KI und Quantencomputer: So wollen Sicherheitsexperten die Zukunft absichern


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Noch sind Quantencomputer nicht in der Lage, gängige Verschlüsselungsmethoden zu knacken. Aber in fünf Jahren könnte das der Fall sein. Dann würden auch heute verschickte Nachrichten rückwirkend entschlüsselt werden können.

Weiterlesen nach der Anzeige

Daher arbeiten Sicherheitsexperten schon länger daran, quantensichere Lösungen zu finden. Es gehe folglich darum, kryptografische Methoden zu entwickeln, „die uns effektiv gegen Angreifer aus der Zukunft schützen“, wie die Sicherheitsexpertin Yael Tauman Kalai, Professorin am MIT, der taz erklärte.

Kalai zufolge gebe es mittlerweile „quantensichere Lösungen für praktisch alle Bereiche der Kryptografie“. Mehrere solcher Methoden seien in den USA schon zertifiziert worden. Aber: Das Upgrade von einer herkömmlichen auf eine quantensichere Verschlüsselung ist angesichts der großen, komplexen Systeme eine Herausforderung – letztlich aber eine wirtschaftliche Frage, so Kalai.

Viel größere Sorgen bereitet der Sicherheitsforscherin daher aktuell der Hype um Künstliche Intelligenz (KI). Dabei geht es nicht nur um das Halluzinieren, das etwa bei Ernährungs- und Gesundheitstipps auch durchaus gefährlich sein könne, sondern etwa auch um das Thema Datenschutz.

Hier gelte es, sich zu fragen, was die KI-Firmen mit den Informationen anstellten, die Nutzern Chatbots anvertrauten. Wie lässt sich ein Missbrauch verhindern? Und: Wie lässt sich sicherstellen, dass KI-Systeme von Terroristen nicht dazu genutzt werden, um etwa chemische oder biologische Waffen zu entwickeln?

Weiterlesen nach der Anzeige

Bei Letzterem könnten Ansätze aus der Kryptografie dazu beitragen, die Risiken zu senken, so Kalai gegenüber der taz. So müsse KI als möglicher Gegner betrachtet und ein Schutz erarbeitet werden. Dabei helfe, die Ziele zu verstehen und eine Strategie zu entwickeln, die verhindert, dass Angreifer Erfolg haben.

Für Kalai hat KI freilich auch viel positives Potenzial. Allerdings bestehe die Gefahr, dass die Entwicklung zu schnell voranschreite. „Die Technologie ist noch ganz jung, wir sind gesellschaftlich nicht bereit für sie und wissen nicht, ob KI wirklich sicher ist“, so die Sicherheitsexpertin.

Kalai hat eigenen Angaben zufolge viele Freunde, die bei Anthropic, OpenAI oder Google arbeiten; ihr Mann ist bei OpenAI angestellt. Ihr zufolge haben die Menschen dort Angst. Sie machten sich große Sorgen, „dass KI nicht sicher ist“.

Ein Ausweg wäre, wenn sich die Beteiligten weltweit zurücknehmen und ihre Rechenkraft begrenzen würden, ähnlich wie beim Atomwaffensperrvertrag. „Das würde Tempo herausnehmen und uns Zeit geben, mit den Risiken besser umzugehen“, so Kalai.

Die Sicherheitsexpertin sieht eine Chance, dass alle beteiligten großen Unternehmen sich auf eine solche Aktion einigen könnten – möglicherweise geführt von einer entsprechenden Initiative aus der Politik. Schließlich hätten ja alle dasselbe Ziel: „Wir wollen den Nutzen der KI ausschöpfen und zugleich die Risiken minimieren“.

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Beliebt

Die mobile Version verlassen