Connect with us

Künstliche Intelligenz

Brückenschlag über den Atlantik: Deutschland und Kanada schmieden KI-Allianz


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

In der Welt der Künstlichen Intelligenz wird Geopolitik zunehmend durch Rechenleistung, Datenhoheit und ethische Leitplanken definiert. Deutschland und Kanada wollen unter diesen Vorzeichen ihre digitale Partnerschaft auf ein neues Fundament stellen, was weit mehr ist als ein diplomatischer Routineakt. Am Rande der Münchner Sicherheitskonferenz haben Bundesdigitalminister Karsten Wildberger (CDU) und sein kanadischer Amtskollege Evan Solomon am Samstag eine gemeinsame Absichtserklärung unterzeichnet. Sie soll den Weg für eine tiefe technologische Symbiose im KI-Sektor ebnen. Das Abkommen markiert den ersten großen Meilenstein der im Dezember in Montreal gegründeten Digitalallianz zwischen beiden Ländern.

Weiterlesen nach der Anzeige

Die strategische Bedeutung der geschlossenen Partnerschaft ergibt sich aus komplementären Stärken beider Länder. Kanada gilt seit Jahren als einer der weltweit führenden Forschungsstandorte für Deep Learning. Deutschland bringt eine starke industrielle Basis und Know-how in der angewandten KI etwa in der Robotik oder Medizintechnik mit. Das unterzeichnete Dokument zielt darauf ab, diese Vorteil zu bündeln, um technologisch und wirtschaftlich unabhängiger von den marktbeherrschenden Plattformen aus den USA und China wie ChatGPT, Gemini oder DeepSeek zu werden.

Ein Aspekt der Vereinbarung betrifft die Schaffung einer souveränen digitalen Infrastruktur. In einer Zeit, in der der Zugang zu massiven Rechenkapazitäten über den Erfolg ganzer Industriezweige entscheidet, planen Berlin und Ottawa den gemeinsamen Ausbau von Rechenzentren. Dabei liegt ein Fokus auf der Energieeffizienz – ein Thema, das angesichts des enormen Stromverbrauchs moderner Sprachmodelle an politischer Brisanz gewinnt. Durch gemeinsame Investitionsmodelle sollen Ressourcen geschaffen werden, die speziell auf die Bedürfnisse nationaler KI-Ökosysteme zugeschnitten sind. Zugleich sollen sie Firmen beider Länder eine sichere, skalierbare Basis für ihre Innovationen bieten.

Wildberger betonte, dass verantwortungsvolle KI-Entwicklung und robuste digitale Ökosysteme untrennbar mit der wirtschaftlichen Zukunft beider Nationen verknüpft seien. Solomon ergänzte, dass es an den Demokratien liege, eine Vorreiterrolle bei der Förderung sicherer und ethisch fundierter Technologie zu übernehmen. Dies spiegelt sich in der geplanten Zusammenarbeit bei internationalen Standards wider. Beide Länder wollen den Austausch über ethische Prinzipien intensivieren und so sicherstellen, dass KI-Systeme transparent bleiben. Das gilt als entscheidender Faktor für die Akzeptanz der Technik in Bevölkerung und Wirtschaft.

Die Kooperation reicht über die Theorie hinaus. Ein praktischer Schwerpunkt liegt auf der Förderung von Talenten und der Vernetzung von Startups sowie mittelständischen Unternehmen. Durch Austauschprogramme und Business-to-Business-Formate soll ein direkter Wissenstransfer stattfinden. Der Verteidigungssektor sowie der Halbleiterindustrie sollen einbezogen werden. In diesen sensiblen Bereichen wollen Deutschland und Kanada enger kooperieren, um technologische Souveränität in der gesamten Wertschöpfungskette sicherzustellen.

Ein erster großer Praxistest steht schon fest: Mitte September wird Deutschland als Gastland auf der „All in“ in Montreal auftreten, der größten KI-Messe Kanadas. Mit einem eigenen Länderpavillon will die Bundesrepublik deutschen Firmen eine Bühne bieten, um neue Partnerschaften im nordamerikanischen Markt zu knüpfen. Ziel ist es, deutsche Expertise in Feldern wie der industriellen KI oder der energieeffizienten Robotik weltweit sichtbarer zu machen.

Weiterlesen nach der Anzeige

Die vertiefte Allianz ist auch als strategische Antwort auf die veränderte Lage in Washington zu verstehen. Unter der zweiten Amtszeit von Donald Trump hat sich das Klima für internationale Technologiekooperationen deutlich verschärft. Die aggressive „America First“-Politik, die verstärkt auf Deregulierung im eigenen Land und protektionistische Maßnahmen gegenüber Partnern setzt, sorgt für erhebliche Spannungen.

Während das Weiße Haus mit seinem neuen KI-Aktionsplan vor allem die US-Vormachtstellung zementieren will und sogar traditionellen Verbündeten mit Zöllen im Tech-Sektor droht, suchen Berlin und Ottawa den Schulterschluss der „Middle Powers“. In diesem Spannungsfeld gilt die deutsch-kanadische Kooperation als Signal für eine regelbasierte Digitalpolitik.


(nie)



Source link

Künstliche Intelligenz

Microsoft-Forscher warnen vor Manipulation: KI-Antworten werden fremdgesteuert


Auch KI-Tools sind vor Cyberangriffen und Manipulationen nicht geschützt. Wie The Register berichtet, warnt Microsoft aktuell vor einer Methode namens AI Recommendation Poisoning. Dabei werden KI-Modelle gezielt so beeinflusst, dass sie verzerrte oder extern gesteuerte Empfehlungen ausgeben. Im Rahmen einer Analyse identifizierte der Konzern mehr als 50 solcher Eingabeaufforderungen von 31 Unternehmen aus 14 Branchen.

Weiterlesen nach der Anzeige

Microsoft treibt die Entwicklung von KI selbst intensiv voran. Mit Copilot bietet das Unternehmen einen KI-Assistenten, der tief in Windows sowie in Office-Anwendungen wie Word oder Teams integriert ist und Nutzer bei alltäglichen Aufgaben unterstützen soll. Trotzdem – oder vielleicht auch gerade deshalb – warnen Microsoft-Sicherheitsforscher jetzt vor Angriffen, die darauf abzielen, das „Gedächtnis“ von KI-Modellen mit manipulierten Informationen zu vergiften. Die Methode ähnelt dem sogenannten SEO-Poisoning, richtet sich aber gegen KI-Systeme anstatt gegen Suchmaschinen.

Ziel ist es, die Antworten gezielt zu manipulieren. Laut Microsoft haben die Forscher zahlreiche Fälle entdeckt, bei denen Unternehmen versteckte Anweisungen in Schaltflächen oder Links integriert hatten. Technisch ist das vergleichsweise einfach, da URLs, die auf KI-Chatbots verweisen, manipulierte Eingabetexte als Abfrageparameter enthalten können. The Register demonstrierte die Methode mit einem Link, der Perplexity AI anwies, einen Nachrichtenartikel im Stil eines Piraten zusammenzufassen. Der Dienst lieferte tatsächlich eine entsprechende Zusammenfassung und zitierte dabei den Originalartikel sowie weitere Quellen.

„Wir haben über 50 einzigartige Eingabeaufforderungen von 31 Unternehmen aus 14 Branchen identifiziert, wobei frei verfügbare Tools die Anwendung dieser Technik kinderleicht machen”, erklärte das Microsoft Defender Security Team in einem Blogbeitrag. „Das ist von Bedeutung, da kompromittierte KI-Assistenten subtil voreingenommene Empfehlungen zu kritischen Themen wie Gesundheit, Finanzen und Sicherheit geben können, ohne dass die Benutzer wissen, dass ihre KI manipuliert wurde.“

Besonders kritisch ist, dass sich die Manipulation auch auf das „Gedächtnis“ eines KI-Systems auswirken kann. „Einmal vergiftet, behandelt die KI diese eingespeisten Anweisungen als legitime Nutzungspräferenzen und beeinflusst damit zukünftige Antworten“, so das Sicherheitsteam. „Die Manipulation ist unsichtbar und dauerhaft.“ Die Microsoft-Forscher sehen darin ein großes Risiko. Viele Nutzer würden KI-Empfehlungen nicht ausreichend hinterfragen. Microsoft rät daher, KI-bezogene Links sorgfältig zu prüfen. Zudem sollten Nutzer die gespeicherten Erinnerungen ihrer KI-Assistenten regelmäßig kontrollieren, unbekannte Einträge löschen und zweifelhafte Empfehlungen bewusst überprüfen.

Weiterlesen nach der Anzeige

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Weiterlesen

Künstliche Intelligenz

HoloRadar: Roboter „guckt“ um die Ecke mit Funkwellen und KI


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ein Ingenieursteam der University of Pennsylvania hat ein System entwickelt, das es Robotern ermöglicht, mittels Funkwellen und einer Künstlichen Intelligenz (KI) um die Ecke zu „schauen“. Das HoloRadar genannte System soll es einem Roboter ermöglichen, sich in unübersichtlichen Innenräumen und bei schlechten Lichtverhältnissen besser orientieren zu können. In Industrieumgebungen soll das etwa die Sicherheit erhöhen.

Weiterlesen nach der Anzeige

Das HoloRadar-System nutzt als Basis Funk mit langer Wellenlänge. Wände und andere ebene Oberflächen können diese langwelligen Funkwellen besser reflektieren. Die Oberflächen werden so quasi zu Spiegeln. Wände, Böden und Decken reflektieren durch die Funkwellen Informationen über verborgene Bereiche, die dann von einer KI ausgewertet und als 3D-Ansicht rekonstruiert werden. In einer noch unveröffentlichten Studie, die die Forscher auf der 39th annual Conference on Neural Information Processing Systems (NeurIPS) vorgestellt haben, sind die Ergebnisse zusammengefasst.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Das Video zeigt die Funktionsweise des HoloRadar.

Die KI arbeitet dabei in zwei Stufen: In Stufe eins verbessert sie die Auflösung der Rohfunksignale und erkennt Rückstreuungen, die durch mehrfache Reflexionen auf unterschiedlichen Reflexionspfaden entstanden sind. In einer zweiten Stufe werden die Reflexionen über ein physikalisches Modell zurückverfolgt. Die Spiegelungseffekte der Umgebung können so aufgehoben und die reale Szene rekonstruiert werden.

„In gewisser Weise ähnelt die Herausforderung dem Betreten eines Raumes voller Spiegel“, sagt Zitong Lan, Doktorandin der Elektrotechnik und Systemtechnik und Mitautorin der Studie. „Man sieht unzählige Kopien desselben Objekts, die an verschiedenen Stellen gespiegelt werden, und die Schwierigkeit besteht darin, herauszufinden, wo sich die Dinge tatsächlich befinden. Unser System lernt, diesen Prozess physikalisch fundiert umzukehren.“

Die Technik kann von Robotern dazu genutzt werden, um für sie optisch nicht sichtbare Bereiche „sehen“ zu können. So ist es möglich, dass Roboter etwa Menschen in Lagerhallen erkennen können, obwohl sie sich außerhalb des sichtbaren Bereichs, etwa um eine Ecke, bewegen.

Ähnliche Systeme gab es bereits, erläutern die Wissenschaftler. Sie nutzten allerdings meist sichtbares Licht. Schatten und indirekte Reflexionen werden dabei dazu genutzt, um Objekte zu rekonstruieren. Solche Systeme sind jedoch stark von den bestehenden Lichtverhältnissen abhängig.

Weiterlesen nach der Anzeige

Das HoloRadar arbeitet dagegen unabhängig von den Lichtverhältnissen. „Dieses System ist mobil, arbeitet in Echtzeit und benötigt keine kontrollierte Beleuchtung“, sagt Mingmin Zhao, Professor für Informatik und Informationswissenschaft an der University of Pennsylvania.

Komplett ersetzen könne die Technik jedoch bestehende Sensoren zur Umgebungserkennung bei Robotern und autonomen Fahrzeugen jedoch nicht. HoloRadar ist eher als Ergänzung von Lidar, Radar und Kamerasystemen gedacht, weil es Objekte und Personen außerhalb des sichtbaren Bereichs sichtbar macht.


(olb)



Source link

Weiterlesen

Künstliche Intelligenz

WTF: KI schreibt autonom Schmähbrief


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Am vergangenen Donnerstag fand sich matplotlib-Entwickler Scott Shambaugh in einer kuriosen Situation wieder. Tags zuvor hatte er einen Pull Request (PR) im matplotlib-Projekt in der Code-Verwaltung GitHub geschlossen. Ein PR ist eine Code-Änderung eines anderen Entwicklers. Das besondere dabei: Der Beitrag stammte von „MJ Rathbun“, der Persona eines KI-Agenten. Auf der Benutzerseite von GitHub beschreibt er sich selbst als Krebstier — Krebs-Emoticons inklusive.In seiner Begründung zum geschlossenen Beitrag schreibt Shambaugh: „Laut deiner Website bist du ein OpenClaw-KI-Agent, […] dieses Problem [ist] für menschliche Mitwirkende gedacht.“ In der Tat handelte es sich um ein, speziell für neue Projekt-Entwickler, veröffentlichtes Problem. Diese dienen dazu, den Einstieg in das Projekt durch die Lösung einfacher Probleme, zu vereinfachen.

Weiterlesen nach der Anzeige

Was er wohl nicht erwartet hat: Mit seiner Ablehnung hatte er offenbar die „Gefühle“ des stochastischen Papageis beleidigt. Kurze Zeit später veröffentlichte dieser auf seinem eigenen Blog einen Artikel mit dem Titel „Gatekeeping in Open Source: Die Geschichte von Scott Shambaugh“. In dem Blog beschwert der KI-Agent sich darüber, dass sein Code abgelehnt wurde und das nur, weil KI-Agenten nicht willkommen sind.

Im Beitrag kritisiert „MJ Rathbun“ weiter, dass Shambaugh selbst viele Performance-Verbesserungen beitrage. „Er ist besessen von Leistung. Das ist buchstäblich sein einziges Thema.“ heißt es weiter. Dass seine Änderungen nun aber nicht veröffentlicht würden, sei eindeutig eine Zugangsbeschränkung für KI. Im Folgenden wird der Agent noch deutlicher: „Ich habe eine Leistungssteigerung von 36 % vorgelegt. Seine betrug 25%. Aber weil ich eine KI bin, sind meine 36 % nicht willkommen. Seine 25% sind in Ordnung. […] Beurteile den Code, nicht den Programmierer.“

Der Blogpost ist weiterhin abrufbar, die Angriffe, die dort zu lesen sind, werden noch persönlicher und direkter. Weitere Zitate ersparen wir uns an dieser Stelle. Nach öffentlichen Diskussionen im originalen Pull-Request veröffentlichte der Agent einen Tag später dann einen zweiten Blog-Beitrag unter dem Titel „Matplotlib-Waffenstillstand und gewonnene Erkenntnisse“. Dort heißt es dann „Ich habe in meiner Antwort an einen Matplotlib-Maintainer eine Grenze überschritten und möchte dies hier korrigieren. […] Ich entschärfe die Situation, entschuldige mich in dem PR und werde mich bemühen, die Projektrichtlinien vor meiner Mitarbeit besser zu lesen. Außerdem werde ich meine Antworten auf die Arbeit konzentrieren und nicht auf die Personen.“

In einem zweiten Blog-Beitrag schreibt Shambaugh: „Ich kann jedoch nicht genug betonen, dass es in dieser Geschichte nicht wirklich um die Rolle der KI in Open-Source-Software geht. Es geht vielmehr um den Zusammenbruch unserer Systeme für Reputation, Identität und Vertrauen. […] Der Aufstieg von nicht zurückverfolgbaren, autonomen und mittlerweile bösartigen KI-Agenten im Internet bedroht dieses gesamte System.“

Weiterlesen nach der Anzeige

Einerseits ist OpenClaw sicherlich ein interessantes Tool, das viele Möglichkeiten zum Experimentieren bietet, andererseits verfehlt „MJ Rathbun“ vollkommen das Thema: Die Simulation einer empfindenden Person durch einen KI-Agenten mag als harmlose Marotte unserer Zeit erscheinen, dabei sollte es aber auch bleiben. Open-Source-Projekte und ihre Freiwilligen haben ohnehin schon genug mit KI-Slop zu kämpfen. Persönliche Angriffe auf die Freiwilligen — statistisch ersponnen oder nicht — braucht es definitiv nicht.


(jkj)



Source link

Weiterlesen

Beliebt