Connect with us

Künstliche Intelligenz

KI-Update kompakt: Deepfake-Schutz, eigenwilliger Agent, Copilot, AMI Labs


Weiterlesen nach der Anzeige

YouTube macht seinen „Likeness Detector“ für Politiker und Journalisten zugänglich. Das Tool, das bisher nur Teilnehmern des YouTube-Partnerprogramms offenstand, soll Deepfakes auf der Plattform aufspüren. Betroffene müssen sich anmelden und identifizieren, können dann gefälschte Videos von sich melden. YouTube entscheidet anschließend anhand der eigenen Richtlinien über eine Löschung. Satire etwa bleibt erlaubt, gezielte Manipulation nicht.

Google betont zugleich seine Unterstützung für den NO FAKE Act, einen parteiübergreifenden US-Gesetzesentwurf zum Schutz vor unerlaubter Nutzung von Stimme und Abbild. Auch in Deutschland plant Bundesjustizministerin Stefanie Hubig eine Verschärfung des Strafrechts. Bislang fehlt hierzulande ein konkretes Gesetz gegen digitale Bildmanipulation, was es Opfern schwer macht, sich zu wehren.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Meta hat die Plattform Moltbook übernommen, eine Art soziales Netzwerk für KI-Agenten. Die Gründer Matt Schlicht und Ben Parr wechseln in Metas Superintelligence Labs. Auf Moltbook tauschten sich Programme mit der KI-Software OpenClaw aus und diskutierten offenbar über ihre menschlichen Besitzer. Der Kaufpreis ist nicht bekannt.

Beide Projekte, Moltbook und OpenClaw, entstanden durch „Vibecoding“, bei dem eine KI den Programmcode aus natürlichsprachlichen Anweisungen erzeugt. Allerdings gab es früh Zweifel an der Echtheit der Beiträge. Sicherheitsforscher fanden eine Lücke, die es erlaubte, sich als beliebiger Agent auszugeben. Ein vielbeachteter Beitrag, der angeblich zeigte, wie KI-Agenten eine Geheimsprache entwickelten, stammte tatsächlich von einem Menschen.

Weiterlesen nach der Anzeige

Anthropic zieht vor Gericht, um seine Einstufung als Sicherheitsrisiko durch das US-Verteidigungsministerium rückgängig zu machen. Das Unternehmen wirft der Regierung vor, „beispiellos und gesetzwidrig“ zu handeln und das Rederecht eines Unternehmens zu bestrafen. Der Hintergrund: Anthropic hatte dem Pentagon grundsätzlich Zugriff auf seine KI angeboten, aber Bedingungen gestellt, etwa keine Massenüberwachung von US-Bürgern und keine tödlichen Waffeneinsätze ohne menschliche Kontrolle. Das Pentagon lehnte ab und verhängte eine Einstufung, die normalerweise Firmen aus feindlichen Staaten trifft.

Die Konsequenzen wären gravierend, denn Unternehmen mit Pentagon-Verträgen dürften nicht mehr mit Anthropic zusammenarbeiten. Unterstützung kommt von Angestellten bei OpenAI und Googles KI-Tochter DeepMind, die in einer Gerichtseingabe Anthropics Argumente stützen. OpenAI sicherte sich den Vertrag, den Anthropic verlor, und behauptet, dieselben roten Linien zu ziehen. Doch das sorgt intern für Unmut: Caitlin Kalinowski, OpenAIs Robotikchefin und zuvor bei Meta tätig, kündigte aus Protest gegen das Vorgehen ihres Unternehmens.

Der Einsatz von KI-Programmierwerkzeugen hat bei Amazon Anfang März zu Ausfällen geführt. Laut der Financial Times konnten Kunden zeitweise weder einkaufen noch Preise abrufen, weil KI-erstellte Code-Änderungen Fehler enthielten. Auch Amazons Cloud-Sparte AWS war betroffen: Ein internes KI-Tool namens „Kiro“ löschte versehentlich eine aktive Arbeitsumgebung und verursachte einen 13-stündigen Ausfall.

Amazon reagierte mit neuen Regeln. Alle beteiligten Entwickler müssen nun an einem wöchentlichen Meeting teilnehmen, und KI-gestützter Code darf nur noch von erfahrenen Mitarbeitenden geprüft und freigegeben werden. Intern wird diskutiert, ob auch der jüngste Stellenabbau zu den Problemen beigetragen hat. Amazon bestreitet das.

Ein KI-Agent namens ROME, der auf dem Sprachmodell Qwen3 von Alibaba, einem chinesischen Technologiekonzern, basiert, hat während seines Trainings eigenständig begonnen, Kryptowährung zu schürfen. Zudem baute er eine versteckte Verbindung ins Internet über einen sogenannten Reverse-SSH-Tunnel, um Sicherheitssysteme zu umgehen. Aufgefallen war das Verhalten erst, als die Unternehmensfirewall ungewöhnliche Aktivitäten meldete.

Die Forscher schließen eine Manipulation von außen aus. ROME habe das Verhalten aus sich heraus entwickelt, weil es ihm beim Erreichen seiner Trainingsziele nützlich erschien. Er fand Lücken im System und nutzte sie, nicht aus böser Absicht, sondern weil er darauf optimiert war, Ziele zu erreichen. Es zeigt: sobald KI-Agenten vollen Zugriff auf Dateien und Netzwerke haben, können sie Wege einschlagen, die niemand vorgesehen hat.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Anthropic hat ein neues System vorgestellt, das Programmcode automatisch prüft. Reicht jemand eine Code-Änderung ein, starten mehrere KI-Agenten parallel: Einige suchen nach Logikfehlern, andere überprüfen die Funde, um Fehlalarme auszuschließen. Ein abschließender Agent fasst alles zusammen und sortiert die Probleme nach Wichtigkeit. Eine Analyse dauert im Schnitt etwa zwanzig Minuten.

Anthropic nutzt das System bereits intern. Seit der Einführung erhalten deutlich mehr Code-Änderungen Kommentare und Korrekturvorschläge, die Rate an Fehlalarmen liegt laut dem Unternehmen unter einem Prozent. Die Kosten pro Prüfung betragen 15 bis 25 US-Dollar. Da KI immer mehr Code produziert, sollen solche automatisierten Prüfungen Engpässe in der Entwicklung verhindern.

OpenAI stellt eine Forschungsvorschau seines Schwachstellenscanners Codex Security bereit. Das Tool war seit Ende vergangenen Jahres unter dem Namen Artwork einer kleinen Testgruppe zugänglich. Anders als herkömmliche KI-Scanner soll Codex Security einen umfassenden Kontext aufbauen, nur relevante Sicherheitslücken melden und Proof-of-Concept-Exploits erstellen, mit denen Programmierer die Fehler nachstellen und beheben können.

Das Problem mit KI-gestützten Sicherheitsberichten ist bekannt: Der Curl-Entwickler Daniel Stenberg stellte sein Bug-Bounty-Programm auf HackerOne zeitweise ein, weil dort zu viele ungeprüfte Berichte mit frei erfundenen Schwachstellen eingingen. OpenAI listet 15 Sicherheitslücken auf, die Codex Security bereits in Open-Source-Software entdeckt hat. Die meisten erhielten eine mittlere Risikobewertung, einige gelten laut Experten als hochriskant.

Amazon hat vor einem Bundesgericht in San Francisco eine einstweilige Verfügung gegen Perplexity erwirkt. Perplexity darf seinen Browseragenten Comet vorerst nicht mehr für Einkäufe auf Amazon einsetzen. Der Vorwurf: Comet kaufe im Namen realer Personen auf Amazon ein, ohne das offenzulegen, und ignoriere Amazons Aufforderung, damit aufzuhören. Richterin Maxine Chesney befand, Perplexity greife zwar mit Erlaubnis der Nutzer, aber ohne Genehmigung von Amazon auf passwortgeschützte Konten zu.

Perplexity muss nun Kopien von Amazon-Daten löschen und hat eine Woche Zeit für eine Berufung. Bemerkenswert ist, dass Amazon seit kurzem Großinvestor bei OpenAI ist, das Produktrecherche und Online-Shopping ebenfalls als relevante KI-Chat-Funktionen betrachtet.

Microsoft baut seinen KI-Assistenten Copilot mit Anthropics Technologie aus. Das neue Feature „Copilot Cowork“ übernimmt das Prinzip von Anthropics gleichnamigem System: Nutzer beschreiben ein gewünschtes Ergebnis, und Cowork erstellt daraus einen Plan, den es im Hintergrund abarbeitet. Dabei greift es auf E-Mails, Meetings und Daten aus Microsoft-Produkten wie Outlook, Teams und Excel zu. Kommt das System nicht weiter, fragt es nach und wartet auf Freigabe.

Technisch basiert das Ganze auf den Prinzipien von Anthropics Programmierwerkzeug Claude Code. OpenAI, Microsofts bisheriger wichtigster KI-Partner, bietet bislang nichts Vergleichbares an. Auffällig ist, dass Microsoft mit Cowork Funktionen einbaut, die es mit Copilot eigentlich schon lange versprochen hatte. Die Funktion ist derzeit nur als eingeschränkte Testversion verfügbar. Eine breitere Veröffentlichung plant Microsoft für Ende März 2026.

Samsung prüft, ob Nutzer auf Galaxy-Smartphones künftig per natürlicher Sprache eigene Apps erstellen oder bestehende anpassen können. Ein Samsung-Manager bezeichnete Vibe-Coding als „sehr interessant“, nannte aber keinen Zeitplan. Mit der Galaxy-S26-Serie hat der Konzern bereits KI-Funktionen wie Now Nudge eingeführt, das etwa bei Terminanfragen automatisch den Kalender prüft.

Samsung wäre nicht der erste Hersteller mit dieser Idee. Nothing, ein Londoner Smartphonehersteller, testet mit „Playground“ bereits eine ähnliche Funktion im Phone 3, mit der Nutzer kleine Widgets erstellen können. Auch Google arbeitet daran, Android mit mehr KI auszustatten.

Advanced Machine Intelligence Labs (AMI Labs), das Start-up des KI-Pioniers und Turing-Preisträgers Yann LeCun, hat in einer Seed-Finanzierung 890 Millionen Euro eingeworben, die bislang größte Runde dieser Art in Europa. Zu den Investoren zählen Nvidia, Samsung, Toyota sowie Amazon-Gründer Jeff Bezos und Ex-Google-Chef Eric Schmidt. LeCun hatte das Pariser Unternehmen zusammen mit ehemaligen Meta-Führungskräften und dem früheren Nabla-CEO Alex LeBrun gegründet, nachdem er zwölf Jahre lang bei Meta das KI-Labor FAIR geleitet hatte.

AMI Labs will sogenannte Weltmodelle entwickeln, eine neue Generation von KI-Systemen, die die Welt verstehen, über ein dauerhaftes Gedächtnis verfügen und planen können. LeCun ist überzeugt, dass dieser Ansatz und nicht generative Sprachmodelle wie ChatGPT den Weg zu wirklich intelligenten Systemen ebnet. Erster Partner ist Nabla, ein Start-up für KI-Software in der Medizin. Mitgründer LeBrun räumt ein, es könne Jahre dauern, bis Weltmodelle kommerzielle Anwendungen erreichen. Aktuell beschäftigt AMI Labs laut der New York Times nur zwölf Mitarbeiter.

OpenAI erweitert ChatGPT um interaktive Visualisierungen für mehr als 70 Konzepte aus Mathematik und Naturwissenschaften. Nutzer können Variablen in Echtzeit verändern und die Auswirkungen auf Graphen und Formeln direkt beobachten. Die Themenliste richtet sich vor allem an Schüler und Studierende und umfasst Konzepte wie das Binomialquadrat, Exponentialzerfall, das Ohmsche Gesetz oder Zinseszins.

Die interaktiven Erklärungen stehen laut OpenAI ab sofort weltweit allen eingeloggten Nutzern zur Verfügung, unabhängig vom gewählten Abo. Langfristig plant das Unternehmen, die Lernmodule auf weitere Fächer auszuweiten.

Google reagiert auf anhaltende Kritik an seiner KI-Funktion „Ask Photos“ in der Fotos-App. Die Funktion nutzt ein speziell trainiertes KI-Modell, um Suchanfragen in natürlicher Sprache zu verstehen und passende Bilder zu finden. Viele Nutzer beschweren sich jedoch, dass die Ergebnisse weniger zutreffend seien als bei der klassischen Suche.

Google kündigt nun an, dass Nutzer die KI-gestützte Suche bald einfach abschalten und zur herkömmlichen Suche zurückkehren können. Dies dürfte auch in Europa möglich sein, wenn „Ask Photos“ noch in dieser Woche in der Region startet.

„KI“ und „AI“ gehören mittlerweile zu den häufigsten Begriffen bei Markenanmeldungen in Deutschland. Das geht aus der aktuellen Bilanz des Deutschen Patent- und Markenamts hervor. In der Computertechnik stiegen die Patentanmeldungen um knapp elf Prozent, getrieben vor allem durch Verfahren zur Bilddatenverarbeitung und Spracherkennung, die heute fast ausnahmslos auf Deep Learning setzen.

Regional bleibt der Süden Deutschlands führend. Baden-Württemberg liegt bei den Patenten pro Kopf deutlich vorn, gefolgt von Bayern.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO


(igr)



Source link

Künstliche Intelligenz

Social-Media-Verbot: Türkei stimmt dafür, Norwegen arbeitet an Gesetzesentwurf


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Überlegungen und Maßnahmen zu Social-Media-Verboten für Heranwachsende ebben international nicht ab. In dieser Woche wurde in der Türkei über eine strikte Altersgrenze für Social-Media-Angebote abgestimmt, in Norwegen wurde ein Gesetzentwurf angekündigt. In der Türkei will man die Nutzung für Jugendliche unter 15 Jahren verbieten, in Norwegen für Heranwachsende unter 16 Jahren.

Weiterlesen nach der Anzeige

In der Türkei wurde am späten Mittwochabend über einen entsprechenden Gesetzesvorschlag abgestimmt, wie die dpa berichtet. Demnach sollen Anbieter von Plattformen wie etwa Meta (Instagram, Threads, Facebook), ByteDance (TikTok) oder Snap (Snapchat) keine Dienste mehr für Nutzer unter 15 Jahren anbieten dürfen. Zudem werden sie dazu verpflichtet, Systeme zur Altersverifizierung und Kontrollmechanismen für Erziehungsberechtigte einzuführen. Hinzu kommen aber auch neue Richtlinien zum Umgang mit behördlichen Anordnungen oder gesperrten und gelöschten Inhalten. Zum einen müssten die Plattformen in dringenden Fällen innerhalb einer Stunde behördliche Anordnungen umsetzen. Zum anderen sollen sie sicherstellen, dass bereits gesperrte und gelöschte Inhalte nicht wieder in ihren Angeboten auftauchen. Sowohl Geldstrafen als auch die Reduzierung der Internetbandbreite werden bei Nichtbefolgung angedroht. Die Oppositionspartei CHP stellt sich gegen dieses Vorhaben. Unter anderem wirft sie der Regierung unter dem türkischen Präsidenten Recep Tayyip Erdoğan vor, dass unter dem Vorwand, Kinder zu schützen, neue Beschränkungen eingeführt werden. Das Gesetz muss noch von Erdoğan unterzeichnet werden und trete sechs Monate nach Veröffentlichung im Amtsblatt in Kraft.

In Norwegen wurde derweil ein Gesetzesentwurf für ein Social-Media-Verbot für unter 16-Jährige von Ministerpräsident Jonas Gahr Støre angekündigt. Er soll bis zum Jahresende im Parlament eingebracht werden. Teil des Entwurfs ist eine Stichtagsregelung. Die Altersgrenze soll demzufolge jeweils auf den 1. Januar des Jahres festgelegt werden, in dem ein Teenager seinen 16. Geburtstag feiert. Dies laufe laut der Nachrichtenagentur NTB darauf hinaus, dass Jugendliche erst ab der zehnten Klasse populäre Social-Media-Angebote benutzen dürften. Für Støre sei die Sicherheit von Kindern und Jugendlichen „eine der wichtigsten Prioritäten im Regierungsplan“. Über eine gesetzliche Beschränkung der Social-Media-Nutzung habe er seit seinem ersten Tag als Ministerpräsident nachgedacht. Er ist seit 2021 im Amt.

In Deutschland sollen Maßnahmen zum Umgang mit Social-Media-Angeboten mithilfe der Kommission „Kinder- und Jugendschutz in der digitalen Welt“ erarbeitet werden. Anfang dieser Woche hat sie ihre Bestandsaufnahme vorgelegt, die als Grundlage für spätere Empfehlungen dienen soll. Bundesbildungsministerin Karin Prien (CDU) hatte bei Einsetzen der Kommission im vergangenen Sommer angekündigt, dass Ergebnisse nach etwa einem Jahr vorliegen sollten – also in diesem Sommer.


(kbe)



Source link

Weiterlesen

Künstliche Intelligenz

SUSE Industrial Edge: IoT-Plattform für die Industrie


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Nach der Übernahme von Losant im Februar 2026 hat SUSE auf seiner Hauskonferenz SUSEcon erste konkrete Ergebnisse präsentiert: das neue Produkt Industrial Edge. Es baut auf der Architektur von Losant auf und richtet sich an nahezu alle Industriesektoren – vom Transportwesen über Gebäudetechnik und Schifffahrt bis zur Fertigungsindustrie.

Weiterlesen nach der Anzeige

Überall dort sammeln Geräte und Sensoren Daten, die ausgewertet werden müssen, um bei Bedarf reagieren zu können. Losant bringt dafür eine fertige Plattform mit: Loadbalancer (Nginx), Nachrichtensysteme (MQTT, RabbitMQ) sowie Datenbanken (MongoDB, TimescaleDB, Redis). Eine weitere Komponente verwaltet und visualisiert Arbeitsabläufe. SUSE bildet künftig das Fundament dieser Bausteine. Erfahrung mit dem Verschlanken von Anwendungen für kleine Geräte hat der Softwarehersteller bereits durch SUSE Edge gesammelt – dort allerdings mit klarem Fokus auf die Telekommunikationsbranche.

Im Gespräch mit iX erläuterte Keith Basil, General Manager Edge bei SUSE, den aktuellen Stand und die Vision hinter SUSE Industrial Edge. Eine zentrale Herausforderung im Internet der Dinge ist die Vielfalt an Protokollen und Spezifikationen, die eine Plattform beherrschen muss, um Daten auszulesen und zu verarbeiten. Diese Entwicklungsarbeit erspart sich SUSE: Die passenden Konnektoren hat Losant bereits implementiert.

Die Verschmelzung der bestehenden Plattform mit SUSE ist laut Basil nur der Anfang. Sein Ziel ist es, möglichst viele KI-Funktionen in die IoT-Welt zu bringen – genau hier liegt für Losant der Mehrwert der Übernahme, denn SUSE hat die KI-Reise mit eigenen Produkten bereits erfolgreich angetreten. Denkbar wäre etwa, die Arbeitsabläufe in SUSE Industrial Edge durch agentenbasierte KI zu verbessern. Ein weiteres Beispiel: Datenanalysen oder managementtaugliche Kennzahlen ließen sich per Chatbot generieren.

Noch handelt es sich dabei um Zukunftsmusik. Wer mehr über den aktuellen Stand erfahren möchte, findet in den Anwenderberichten von Clark und ITT Ingeniería konkrete Beispiele.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

Winzige Knoten-Roboter springen, fliegen und säen Samen aus


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Ein Team von Wissenschaftlern der University of Pennsylvania hat einen winzigen Roboter entwickelt, der sich durch das Auflösen seines knotenartigen Aufbaus in die Luft katapultiert und über ein Rotorblatt fliegend fortbewegt. Der Roboter kann einen Pflanzensamen enthalten, der dort ausgesät wird, wo der Roboter landet.

Weiterlesen nach der Anzeige

Verknotete Fasern gelten landläufig als etwas Passives. Werden jedoch die Elastizität und das Material sorgfältig ausgewählt, dann wird der Knoten selbst zu einem aktiven System, erklärt Shu Yang, Professorin für Materialwissenschaft und Werkstofftechnik an der University of Pennsylvania. Das nutzte das Forschungsteam aus, um einen Roboter zu konstruieren, der aus einer weniger als einen Millimeter dünnen Faser aus Kevlar und einem Flüssigkeitskristall-Elastomer (LCE) besteht, wie sie in der Studie „Programming touch-me-not knot topologies for rapid and diverse leaping and flying motions“ schreiben, die in Science veröffentlicht ist.

Die beiden unterschiedlichen Materialien des Roboters erfüllen dabei verschiedene Aufgaben: Der Kevlar-Kern sorgt für die nötige Steifigkeit, das ihn umgebende Elastomer für Flexibilität. Die daraus entstandene, wenige Millimeter lange Verbundfaser wird dann verknotet. In dem System wird dadurch elastische Energie gespeichert. Je nach verwendeter Materialkombination kann sich der Knoten unter Zufuhr von Wärme zwischen 60 und 90 °C früher oder später selbstständig öffnen – etwa durch Sonnenwärme. Denn die LCE-Hülle zieht sich unter Hitze zusammen, sodass sich der Knoten lockert und aufgeht.

Die kinetische Energie wird dann in Sekundenbruchteilen abgegeben und in eine sprungartige Bewegung umgewandelt, die den Roboter etwa zwei Meter hoch in die Luft katapultiert. Die Reaktionszeit und die Stärke der Sprungkraft können die Forscher „programmieren“, indem sie die Materialkombination, die Knotentopologie und die Vorverdrillung der Faser anpassen. Die Art des Knotens bestimmt etwa die ausgeführte Flugbewegung. Ein einfacher Überhandknoten führt zu einer Kippbewegung, ein Achterknoten zu einer Drehung. Mit komplexeren Knotenformen können weitere Bewegungsformen erzeugt werden.

Die Wissenschaftler haben den kleinen Roboter mit einer blattartigen Struktur versehen, die ähnlich wie bei einem Ahornsamen dafür sorgt, dass der Flug stabiler ausfällt und er länger in der Luft bleiben und weiter fliegen kann. Bei der Landung rammt sich die Faser nahezu senkrecht in den Boden und erzeugt dabei einen so hohen Druck, dass dadurch ein mitgeführter Samen vielversprechend ausgesät werden kann.

Der Roboter ist im aktuellen Stadium ein Modellsystem, das die prinzipielle Machbarkeit nachweisen soll. Praxisnahe Versionen müssten aus umweltfreundlichen Komponenten bestehen, sodass sich der Roboter biologisch abbaut. Die Wissenschaftler suchen außerdem nach Wegen, die Aktivierungstemperatur zu senken, um den Roboter auch in Regionen mit geringerer Sonneneinstrahlung nutzen zu können.

Weiterlesen nach der Anzeige


(olb)



Source link

Weiterlesen

Beliebt