Künstliche Intelligenz

KI-Update kompakt: Grok, Claude Opus 4.7, Robo-Blindenhund, KI-Influencer


Weiterlesen nach der Anzeige

Apple hat laut NBC News die KI-App Grok beinahe aus dem App Store entfernt. Auslöser waren Berichte über nicht einvernehmliche Deepfake-Nacktbilder, die das KI-Modell von Elon Musks Firma xAI erzeugte, möglicherweise auch von Minderjährigen. In einem bislang unveröffentlichten Brief an US-Senatoren, den NBC News publik machte, erklärte Apple, man habe sowohl xAI als auch das soziale Netzwerk X kontaktiert, Verstöße gegen die App-Store-Richtlinien festgestellt und ein Ultimatum mit konkretem Maßnahmenpaket gestellt.

xAI versprach daraufhin eingeschränkte Bildbearbeitungsfunktionen und stärkere Zugriffsbeschränkungen. Laut NBC News lassen sich die Schutzmechanismen aber weiterhin umgehen. Kritiker werfen Apple vor, einen kleinen Entwickler für vergleichbare Verstöße längst gesperrt zu haben. In den USA wird derweil ein gesetzliches Verbot von KI-Systemen diskutiert, die solche Deepfakes ohne Zustimmung der Betroffenen ermöglichen.



OpenAI bringt mit GPT-5.4-Cyber ein eigenes KI-Modell für Cybersicherheit auf den Markt. Der Zugang bleibt zunächst eingeschränkt und läuft über das im Februar gestartete Programm „Trusted Access for Cyber“. In den kommenden Wochen will OpenAI das Modell auf tausende verifizierte Sicherheitsforscher sowie hunderte Teams ausweiten, die kritische Software schützen.

OpenAI sieht GPT-5.4-Cyber als ersten Schritt zu weiteren spezialisierten Cybersicherheitsmodellen. Die bestehenden Schutzmechanismen hält das Unternehmen für stark genug, um aktuelle Modelle breiter zugänglich zu machen.

Weiterlesen nach der Anzeige

OpenAI hat sein Entwicklertool Codex umfassend erweitert. Das agentische KI-System kann nun den Computer bedienen, Bilder erzeugen und über Wochen eigenständig an Projekten arbeiten. Damit zielt OpenAI direkt auf Anthropics Programmierassistenten Claude Code. Die auffälligste Neuerung heißt „Background Computer Use“: Codex kann den Bildschirm sehen, klicken und mit einem eigenen Cursor tippen. Mehrere KI-Agenten sollen parallel arbeiten können, ohne die Nutzer zu stören. Die Funktion läuft zunächst nur auf macOS.

Dazu kommen Automatisierungsfunktionen. Codex kann sich laut OpenAI selbst künftige Aufgaben einplanen und automatisch an langfristigen Projekten weiterarbeiten.

Anthropic hat sein Spitzenmodell Claude Opus aktualisiert. Auf dem Coding-Benchmark SWE-bench Pro erreicht Version 4.7 64,3 Prozent, der Vorgänger Opus 4.6 kam auf 53,4 Prozent. Auch OpenAIs GPT-5.4 liegt mit knapp 57,7 Prozent darunter. Anthropics eigenes Forschungsmodell Mythos Preview bleibt mit fast 78 Prozent allerdings klar vorn. Neben dem Programmieren verbessert Anthropic die Bildverarbeitung: Opus 4.7 verarbeitet Bilder mit bis zu 3,75 Megapixeln, mehr als dreimal so viel wie frühere Claude-Modelle. Bei der Analyse komplexer Dokumente steigt die Trefferquote laut Anthropic von 57,1 auf über 80,6 Prozent.

Besonders auffällig ist der Umgang mit Cybersicherheit. Anthropic hat beim Training experimentell versucht, riskante Cyber-Fähigkeiten gezielt zu drosseln. Neue Schutzmaßnahmen blockieren automatisch Anfragen, die auf verbotene oder hochriskante Nutzung hindeuten. Teurer könnte die Arbeit mit dem Modell dennoch werden: Die Stückpreise bleiben bei 5 Dollar pro Million Input-Tokens und 25 Dollar pro Million Output-Tokens, doch ein neuer Tokenizer bildet denselben Text auf bis zu 35 Prozent mehr Tokens ab. Die tatsächlichen Kosten pro Anfrage können dadurch spürbar steigen.

Thoughtworks, ein Technologieberatungsunternehmen, warnt in der 34. Ausgabe seines halbjährlichen Technology Radar vor „kognitiven Schulden“. Diese entstehen, wenn künstliche Intelligenz immer größere Codemengen erzeugt und das gemeinsame Verständnis von Softwaresystemen in Entwicklerteams schneller erodiert, als es sich erneuern lässt. Während frühere Ausgaben des Radars die wachsenden Fähigkeiten von KI im Software-Engineering beleuchteten, verschiebt sich der Fokus nun auf die Risiken beim Skalieren und im produktiven Einsatz.

Der Unterschied zu klassischen technischen Schulden ist wesentlich: Technische Schulden stecken im Code selbst, kognitive Schulden dagegen in den Köpfen der Entwickler. Die Kluft zwischen Mensch und System wird größer, wenn KI-generierter Code schneller entsteht, als Teams ihn durchdringen können. Der Technology Radar fordert daher eine Rückbesinnung auf Engineering-Grundlagen, um die wachsenden Fähigkeiten von KI nachhaltig nutzen zu können.




Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Forschende haben auf der RSAC-Sicherheitskonferenz mehrere neue Angriffsmethoden auf Apple Intelligence demonstriert. Bei 100 zufälligen Prompts gelang es ihnen, die Schutzmechanismen in 76 Prozent der Fälle zu umgehen. Die Hauptprobleme liegen in den schwächeren lokalen Modellen, die Apple verwendet, bevor rechenintensivere Cloud-Modelle zum Einsatz kommen. Apple soll die Lücken inzwischen behoben haben.

Rund 200 Programmierer aus Apples Siri-Team sollen in einem mehrwöchigen Bootcamp lernen, wie sie Werkzeuge wie Anthropics Claude Code oder OpenAIs Codex beim Programmieren einsetzen. Das berichtet das Branchenportal „The Information“. Das Siri-Team gilt bei Apple intern seit Jahren als träge und soll den Anschluss an moderne KI-Entwicklungen verpasst haben.

Der Zeitpunkt ist brisant: Schon im Juni will Apple auf seiner Entwicklerkonferenz WWDC eine komplett überarbeitete Version von Siri vorstellen. Die neue Siri soll auf Googles Gemini-Modell basieren und deutlich gesprächsfähiger sein. Nach dem Bootcamp bleiben rund 60 Entwickler im Kernteam, weitere 60 sollen Siris Leistung und Sicherheit überwachen.

Forscher der Binghamton University in New York haben einen Roboterhund entwickelt, der blinde Menschen nicht nur führt, sondern dank großer Sprachmodelle auch mit ihnen spricht. Als Roboter nutzten sie einen Unitree Go2 Pro, ein vergleichsweise simples Modell aus China, das für weniger als 4000 € erhältlich ist. Ein ausgebildeter Blindenhund kostet das Fünf- bis Zehnfache. Als KI-Modell dient GPT-4 von OpenAI, ergänzt um ein eigens entwickeltes Dialogsystem mit zwei Modulen: einer „Planverbalisierung“, bei der sich Mensch und Roboter über Ziel und Aufgabe abstimmen, und einer „Szenenverbalisierung“, bei der der Roboter unterwegs die Umgebung beschreibt.

Sieben blinde Menschen testeten den Roboterhund in einem großen Bürogebäude. Das Sprachmodell hatte vorab Informationen über die Räumlichkeiten erhalten. In komplexeren Umgebungen wie einer Großstadt ist die Leistung noch nicht erprobt, das soll eine Folgestudie klären. Das Feedback war laut den Forschern grundsätzlich positiv. Einen echten Blindenhund kann der Roboter vorerst dennoch nicht ersetzen: Lebende Hunde schätzen Gefahren ein, reagieren bei Stürzen und verweigern auch mal Befehle. Vor allem aber vermitteln sie Vertrauen und Verlässlichkeit.

Drei ehemalige Chipentwickler von Apple, Intel und Qualcomm haben das Start-up Nuvacore gegründet. Gerard Williams III, John Bruno und Ram Srinivasan wollen einen neuen Prozessorkern entwickeln, der als Allzweck-CPU alles berechnen kann, aber insbesondere KI-Berechnungen schnell und effizient ausführen soll. Sie versprechen, „die Regeln von Silizium komplett neu zu schreiben“.

Noch gibt es weder ein Produkt noch Spezifikationen. Nuvacore hat auch die Befehlssatzarchitektur des neuen CPU-Kerns nicht verraten. Immerhin haben die drei Gründer mit Sequoia Capital bereits einen prominenten Investor gewonnen.

Nicht alle Social-Media-Beiträge vom Coachella-Festival in der kalifornischen Wüste sind echt. Laut dem US-Nachrichtenportal „The Verge“ stammen immer mehr Posts von KI-Influencern, also nur virtuell existierenden Persönlichkeiten. Diese posten vermeintliche Fotos mit Prominenten wie Justin Bieber oder Kylie Jenner, die mit KI-Tools erstellt oder manipuliert wurden. Die Bilder wirken überzeugend, weil die Hintergründe teils reale Gebäude und Szenerien des Festivalgeländes abbilden. Dem Account „Granny Spills“ etwa folgen mehr als zwei Millionen Menschen, die Coachella-Beiträge der makellos gestylten KI-Oma sammelten hunderttausende Likes.

Problematisch ist, dass die meisten KI-Beiträge nicht als solche gekennzeichnet werden. In den Bildunterschriften finden sich keine Hinweise auf KI-Tools, erst in den Profilbeschreibungen der Accounts stehen manchmal Anhaltspunkte. Die meisten Nutzer sehen die Beiträge aber nur im eigenen Feed, ohne je das Profil zu besuchen.

Der neue Eigentümer der kriselnden Schuhfirma Allbirds aus San Francisco hat einen Weg gefunden, den Aktienkurs innerhalb von Stunden fast zu verzehnfachen. Er gab bekannt, künftig GPUs an die KI-Branche vermieten zu wollen. Ein institutioneller Investor soll dafür 50 Millionen Dollar bereitstellen. Die Firma soll in „NewBird AI“ umbenannt werden.

Vor der Ankündigung wurde eine Allbirds-Aktie für gerade mal 2,50 Dollar gehandelt. Kaum war die Meldung draußen, sprang der Preis vorübergehend auf fast 24 Dollar, bevor er sich bei rund 17 Dollar einpendelte. Ob dieser abrupte Strategiewechsel vom Schuhverkauf zum GPU-Verleih tatsächlich funktionieren kann, ist zumindest zweifelhaft.




(igr)



Source link

Beliebt

Die mobile Version verlassen