Künstliche Intelligenz
Anthropic stichelt mit Super-Bowl-Werbung gegen OpenAI – und trifft einen Nerv
Das KI-Unternehmen Anthropic hat für das Finale der US-Football-Liga NFL mehrere Werbevideos veröffentlicht, die primär versprechen, dass in die Antworten des hauseigenen KI-Chatbots Claude keine Werbung gelangen soll. Ohne dabei Namen zu nennen, fungiert die Super-Bowl-Werbung auch als Seitenhieb gegen den großen Konkurrenten OpenAI, denn in dessen ChatGPT sollen noch in diesem Monat Werbeanzeigen auftauchen. OpenAI-Chef Sam Altman hat bereits reagiert und die Werbevideos in einem mehr als 400 Worte langen Text auf X als irreführend zurückgewiesen. Anthropic selbst nennt er da gleich noch autoritär und hat sich auch damit den Ratschlag eingefangen: „Antworte niemals auf spielerischen Humor mit einem Aufsatz.“
Weiterlesen nach der Anzeige
Werbung in KI oder nicht?
Die vier jeweils eine Minute langen Clips zeigen jeweils zwei Menschen, die miteinander reden. Dass einer davon jeweils die Antworten eines KI-Chatbots darstellt, machen die kurzen Wartezeiten vor den jeweiligen Antworten und die druckreifen Formulierungen deutlich. Dann integriert die Person, die die KI darstellt, schnell mehr oder weniger naheliegende Werbung, was zu Irritation beim Gegenüber sorgt. Es folgt der eingeblendete Text: „Werbung zieht in KI ein, aber nicht in Claude.“ Altman behauptet jetzt, dass er über die Clips gelacht habe. Deren zentraler Prämisse widerspricht er aber, denn auch bei ChatGPT werde man Werbung nicht in dieser Form in die KI-Antworten einbinden: „Wir sind doch nicht dumm und wissen, dass unsere User das ablehnen würden.“
Die Clips und die Reaktion von Altman verweisen auf eine große Debatte, die gerade in der KI-Branche geführt wird. Denn während OpenAI die Einbindung von Werbung in ChatGPT seit Wochen vorbereitet, verspricht nicht nur Anthropic, darauf zu verzichten. Auch Googles KI-Chatbot und Assistent Gemini bleibt frei von Werbung, versicherte der US-Konzern vor Kurzem. Altman behauptet nun, dass Anthropic sich die Werbefreiheit nur leisten könne, weil die Firma „ein teures Produkt für reiche Leute“ anbietet. OpenAI wolle KI-Werkzeuge aber auch jenen anbieten, die dafür nicht bezahlen können. Zudem kontrolliere Anthropic noch, was Menschen mit ihren Tools anstellen könnten. Das sei ein „düsterer Weg“.
Der Super Bowl gehört zu den weltweit wichtigsten Sportereignissen. Bei der 60. Ausgabe am Sonntag treffen in Santa Clara in Kalifornien die Seattle Seahawks auf die New England Patriots. Die Veranstaltung ist außerhalb der USA vor allem für ihre hochkarätig besetzte Halbzeitshow bekannt, diesmal wird der puerto-ricanische Rapper Bad Bunny auftreten. Vor dem Spiel tritt noch die Punkrockband Green Day auf. Wegen des großen Fernsehpublikums gelten die Werbeplätze während des Spiels als die teuersten in den USA, viele Konzerne lassen eigens dafür Spots drehen. Von dieser Reichweite will nun auch Anthropic profitieren.
(mho)
Künstliche Intelligenz
Anthropic stellt Claude Opus 4.6 mit Agent Teams vor
Anthropic hat das neue KI-Modell Opus 4.6 vorgestellt, das primär beim Programmieren deutlich besser abschneiden soll als der Vorgänger. Opus 4.6 ist die erste Version der Opus-Klasse mit einem Kontextfenster von einer Million Token – allerdings noch als Beta-Funktion. Weitere Neuerungen: Agentische Coding-Teams sollen komplexe Aufgaben parallel bearbeiten, Claude passt die Nachdenkzeit automatisch der Fragestellung an und die maximale Ausgabelänge verdoppelt sich. Leistungsfähiger wird die neue Opus-Version obendrein.
Weiterlesen nach der Anzeige
Mehrere KI-Instanzen koordinieren
Eine zentrale Neuerung ist die Agent-Teams-Funktion in Claude Code, die sich aktuell in einer Research Preview befindet. Damit lassen sich mehrere Claude-Code-Instanzen parallel ausführen und koordinieren – ähnlich wie bei der kürzlich vorgestellten Codex-App von OpenAI. Eine federführende Session koordiniert dabei die Arbeit, weist Tasks zu und fasst Ergebnisse zusammen.
Die einzelnen Team-Mitglieder sind unabhängige Sessions mit eigenem Kontextfenster. Sie können direkt miteinander kommunizieren und greifen auf eine gemeinsame Task-Liste zu. Die Team-Mitglieder können sich Tasks selbst zuweisen oder zugewiesen bekommen und arbeiten parallel an verschiedenen Problemen. Aktiviert wird die Funktion über die Umgebungsvariable CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1. Agent Teams verursachen höhere Token-Kosten, weil jede Instanz separat abgerechnet wird. Sie sind für komplexe Zusammenarbeit gedacht, bei der mehrere Perspektiven oder parallele Lösungsansätze gefragt sind.
Im Gegensatz zu den agentischen Teams arbeiten Subagents innerhalb einer einzelnen Session und liefern ihre Ergebnisse nur an den beauftragenden Agenten zurück. Anthropic sieht diese Unteragenten eher für fokussierte Einzelaufgaben vor.
Opus 4.6 bringt weitere neue Funktionen: „Context Compaction“ fasst alte Kontextinformationen zusammen, um Platz für neue Eingaben zu schaffen. „Adaptive Thinking“ verlängert automatisch die Denkzeit des Modells, wenn komplexe Aufgaben dies erfordern. Entwickler können zudem zwischen vier Effort-Levels wählen (low, medium, high, max), um den Rechenaufwand zu steuern. Die maximale Ausgabelänge wurde auf 128.000 Token erhöht.
Benchmark-Anführer
Weiterlesen nach der Anzeige
Opus 4.6 führt laut Anthropic diverse der obligatorischen Benchmarks an: Auf Terminal-Bench 2.0, das agentenbasiertes Programmieren testet, erreicht Opus 4.6 laut Anthropic die höchste Punktzahl aller Modelle. Beim Reasoning-Benchmark „Humanity’s Last Exam“ liege es ebenfalls vorn. Besonders deutlich sei der Vorsprung im GDPval-AA-Test, der prüft, wie gut KI‑Modelle wirtschaftlich relevante Arbeitsaufgaben erledigen können. Hier übertrifft Opus 4.6 OpenAIs GPT-5.2 um 144 Elo-Punkte und den direkten Vorgänger Opus 4.5 um 190 Elo-Punkte.
Bei der Verarbeitung langer Kontexte zeigt sich ein erheblicher Fortschritt gegenüber dem Vorgänger: Im MRCR v2 8-needle 1M-Test erreicht Opus 4.6 eine Erfolgsquote von 76 Prozent, während Sonnet 4.5 nur auf 18,5 Prozent kommt. Der BigLaw Bench attestiert dem Modell mit 90,2 Prozent den höchsten Score, den bisher ein Claude-Modell erreicht hat – 40 Prozent der Antworten waren perfekt, 84 Prozent erreichten eine Bewertung von mindestens 0,8.
Beim Thema Sicherheit liegt Opus 4.6 laut der veröffentlichten System Card auf dem Niveau anderer Frontier-Modelle. Die Rate fehlausgerichteten Verhaltens wie Täuschung oder übermäßige Anpassung an Nutzerwünsche sei gering. Das Modell zeige die gleiche Ausrichtung wie Opus 4.5, das zuvor als am besten ausgerichtet galt, habe aber niedrigere Over-Refusal-Raten. Für Cybersecurity hat Anthropic sechs neue Testszenarien entwickelt. Das Modell erfüllt den ASL-3-Standard von Anthropic.
Die Preise liegen bei 5 US-Dollar pro Million Input-Token und 25 US-Dollar pro Million Output-Token. Für Premium-Anfragen mit mehr als 200.000 Token erhöhen sich die Preise auf 10 respektive 37,50 US-Dollar. Künftig müssen Kunden zudem zehn Prozent Aufschlag zahlen, wenn die Inferenz ausschließlich in den USA laufen soll.
(vza)
Künstliche Intelligenz
Lawinenrettung: Wie Hightech Risiken verringern soll
Eine Skiabfahrt durch unberührten Schnee auf einem einsamen Hang in den winterlichen Alpen: Um so was zu genießen, setzen sich Menschen einer der tückischsten alpinen Gefahren aus. Winter für Winter sterben Tourengeher und Freerider durch Lawinen – in Europa waren es allein in der vergangenen Saison 2024/25 siebzig Menschen. Immer wieder trifft es auch erfahrene Alpinisten, sogar wenn sie bei allgemein geringem Lawinenrisiko unterwegs sind – wie etwa gleich zu Beginn dieses Winters, als fünf deutsche Bergsteiger in Südtirol tödlich verunglückten.
Wenn ein Mensch komplett verschüttet ist, drängt die Zeit: Rettung durch Profis wie Bergwacht oder Hubschrauber kommt oft zu spät, weil die Überlebenswahrscheinlichkeit nach etwa 10 Minuten aufgrund des Sauerstoffmangels rapide sinkt. Dies zeigt eine aktuelle Studie von Eurac Research in Bozen, Schweizer Notfallmedizinern und dem Schweizer Institut für Schnee- und Lawinenforschung SLF; bisher galt ein Richtwert von 15 Minuten. Warum sich diese sogenannte Überlebensphase gegenüber der letzten großen Studie aus den 90er Jahren so stark verkürzt hat, können die Autoren nur vermuten; möglicherweise liege es am Klimawandel und dem dadurch bedingten kompakteren Schnee, der weniger Sauerstoff enthält.
- Lawinentechnik verringert das Risiko einer fatalen Verschüttung im alpinen Wintersport. Pflicht ist dabei das LVS-Gerät, mit dem Tourengeher ihre verschütteten Kameraden rasch selbst orten und bergen können.
- Am häufigsten ist der Tod durch Ersticken, Hightech-Ausrüstung soll dies verhindern: Airbags halten den Körper über den Schneemassen, neuartige Pumpsysteme fächern dem Verschütteten Atemluft vor das Gesicht, um Rettern mehr Zeit zu verschaffen.
- Sicherheitsexperten betonen den absoluten Notfallcharakter dieser Systeme. Sie ersetzen keine gründliche Ausbildung von Alpinisten.
Essenziell ist deshalb die sogenannte Kameradenrettung, also die Soforthilfe durch Begleiter. Dafür müssen jedoch alle Gruppenmitglieder entsprechend ausgerüstet sein. Bei der Ortung helfen Geräte, die mithilfe modernster Digitaltechnik heute wesentlich präziser arbeiten und sich einfacher bedienen lassen als ihre analogen Vorgänger. Außerdem gibt es raffinierte Hightech-Ausrüstung, die die Überlebensaussichten eines Lawinenopfers verbessern kann – etwa indem sie Sauerstoff zuführt oder die Chance erhöht, an der Schneeoberfläche zu bleiben.
Das war die Leseprobe unseres heise-Plus-Artikels „Lawinenrettung: Wie Hightech Risiken verringern soll“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Nach Gemini-Siri-Deal: Google nun Apples „bevorzugter Cloud-Anbieter“
Was bedeutet der große KI-Deal zwischen Apple und Google eigentlich für Datenschutz und Sicherheit von iPhone-Nutzerdaten? Für zusätzliche Verunsicherung sorgte jetzt Google-Chef Sundar Pichai: Google ist jetzt der von Apple „bevorzugte Cloud-Anbieter“, gab der CEO gegenüber Finanzanalysten nach Bekanntgabe der jüngsten Geschäftszahlen in der Nacht auf Donnerstag zu Protokoll, ohne weitere Details zu nennen.
Weiterlesen nach der Anzeige
Er freue sich über die Zusammenarbeit mit dem iPhone-Konzern sowie die gemeinsame Entwicklung „der nächsten Generation von Apples Foundation-Modellen, die auf Gemini-Technik basieren“, so Pichai. Den exakt selben Wortlaut wiederholte kurze Zeit später Googles Chief Business Officer Philipp Schindler, wie aus dem Transkript hervorgeht. Die Nachfrage eines Analysten zu dem Deal ließen die Manager im Anschluss unbeantwortet.
Google-Deal: Auch Tim Cook bleibt wortkarg
Nach Bekanntgabe des Deals im Januar betonten Apple und Google in einer gemeinsamen Mitteilung, dass Apple Intelligence „weiterhin auf Apple-Geräten sowie in Private Cloud Compute“ läuft sowie „Apples branchenführende Datenschutzstandards“ einhält. Siri wurde dabei nicht getrennt erwähnt. Apple-Chef Tim Cook wich Nachfragen von Finanzanalysten Ende Januar ebenfalls aus: „Was die Vereinbarung mit Google angeht, dazu veröffentlichen wir keine Details“, so Cook knapp.
Aktuell laufen manche Sprachmodelle von Apple Intelligence lokal auf den Geräten, bestimmte Anfragen werden an ein größeres Sprachmodell auf Apple-Servern geschickt. Nutzer sehen davon nichts. Apple verspricht, diese Daten in seiner Private Cloud Compute nur zur Umsetzung der jeweiligen Aktion zu verwenden und anschließend zu löschen. Sie würden weder für KI-Training noch für andere Zwecke weiterverarbeitet. Mitarbeiter seien zu keinem Zeitpunkt in der Lage, das einzusehen. Ende-zu-Ende-Verschlüsselung kommt allerdings nicht zum Einsatz. Interaktionen mit Siri werden bislang von Apple grundsätzlich transkribiert und ausgewertet. Wer die ChatGPT-Integration in Siri nutzt, schickt seine Daten an die Server von OpenAI.
Siri-Chatbot von iOS 27 in Google Cloud?
Weiterlesen nach der Anzeige
Nach Informationen von Bloombergs Mark Gurman soll die erste Version der neuen Gemini-basierten Siri auf Apples Cloud-Infrastruktur laufen. Für künftige KI-Funktionen in iOS 27 – darunter ein erwarteter Siri-Chatbot – sei allerdings der Rückgriff auf die Google Cloud im Gespräch, schrieb Gurman. Auch Google präsentierte jüngst eine an Private Cloud Compute angelehnte Lösung; ob diese dafür beispielsweise zum Einsatz kommt, bleibt vorerst offen. Apple setzt schon lange auch auf Google als Cloud-Anbieter, um iCloud-Daten zu hosten.
(lbe)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
