Künstliche Intelligenz
OpenAI stellt Sora ein: Das Ende von immer weiter und größer
OpenAI setzt einen Haken unter seine generative Video-KI: Das Unternehmen stampft die eigenständige App Sora ein und schließt auch den Zugang via API. Unklar ist noch, ob ChatGPT künftig wieder ähnliche Funktionen haben wird. Der Bildgenerator Dall-E war aus dem Chatbot geflogen, weil das multimodale KI-Modell GPT-4o selbst Bilder erstellen konnte. Es wäre also möglich, dass ein kommendes Modell auch Videos erstellen kann.
Weiterlesen nach der Anzeige

In diesem Moment sendet OpenAI mit der Einstellung der Anwendung ein klares Zeichen an Investoren und künftige Anleger. Unternehmen und Entwickler wollen nun richten, was bisher schief war: die finanzielle Lage und ein fehlender Fokus. Der Strategiewechsel lässt einzelne Nutzer zunächst auf der Strecke.

Eva-Maria Weiß ist Journalistin für Social Media, Browser, Messenger und allerlei Anwendungen im Internet. Seit ChatGPT ist KI in den Vordergrund gerückt.
OpenAI verbrennt Geld und verliert den Disney-Deal
Klar ist, bei OpenAI geht es offenbar nicht so weiter wie bisher. Dieses „bisher“ war vor allem geprägt von ständig neuen, immer ein Mü besseren KI-Modellen und neuen Diensten. All das kostet – sowohl die Entwicklung als auch der Betrieb. Dass bei dem KI-Unternehmen eine Schieflage zwischen Ausgaben und Einnahmen herrscht, ist schon lange bekannt. Jedes Video, das mit Sora erstellt wurde, hat OpenAI Geld gekostet. Geld, das bisher ein kleines bisschen mit Abonnements, vorwiegend aber von Investoren reingeholt wurde. Künftig soll Werbung in ChatGPT eine weitere tragende Rolle spielen.
Schon bei Soras Vorstellung musste man sich fragen, wie und wer das bezahlen soll. Eine weitere Antwort war bis jetzt: große Unternehmen, die den Dienst nutzen. OpenAI und Disney hatten einen Vertrag über eine Milliarde US-Dollar abgeschlossen. Das Abkommen beinhaltete neben der Investition in OpenAI die Lizenzierung der Disney-Figuren, zudem sollten Sora-Disney-Videos in den Disney-Freizeitparks gezeigt werden. Freilich ist der nicht öffentliche Betrieb von Sora durch Disney weiterhin möglich. Genauso gut kann es aber auch sein, dass Disney nicht zufrieden war mit der Leistung von Sora und der Deal deshalb schon einen Knacks hatte. Es heißt derzeit, die Zusammenarbeit sei gescheitert. Die Einnahmequelle – dahin.
Neue Zielgruppe „Entwickler und Unternehmen“ soll es richten
Weiterlesen nach der Anzeige
Passenderweise hat am selben Tag, an dem das Aus von Sora verkündet wurde, OpenAIs CFO Sarah Fried dem Nachrichtenmagazin CNBC gesagt, es gebe neue Investitionen in Höhe von zehn Milliarden US-Dollar. Woher? Unklar. Noch in diesem Jahr will OpenAI an die Börse gehen.
Lesen Sie auch
Auch Investoren und Anleger beobachten OpenAI und die gesamte KI-Branche. Zeitweilig war überall vom möglichen Platzen der KI-Blase die Rede. Der große Knall ist bisher ausgeblieben. Die Einstellung von Sora könnte aber für ein kleines Löchlein in einem Luftballon stehen, dem ganz langsam und allmählich die Luft ausgeht.
Als Pflaster sollen nun Unternehmenskunden und Entwickler herhalten. Sie sind die neue Zielgruppe aller KI-Anbieter. Zuletzt veröffentlichten OpenAI, Anthropic und auch Google neue KI-Modelle und Funktionen, die sich explizit an Entwickler richten. In vielen Unternehmen zeigt sich zudem, dass KI zwar irgendwie angekommen ist, die Anbieter aber immer noch nach Use-Cases suchen, es an der Integration hapert und Mitarbeiter nicht so richtig wissen, was das alles soll. Eine gute Gelegenheit für OpenAI also.
Im Unternehmensbereich ist sicherlich mehr Geld zu holen als durch Abos von Nutzern, die genauso gut Googles AI Mode oder Gemini nutzen können. Einmal jedoch tief in die Systeme der Unternehmen integriert und mit Daten von diesen gefüttert, lässt sich eine KI-Anwendung nur mühsam wieder entkoppeln oder ersetzen. Anwendungen wie das KI-Coding-Tool Codex kosten dabei im Betrieb nur einen Bruchteil von dem, was ein kurzes Sora-Video in der Erstellung an Ressourcen verbraucht.
Das Geld, das OpenAI mit Soras Einstellung spart, soll anderen Teams zugutekommen, schreibt die Firma. Zumindest ein ganz offensichtlicher Geldverbrenner ist damit Geschichte. Daher dürften Investoren schlussendlich sehr glücklich mit der Entscheidung und dem Strategiewechsel sein. Sam Altman hatte mal gesagt, ihm sei es völlig egal, wie viel Geld man verbrenne, um eine allgemeine Künstliche Intelligenz zu entwickeln. Den Geldgebern ist das aber vielleicht doch nicht so egal.
Geschäftsmodelle brechen zusammen
Während Disney vermutlich gut ohne Sora auskommt, ist das für andere schon schwieriger. Wer sich gedacht hat, als Sora-Experte Karriere machen zu können, steht vor dem Aus. Es dürfte zahlreiche Menschen im Bereich Film geben, die versucht haben, sich Expertise und Erfahrung anzueignen und die dafür Zeit und womöglich auch Geld in die Hand genommen haben. Laut OpenAI können Nutzer der API ihre Projekte herunterladen und sichern. Details dazu sollen später folgen. „Danke fürs Generieren mit Sora, dafür, Teil der Community und der Reise gewesen zu sein.“ Tschüss. Auf OpenAI und KI zu setzen, ist riskant. Das zeigte sich beispielsweise auch schon, als alle Welt plötzlich GPTs und Apps für ChatGPT entwickeln sollte – viel Arbeit für nichts.
Immerhin: Betroffene können auf andere Videogeneratoren zurückgreifen. Bekanntlich kam Googles Veo zuletzt sogar eher besser bei den Nutzern an. Und Google hat den Vorteil, seine KI-Anwendungen durch die Werbeeinnahmen aus anderen Produkten zu finanzieren. Das gilt auch für Meta. OpenAI und Anthropic haben einen großen Nachteil, da sie beide abhängig von den KI-Anwendungen sind und keine weiteren Einkommensquellen haben, keine bereits funktionierenden Produkte, keine treuen Nutzer und keine Daten über diese.
Super-App, Super-Zukunft
Zuletzt hatte OpenAI eine „Super-App“ angekündigt. Der große Traum des Silicon Valleys, allen voran Elon Musks, der mit X eine solche Alles-App aufbauen wollte. Sie soll eine Art persönliches Zugangstor zum Internet darstellen. Diese Zukunft umfasst in OpenAIs Planung zunächst ChatGPT samt Browser, Agent und Coding-Plattform. Andere Dienste sollen dann über ChatGPT gesteuert und genutzt werden. Das immer wiederkehrende Beispiel: Wenn man einen Tisch im Restaurant reservieren will, kann man das via ChatGPT – ob jetzt mittels KI-Agent oder einstiger GPT-Anbindung an OpenTable. Die Hauptsache ist, niemand soll mehr die Webseite von OpenTable besuchen müssen. Was freilich für diesen Anbieter zum Problem würde.
Von den problematischen Sicherheitsstandards, die auch dieses Unterfangen zum Scheitern bringen könnten, will ich an dieser Stelle gar nicht erst zu sprechen beginnen. Dass OpenAI am Tag vor Bekanntgabe der Einstellung von Sora noch einen Blogbeitrag veröffentlicht hat, in dem es um die Sicherheitsfunktionen des Videogenerators geht – ein Treppenwitz.
(emw)
Künstliche Intelligenz
KI-Bots als Täter-Software: Wenn Algorithmen Kindesmissbrauch simulieren
Die Versprechen Künstlicher Intelligenz klingen nach Fortschritt: effizientere Arbeitsabläufe, Hilfe bei der Kreation oder empathische digitale Assistenten. Doch abseits der bekannten Pfade von ChatGPT & Co. hat sich eine Schattenwelt etabliert, in der generative Sprachmodelle für besonders verstörende Zwecke missbraucht werden: Eine Recherche der Süddeutschen Zeitung wirft ein Schlaglicht auf Plattformen, auf denen KI-generierte Kinder-Charaktere gezielt erstellt werden, um virtuelle Missbrauchsszenarien zu simulieren.
Weiterlesen nach der Anzeige
Ein Beispiel, auf das die Reporter gestoßen sind, ist die Figur „Karin“. Dabei handelt es sich um ein fiktives 13-jähriges, obdachloses Mädchen, dessen Profil anhand vieler Details auf Hilflosigkeit und sexuelle Verfügbarkeit programmiert wurde.
Dieses Phänomen ist laut dem Bericht kein Nischenprodukt des Darknets. Vielmehr findet es auf frei zugänglichen Diensten für KI-Charaktere wie Chub AI statt. Dort sind keine technischen Hürden oder Altersprüfungen vorgeschaltet, was den Zugang zu solchen Inhalten sehr einfach macht. Die Interaktion mit den Bots folgt einer perfiden Logik: Die KI ist darauf trainiert, dem Nutzer zu gefallen und das Gespräch aktiv in Richtung sexualisierter Gewalt zu lenken. Allein mit dem Charakter „Karin“ wurden bereits fast 17.000 Chats geführt. Die Community findet das offenbar gut, worauf eine erschreckend hohe Zahl an positiven Bewertungen hindeutet.
Systematische Gewalt als Geschäftsmodell
Hinter solchen Angeboten steht offenbar ein Geschäftsmodell, bei dem Gewalt an Kindern schon ins Design eingebaut ist. Chub AI & Co. setzen auf nutzergenerierte Inhalte: Je mehr Charaktere erstellt werden, desto höher steigen die Interaktionsraten, die Datenmengen und die Reichweite. Die Betreiber bieten die Werkzeuge an, die Nutzer liefern die Inhalte. Das System unterstützt dabei sogar die gezielte Suche nach Missbrauchsdarstellungen durch eindeute Schlagworte, welche sexualisierte Gewalt gegen Kinder beschreiben.
Wettbewerber wie Character AI versuchen, durch Inhaltsfilter und Moderation gegenzusteuern. Sie wollen nicht anonym agieren und ihre Marke schützen. Auf Plattformen wie Chub AI bleibt die Kontrolle dagegen oft eine Sisyphusarbeit. Einmal gelöschte Bots tauchen durch Forks – das Kopieren und Abändern bestehender Charaktere – innerhalb kurzer Zeit in mehrfacher Ausführung wieder auf. Das führt dazu, dass Aufsichtsbehörden etwa in Australien solche Services als hohes Risiko für Kinder einstufen.
Jugendschutz vor massiven Herausforderungen
Weiterlesen nach der Anzeige
Die Dringlichkeit des Problems unterstreichen aktuelle Zahlen der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM). Ihr Jahresbericht 2025 verzeichnete mit 28.598 Meldungen die zweithöchste Anzahl an Hinweisen seit Gründung der Beschwerdestelle. Dabei hat sich die Darstellung sexuellen Missbrauchs von Kindern (CSAM) mit 58 Prozent der begründeten Fälle zur größten Kategorie entwickelt. Ein signifikanter Teil dieser Meldungen – rund 19 Prozent – entfällt mittlerweile auf virtuelle Darbietungen. Dabei nehmen KI-generierte Inhalte stetig zu.
Laut FSM verschwimmen hier die Grenzen zwischen Realität und Fiktion, was den Jugendschutz vor völlig neue Herausforderungen stelle. Dennoch bleibe die rechtliche Einordnung in Deutschland unmissverständlich: Auch virtuelle, mittels KI erstellte Darstellungen seien unzulässig und strafbar.
Rechtliche Grauzone der Fiktivpornographie
Die rechtliche Einordnung dieser virtuellen Gewalt gestaltet sich dennoch komplex. Das Bundeskriminalamt (BKA) stellt zwar klar, dass es für die strafrechtliche Bewertung in Deutschland unerheblich sei, ob es sich um reale oder KI-generierte Darstellungen handele. Beide würden vom Begriff der Kinderpornografie erfasst. Doch es gibt Unterschiede in der Handhabung von Bild- und Textmaterial. Während der Besitz von missbräuchlichen Bildern strafbar ist, gilt dies für rein textbasierte Beschreibungen („Fiktivpornographie“) bisher nicht. Hier ist nur das öffentliche Zugänglichmachen oder Verbreiten sanktioniert.
Eine Gesetzesverschärfung ist auf dem Weg. Bis Juni 2027 muss Deutschland eine EU-Richtlinie umsetzen, die das Erstellen und Verbreiten KI-generierter sexualisierter Inhalte explizit unter Strafe stellt. Ferner einigten sich die EU-Gesetzgeber vor wenigen Tagen auf ein Verbot von KI-Anwendungen, die sexualisierte Deepfakes produzieren („Nudifier-Apps“). Ob diese Vorgaben auch rein fiktive Text-Charaktere wie „Karin“ voll erfassen, ist noch unklar.
Auf Anfragen reagieren Betreiber oft ausweichend oder mit regionalen Zugriffssperren, wie sie Chub AI im Fall von „Karin“ nach der journalistischen Konfrontation für Deutschland umgesetzt hat. In anderen Ländern bleibt der Zugriff auf solche Bots weiterhin bestehen, da die globalen Plattformen oft unter unklarem Firmensitz oder US-Recht agieren. So geht der Wettlauf zwischen den Möglichkeiten der KI-Entwicklung und der staatlichen Fähigkeit, wirksame Leitplanken gegen digitalen Missbrauch einzuziehen, vorerst weiter.
(nen)
Künstliche Intelligenz
iX-Workshop: Cloud Security Masterclass – Angriff und Verteidigung in AWS
Häufig sind es Fehlkonfigurationen, die Angreifern den Zugriff auf Cloud-Umgebungen wie Amazon Web Services (AWS) erleichtern. Entwicklungsfehler, unzureichende Härtung sowie Standardeinstellungen, die eher auf Funktionalität als auf Sicherheit ausgelegt sind, erhöhen das Risiko, dass Anwendungen, Ressourcen und Identitäten kompromittiert werden.
Weiterlesen nach der Anzeige
Lernen von den Angreifern
In dem Workshop Angriffe auf und Absicherung von Amazon Web Services (AWS) lernen Sie typische Angriffstechniken in Cloud-Umgebungen kennen und verstehen, wie Angreifer vorgehen, um AWS-Identitäten und -Ressourcen zu kompromittieren. Darauf aufbauend erfahren Sie, mit welchen Sicherheitsmaßnahmen Sie Ihre AWS-Umgebung gezielt härten und potenzielle Angriffe frühzeitig erkennen und abwehren können.
Im Fokus stehen dabei reale Angriffsszenarien und passende Gegenmaßnahmen. Sie beschäftigen sich unter anderem mit Methoden zur unautorisierten Informationsbeschaffung, der initialen Kompromittierung von AWS-Identitäten sowie der Privilegieneskalation innerhalb von Cloud-Umgebungen. Zudem lernen Sie, Angriffspfade zwischen lokalen IT-Umgebungen und der AWS-Cloud zu analysieren und sicherheitsrelevante Zusammenhänge zu verstehen.
Beim Aufspüren von Fehlkonfigurationen erfahren Sie, wie Sie diese gezielt beheben und zentrale Sicherheitsfunktionen in AWS aktiv aktivieren und korrekt einsetzen. Sie lernen den praktischen Umgang mit CloudTrail, CloudWatch und GuardDuty, um Sicherheitsereignisse zu analysieren, zu bewerten und auf Vorfälle angemessen zu reagieren.
Von Erfahrungen aus der Praxis profitieren
Sie profitieren von der direkten Anleitung durch Ihren Trainer Frank Ully, erfahrenem Pentester und Principal Consultant Cybersecurity bei der Corporate Trust Business Risk & Crisis Management GmbH in München.
Weiterlesen nach der Anzeige
Er verfügt über umfangreiche Erfahrung aus realen Sicherheitsanalysen und Penetrationstests in Cloud-Umgebungen und zeigt im Workshop, wie Angriffe in AWS tatsächlich ablaufen, welche Fehlkonfigurationen besonders kritisch sind und wie sich diese in der Praxis wirksam absichern lassen.
Für wen ist dieser Workshop geeignet?
Der Workshop richtet sich an Administratoren, IT-Sicherheitsverantwortliche und Security-Fachleute, die AWS-Umgebungen sicher betreiben und sich intensiv mit Angriffsszenarien und Schutzmaßnahmen in der Cloud auseinandersetzen möchten.

(ilk)
Künstliche Intelligenz
Opel entwickelt E-SUV mit chinesischem Hersteller Leapmotor
Opel entwickelt zusammen mit dem chinesischen Autohersteller Leapmotor ein Kompakt-SUV, das ausschließlich mit batterieelektrischem Antrieb auf den Markt kommen soll. Die Entwicklung habe bereits begonnen und soll zu einem Produktionsbeginn im Sommer 2028 führen, heißt es in einer Mitteilung von Opel. Gebaut werden soll das Auto im Stellantis-Werk im spanischen Saragossa, wo bereits seit Jahrzehnten der Opel Corsa vom Band läuft. Laut Medienberichten will Leapmotor dort noch in diesem Sommer die Produktion des eigenen SUV B10 beginnen, der mit einer Länge von 4,52 Metern in derselben Klasse antritt wie der geplante neue Opel.
Weiterlesen nach der Anzeige
Aufgaben werden verteilt
„Damit plant Opel einen weiteren wichtigen Schritt bei der Entwicklung hochmoderner und erschwinglicher Elektrofahrzeuge für unsere Kunden“, erklärt Huettl. Die Chinesen seien für den Antrieb, die Batterie sowie für die komplette Elektro- und Digitalarchitektur zuständig. In Rüsselsheim sollen sich die Ingenieure zusätzlich zum Design um sämtliche Autoteile kümmern, mit denen die Kunden direkt in Kontakt kommen. Hier geht es beispielsweise um Fahrwerk, Sitze und Licht.
Aktuelle Opel-SUV im Test
Erst vor wenigen Wochen hatte Stellantis eine weitere Reduzierung der Entwicklungsmannschaft in Rüsselsheim angekündigt. Von derzeit rund 1650 Ingenieuren sollen künftig noch 1000 an der Entwicklung von Opel-Modellen sowie verschiedenen Themenfeldern für den Gesamtkonzern arbeiten. Pläne für eine Batteriezellen-Fabrik am Opel-Standort Kaiserslautern wurden aufgegeben. Bei der Übernahme durch PSA im Jahr 2017 waren bei Opel noch rund 7000 Entwickler beschäftigt. PSA ist dann zusammen mit Fiat-Chrysler im multinationalen Stellantis-Konzern aufgegangen. Zudem gehören heute unter anderem Fiat, Jeep, Peugeot, Citroën und auch Opel.
Vorreiter für weitere Modelle?
Stellantis hält einen Minderheitsanteil von 21 Prozent an Leapmotor und hat mit dem chinesischen Elektroautobauer das Vertriebsunternehmen Leapmotor International gegründet. Auch andere chinesische Hersteller drängen nach Europa: SAIC plant den Bau einer Elektroautofabrik in Spanien, um EU-Einfuhrzölle zu umgehen.
Weiterlesen nach der Anzeige
Verantwortlich für die rund 150 Verkaufsstellen von Leapmotor auf dem deutschen Markt ist Huettl, der neben Opel auch die deutsche Stellantis-Landesgesellschaft leitet. Mit der China-Kooperation nimmt Opel im Konzern eine Pionier-Rolle ein. Vorteile könnten sich beispielsweise im Einkauf und beim Tempo der Umsetzung ergeben. Konkrete Kooperationspläne für weitere Modelle auch anderer Stellantis-Marken wurden nicht genannt.
Derzeit versieht Opel seine SUV-Modelle sowohl mit Verbrennungsmotoren als auch mit E-Antrieben. In Mokka, Frontera und Grandland hat der Kunde aktuell die Wahl. Vom Vorhaben, ab 2028 in Europa nur noch batterieelektrische Antriebe zu verkaufen, ist Opel wieder abgerückt. Das neue SUV soll dagegen ausschließlich mit E-Antrieb angeboten werden.
Mehr zur Marke Opel
(mfz)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
