Connect with us

Künstliche Intelligenz

OpenAI stellt Sora ein: Das Ende von immer weiter und größer


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

OpenAI setzt einen Haken unter seine generative Video-KI: Das Unternehmen stampft die eigenständige App Sora ein und schließt auch den Zugang via API. Unklar ist noch, ob ChatGPT künftig wieder ähnliche Funktionen haben wird. Der Bildgenerator Dall-E war aus dem Chatbot geflogen, weil das multimodale KI-Modell GPT-4o selbst Bilder erstellen konnte. Es wäre also möglich, dass ein kommendes Modell auch Videos erstellen kann.

Weiterlesen nach der Anzeige


Screenshot X-Beitrag Sora.

Screenshot X-Beitrag Sora.

In diesem Moment sendet OpenAI mit der Einstellung der Anwendung ein klares Zeichen an Investoren und künftige Anleger. Unternehmen und Entwickler wollen nun richten, was bisher schief war: die finanzielle Lage und ein fehlender Fokus. Der Strategiewechsel lässt einzelne Nutzer zunächst auf der Strecke.


Ein Kommentar von Eva-Maria Weiß

Ein Kommentar von Eva-Maria Weiß

Eva-Maria Weiß ist Journalistin für Social Media, Browser, Messenger und allerlei Anwendungen im Internet. Seit ChatGPT ist KI in den Vordergrund gerückt.

Klar ist, bei OpenAI geht es offenbar nicht so weiter wie bisher. Dieses „bisher“ war vor allem geprägt von ständig neuen, immer ein Mü besseren KI-Modellen und neuen Diensten. All das kostet – sowohl die Entwicklung als auch der Betrieb. Dass bei dem KI-Unternehmen eine Schieflage zwischen Ausgaben und Einnahmen herrscht, ist schon lange bekannt. Jedes Video, das mit Sora erstellt wurde, hat OpenAI Geld gekostet. Geld, das bisher ein kleines bisschen mit Abonnements, vorwiegend aber von Investoren reingeholt wurde. Künftig soll Werbung in ChatGPT eine weitere tragende Rolle spielen.

Schon bei Soras Vorstellung musste man sich fragen, wie und wer das bezahlen soll. Eine weitere Antwort war bis jetzt: große Unternehmen, die den Dienst nutzen. OpenAI und Disney hatten einen Vertrag über eine Milliarde US-Dollar abgeschlossen. Das Abkommen beinhaltete neben der Investition in OpenAI die Lizenzierung der Disney-Figuren, zudem sollten Sora-Disney-Videos in den Disney-Freizeitparks gezeigt werden. Freilich ist der nicht öffentliche Betrieb von Sora durch Disney weiterhin möglich. Genauso gut kann es aber auch sein, dass Disney nicht zufrieden war mit der Leistung von Sora und der Deal deshalb schon einen Knacks hatte. Es heißt derzeit, die Zusammenarbeit sei gescheitert. Die Einnahmequelle – dahin.

Weiterlesen nach der Anzeige

Passenderweise hat am selben Tag, an dem das Aus von Sora verkündet wurde, OpenAIs CFO Sarah Fried dem Nachrichtenmagazin CNBC gesagt, es gebe neue Investitionen in Höhe von zehn Milliarden US-Dollar. Woher? Unklar. Noch in diesem Jahr will OpenAI an die Börse gehen.

Lesen Sie auch

Auch Investoren und Anleger beobachten OpenAI und die gesamte KI-Branche. Zeitweilig war überall vom möglichen Platzen der KI-Blase die Rede. Der große Knall ist bisher ausgeblieben. Die Einstellung von Sora könnte aber für ein kleines Löchlein in einem Luftballon stehen, dem ganz langsam und allmählich die Luft ausgeht.

Als Pflaster sollen nun Unternehmenskunden und Entwickler herhalten. Sie sind die neue Zielgruppe aller KI-Anbieter. Zuletzt veröffentlichten OpenAI, Anthropic und auch Google neue KI-Modelle und Funktionen, die sich explizit an Entwickler richten. In vielen Unternehmen zeigt sich zudem, dass KI zwar irgendwie angekommen ist, die Anbieter aber immer noch nach Use-Cases suchen, es an der Integration hapert und Mitarbeiter nicht so richtig wissen, was das alles soll. Eine gute Gelegenheit für OpenAI also.

Im Unternehmensbereich ist sicherlich mehr Geld zu holen als durch Abos von Nutzern, die genauso gut Googles AI Mode oder Gemini nutzen können. Einmal jedoch tief in die Systeme der Unternehmen integriert und mit Daten von diesen gefüttert, lässt sich eine KI-Anwendung nur mühsam wieder entkoppeln oder ersetzen. Anwendungen wie das KI-Coding-Tool Codex kosten dabei im Betrieb nur einen Bruchteil von dem, was ein kurzes Sora-Video in der Erstellung an Ressourcen verbraucht.

Das Geld, das OpenAI mit Soras Einstellung spart, soll anderen Teams zugutekommen, schreibt die Firma. Zumindest ein ganz offensichtlicher Geldverbrenner ist damit Geschichte. Daher dürften Investoren schlussendlich sehr glücklich mit der Entscheidung und dem Strategiewechsel sein. Sam Altman hatte mal gesagt, ihm sei es völlig egal, wie viel Geld man verbrenne, um eine allgemeine Künstliche Intelligenz zu entwickeln. Den Geldgebern ist das aber vielleicht doch nicht so egal.

Während Disney vermutlich gut ohne Sora auskommt, ist das für andere schon schwieriger. Wer sich gedacht hat, als Sora-Experte Karriere machen zu können, steht vor dem Aus. Es dürfte zahlreiche Menschen im Bereich Film geben, die versucht haben, sich Expertise und Erfahrung anzueignen und die dafür Zeit und womöglich auch Geld in die Hand genommen haben. Laut OpenAI können Nutzer der API ihre Projekte herunterladen und sichern. Details dazu sollen später folgen. „Danke fürs Generieren mit Sora, dafür, Teil der Community und der Reise gewesen zu sein.“ Tschüss. Auf OpenAI und KI zu setzen, ist riskant. Das zeigte sich beispielsweise auch schon, als alle Welt plötzlich GPTs und Apps für ChatGPT entwickeln sollte – viel Arbeit für nichts.

Immerhin: Betroffene können auf andere Videogeneratoren zurückgreifen. Bekanntlich kam Googles Veo zuletzt sogar eher besser bei den Nutzern an. Und Google hat den Vorteil, seine KI-Anwendungen durch die Werbeeinnahmen aus anderen Produkten zu finanzieren. Das gilt auch für Meta. OpenAI und Anthropic haben einen großen Nachteil, da sie beide abhängig von den KI-Anwendungen sind und keine weiteren Einkommensquellen haben, keine bereits funktionierenden Produkte, keine treuen Nutzer und keine Daten über diese.

Zuletzt hatte OpenAI eine „Super-App“ angekündigt. Der große Traum des Silicon Valleys, allen voran Elon Musks, der mit X eine solche Alles-App aufbauen wollte. Sie soll eine Art persönliches Zugangstor zum Internet darstellen. Diese Zukunft umfasst in OpenAIs Planung zunächst ChatGPT samt Browser, Agent und Coding-Plattform. Andere Dienste sollen dann über ChatGPT gesteuert und genutzt werden. Das immer wiederkehrende Beispiel: Wenn man einen Tisch im Restaurant reservieren will, kann man das via ChatGPT – ob jetzt mittels KI-Agent oder einstiger GPT-Anbindung an OpenTable. Die Hauptsache ist, niemand soll mehr die Webseite von OpenTable besuchen müssen. Was freilich für diesen Anbieter zum Problem würde.

Von den problematischen Sicherheitsstandards, die auch dieses Unterfangen zum Scheitern bringen könnten, will ich an dieser Stelle gar nicht erst zu sprechen beginnen. Dass OpenAI am Tag vor Bekanntgabe der Einstellung von Sora noch einen Blogbeitrag veröffentlicht hat, in dem es um die Sicherheitsfunktionen des Videogenerators geht – ein Treppenwitz.


(emw)



Source link

Künstliche Intelligenz

Kaufpreis und Unterhalt im Vergleich: Die günstigsten Autos in Deutschland


Wer schon einmal auf der Suche nach dem passenden Neuwagen war, dürfte das Gefühl kennen: Der unvernünftige Teil in uns würde gerne zum leistungsstarken Modell mit opulenter Ausstattung greifen, der pragmatische Teil hingegen zum günstigen. Doch das zu finden, wird angesichts von mehr als 5000 in Deutschland erhältlichen Fahrzeugen und Varianten schnell zur Sisyphusarbeit. Hinzu kommt, dass sich „günstig“ ganz unterschiedlich interpretieren lässt: Der eine schaut nur auf den Kaufpreis, der andere auf die laufenden Ausgaben. Hier kommt unsere Übersicht ins Spiel, die ausgehend von Kaufpreis und Unterhaltskosten die jeweils erschwinglichsten Verbrenner und Elektroautos der fünf wichtigsten Segmente nennt.

  • Vor allem in der Mittelklasse und oberen Mittelklasse gehören mit Blick auf Kauf und Unterhalt einige in Deutschland weniger stark vertretene Modelle zu den günstigsten.
  • Der Wertverlust ist der mit Abstand wichtigsten Punkt, wenn es um die laufenden Kosten geht.
  • In bestimmten Segmenten sind Sie mit einem Elektroauto deutlich günstiger als mit einem Verbrenner unterwegs.

Bei den Segmenten handelt es sich um Minis, Kleinwagen, Modelle der Kompakt- und Mittelklasse sowie der oberen Mittelklasse. Bei der Einstufung haben wir uns am Kraftfahrt-Bundesamt (KBA) orientiert, das jedes in Deutschland erhältliche Fahrzeug einsortiert. Allerdings weichen wir in einem wichtigen Punkt ab. Denn während das KBA jedes SUV unabhängig von Größe, Gewicht und Preis als SUV oder Geländewagen einstuft, unterscheiden wir zwischen den Fahrzeuglängen. Zusätzlich differenzieren wir zwischen Kombis und Limousinen. Das Ergebnis: 59 Modelle von 17.600 und 71.500 Euro und einer Länge zwischen 3,7 bis rund 5 m.

Die Kaufpreise stimmen mit den in den jeweiligen Preislisten genannten Werten für die Basisvariante überein. Hersteller- oder händlerseitige Rabatte haben wir nicht berücksichtigt. Für Elektroautos gibt es wieder eine Förderung, die seit dem 1. Mai beantragt werden kann. Ihre Höhe lässt sich aber nicht pauschal berechnen. Denn je nach zu versteuerndem Haushaltseinkommen und Anzahl der Kinder unter 18 Jahren kann ihre Höhe Null, 4000, 5000 oder 6000 Euro betragen. Die Unterhaltskosten enthalten Wartung, Verschleiß, Kfz-Steuer und -Versicherung, Fahrenergie und Wertverlust. Alle Werte stammen aus dem ADAC Profi-Autokostenrechner und beziehen sich auf fünf Jahre Nutzung und eine Laufleistung von insgesamt 75.000 km. Da die Ausgaben für Fahrenergie bei einigen Modellen einen großen Anteil an den Gesamtkosten ausmachen, spielen die durch den Iran-Krieg gestiegenen Preise für Super und Diesel durchaus eine Rolle. Pro Liter Super E5 rechnen wir mit 2,17 Euro, bei Diesel mit 2,26 Euro. Beides entspricht dem bundesweiten Durchschnitt im April 2026. Für Strom setzen wir 30 Cent pro Kilowattstunde an, was dem Laden an der heimischen Wallbox entspricht. Mit einer eigenen PV-Anlage sinkt der Preis, an öffentlichen Ladesäulen müssen Sie hingegen mit höheren Ausgaben rechnen.


Das war die Leseprobe unseres heise-Plus-Artikels „Kaufpreis und Unterhalt im Vergleich: Die günstigsten Autos in Deutschland“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

KI-Bots als Täter-Software: Wenn Algorithmen Kindesmissbrauch simulieren


Die Versprechen Künstlicher Intelligenz klingen nach Fortschritt: effizientere Arbeitsabläufe, Hilfe bei der Kreation oder empathische digitale Assistenten. Doch abseits der bekannten Pfade von ChatGPT & Co. hat sich eine Schattenwelt etabliert, in der generative Sprachmodelle für besonders verstörende Zwecke missbraucht werden: Eine Recherche der Süddeutschen Zeitung wirft ein Schlaglicht auf Plattformen, auf denen KI-generierte Kinder-Charaktere gezielt erstellt werden, um virtuelle Missbrauchsszenarien zu simulieren.

Weiterlesen nach der Anzeige

Ein Beispiel, auf das die Reporter gestoßen sind, ist die Figur „Karin“. Dabei handelt es sich um ein fiktives 13-jähriges, obdachloses Mädchen, dessen Profil anhand vieler Details auf Hilflosigkeit und sexuelle Verfügbarkeit programmiert wurde.

Dieses Phänomen ist laut dem Bericht kein Nischenprodukt des Darknets. Vielmehr findet es auf frei zugänglichen Diensten für KI-Charaktere wie Chub AI statt. Dort sind keine technischen Hürden oder Altersprüfungen vorgeschaltet, was den Zugang zu solchen Inhalten sehr einfach macht. Die Interaktion mit den Bots folgt einer perfiden Logik: Die KI ist darauf trainiert, dem Nutzer zu gefallen und das Gespräch aktiv in Richtung sexualisierter Gewalt zu lenken. Allein mit dem Charakter „Karin“ wurden bereits fast 17.000 Chats geführt. Die Community findet das offenbar gut, worauf eine erschreckend hohe Zahl an positiven Bewertungen hindeutet.

Hinter solchen Angeboten steht offenbar ein Geschäftsmodell, bei dem Gewalt an Kindern schon ins Design eingebaut ist. Chub AI & Co. setzen auf nutzergenerierte Inhalte: Je mehr Charaktere erstellt werden, desto höher steigen die Interaktionsraten, die Datenmengen und die Reichweite. Die Betreiber bieten die Werkzeuge an, die Nutzer liefern die Inhalte. Das System unterstützt dabei sogar die gezielte Suche nach Missbrauchsdarstellungen durch eindeute Schlagworte, welche sexualisierte Gewalt gegen Kinder beschreiben.

Wettbewerber wie Character AI versuchen, durch Inhaltsfilter und Moderation gegenzusteuern. Sie wollen nicht anonym agieren und ihre Marke schützen. Auf Plattformen wie Chub AI bleibt die Kontrolle dagegen oft eine Sisyphusarbeit. Einmal gelöschte Bots tauchen durch Forks – das Kopieren und Abändern bestehender Charaktere – innerhalb kurzer Zeit in mehrfacher Ausführung wieder auf. Das führt dazu, dass Aufsichtsbehörden etwa in Australien solche Services als hohes Risiko für Kinder einstufen.

Weiterlesen nach der Anzeige

Die Dringlichkeit des Problems unterstreichen aktuelle Zahlen der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM). Ihr Jahresbericht 2025 verzeichnete mit 28.598 Meldungen die zweithöchste Anzahl an Hinweisen seit Gründung der Beschwerdestelle. Dabei hat sich die Darstellung sexuellen Missbrauchs von Kindern (CSAM) mit 58 Prozent der begründeten Fälle zur größten Kategorie entwickelt. Ein signifikanter Teil dieser Meldungen – rund 19 Prozent – entfällt mittlerweile auf virtuelle Darbietungen. Dabei nehmen KI-generierte Inhalte stetig zu.

Laut FSM verschwimmen hier die Grenzen zwischen Realität und Fiktion, was den Jugendschutz vor völlig neue Herausforderungen stelle. Dennoch bleibe die rechtliche Einordnung in Deutschland unmissverständlich: Auch virtuelle, mittels KI erstellte Darstellungen seien unzulässig und strafbar.

Die rechtliche Einordnung dieser virtuellen Gewalt gestaltet sich dennoch komplex. Das Bundeskriminalamt (BKA) stellt zwar klar, dass es für die strafrechtliche Bewertung in Deutschland unerheblich sei, ob es sich um reale oder KI-generierte Darstellungen handele. Beide würden vom Begriff der Kinderpornografie erfasst. Doch es gibt Unterschiede in der Handhabung von Bild- und Textmaterial. Während der Besitz von missbräuchlichen Bildern strafbar ist, gilt dies für rein textbasierte Beschreibungen („Fiktivpornographie“) bisher nicht. Hier ist nur das öffentliche Zugänglichmachen oder Verbreiten sanktioniert.

Eine Gesetzesverschärfung ist auf dem Weg. Bis Juni 2027 muss Deutschland eine EU-Richtlinie umsetzen, die das Erstellen und Verbreiten KI-generierter sexualisierter Inhalte explizit unter Strafe stellt. Ferner einigten sich die EU-Gesetzgeber vor wenigen Tagen auf ein Verbot von KI-Anwendungen, die sexualisierte Deepfakes produzieren („Nudifier-Apps“). Ob diese Vorgaben auch rein fiktive Text-Charaktere wie „Karin“ voll erfassen, ist noch unklar.

Auf Anfragen reagieren Betreiber oft ausweichend oder mit regionalen Zugriffssperren, wie sie Chub AI im Fall von „Karin“ nach der journalistischen Konfrontation für Deutschland umgesetzt hat. In anderen Ländern bleibt der Zugriff auf solche Bots weiterhin bestehen, da die globalen Plattformen oft unter unklarem Firmensitz oder US-Recht agieren. So geht der Wettlauf zwischen den Möglichkeiten der KI-Entwicklung und der staatlichen Fähigkeit, wirksame Leitplanken gegen digitalen Missbrauch einzuziehen, vorerst weiter.


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

iX-Workshop: Cloud Security Masterclass – Angriff und Verteidigung in AWS


Häufig sind es Fehlkonfigurationen, die Angreifern den Zugriff auf Cloud-Umgebungen wie Amazon Web Services (AWS) erleichtern. Entwicklungsfehler, unzureichende Härtung sowie Standardeinstellungen, die eher auf Funktionalität als auf Sicherheit ausgelegt sind, erhöhen das Risiko, dass Anwendungen, Ressourcen und Identitäten kompromittiert werden.

Weiterlesen nach der Anzeige

In dem Workshop Angriffe auf und Absicherung von Amazon Web Services (AWS) lernen Sie typische Angriffstechniken in Cloud-Umgebungen kennen und verstehen, wie Angreifer vorgehen, um AWS-Identitäten und -Ressourcen zu kompromittieren. Darauf aufbauend erfahren Sie, mit welchen Sicherheitsmaßnahmen Sie Ihre AWS-Umgebung gezielt härten und potenzielle Angriffe frühzeitig erkennen und abwehren können.

Im Fokus stehen dabei reale Angriffsszenarien und passende Gegenmaßnahmen. Sie beschäftigen sich unter anderem mit Methoden zur unautorisierten Informationsbeschaffung, der initialen Kompromittierung von AWS-Identitäten sowie der Privilegieneskalation innerhalb von Cloud-Umgebungen. Zudem lernen Sie, Angriffspfade zwischen lokalen IT-Umgebungen und der AWS-Cloud zu analysieren und sicherheitsrelevante Zusammenhänge zu verstehen.

Beim Aufspüren von Fehlkonfigurationen erfahren Sie, wie Sie diese gezielt beheben und zentrale Sicherheitsfunktionen in AWS aktiv aktivieren und korrekt einsetzen. Sie lernen den praktischen Umgang mit CloudTrail, CloudWatch und GuardDuty, um Sicherheitsereignisse zu analysieren, zu bewerten und auf Vorfälle angemessen zu reagieren.

Sie profitieren von der direkten Anleitung durch Ihren Trainer Frank Ully, erfahrenem Pentester und Principal Consultant Cybersecurity bei der Corporate Trust Business Risk & Crisis Management GmbH in München.

Weiterlesen nach der Anzeige

Er verfügt über umfangreiche Erfahrung aus realen Sicherheitsanalysen und Penetrationstests in Cloud-Umgebungen und zeigt im Workshop, wie Angriffe in AWS tatsächlich ablaufen, welche Fehlkonfigurationen besonders kritisch sind und wie sich diese in der Praxis wirksam absichern lassen.

Der Workshop richtet sich an Administratoren, IT-Sicherheitsverantwortliche und Security-Fachleute, die AWS-Umgebungen sicher betreiben und sich intensiv mit Angriffsszenarien und Schutzmaßnahmen in der Cloud auseinandersetzen möchten.


Upgrade for Skills

Upgrade for Skills


(ilk)



Source link

Weiterlesen

Beliebt