Künstliche Intelligenz
Gehalt über 500.000 US-Dollar: OpenAI sucht Aufpasser für ChatGPT
OpenAI hat eine neue Stelle ausgeschrieben, wie der Firmenblog und CEO Sam Altman auf X verkünden. Das Gehalt: 555.000 US-Dollar und Aktienoptionen. Gesucht wird ein Head of Preparedness, der oder die ein „kleines, high-impact Team“ führt, das sich der Qualitätssicherung der KI-Modelle von OpenAI widmet. Anhand des Preparedness Frameworks untersucht das Unternehmen die Fähigkeiten und Risiken seiner Modelle, der Head of Preparedness ist verantwortlich für „Aufbau und Koordinierung von Fähigkeitsbewertungen, Bedrohungsmodellen und Maßnahmen, die eine kohärente, strenge und operativ skalierbare Sicherheitspipeline bilden“.
Weiterlesen nach der Anzeige
Die Stelle kommt neben den Gehaltsversprechen mit hohen Anforderungen. Im Grunde übernimmt der neue Mitarbeiter die Verantwortung dafür, dass OpenAIs Modelle sich wie gewünscht und nicht schädlich verhalten. Sam Altman beschreibt auf X etwa das Potenzial der eigenen Modelle im Bereich der mentalen Gesundheit. In den USA läuft aktuell eine Klage, da ein 16-Jähriger im Sommer 2025 mithilfe von ChatGPT nach einem intensiven Austausch über viele Sessions hinweg Suizid begangen hat. Forscher sehen generell große Risiken im Umgang der Sprachmodelle mit psychischen Erkrankungen. Auch Probleme mit der Cybersicherheit treten immer wieder auf und sind Teil der Rolle des Head of Preparedness. Zusätzlich fallen Maßnahmen bei Fragen nach biologischen Kampfstoffen oder ähnlich Schädlichem in den Zuständigkeitsbereich.
Sicherheit nach schlechter Presse auf einmal wichtig
Ob die Anforderungen mit einem kleinen Team zu erfüllen sind, sei dahingestellt. Das Thema Sicherheit scheint für OpenAI zumindest aus repräsentativen Gründen wieder wichtiger zu werden, wie die Stellenausschreibung nun medienwirksam zeigt – so berichtet etwa The Guardian von dem ausgeschriebenen Posten. Bisher schien OpenAI in dem Bereich eher Möglichkeiten zum Sparen zu sehen.
Denn ähnliche Anforderungen wie der Head of Preparedness sollten die im Mai und Oktober 2024 aufgelösten Teams zu Superalignment und der AGI Readiness erfüllen. Diese Gruppen arbeiteten an den Auswirkungen von KI-Systemen auf die Gesellschaft und daran, wie das Unternehmen sicherstellen könne, dass KI im Interesse der Menschen agiert. Zwar war die Arbeit von beiden Gruppen auf Superintelligenz (AGI, Artificial General Intelligence) ausgerichtet, jedoch beklagten die ausgeschiedenen Leiter und weitere ehemalige Mitarbeiter von OpenAI wieder und wieder mangelnde Ressourcen und die Vernachlässigung von relevanten Sicherheitsaspekten. Beim Einsatz der aktuellen Varianten der Sprachmodelle entstehen etwa bei einigen Nutzerinnen und Nutzern emotionale Abhängigkeiten, auch ganz ohne Superintelligenz.
Details zur ausgeschriebenen Stelle kann man auf der Webseite von OpenAI nachlesen.
(pst)
Künstliche Intelligenz
Wissen zum Nachbauen: TIB startet Open-Source-Plattform für die Forschung
Die Reproduzierbarkeit wissenschaftlicher Ergebnisse ist ein Grundpfeiler seriöser Forschung. In der Praxis ist dieser Anspruch aber oft schwer einzulösen. Klassische Publikationen liefern zwar theoretische Erkenntnisse, lassen aber die zugrunde liegenden Rohdaten und Analyse-Codes häufig im Dunkeln. Das Leibniz-Informationszentrum Technik und Naturwissenschaften (TIB) in Hannover will diese Lücke nun mit dem TIB Knowledge Loom schließen. Seit Donnerstag ist diese digitale Bibliothek online, mit dem Ziel, wissenschaftliche Dokumentation grundlegend zu verändern.
Weiterlesen nach der Anzeige
Im Kern geht es um die Überwindung der reinen Textform. Während herkömmliche Archive Daten oft nur als statische Anhänge behandeln, integriert der „Webstuhl des Wissens“ sämtliche Komponenten eines Forschungsprojekts in einer strukturierten Umgebung. Wissenschaftliche Aussagen würden auf granularen Ebene kuratiert und direkt mit den spezifischen Nachweisen verknüpft, erläutert das TIB. Da jede Aussage einen eigenen Digital Object Identifier (DOI) erhalte, werde Forschung nicht nur transparenter, sondern auch präzise zitierbar. Referenzen könnten sich so auf konkrete Datenpunkte beziehen statt nur auf ein hunderte Seiten langes Gesamtdokument.
Datensouveränität und offener Zugang
Der Gründer des Projekts, Markus Stocker, sieht im Start den Höhepunkt einer langjährigen Entwicklung. Ihm schwebt eine umfassende Digitalisierung der Forschung vor, die weit über das Lesen von PDFs hinausgeht. Durch die maschinenlesbare Aufbereitung der Informationen soll die Plattform sogar dabei helfen, gesellschaftliche Herausforderungen schneller zu bewältigen: Forscher könnten weltweit auf valide, reproduzierbare Ergebnisse aufsetzen. Das System ist fachübergreifend ausgelegt und bietet Unterstützung für Disziplinen von der Architektur bis zur Physik.
Besonders in Zeiten politischer Unsicherheiten gewinnt das Thema Datensouveränität an Bedeutung. Die Abhängigkeit von internationalen Datenbanken wurde der Wissenschaft in der jüngsten Vergangenheit schmerzhaft bewusst. Vor diesem Hintergrund fungiert die TIB als öffentlich finanzierte Einrichtung als verlässlicher Anker. Da die Plattform sowohl Open Access als auch Open Source ist, stehen sämtliche Kurations- und Publikationsdienste kostenlos zur Verfügung. Das soll sicherstellen, dass die Qualität der Daten über die Sichtbarkeit entscheidet, nicht das Budget.
Für die tägliche Arbeit sollen Forscher die volle Kontrolle behalten. Wer seine Ergebnisse im Knowledge Loom veröffentlicht, entscheidet selbst, ob der Code geteilt wird oder Datensätze zunächst nur beschrieben werden. Für den Prozess der Begutachtung durch unabhängige Dritte (Peer-Review) ist ein geschützter privater Zugriff in Vorbereitung. Um den Einstieg zu erleichtern, bietet die TIB Schulungen und Online-Sprechstunden an. Damit will die Bibliothek ihren Ruf als zentrale Drehscheibe für eine moderne Wissenschaftskommunikation festigen, die Wissen nicht nur archiviert, sondern aktiv für die Wiederverwendung aufbereitet.
(cku)
Künstliche Intelligenz
iX-Workshop Softwarearchitektur für KI-Systeme – skalierbare Lösungen entwickeln
KI-Projekte scheitern selten an der Technik, oft aber an fehlender Struktur. Wer KI sicher und nachhaltig im Unternehmen verankern will, braucht ein solides architektonisches Fundament.
Weiterlesen nach der Anzeige
Im Workshop Softwarearchitektur für KI-Systeme: iSAQB CPSA Advanced Level erfahren Sie praxisnah, wie Sie KI-Architekturen konzipieren, die den Anforderungen an Skalierbarkeit, Sicherheit und Wartbarkeit gerecht werden. Sie lernen, Machine Learning und Generative KI in bestehende IT-Landschaften zu integrieren, robuste Datenpipelines zu erstellen und regulatorische Anforderungen, wie die des EU AI Acts, zu erfüllen. Auch ethische Fragestellungen und bewährte Design Patterns sind Teil des Workshops.
Fallstudien und reale Szenarien
Der Workshop ist praxisnah aufgebaut. Sie arbeiten an einer Fallstudie und entwickeln reale Szenarien für KI-Architekturen. Dabei üben Sie, Daten zu akquirieren und zu verarbeiten, skalierbare Design Patterns anzuwenden und Sicherheitskonzepte umzusetzen.
|
März 30.03. – 02.04.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 02. Mrz. 2026 |
|
September 22.09. – 25.09.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 26. Aug. 2026 |
Der Workshop richtet sich an Softwarearchitekten und KI-Interessierte, die skalierbare KI-Lösungen in ihre IT-Strukturen integrieren und zukunftssichere Lösungen entwickeln möchten.
Durchgeführt wird der Workshop von Dimitri Blatner, einem anerkannten Experten für Softwarearchitektur, IT-Beratung und digitales Innovationsmanagement. Er verfügt über langjährige Erfahrung in der Entwicklung komplexer IT-Systeme, insbesondere in den Bereichen KI, Cloud und DevOps.

(ilk)
Künstliche Intelligenz
Googles KI-Blamage und frisches Blut für MFT – die Fotonews der Woche 7/26
Manchmal fühlt sich die schöne neue Tech-Welt an wie eine Szene aus einem Roman von Franz Kafka, nur dass der unnahbare Beamte im Schloss heute ein Algorithmus ist. Und wenn dieser Algorithmus entscheidet, dass Schwarz eigentlich Weiß ist, dann ist das so. Widerspruch? Zwecklos. Eine besonders absurde Episode dieser Art hat diese Woche der Journalist und Fotograf Georg Berg durchlebt und akribisch dokumentiert. Es ist eine Geschichte, die jeden, der eine Kamera in die Hand nimmt, aufhorchen lassen sollte.
Weiterlesen nach der Anzeige
Googles „Won’t Fix“-Politik: Wenn gute Arbeit zum KI-Verdacht wird
Der Fall ist so paradox, dass man ihn kaum erfinden könnte: Georg Berg nahm ein authentisches Reportagefoto – vier ältere Herren in Schweizer Sennentracht – auf. Er bearbeitete es dann professionell in Lightroom, um die Personen präzise vom Hintergrund abzuheben. Eine handwerkliche Fleißarbeit, die jeder gute Fotograf kennt. Das Ergebnis? Googles KI-Detektor „SynthID“ stempelte das Bild als „KI-generiert“ ab. Die Begründung, wenn man sie so nennen möchte, liegt in der Präzision: Die saubere Maskierung erzeugte statistische Muster, die der Algorithmus als „unnatürlich“ und damit als Werk einer Maschine interpretierte. Ein Profi, der zu gut arbeitet, wird so zum Fälscher erklärt.
Das eigentliche Sahnehäubchen auf dieser Torte der Ironie ist jedoch, dass das Foto ein C2PA-Zertifikat (Content Credentials) besaß. Das ist quasi der digitale Herkunftsnachweis, der kryptografisch belegt, woher ein Bild stammt und wie es bearbeitet wurde. Und jetzt halten Sie sich fest: Google ist Mitglied ebenjener C2PA-Initiative, die diesen Standard entwickelt hat und von Adobe, der New York Times und Twitter ins Leben gerufen wurde. Man hat also einen Standard für Authentizität mitentwickelt, ignoriert ihn aber in den eigenen Produkten geflissentlich. Adobe erkennt das Bild korrekt als „menschlich“ – der Nutzer steht nun zwischen zwei konkurrierenden ‚Wahrheiten‘.

Als der Fotograf Berg diesen Systemfehler pflichtbewusst an Google meldete, kam die Antwort nach nur 60 Sekunden, was auf eine automatisierte Abfuhr schließen lässt: „Won’t Fix (Intended Behavior)“. Auf Deutsch: „Wird nicht repariert (beabsichtigtes Verhalten)“. Google teilt damit mit, dass es kein Fehler, sondern Absicht ist, wenn authentische Werke fälschlicherweise als KI-Produkt gebrandmarkt werden. Für Fotografen und Journalisten ist das ein Schlag ins Gesicht. Es bedeutet, dass der Algorithmus die Wahrheit definiert und es kein Recht auf Widerspruch gibt. Wenn der digitale Schiedsrichter pfeift, ist das Spiel aus – auch wenn er auf dem falschen Feld steht.
c’t Fotografie Zoom In abonnieren
Ihr Newsletter mit exklusiven Foto-Tipps, spannenden News, Profi-Einblicken und Inspirationen – jeden Samstag neu.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
MFT-Allianz wächst: Sonida aus Shenzhen ist dabei
Weiterlesen nach der Anzeige
Während ein Tech-Gigant das Vertrauen in digitale Bilder untergräbt, gibt es an anderer Front handfeste und erfreulichere Nachrichten. Die Micro-Four-Thirds-Allianz (MFT), angeführt von OM Digital Solutions (ehemals Olympus) und Panasonic, hat ein neues Mitglied: die Shenzhen Sonida Digital Technology Co, Ltd. aus China. Wer jetzt die Augenbrauen hochzieht und „Wer?“ fragt, dem sei gesagt: Das ist potenziell eine sehr gute Nachricht für alle MFT-Nutzer.
Sonida ist kein unbeschriebenes Blatt, sondern hat bereits als sogenannter ODM-Hersteller Kameras für andere internationale Marken produziert. Sie wissen also, wie man Kameras baut. Unter der eigenen Marke „Songdian“ wollen sie nun MFT-kompatible Produkte auf den Markt bringen. Für das MFT-System, das oft als agiler Underdog gegen die Vollformat-Übermacht von Sony, Canon und Nikon antritt, ist das ein Gewinn. Jeder neue Partner stärkt das Ökosystem und verspricht mehr Auswahl bei Kameras und vor allem bei Objektiven. Und wer weiß, vielleicht sorgt ein neuer Spieler aus China ja auch für eine erfrischende Preisdynamik. Man darf gespannt sein, ob die Produkte so klingen, wie der Markenname vermuten lässt.
Zum Nachlesen: Wenn der Fehler Methode hat
Wer tiefer in die absurde Welt der KI-Detektion und Plattformverantwortung eintauchen will, dem sei der vollständige Bericht von Georg Berg auf seiner Webseite „Tellerrand-Stories“ wärmstens ans Herz gelegt. Er legt nicht nur den Fall dar, sondern liefert auch die komplette technische Analyse und die Beweiskette. Es ist ein wichtiges Dokument, das zeigt, warum freiwillige Selbstverpflichtungen von Tech-Konzernen oft nicht mehr wert sind als das digitale Papier, auf dem sie stehen. Ein Weckruf für alle, denen Authentizität in der Fotografie am Herzen liegt.
Lesen Sie auch
(tho)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Social Mediavor 3 TagenCommunity Management zwischen Reichweite und Verantwortung
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
