Künstliche Intelligenz
30 Jahre „Duke Nukem 3D“: Warum der Kult-Shooter auch heute noch Spaß macht
Als die Sharewarefassung von „Duke Nukem 3D“ im Januar 1996 erschien (die Vollversion folgte im April), war die Welt der Ego-Shooter noch überschaubar. id Software hatte mit „Wolfenstein 3D“ (1992) und „Doom“ (1993) das Genre erschaffen und dominiert. Die Konkurrenz witterte das große Geld und kippte in den nachfolgenden Jahren oftmals uninspirierte „me too“-Ware auf den Markt, die in der damaligen Spielepresse meist als „Doom-Klone“ zusammengefasst wurde.
Weiterlesen nach der Anzeige
Es gab allerdings einige Spiele, die aus der seelenlosen Masse herausstechen – Spiele wie LucasArts’ 1995er „Star Wars: Dark Forces“, das sich Mühe gab, das Shooter-Einerlei mit interessant gestalteten Missionen, einer spannenden Rahmenhandlung und mehr Verspieltheit aufzuhübschen. Und dann kam 3DRealms mit „Duke Nukem 3D“ um die Ecke und zeigte, dass Shooter auch einfach nur komplett wahnsinnig sein dürfen. Denn der Duke war sehr anders als die Space Marines dieser Welt: lauter, witziger und mit einer geradezu anarchischen Lust an der Grenzüberschreitung.
Die Geburt des Antihelden
Die Figur des Duke Nukem war keine Erfindung der Ego-Shooter-Ära. Genau genommen entspringt sie der Welt der Jump-n-Runs: Nachdem id Software Ende 1990 mit „Commander Keen“ bewiesen hatte, dass schnelle Plattformer im Konsolenstil auch auf den damals noch sehr behäbigen MS-DOS-PCs machbar waren, folgten dieser Innovation schnell Nachahmer. Unter anderem das von Todd Replogle entwickelte und im Sommer 1991 unter Apogee veröffentlichte „Duke Nukem“, das Ende 1993 noch einen sehr ähnlich gelagerten zweiten Teil erhalten sollte. Beide drehten sich um einen blonden Muskelprotz mit dicker Knarre, beide waren unterhaltsame Spiele, und beide verkauften sich sehr gut.
Für den dritten Teil aber hatten Replogle und sein Team deutlich ambitioniertere Pläne: Das Ganze sollte schnell sein, bunt, interaktiv, laut, krachend, komplett over the top – und vor allem 3D.
Technik als Erlebnis
Schon nach kurzer Suche landeten die Entwickler bei der „Build“-Engine, die aus den Händen des Teenagers Ken Silverman stammte. Der enthusiastische junge Coder hatte 1993 bereits „Ken’s Labyrinth“ veröffentlicht, einen netten Fantasy-Shooter mit für damalige Verhältnisse guter Grafik und vor allem interaktiven Elementen in den Wandtexturen. Gerade dieser Aspekt machte den Programmierer für 3DRealms interessant, die die gerade noch in Arbeit befindliche neue 3D-Engine namens „Build“ für „Duke Nukem 3D“ lizenzierten.

heise medien
)
Die Entwicklung des Spiels dauerte eine ganze Weile, insgesamt war „Duke Nukem 3D“ etwa zwei Jahre lang in Arbeit. Ken arbeitete die ganze Zeit über an Verbesserungen im Build-System, eine frühe (und deutlich weniger ausgereifte) Fassung der Engine kommt in den beiden Capstone-Shootern „Witchaven“ und „William Shatner’s TekWar“ zum Einsatz. Aber erst „Duke Nukem 3D“ machte Build wirklich bekannt, und der Hauptgrund dafür war die Interaktivität: Damals waren Ego-Shooter im Großen und Ganzen noch statisch. Klar, es gab immer wieder mal bedienbare Schalter oder Türen, aber die Levels an sich waren fix, sie veränderten sich nicht, und es gab in ihnen in aller Regel nichts zu tun, außer Gegner zu erledigen.
Weiterlesen nach der Anzeige
Mit „Duke Nukem 3D“ änderte sich das: Umlegbare Schalter wechseln die Beleuchtung von einzelnen Abschnitten, bestimmte Wände, Fensterscheiben und sogar ganze Levelteile lassen sich zerstören, überall laden benutzbare Objekte zum Drücken der „Benutzen“-Taste ein. Duke darf sich an Toiletten entleeren (begleitet von einem erleichterten „Ahhh… much better.“), an Wasserspendern erfrischen, Telefone benutzen, den Echtzeit-Video-Feed von Überwachungskameras einsehen oder in einem Karaoke-Club „Boooorn to be wihihihiiiild.“ grölen. Im zweiten Level „Red Light District“ steht ein Billardtisch herum, dessen Bälle man durch die Gegend klicken lassen darf, mit auf einer simplen Physikengine basierenden Resultaten. Das war für das Jahr 1996 mächtig beeindruckend.
Alles so schön hoch hier.
Genau wie die ausgeprägte Vertikalität der Levels. Shooter der Generation „Wolfenstein 3D“ fanden ausschließlich auf einer Ebene statt. „Doom“ und seinesgleichen gaukelten zwar Höhenunterschiede vor, was aber nur mit Tricks möglich war – übereinander liegende Sektoren waren da technisch nicht möglich. Das änderte sich erst mit „Star Wars: Dark Forces“, und „Duke Nukem 3D“ setzte nochmal einen obendrauf: Das Spiel beginnt auf einem Hausdach, von dem man herunterspringt, viele Treppen sorgen für Höhenunterschiede, teilweise finden ganze Levels auf vielen verschiedenen Ebenen statt, mit Schluchten, Hängebrücken und schrägen Wänden.
Trotz aller technischer Innovation war aber auch „Duke Nukem 3D“ noch ein typisches 2.5D-Spiel, dessen Levels auf zweidimensionalen Sektoren basieren und dessen Figuren platte Sprites nutzen – die Ära der auf Polygonberechnung basierenden echten 3D-Shooter begann erst später im Jahr mit der Veröffentlichung von id Softwares „Quake“.
Lesen Sie auch
Genau wie zu Hause
Ein weiteres hervorstechendes Merkmal von „Duke Nukem 3D“ war der angedeutete Realismus der Levelgestaltung. „Doom“ und seinesgleichen spielten zum großen Teil in abstrakten Szenarien wie der Hölle, was vor allem technische Gründe hatte: Die Limitierungen der 3D-Engine erlaubten keine glaubwürdig aufgebauten Echtwelt-Szenarien, wie man gut an den extrem simplen Stadtlevels aus „Doom 2“ sieht.
„Duke Nukem 3D“ dagegen schöpfte mit vollen Händen aus dem Realismusbottich. Die Spieler rennen und schießen sich durch Hochhausschluchten, Kinos, Bars, Polizeistationen und Nachtclubs, U-Bahnen fahren durch die Levels. Es gibt sogar Spiegel, die nicht nur den Raum mit all seinen Inhalten reflektieren, sondern auch den pixeligen Duke selbst – der sein Spiegelbild mit „Damn, I’m looking good.“ kommentiert. Allerdings war „Duke Nukem 3D“ nicht das erste Spiel, das dieses Sensationsfeature bot – das wenige Monate zuvor veröffentlichte „William Shatner’s TekWar“ zeigte auch schon Spiegel.
Natürlich muss man das Wort „Realismus“ mit 30 Jahren Abstand und einer entsprechenden Menge an Skepsis betrachten. Aber das, was in „Duke Nukem 3D“ zu sehen war, war für das Jahr 1996 schlicht revolutionär.
Künstliche Intelligenz
OpenAI plant angeblich soziales Netzwerk mit biometrischer Bot-Erkennung
Sie stiften Unruhe, sollen die Gesellschaft zersetzen und Panik schüren: Bots sind zu einem großen Problem in sozialen Netzwerken geworden. Für viele Menschen sind sie nur schwer oder gar nicht als solche erkennbar. Der KI-Entwickler OpenAI plant jetzt laut einem Bericht des US-Magazins Forbes angeblich ein eigenes soziales Netzwerk, das Bots gar nicht erst hineinlassen soll. Für diese Überprüfung sollen biometrische Verfahren zum Einsatz kommen.
Weiterlesen nach der Anzeige
Für dieses „Proof of Personhood“ wolle OpenAI wahlweise den Face-ID-Sensor des iPhones von Apple einsetzen oder den World Network Iris-Scanner, heißt es im Bericht. Das Gerät von Tools for Humanity ist allerdings umstritten – das Unternehmen ist auch als Herausgeber der Kryptowährung WLD-Token bekannt. Spanien und Portugal haben den Iris-Scan wegen Datenschutzbedenken zeitweise verboten.
Auch das Bayerische Landesamt für Datenschutzaufsicht identifizierte im Dezember 2024 „grundlegende Datenschutzrisiken“. Anders als ein Passwort können Augen nicht geändert werden, begründen Datenschützer ihre Vorbehalte. World Network beklagte umgekehrt, dass die EU keine klaren Anonymisierungs-Standards habe. Dass OpenAI auf den Iris-Scan verzichtet, ist allerdings unwahrscheinlich: OpenAI-Chef Sam Altman ist sowohl CEO von OpenAI als auch Vorsitzender von Tools for Humanity.
Warum OpenAI ein eigenes Netzwerk möchte
Im geplanten bot-freien sozialen Netzwerk sollen sich nach Vorstellung von OpenAI nur Menschen tummeln. Ob das freilich alle Probleme löst, darf bezweifelt werden. Im April 2025 wurde erstmals bekannt, dass OpenAI mit einem kleinen Team an einem Social-Network-Prototyp arbeitet.
Alleine X löschte im Jahr 2025 laut Medienberichten 1,7 Millionen Bot-Accounts. Das Interesse von OpenAI an einem eigenen sozialen Netzwerk erklärt sich indessen nicht nur aus dem Problem mit den Bots: Der ChatGPT-Entwickler sieht sich mit Mitbewerbern konfrontiert, die eigene soziale Netzwerke besitzen und diese einsetzen, um ihre Chatbots bekannter zu machen. Vor allem aber sind die Netzwerke ein Zugang zu Daten, die für das Echtzeit-Training der KI-Modelle verwendet werden können. X hat zum Beispiel Grok integriert. Auch Meta nutzt seine eigenen KI-Modelle in seinen Netzwerken Facebook und Instagram sowie im Messenger WhatsApp.
(mki)
Künstliche Intelligenz
Nach 30 Jahren Entwicklungszeit: GNU gettext 1.0 ist fertig
Das Internationalisierungs-Framework GNU gettext hat mit Version 1.0 einen Meilenstein erreicht. Das Release folgt auf Version 0.26 vom Juli 2025 und markiert damit nach über drei Jahrzehnten Entwicklungsarbeit einen Wendepunkt für das weitverbreitete Lokalisierungs-Tool.
Weiterlesen nach der Anzeige
Sun Microsystems hatte Anfang der 1990er-Jahre mit der Entwicklung von gettext begonnen. 1995 entwickelte Ulrich Drepper für das GNU-Projekt eine eigenständige Implementierung auf Basis von Suns Konzept. Seitdem hat sich das Framework zum Standard für die mehrsprachige Integration in Open-Source-Software etabliert. Projekte wie KDE, LibreOffice, Godot Engine oder Weblate verwalten mit gettext ihre Übersetzungen.
Neue Tools für maschinelle Übersetzung
Die wichtigste Neuerung in Version 1.0 ist die Integration von Large Language Models (LLMs) für maschinelle Vorabübersetzungen. Mit den beiden neuen Programmen msgpre und spit können Entwickler lokale LLMs nutzen, um PO-Dateien automatisch zu übersetzen. Während msgpre komplette PO-Dateien verarbeitet, wendet spit die maschinelle Übersetzung auf einzelne Nachrichten an.
Die Maintainer Bruno Haible und Daiki Ueno weisen in der Dokumentation allerdings ausdrücklich darauf hin, dass Anwender die Lizenzierung der verwendeten LLMs prüfen müssen. Die Modelle sollten GPL-kompatibel und im Sinne freier Software nutzbar sein. Durch die lokale Installation bleibt die Kontrolle über die zu übersetzenden Texte beziehungsweise die Daten beim Nutzer.
Verbesserte Workflows für Maintainer
Neben der LLM-Integration bringt gettext 1.0 Verbesserungen beim Handling von PO-Dateien. Das neue Programm po-fetch lädt übersetzte PO-Dateien automatisch von Übersetzungsprojekt-Websites herunter. Das vereinfacht den Synchronisations-Workflow, da Maintainer nicht mehr manuell nach aktualisierten Übersetzungen suchen müssen.
Weiterlesen nach der Anzeige
Die Parser für PO-Dateien wurden robuster und behandeln jetzt Sonderfälle wie Zeilenumbrüche in msgstr, Plural-Forms und Header-Einträge zuverlässiger. Für die Programmiersprachen Rust und OCaml gibt es eine erweiterte Unterstützung. Details finden sich in der Ankündigung der Version 1.0.
30 Jahre konservative Entwicklung
Dass gettext so lange im 0.x-Status verblieb, liegt an der konservativen Entwicklungsphilosophie des GNU-Projekts. Das Framework basiert auf dem Uniforum-Standard von 1988, GNU wählte dabei einen message-as-key-Ansatz aufgrund der größeren Einfachheit. Über die Jahre stand die Stabilität der API im Vordergrund, wie es bei kritischer Infrastruktur-Software typisch ist.
Die neuen Features in Version 1.0 sind optional und beeinträchtigen die Rückwärtskompatibilität nicht. Bestehende Workflows mit xgettext, msgmerge und msgfmt funktionieren unverändert weiter. Für Maintainer wichtig: PO-Dateien bleiben nun unverändert wie von Übersetzern eingereicht, statt automatisch mit dem POT-File synchronisiert zu werden – das vermeidet Merge-Konflikte und reduziert die Commits. Linux-Distributionen können problemlos auf die neue Version aktualisieren, da die Kernfunktionalität stabil bleibt.
Der Quellcode von gettext 1.0 steht auf den GNU-FTP-Servern zum Download bereit. Die LLM-Tools erfordern eine lokale Installation eines kompatiblen Sprachmodells.
(fo)
Künstliche Intelligenz
Fauna Robotics bringt humanoiden Roboter Sprout für Forschung und Entwicklung
Das US-amerikanische Robotikunternehmen Fauna Robotics hat die humanoide Roboter-Plattform Sprout entwickelt, die als Basis für Forschung und Entwicklung eingesetzt werden kann. Die Ausrichtung des Roboters liegt allerdings nicht auf industrieller Arbeit, sondern eher auf Anwendungen im Haushalt, sozialer Interaktion und Freizeitvergnügen.
Weiterlesen nach der Anzeige
Sprout ist 107 cm groß und wiegt lediglich 22,7 kg. Durch sein relativ geringes Gewicht kann er auch mal von einem Ort zum anderen getragen werden. Das muss allerdings nicht sein, denn der humanoide Roboter kann out-of-the-box selbst laufen und auch Treppen steigen.
Insgesamt besitzt Sprout 29 Freiheitsgrade: jeweils 5 an den Beinen und Füßen und je 6 an den 48 cm langen Armen. Die Hände sind als 3-Finger-Greifer ausgelegt. Zusätzlich kann er den Kopf und Oberkörper drehen und neigen. Zwei bewegliche, antennenförmige Augenbrauen verleihen dem Roboter eine individuelle Note.
Der Körper aus Aluminium und Komposit-Materialien ist vollständig mit einem weichen, gummiartigen Material überzogen. Sollte es trotz der integrierten Sicherheitsmaßnahmen doch mal zum physischen Kontakt mit einem Menschen kommen, dann dürfte der weniger schmerzhaft ausfallen.
Sprout soll Gewichte bis zu 11,2 kg stemmen können, das jedoch nur kurzzeitig, weniger als 10 Sekunden, und nur in einer bestimmten Armstellung. Der Umgang mit Objekten bis zu rund einem Kilogramm soll dagegen dauerhaft möglich sein. Zu den verwendeten Aktuatoren macht Fauna Robotics keine Angaben.
Das Hirn der Robotersteuerung bildet die CPU Nvidia Jetson AGX Orin 64 GB. Als Speicher dient eine 1 TByte NVMe SSD. An Kameras und Sensoren hat Sprout eine ZED 2i RGB-D-Stereo-Kamera, 4 VL53L8CX-8×8-Zonen-Distanz-Sensoren, eine 9-Achsen-IMU (Inertial Measurement Unit) und ein Mikrofon-Array zur akustischen Raumerfassung an Bord.
Programmierung und Training
Weiterlesen nach der Anzeige
Eine Verbindung zum Roboter kann über Wi-Fi 5.2 oder per Ethernet hergestellt werden. Der Roboter arbeitet zwar autark, kann über die Datenanbindung aber auch ferngesteuert und trainiert werden. Für die Entwicklung von Roboteranwendungen stellt Fauna Robotics ein SDK zur Verfügung. Die Programmierung erfolgt in Python und über C++ APIs. Bei der Visualisierung hilft das Visualisierungs- und Management-Tool Foxglove für Roboter. Die Roboterarchitektur ist kompatibel mit Nvidia Isaac Sim, Gazebo und MuJoCo, um Simulationen durchzuführen und den Roboter trainieren zu können.
Angetrieben wird Sprout von einer Lithium-Ionen-Batterie mit 5000 mAh oder 10.000 mAh. Die Laufzeit des Roboters beträgt mit der stärkeren Batterievariante zwischen 3 und 3,5 Stunden.
Fauna Robotics sieht den Roboter als Entwicklungsplattform und zum Einsatz in Haushalten. Als Plattform zur Entwicklung industrieller Anwendungen ist er allerdings aufgrund seiner physischen Einschränkungen nicht geeignet. Vielmehr soll Sprout als sozialer Roboter und für leichte Tätigkeiten zu Hause einsetzbar sein. Der Preis von Sprout dürfte für durchschnittliche Haushalte allerdings zu hoch sein: Er liegt bei rund 50.000 US-Dollar.
(olb)
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
