Connect with us

Künstliche Intelligenz

30 Jahre „Duke Nukem 3D“: Warum der Kult-Shooter auch heute noch Spaß macht


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Als die Sharewarefassung von „Duke Nukem 3D“ im Januar 1996 erschien (die Vollversion folgte im April), war die Welt der Ego-Shooter noch überschaubar. id Software hatte mit „Wolfenstein 3D“ (1992) und „Doom“ (1993) das Genre erschaffen und dominiert. Die Konkurrenz witterte das große Geld und kippte in den nachfolgenden Jahren oftmals uninspirierte „me too“-Ware auf den Markt, die in der damaligen Spielepresse meist als „Doom-Klone“ zusammengefasst wurde.

Weiterlesen nach der Anzeige

Es gab allerdings einige Spiele, die aus der seelenlosen Masse herausstechen – Spiele wie LucasArts’ 1995er „Star Wars: Dark Forces“, das sich Mühe gab, das Shooter-Einerlei mit interessant gestalteten Missionen, einer spannenden Rahmenhandlung und mehr Verspieltheit aufzuhübschen. Und dann kam 3DRealms mit „Duke Nukem 3D“ um die Ecke und zeigte, dass Shooter auch einfach nur komplett wahnsinnig sein dürfen. Denn der Duke war sehr anders als die Space Marines dieser Welt: lauter, witziger und mit einer geradezu anarchischen Lust an der Grenzüberschreitung.

Die Figur des Duke Nukem war keine Erfindung der Ego-Shooter-Ära. Genau genommen entspringt sie der Welt der Jump-n-Runs: Nachdem id Software Ende 1990 mit „Commander Keen“ bewiesen hatte, dass schnelle Plattformer im Konsolenstil auch auf den damals noch sehr behäbigen MS-DOS-PCs machbar waren, folgten dieser Innovation schnell Nachahmer. Unter anderem das von Todd Replogle entwickelte und im Sommer 1991 unter Apogee veröffentlichte „Duke Nukem“, das Ende 1993 noch einen sehr ähnlich gelagerten zweiten Teil erhalten sollte. Beide drehten sich um einen blonden Muskelprotz mit dicker Knarre, beide waren unterhaltsame Spiele, und beide verkauften sich sehr gut.

Für den dritten Teil aber hatten Replogle und sein Team deutlich ambitioniertere Pläne: Das Ganze sollte schnell sein, bunt, interaktiv, laut, krachend, komplett over the top – und vor allem 3D.

Schon nach kurzer Suche landeten die Entwickler bei der „Build“-Engine, die aus den Händen des Teenagers Ken Silverman stammte. Der enthusiastische junge Coder hatte 1993 bereits „Ken’s Labyrinth“ veröffentlicht, einen netten Fantasy-Shooter mit für damalige Verhältnisse guter Grafik und vor allem interaktiven Elementen in den Wandtexturen. Gerade dieser Aspekt machte den Programmierer für 3DRealms interessant, die die gerade noch in Arbeit befindliche neue 3D-Engine namens „Build“ für „Duke Nukem 3D“ lizenzierten.


Die Gegner, mit denen man es zu tun bekommt, sind von Anfang an sehr ungewöhnlich… (Bild:

heise medien

)

Die Entwicklung des Spiels dauerte eine ganze Weile, insgesamt war „Duke Nukem 3D“ etwa zwei Jahre lang in Arbeit. Ken arbeitete die ganze Zeit über an Verbesserungen im Build-System, eine frühe (und deutlich weniger ausgereifte) Fassung der Engine kommt in den beiden Capstone-Shootern „Witchaven“ und „William Shatner’s TekWar“ zum Einsatz. Aber erst „Duke Nukem 3D“ machte Build wirklich bekannt, und der Hauptgrund dafür war die Interaktivität: Damals waren Ego-Shooter im Großen und Ganzen noch statisch. Klar, es gab immer wieder mal bedienbare Schalter oder Türen, aber die Levels an sich waren fix, sie veränderten sich nicht, und es gab in ihnen in aller Regel nichts zu tun, außer Gegner zu erledigen.

Weiterlesen nach der Anzeige

Mit „Duke Nukem 3D“ änderte sich das: Umlegbare Schalter wechseln die Beleuchtung von einzelnen Abschnitten, bestimmte Wände, Fensterscheiben und sogar ganze Levelteile lassen sich zerstören, überall laden benutzbare Objekte zum Drücken der „Benutzen“-Taste ein. Duke darf sich an Toiletten entleeren (begleitet von einem erleichterten „Ahhh… much better.“), an Wasserspendern erfrischen, Telefone benutzen, den Echtzeit-Video-Feed von Überwachungskameras einsehen oder in einem Karaoke-Club „Boooorn to be wihihihiiiild.“ grölen. Im zweiten Level „Red Light District“ steht ein Billardtisch herum, dessen Bälle man durch die Gegend klicken lassen darf, mit auf einer simplen Physikengine basierenden Resultaten. Das war für das Jahr 1996 mächtig beeindruckend.

Genau wie die ausgeprägte Vertikalität der Levels. Shooter der Generation „Wolfenstein 3D“ fanden ausschließlich auf einer Ebene statt. „Doom“ und seinesgleichen gaukelten zwar Höhenunterschiede vor, was aber nur mit Tricks möglich war – übereinander liegende Sektoren waren da technisch nicht möglich. Das änderte sich erst mit „Star Wars: Dark Forces“, und „Duke Nukem 3D“ setzte nochmal einen obendrauf: Das Spiel beginnt auf einem Hausdach, von dem man herunterspringt, viele Treppen sorgen für Höhenunterschiede, teilweise finden ganze Levels auf vielen verschiedenen Ebenen statt, mit Schluchten, Hängebrücken und schrägen Wänden.

Trotz aller technischer Innovation war aber auch „Duke Nukem 3D“ noch ein typisches 2.5D-Spiel, dessen Levels auf zweidimensionalen Sektoren basieren und dessen Figuren platte Sprites nutzen – die Ära der auf Polygonberechnung basierenden echten 3D-Shooter begann erst später im Jahr mit der Veröffentlichung von id Softwares „Quake“.

Lesen Sie auch

Ein weiteres hervorstechendes Merkmal von „Duke Nukem 3D“ war der angedeutete Realismus der Levelgestaltung. „Doom“ und seinesgleichen spielten zum großen Teil in abstrakten Szenarien wie der Hölle, was vor allem technische Gründe hatte: Die Limitierungen der 3D-Engine erlaubten keine glaubwürdig aufgebauten Echtwelt-Szenarien, wie man gut an den extrem simplen Stadtlevels aus „Doom 2“ sieht.

„Duke Nukem 3D“ dagegen schöpfte mit vollen Händen aus dem Realismusbottich. Die Spieler rennen und schießen sich durch Hochhausschluchten, Kinos, Bars, Polizeistationen und Nachtclubs, U-Bahnen fahren durch die Levels. Es gibt sogar Spiegel, die nicht nur den Raum mit all seinen Inhalten reflektieren, sondern auch den pixeligen Duke selbst – der sein Spiegelbild mit „Damn, I’m looking good.“ kommentiert. Allerdings war „Duke Nukem 3D“ nicht das erste Spiel, das dieses Sensationsfeature bot – das wenige Monate zuvor veröffentlichte „William Shatner’s TekWar“ zeigte auch schon Spiegel.

Natürlich muss man das Wort „Realismus“ mit 30 Jahren Abstand und einer entsprechenden Menge an Skepsis betrachten. Aber das, was in „Duke Nukem 3D“ zu sehen war, war für das Jahr 1996 schlicht revolutionär.



Source link

Künstliche Intelligenz

OpenAI plant angeblich soziales Netzwerk mit biometrischer Bot-Erkennung


Sie stiften Unruhe, sollen die Gesellschaft zersetzen und Panik schüren: Bots sind zu einem großen Problem in sozialen Netzwerken geworden. Für viele Menschen sind sie nur schwer oder gar nicht als solche erkennbar. Der KI-Entwickler OpenAI plant jetzt laut einem Bericht des US-Magazins Forbes angeblich ein eigenes soziales Netzwerk, das Bots gar nicht erst hineinlassen soll. Für diese Überprüfung sollen biometrische Verfahren zum Einsatz kommen.

Weiterlesen nach der Anzeige

Für dieses „Proof of Personhood“ wolle OpenAI wahlweise den Face-ID-Sensor des iPhones von Apple einsetzen oder den World Network Iris-Scanner, heißt es im Bericht. Das Gerät von Tools for Humanity ist allerdings umstritten – das Unternehmen ist auch als Herausgeber der Kryptowährung WLD-Token bekannt. Spanien und Portugal haben den Iris-Scan wegen Datenschutzbedenken zeitweise verboten.

Auch das Bayerische Landesamt für Datenschutzaufsicht identifizierte im Dezember 2024 „grundlegende Datenschutzrisiken“. Anders als ein Passwort können Augen nicht geändert werden, begründen Datenschützer ihre Vorbehalte. World Network beklagte umgekehrt, dass die EU keine klaren Anonymisierungs-Standards habe. Dass OpenAI auf den Iris-Scan verzichtet, ist allerdings unwahrscheinlich: OpenAI-Chef Sam Altman ist sowohl CEO von OpenAI als auch Vorsitzender von Tools for Humanity.

Im geplanten bot-freien sozialen Netzwerk sollen sich nach Vorstellung von OpenAI nur Menschen tummeln. Ob das freilich alle Probleme löst, darf bezweifelt werden. Im April 2025 wurde erstmals bekannt, dass OpenAI mit einem kleinen Team an einem Social-Network-Prototyp arbeitet.

Alleine X löschte im Jahr 2025 laut Medienberichten 1,7 Millionen Bot-Accounts. Das Interesse von OpenAI an einem eigenen sozialen Netzwerk erklärt sich indessen nicht nur aus dem Problem mit den Bots: Der ChatGPT-Entwickler sieht sich mit Mitbewerbern konfrontiert, die eigene soziale Netzwerke besitzen und diese einsetzen, um ihre Chatbots bekannter zu machen. Vor allem aber sind die Netzwerke ein Zugang zu Daten, die für das Echtzeit-Training der KI-Modelle verwendet werden können. X hat zum Beispiel Grok integriert. Auch Meta nutzt seine eigenen KI-Modelle in seinen Netzwerken Facebook und Instagram sowie im Messenger WhatsApp.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

Nach 30 Jahren Entwicklungszeit: GNU gettext 1.0 ist fertig


Das Internationalisierungs-Framework GNU gettext hat mit Version 1.0 einen Meilenstein erreicht. Das Release folgt auf Version 0.26 vom Juli 2025 und markiert damit nach über drei Jahrzehnten Entwicklungsarbeit einen Wendepunkt für das weitverbreitete Lokalisierungs-Tool.

Weiterlesen nach der Anzeige

Sun Microsystems hatte Anfang der 1990er-Jahre mit der Entwicklung von gettext begonnen. 1995 entwickelte Ulrich Drepper für das GNU-Projekt eine eigenständige Implementierung auf Basis von Suns Konzept. Seitdem hat sich das Framework zum Standard für die mehrsprachige Integration in Open-Source-Software etabliert. Projekte wie KDE, LibreOffice, Godot Engine oder Weblate verwalten mit gettext ihre Übersetzungen.

Die wichtigste Neuerung in Version 1.0 ist die Integration von Large Language Models (LLMs) für maschinelle Vorabübersetzungen. Mit den beiden neuen Programmen msgpre und spit können Entwickler lokale LLMs nutzen, um PO-Dateien automatisch zu übersetzen. Während msgpre komplette PO-Dateien verarbeitet, wendet spit die maschinelle Übersetzung auf einzelne Nachrichten an.

Die Maintainer Bruno Haible und Daiki Ueno weisen in der Dokumentation allerdings ausdrücklich darauf hin, dass Anwender die Lizenzierung der verwendeten LLMs prüfen müssen. Die Modelle sollten GPL-kompatibel und im Sinne freier Software nutzbar sein. Durch die lokale Installation bleibt die Kontrolle über die zu übersetzenden Texte beziehungsweise die Daten beim Nutzer.

Neben der LLM-Integration bringt gettext 1.0 Verbesserungen beim Handling von PO-Dateien. Das neue Programm po-fetch lädt übersetzte PO-Dateien automatisch von Übersetzungsprojekt-Websites herunter. Das vereinfacht den Synchronisations-Workflow, da Maintainer nicht mehr manuell nach aktualisierten Übersetzungen suchen müssen.

Weiterlesen nach der Anzeige

Die Parser für PO-Dateien wurden robuster und behandeln jetzt Sonderfälle wie Zeilenumbrüche in msgstr, Plural-Forms und Header-Einträge zuverlässiger. Für die Programmiersprachen Rust und OCaml gibt es eine erweiterte Unterstützung. Details finden sich in der Ankündigung der Version 1.0.

Dass gettext so lange im 0.x-Status verblieb, liegt an der konservativen Entwicklungsphilosophie des GNU-Projekts. Das Framework basiert auf dem Uniforum-Standard von 1988, GNU wählte dabei einen message-as-key-Ansatz aufgrund der größeren Einfachheit. Über die Jahre stand die Stabilität der API im Vordergrund, wie es bei kritischer Infrastruktur-Software typisch ist.

Die neuen Features in Version 1.0 sind optional und beeinträchtigen die Rückwärtskompatibilität nicht. Bestehende Workflows mit xgettext, msgmerge und msgfmt funktionieren unverändert weiter. Für Maintainer wichtig: PO-Dateien bleiben nun unverändert wie von Übersetzern eingereicht, statt automatisch mit dem POT-File synchronisiert zu werden – das vermeidet Merge-Konflikte und reduziert die Commits. Linux-Distributionen können problemlos auf die neue Version aktualisieren, da die Kernfunktionalität stabil bleibt.

Der Quellcode von gettext 1.0 steht auf den GNU-FTP-Servern zum Download bereit. Die LLM-Tools erfordern eine lokale Installation eines kompatiblen Sprachmodells.


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

Fauna Robotics bringt humanoiden Roboter Sprout für Forschung und Entwicklung


Das US-amerikanische Robotikunternehmen Fauna Robotics hat die humanoide Roboter-Plattform Sprout entwickelt, die als Basis für Forschung und Entwicklung eingesetzt werden kann. Die Ausrichtung des Roboters liegt allerdings nicht auf industrieller Arbeit, sondern eher auf Anwendungen im Haushalt, sozialer Interaktion und Freizeitvergnügen.

Weiterlesen nach der Anzeige

Sprout ist 107 cm groß und wiegt lediglich 22,7 kg. Durch sein relativ geringes Gewicht kann er auch mal von einem Ort zum anderen getragen werden. Das muss allerdings nicht sein, denn der humanoide Roboter kann out-of-the-box selbst laufen und auch Treppen steigen.

Insgesamt besitzt Sprout 29 Freiheitsgrade: jeweils 5 an den Beinen und Füßen und je 6 an den 48 cm langen Armen. Die Hände sind als 3-Finger-Greifer ausgelegt. Zusätzlich kann er den Kopf und Oberkörper drehen und neigen. Zwei bewegliche, antennenförmige Augenbrauen verleihen dem Roboter eine individuelle Note.

Der Körper aus Aluminium und Komposit-Materialien ist vollständig mit einem weichen, gummiartigen Material überzogen. Sollte es trotz der integrierten Sicherheitsmaßnahmen doch mal zum physischen Kontakt mit einem Menschen kommen, dann dürfte der weniger schmerzhaft ausfallen.

Sprout soll Gewichte bis zu 11,2 kg stemmen können, das jedoch nur kurzzeitig, weniger als 10 Sekunden, und nur in einer bestimmten Armstellung. Der Umgang mit Objekten bis zu rund einem Kilogramm soll dagegen dauerhaft möglich sein. Zu den verwendeten Aktuatoren macht Fauna Robotics keine Angaben.

Das Hirn der Robotersteuerung bildet die CPU Nvidia Jetson AGX Orin 64 GB. Als Speicher dient eine 1 TByte NVMe SSD. An Kameras und Sensoren hat Sprout eine ZED 2i RGB-D-Stereo-Kamera, 4 VL53L8CX-8×8-Zonen-Distanz-Sensoren, eine 9-Achsen-IMU (Inertial Measurement Unit) und ein Mikrofon-Array zur akustischen Raumerfassung an Bord.

Weiterlesen nach der Anzeige

Eine Verbindung zum Roboter kann über Wi-Fi 5.2 oder per Ethernet hergestellt werden. Der Roboter arbeitet zwar autark, kann über die Datenanbindung aber auch ferngesteuert und trainiert werden. Für die Entwicklung von Roboteranwendungen stellt Fauna Robotics ein SDK zur Verfügung. Die Programmierung erfolgt in Python und über C++ APIs. Bei der Visualisierung hilft das Visualisierungs- und Management-Tool Foxglove für Roboter. Die Roboterarchitektur ist kompatibel mit Nvidia Isaac Sim, Gazebo und MuJoCo, um Simulationen durchzuführen und den Roboter trainieren zu können.

Angetrieben wird Sprout von einer Lithium-Ionen-Batterie mit 5000 mAh oder 10.000 mAh. Die Laufzeit des Roboters beträgt mit der stärkeren Batterievariante zwischen 3 und 3,5 Stunden.

Fauna Robotics sieht den Roboter als Entwicklungsplattform und zum Einsatz in Haushalten. Als Plattform zur Entwicklung industrieller Anwendungen ist er allerdings aufgrund seiner physischen Einschränkungen nicht geeignet. Vielmehr soll Sprout als sozialer Roboter und für leichte Tätigkeiten zu Hause einsetzbar sein. Der Preis von Sprout dürfte für durchschnittliche Haushalte allerdings zu hoch sein: Er liegt bei rund 50.000 US-Dollar.


(olb)



Source link

Weiterlesen

Beliebt